DeepFake Monitor

  • Machine Learning
Kształt kółka
Kształt półkola
Ksztalt koła dekoracyjny
Gallery image 0
Gallery image 1
Gallery image 2
Gallery image 3
Gallery image 4
Gallery image 5
Gallery image 6

DeepFake Monitor - drugie dno rozwoju AI

DeepFake Monitor to projekt identyfikujący i gromadzący DeepFake’i w mediach społecznościowych, realizowany we współpracy z firmą IDENTT i studentami cyberbezpieczeństwa.

Czas trwania

marzec 2024 - czerwiec 2024

Technologie

HuggingFace, Pytorch

Branża

Cyberbezpieczeństwo

Kategoria

Narzędzie

O Projekcie

Celem projektu "DeepFake Monitor" było stworzenie systemu monitorowania mediów społecznościowych w celu identyfikacji i gromadzenia danych o treściach typu DeepFake. Projekt skupiał się na aktywnym wyszukiwaniu i dokumentowaniu wystąpień DeepFakes. Zadaniem uczestników projektu, było zbieranie, katalogowanie i analizowanie danych o DeepFakes, które mogą zostać wykorzystane do doskonalenia istniejących narzędzi AI przeznaczonych do wykrywania zmanipulowanych treści. 

Oczekiwanym rezultatem było także zwiększenie świadomości społecznej na temat problemów związanych z treściami typu DeepFake oraz promowanie krytycznego myślenia w kontekście mediów społecznościowych.

1

 

Zakres

Studenci korzystali z zestawu narzędzi do monitorowania i wyszukiwania zaawansowanego, aby przeszukiwać popularne platformy społecznościowe (takie jak Facebook, Twitter, Instagram, TikTok) w poszukiwaniu potencjalnych DeepFakes. Zespoły przeprowadziły analizę różnych źródeł internetowych, w których mogą występować DeepFakes. Po wyborze źródeł zespoły stworzyły specjalnego boty internetowego, czyli crawlery, które automatycznie przeszukiwały te strony, by znaleźć materiały DeepFake. Crawlery te pobierały dane i przekazywały je do dalszej analizy. Każdy zidentyfikowany DeepFake został zapisany wraz z metadanymi, takimi jak źródło, data publikacji, oszacowany zasięg oraz krótki opis treści i kontekstu. Dane te zostaną zorganizowane, ułatwiając dalszą analizę. Na podstawie zebranych danych studenci przygotowali raporty analizujące trendy, techniki stosowane w tworzeniu DeepFakes oraz ich wpływ na społeczeństwo.

Główne kroki działań

  •  Monitorowanie Mediów Społecznościowych
  •  Gromadzenie i Katalogowanie Danych
  • Analiza i Raportowanie

 

Rezultaty:

  •  Zbudowanie wartościowej bazy danych o DeepFakes, która posłuży jako zasób edukacyjny i badawczy dla naukowców i deweloperów pracujących nad technologiami AI. 
  • Zwiększenie świadomości społecznej na temat problemów związanych z treściami typu DeepFake oraz promowanie krytycznego myślenia w kontekście mediów społecznościowych. 
  •  Przygotowanie studentów do aktywnego uczestnictwa w dyskursie na temat etyki i odpowiedzialności w erze zaawansowanych technologii manipulacji obrazem i wideo.

 

2

 

Spotkanie w siedzibie firmy IDENTT we Wrocławiu

Aby podsumować projekt DeepFake Monitor, Paweł Narolski, Head of Research and Development w IDENTT, zaprosił studentów oraz przedstawicieli Koła Naukowego Solvro na spotkanie w siedzibie firmy we Wrocławiu.  W spotkaniu uczestniczył także CEO - Jan Szajda. 

Studenci i przedstawiciele KN Solvro wyrazili swoje wnioski i refleksje dotyczące projektu, podsumowali swoje działania i opowiedzieli o tym, z czym musieli się zmierzyć podczas pracy nad projektem. Zarówno studenci, jak i koordynatorzy projektu z KN Solvro otrzymali certyfikaty oraz gadżety. Na koniec zespoły zostały oprowadzone po biurze firmy IDENTT.

4

 

Certyfikaty koordynatorów z KN Solvro

Każdy uczestnik projektu otrzymał oficjalny certyfikat potwierdzający nabyte umiejętności.

Certyfikat Wiktorii

Zespół

DeepFake Monitor to projekt stworzony przez studentów kierunku Cyberbezpieczeństwo Politechniki Wrocławskiej we współpracy z firmą IDENTT. Koordynatorami prac studentów i osobami współpracującymi z firmą IDENTT byli przedstawiciele KN Solvro w składzie: Wiktoria Mróz, Łukasz Lenkiewicz, Oleksii Furman oraz Wojciech Cebula. 

Skład zespołów projektowych z kierunku Cyberbezpieczeństwo: 
W skład dwóch zespołów projektowych wchodzili studenci trzeciego roku kierunku Cyberbezpieczeństwo I stopnia:
I zespół: Bartłomiej Baut, Konrad Bik, Konrad Kłoniecki, Krzysztof Mola, Joanna Turkiewicz, Jakub Ziontek
II zespół: Marta Bołd, Bartosz Prysak, Marta Mikołajczyk, Aleksandra Tomaszek, Andżelika Korcz

 

Zdjęcie Wojciech Cebula

Wojciech Cebula

Head of ML 23/24

Zdjęcie Wiktoria Mróz

Wiktoria Mróz

Wiceprezeska 2024/2025

Zdjęcie Łukasz Lenkiewicz

Łukasz Lenkiewicz

Head of ML 24/25

    Zdjęcie Oleksii Furman

    Oleksii Furman

    AI Engineer