Szkoła Główna Mikołaja Kopernika

W zalewie deepfake’ów odczuwamy „zmęczenie prawdą”

W dobie dynamicznego rozwoju technologii cyfrowych, zjawisko deepfake staje się coraz bardziej powszechne, budząc obawy w kontekście dezinformacji i manipulacji społeczeństwem. Deepfake to technika wykorzystująca sztuczną inteligencję do tworzenia realistycznych, ale fałszywych materiałów wideo lub audio, w których osoby wydają się mówić lub robić rzeczy, których nigdy nie powiedziały ani nie zrobiły.

Psychologiczne skutki deepfake

Dr Jakub Kuś z Uniwersytetu SWPS zwraca uwagę na zjawisko „zmęczenia prawdą” wynikające z zalewu fałszywych treści. Ludzie, bombardowani informacjami, których autentyczności nie są w stanie zweryfikować, mogą popadać w sceptycyzm i cynizm wobec mediów. To prowadzi do rezygnacji z prób odróżnienia prawdy od fałszu, co sprzyja rozwojowi teorii spiskowych i polaryzacji społecznej.

Eksperci z NASK podkreślają, że choć technologia deepfake jest coraz doskonalsza, istnieją pewne sygnały mogące wskazywać na manipulację:

  • Nienaturalne ruchy ust i mimika twarzy: Deepfake często ma trudności z dokładnym odwzorowaniem ekspresji.
  • Problemy z dźwiękiem i synchronizacją: Odgłosy mogą nie pasować do ruchu warg.
  • Artefakty w obrazach: Rozmazane krawędzie czy różnice w oświetleniu wskazują na możliwą edycję.

Narzędzia wspomagające wykrywanie deepfake

W odpowiedzi na rosnące zagrożenie, powstają narzędzia mające na celu identyfikację fałszywych treści:

  • Sensity AI: Platforma oferująca analizę wideo i obrazu w celu identyfikacji deepfake’ów.
  • Deepware Scanner: Narzędzie wykorzystujące sztuczną inteligencję do analizy twarzy i wykrywania oznak manipulacji.
  • Microsoft Video Authenticator: Program analizujący zdjęcia i filmy w poszukiwaniu śladów manipulacji, podając prawdopodobieństwo, że materiał został zmodyfikowany.
  • Reality Defender: Narzędzie stworzone przez AI Foundation, które analizuje treści audio i wideo pod kątem manipulacji.

Źródła: Nauka w Polsce, Radio DTR, Instytut Cyberbezpieczeństwa / Fot. Adobe Stock

Przejdź do treści