W dobie dynamicznego rozwoju technologii cyfrowych, zjawisko deepfake staje się coraz bardziej powszechne, budząc obawy w kontekście dezinformacji i manipulacji społeczeństwem. Deepfake to technika wykorzystująca sztuczną inteligencję do tworzenia realistycznych, ale fałszywych materiałów wideo lub audio, w których osoby wydają się mówić lub robić rzeczy, których nigdy nie powiedziały ani nie zrobiły.
Psychologiczne skutki deepfake
Dr Jakub Kuś z Uniwersytetu SWPS zwraca uwagę na zjawisko „zmęczenia prawdą” wynikające z zalewu fałszywych treści. Ludzie, bombardowani informacjami, których autentyczności nie są w stanie zweryfikować, mogą popadać w sceptycyzm i cynizm wobec mediów. To prowadzi do rezygnacji z prób odróżnienia prawdy od fałszu, co sprzyja rozwojowi teorii spiskowych i polaryzacji społecznej.
Eksperci z NASK podkreślają, że choć technologia deepfake jest coraz doskonalsza, istnieją pewne sygnały mogące wskazywać na manipulację:
- Nienaturalne ruchy ust i mimika twarzy: Deepfake często ma trudności z dokładnym odwzorowaniem ekspresji.
- Problemy z dźwiękiem i synchronizacją: Odgłosy mogą nie pasować do ruchu warg.
- Artefakty w obrazach: Rozmazane krawędzie czy różnice w oświetleniu wskazują na możliwą edycję.
Narzędzia wspomagające wykrywanie deepfake
W odpowiedzi na rosnące zagrożenie, powstają narzędzia mające na celu identyfikację fałszywych treści:
- Sensity AI: Platforma oferująca analizę wideo i obrazu w celu identyfikacji deepfake’ów.
- Deepware Scanner: Narzędzie wykorzystujące sztuczną inteligencję do analizy twarzy i wykrywania oznak manipulacji.
- Microsoft Video Authenticator: Program analizujący zdjęcia i filmy w poszukiwaniu śladów manipulacji, podając prawdopodobieństwo, że materiał został zmodyfikowany.
- Reality Defender: Narzędzie stworzone przez AI Foundation, które analizuje treści audio i wideo pod kątem manipulacji.
Źródła: Nauka w Polsce, Radio DTR, Instytut Cyberbezpieczeństwa / Fot. Adobe Stock