Szkoła Główna Mikołaja Kopernika

Czytasz AI częściej niż myślisz – to już prawie połowa Facebooka

Firma Originality.ai przeprowadziła badanie, w ramach którego przeanalizowano 8855 postów na Facebooku, opublikowanych w okresie od listopada 2018 do listopada 2024 roku. Każdy z badanych postów zawierał co najmniej 100 słów. Wyniki wskazują, że 41,18% tych treści zostało wygenerowanych przez modele językowe AI. Szczególny wzrost zauważono po wprowadzeniu ChatGPT w 2023 roku, kiedy liczba takich postów wzrosła 4,3-krotnie.

Jednym z przykładów wykorzystania AI jest post promujący indyjską sztukę, w którym nie usunięto charakterystycznego wstępu, typowego dla ChatGPT. Tego rodzaju sytuacje pokazują, jak łatwo można rozpoznać treści generowane przez AI, gdy nie zostaną odpowiednio dostosowane przed publikacją.

Rośnie wykorzystanie AI w mediach

Wykorzystanie AI w mediach społecznościowych niesie ze sobą wiele korzyści. Algorytmy mogą personalizować treści, dostosowując je do indywidualnych preferencji użytkowników, co z kolei zwiększa zaangażowanie i satysfakcję odbiorców. Dla marketerów AI oferuje narzędzia do efektywniejszego zarządzania kampaniami reklamowymi, umożliwiając precyzyjne targetowanie oraz analizę danych w czasie rzeczywistym.

Jednak rosnąca obecność AI w tworzeniu treści rodzi także pewne obawy. Automatyzacja może prowadzić do utraty autentyczności komunikacji oraz sprzyjać powstawaniu tzw. „baniek informacyjnych”, gdzie użytkownicy są eksponowani głównie na treści zgodne z ich wcześniejszymi przekonaniami. Ponadto, istnieje ryzyko związane z dezinformacją, gdy AI jest wykorzystywane do tworzenia fałszywych wiadomości czy deepfake’ów. Co więcej, AI może z czasem wykorzystywać treści wcześniej przez nią wygenerowane jako źródła do nowych publikacji, co prowadzi do naturalnego powielania błędnych informacji zawartych w tych źródłach. Użytkownicy jednak nie dowiadują się o tym, ponieważ modele językowe powołują się na źródła, co jest cenione i pożądane przez użytkowników tych narzędzi. Mało kto decyduje się na weryfikację tych źródeł.

Chałkoń nie istnieje, ale może być niebezpieczny

Przykłady na rosnący problem szerzenia treści generowanych przez AI na platformach społecznościowych można znaleźć wszędzie. Wystarczy spojrzeć na niedawny trend składania życzeń solennym solenizantom czy gratulacji dzieciom, które rzekomo upiekły np. konia z chałki. Oczywiście, żadne z tych zdarzeń nie miały miejsca, a zdjęcia umieszczone w postach na tworzonych w pośpiechu stronach facebookowych były generowane przez AI. Często widać to już na pierwszy rzut oka, np. przez nienaturalnie wyglądające ręce lub niepasującą liczbę palców. Dr Ilona Dąbrowska, medioznawczyni z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, wskazuje, że twórcy takich materiałów nie tylko przyciągają uwagę, ale także testują reakcje internautów, aby sprawdzić ich podatność na manipulację. Celem tych działań może być budowanie fałszywych tożsamości, pozyskiwanie danych osobowych, a w efekcie wyłudzanie informacji.

Co gorsza, nie każde tego typu oszustwo jest bezpośrednio związane z kradzieżą danych. Samo budowanie zasięgów stron facebookowych, które poprzez zamieszczanie postów wzbudzających politowanie i zachęcających do komentowania (czyli interakcji z nimi), prowadzi do tworzenia całkiem pokaźnej grupy odbiorców. Często są to bardzo specyficzne grupy, takie jak seniorzy, którzy angażują się w treści, które są im wyświetlane na Facebooku. To istotne, zwłaszcza gdy mówimy o potencjalnych zagrożeniach związanych z wpływaniem na opinię internautów – np. w kontekście nadchodzących w Polsce wyborów prezydenckich.

Treści generowane przez sztuczną inteligencję, takie jak obrazy chałkokonia czy fałszywe filmy, pełnią rolę wstępnych testów do szerszych działań manipulacyjnych. Według dr Dąbrowskiej, takie treści często służą jako narzędzie do budowania wiarygodności fałszywych profili na platformach społecznościowych. Dzięki temu oszuści mogą manipulować użytkownikami, w tym dziećmi, młodzieżą oraz seniorami, którzy nie potrafią dostrzec nieprawdziwych informacji. Te samouczące się algorytmy gromadzą ogromne ilości danych, co pozwala im na coraz skuteczniejsze naśladowanie rzeczywistości, a tym samym na oszukiwanie innych. Braki w edukacji cyfrowej sprawiają, że wielu użytkowników, mimo dostępu do nowoczesnych technologii, jest narażonych na manipulacje w internecie. W szczególności seniorzy, mimo posiadania smartfonów, często nie potrafią rozpoznać oszustw internetowych.

Źródła: innpoland.pl, morebananas.pl, businessinsider.com.pl, salon24.pl

Skip to content