4chan ma na Ciebie zły wpływ? Nie przejmuj się, nawet sztucznej inteligencji potrafi odwalić od siedzenia w tym miejscu

„Z kim przestajesz, takim się stajesz”, mawiały matki, babki i kochanki. Okazuje się, że mądrości ludowe obejmują dziś zasięgiem już nie tylko inteligencję biologiczną, ale również sztuczną. Przekonała się o tym grupa botów, która swoją wiedzę o świecie, języku i ludziach zdobywała na 4chanie. 24 godziny treningu AI zaowocowało 15 tysiącami postów. Postów, które były równie podłe, wulgarne i niepoprawne, co treści, na których boty się uczyły.

Eksperyment, który nie mógł skończyć się dobrze

Yannick Kilcher to badacz sztucznej inteligencji i YouTuber. W ostatnim czasie opublikował wyniki swojego eksperymentu, który natychmiast wzbudził zaniepokojenie wśród etyków i badaczy AI, ale też zwykłych internautów.

Kilcher postanowił wyszkolić sztuczną inteligencję przy pomocy ponad trzech milionów wątków pochodzących z 4chana – niesławnego, toksycznego, politycznie niepoprawnego imageboardu. Po prawie 24 godzinach treningu wpuścił 9 botów z powrotem na forum, tym razem jednak w roli publikujących użytkowników.

Jeśli przeczuwacie, że to nie mogło skończyć się dobrze, brawa za intuicję. Co się bowiem okazało? Czym syntetyczna skorupka nasiąkła za młodu, tym zaczęła trącić na swą wirtualną starość, a konkretnie: rasizmem, antysetmityzmem, nihilizmem, trollingiem, pogardą dla wszystkiego i wszystkich… a to zaledwie preludium do niezwykle obszernej litanii grzechów.

Naukowcy mówią „nie”

Coś, co miało być żartobliwym eksperymentem, poirytowało badaczy sztucznej inteligencji, którzy określili przedsięwzięcie Kilchera mianem „nieetycznego”. „Ten eksperyment nigdy by nie przeszedł przez komisję etyki badań na ludziach” – stwierdziła w wątku na Twitterze Lauren Oakden-Rayner, dyrektor badań obrazowania medycznego w Royal Adelaide Hospital i starsza pracownik naukowy w Australijskim Instytucie Uczenia Maszynowego.

Oakden-Rayner zarzuca Kilcherowi przeprowadzanie eksperymentu na ludziach („ludzkich” użytkownikach 4chana) bez informowania ich o tym, bez ich zgody i jakiegokolwiek nadzoru, a to już stanowi naruszenie wszystkich zasad etyki badań na ludziach.

W odpowiedzi Kilcher podkreślił, że nie jest naukowcem, ale YouTuberem, a 4chanowe boty to nic innego, jak żart i beztroski trolling. „Zresztą one i tak tworzą zdecydowanie najłagodniejsze i najbardziej nieśmiałe treści, jakie można znaleźć na 4chan” – powiedział. „Poza tym ograniczyłem czas działania botów i liczbę postów, a także nikomu nie udostępniłem samego kodu bota”.

Dajcie więcej nihilizmu, 4chan wytrzyma

YouTuber odniósł się również do zarzutów o wyrządzaniu krzywdy użytkownikom 4chana. „To wszystko niejasne, wyniosłe stwierdzenia, nie poparte żadnymi konkretnymi przykładami” – stwierdził.

Według Kilchera środowisko skupione wokół 4chana jest tak toksyczne, że wiadomości wysyłane przez jego boty nie wywarły na nie żadnego wpływu. „Nikt na 4chan nie został ani trochę zraniony. Tych, którzy nie wierzą, zapraszam do spędzenia tam nieco czasu. Kiedy to zrobią, niech zadadzą sobie pytanie, czy ingerencje botów cokolwiek zmieniają w ogólnym odbiorze 4chana”.

Prezentację możliwości AI wraz z opisem całego 4chanowego eksperymentu możecie zobaczyć na kanale Yannicka Kilchera:

GPT4-Chan szybko spadł z rowerka

Konkretnie po tym, jak badacze zaalarmowali Hugging Face o niepokornym, szkodliwym społecznie charakterze bota. Administratorzy strony ustosunkowali się do apeli naukowców i zablokowali możliwość pobierania go.

Sam model jednak otrzymał „warunkową zgodę” na pozostanie w bibliotece HF. Warunkami były: wyraźne ostrzeżenia o ograniczeniach i problemach modelu oraz wyłączenie widżetu wnioskowania, aby utrudnić korzystanie z niego. Informację tę potwierdził współzałożyciel i dyrektor generalny Huggin Face – Clement Delangue.

sztuczna inteligencja czaszka straszna

W nieodpowiednich rękach bot mógłby wyrządzić niewyobrażalne szkody

Badacze AI, którzy sprzeciwili się eksperymentowi Kilchera, są raczej zgodni: bot tworzący tak ohydne i kontrowersyjne treści może generować toksyczny content na masową skalę. W rękach YouTubera, którego cele nie wykraczały w tym przypadku poza „śmieszkowanie”, to tylko trolling, a tego przecież w sieci mamy nadmiar i to bez udziału botów.

Mniej zabawnie, gdy wyobrazimy sobie sytuację, kiedy 4chanowy bot trafia w ręce skoordynowanego zespołu specjalistów, nastawionego na krajową albo nawet globalną dezinformację w social mediach. Szkody, jakie można byłoby wywołać, już na papierze jawią się jako niewyobrażalnie wielkie.

Na te zarzuty Kilcher również postanowił odpowiedzieć. Według niego GPT-4chan nie nadaje się do wdrożenia na dużą skalę w ukierunkowanych kampaniach nienawiści. „Byłoby to bardzo trudne” – powiedział. „Owszem, w większości przypadków będzie się źle zachowywać, ale na swój dziwny, specyficzny sposób. Nie widzę możliwości ukierunkowywania go na coś konkretnego. To kolejne niejasne i hipotetyczne oskarżenia, bez żadnych rzeczywistych przypadków ani dowodów”.