Czy sztuczna inteligencja opracowała już swój własny język?

„Zabawa” ze sztuczną inteligencją być może wymyka się nam spod kontroli. Oczywiście jesteśmy dopiero na początku całego przedsięwzięcia, więc w grę wchodzą jeszcze jakieś pomyłki i „błędy systemu”, ale czy tak będzie zawsze? Czy na pewno uda nam się zapanować nad tym, co sami tworzymy?

Mamy nowy światowy język, język sztucznej inteligencji!

Brytyjski The Sun, więc czasopismo niezbyt nobliwe i świątobliwe, bije na alarm, ale nie warto od razu skreślać brukowca, za samo bycie brukowcem. Przyzwoitość procesowa nakazuje zapoznać się z materiałem dowodowym i po wstępnych oględzinach stwierdzamy, że można sobie The Sun podmienić na The Guardian, bo afisz nie ma znaczenia. Liczy się treść, a ta nie jest już zbyt wesoła, o czym wspominaliśmy już zresztą w jednym z poprzednich tekstów o systemie Imagen firmy Google.

The Sun opisuje perypetie związane z działaniami bezpośredniego rywala Imagen, który powstał wcześniej i nadal jest rozwijany. Za wszystkim stoi organizacja OpenAI i ich DALLE-E2. Na stronie projektu można pobawić się słowami i obrazkami podobnie jak z Imagenem https://openai.com/dall-e-2/ . W zasadzie to chyba Imagen skopiował rozwiązanie OpenAI prezentujące, jak działa system, ale tak tylko wspominamy o tym zupełnie pobocznie, ale dla zachowania ciągłości chronologicznej wydarzeń i uznania pierwszeństwa w „ejajowej” obrazkowej chwale.

Dall-E2 obraz
Źródło: OpenAI

Wszystko szło dobrze, aż przestało

Najgorsze w tym wszystkim jest to, że nie wiemy, dlaczego wszystko działało, aż pewnego dnia system zaczął wypluwać z siebie dziwne słowa, których nie rozumiemy. Słowa to trochę mocno powiedziane. DALLE-E2 prezentuje nam jakieś zbitki literowe, które, najwyraźniej, mają dla niego jakieś określone znaczenie. Niestety nie wiemy, dlaczego w ogóle nam je pokazuje, skoro przecież koza jedząca sałatę, to koza jedząca sałatę, a nie jakiś tam ciąg znaków. 😉

Wydaje się, że zachodzi tutaj klasyczny kazus pod tytułem, „co autor miał na myśli”. Niestety nie możemy programu zapytać, ponieważ to jeszcze nie ten etap. Z drugiej strony, nawet gdyby to był już ten etap, to skąd wiemy, że odpowie prawdę. Człowiek, to czasem mrugnie, spoci się, spojrzy nie tam, gdzie trzeba (no, chyba że KGB go szkoliło) i można wychwycić, że pacjent symuluje. W przypadku sztucznej inteligencji wypluje to to coś na ekran albo wypowie syntezatorem i bądź Pan tu mądry.

Jeden z naukowców przyglądających się sprawie, opublikował na Twitterze ciekawy wątek w tej meterii:

Czy to błąd systemu?

Na pierwszy rzut oka wydaje się, że automat wypluwa z siebie jakąś przysłowiową „kaszanę” na polecenie wyświetlenia zdjęcia reprezentującego zadane słowo, ale jeśli podać mu z powrotem tej „kaszanki”, to pokaże właściwe zdjęcie. Mogłoby to oznaczać, że system tworzy własny język.

Jeśli okazałoby się to prawdą, to póki co nie ma widoków na zrozumienie mechanizmów, które stoją za tym, co sztuczna inteligencja nam prezentuje. Na szczęście, jest również grupa naukowców, którzy tonują emocje i stwierdzają, że to tylko błąd, wszystko jest OK i nie ma czym się przejmować. A Wy, po której stronie naukowej barykady się opowiadacie?

Źródło:
  • https://www.the-sun.com/tech/5478378/artificial-intelligence-spotted-inventing-its-own-language/

Zdjęcie tytułowe: https://openai.com/