Czy sztuczna inteligencja śni o elektrycznych owcach? Naukowcy odkryli, że nawet AI potrzebuje się zdrzemnąć, żeby nie zwariować

Naukowcy z Los Alamos National Laboratory w Stanach Zjednoczonych odkryli, że sztuczna inteligencja naśladująca mózg, chcąc utrzymać stabilność działania, potrzebuje snu. A przynajmniej czegoś na kształt snu. Wypada zatem zadać pytanie: czy roboty zmierzają w kierunku syntetycznego człowieka, czy to my jesteśmy tylko organicznymi robotami? Jaka odpowiedź by nie padła, jedno wydaje się pewne – mamy ze sobą więcej wspólnego, niż większość ludzi by sobie życzyła.

Sztuczne sieci neuronowe naśladujące ludzkie mózgi

Być może androidy (jeszcze) nie śnią o elektrycznych owcach, tak jak w kultowej powieści Philipa K. Dicka, prawie na pewno jednak będą potrzebować okresów odpoczynku. Okazuje się bowiem, że mogą im one zaoferować korzyści podobne do tych, jakie sen zapewnia żywym mózgom.

Naukowcy z laboratorium Los Alamos National Laboratory (to tam, gdzie na początku lat 40. XX wieku prowadzono badania nad skonstruowaniem bomby atomowej) prowadzą badania nad sztuczną siecią neuronową, składającą się na systemy, które uczą się tak samo jak żywe mózgu.

Jak powiedział Yijing Watkins, informatyk pracujący w laboratorium: „zafascynowała nas perspektywa szkolenia neuromorficznego procesora analogicznie do tego, jak ludzie i inne systemy biologiczne uczą, dorastając w określonym środowisku”.

Sieci neuronowe składają się ze sztucznych neuronów, które przekazują między sobą wszystkie sygnały, mniej więcej tak, jak robią to prawdziwe neurony w prawdziwym mózgu. Najczęściej używane połączenia są z czasem wzmacniane, dzięki czemu sieci neuronowe mogą się uczyć samodzielnie. W przeciwieństwie do sekwencyjnego przetwarzania informacji w tradycyjnych komputerach sieci neuronowe mogą przetwarzać różne strumienie danych jednocześnie, co czyni z nich potężne narzędzia do takich operacji jak rozpoznawanie obrazu czy mowy.

sztuczna inteligencja i mózg człowieka

AI też chce pospać

Niestety syntetyczne mózgi cierpią na tę samą wadę co organiczne – potrzebę snu. Chyba każdy z nas wie, jak ważną rolę odgrywa sen dla naszego zdrowia i samopoczucia. Dość powiedzieć, że bez odpowiedniej dziennej dawki snu uczymy się mniej efektywnie, nasz mózg gorzej utrwala wspomnienia, w dłuższej perspektywie natomiast może mieć to przełożenie na przyrost masy ciała, depresję, chorobę Alzheimera, a nawet śmierć.

O ile sztuczne sieci neuronowe o nadmiar tłuszczu martwić się nie muszą, tak ich stabilność znacząco maleje, gdy zanadto obciąży się je pracą. Odkrycia udało się dokonać, kiedy zespół badawczy pod przewodnictwem Watkinsa pracował nad rozwojem sieci neuronowych, znacząco przybliżających sposób, w jaki ludzie i inne systemy biologiczne uczą się widzieć.

Testowane AI zaczęło mieć problemy podczas szkolenia słownikowego, polegającego na klasyfikowaniu obiektów bez uprzedniego podania przykładów do porównania. Szkolenie to okazało się znacząco obciążające „psychicznie” dla sieci neuronów, doprowadzając do ich destabilizacji.

Aby pomóc sztucznej inteligencji utrzymać koncentrację, naukowcy poddali ją wpływowi różnego rodzaju sygnałów białego szumu. Szum Gaussowski – sygnały składające się z szerokiego zakresu częstotliwości i amplitud – zadziałały najlepiej. Jak za dotknięciem czarodziejskiej różdżki stabilność sieci neuronowej powróciła. Co ciekawe, użyto tych samych fal, jakie „rozbrzmiewają” w ludzkich mózgach podczas regeneracyjnej fazy snu, w tzw. śnie głębokim.

„To było tak, jakbyśmy dali sieci neuronowej równowartość solidnej nocnej regeneracji sennej”, stwierdził Yijing Watkins.

Co dalej?

Kolejnym krokiem naukowców Los Alamos National Laboratory jest przetestowanie patentu na potężnym chipie neuromorficznym Intela o nazwie Loihi. Pozwalając chipowi od czasu do czasu „przespać się”, zespół badaczy ma nadzieję, że ten będzie w stanie stabilnie przetwarzać informacje wizualne pozyskane z silikonowej kamery siatkówki w czasie rzeczywistym.

Jeśli senne potrzeby AI potwierdzą się w przypadku Loihi, prawdopodobnie możemy spodziewać się, że to samo dotyczyć będzie androidów i innych inteligentnych maszyn, które mogą powstać w bliższej lub dalszej przyszłości.

Rezultaty badań Watkins zaprezentuje podczas warsztatu Women in Computer Vision 14 czerwca w Seattle.

 

Źródła: sciencetimes.com, newatlas.com, lanl.gov