Jak nasz mózg rozumie świat? Jak potrafimy spojrzeć na psa, kota i stół i natychmiast wiedzieć, które dwa obiekty są do siebie bardziej podobne? Zdolność do kategoryzacji i konceptualizacji obiektów to fundament ludzkiego poznania. Od niej zależy wszystko – od percepcji po podejmowanie skomplikowanych decyzji. Zrozumienie, jak mózg tworzy te mentalne „mapy podobieństwa”, to święty Graal neuronauki. Dziś, w erze potężnych dużych modeli językowych (LLM) i modeli multimodalnych (MLLM), pojawia się nowe, fascynujące pytanie: czy maszyny, ucząc się na ogromnych zbiorach tekstu i obrazów, potrafią spontanicznie wytworzyć podobne, ludzkie sposoby rozumienia świata? Czy ich „umysł” organizuje wiedzę w podobny sposób co nasz?

Ucząc maszyny, jak myślą ludzie: eksperyment na gigantyczną skalę

Międzynarodowy zespół naukowców postanowił to sprawdzić, przeprowadzając bezprecedensowy eksperyment, który połączył psychologię poznawczą, neuroobrazowanie i najnowocześniejszą sztuczną inteligencję. Metodologia była prosta w założeniach, ale gigantyczna w skali.

  1. Zadanie „znajdź różnicę” (odd-one-out): Naukowcy wykorzystali klasyczny test psychologiczny. Zarówno ludziom, jak i modelom AI, prezentowano trójki obiektów (np. alpaka, antylopa, zbroja) i zadawano jedno pytanie: „który obiekt najmniej pasuje do pozostałych?”.

  2. Ogromna skala: Zebrano łącznie 4.7 miliona takich ocen od ludzi (przez Amazon Mechanical Turk) oraz drugie tyle od modeli AI (ChatGPT-3.5 i multimodalnego Gemini Pro Vision). Baza danych obejmowała 1,854 powszechnie znane obiekty.

  3. Wydobywanie ukrytej struktury: Zebrane dane o podobieństwie posłużyły do „nauczenia” tzw. niskowymiarowych osadzeń (embeddings). Jest to technika, która pozwala odkryć fundamentalne „wymiary” lub cechy, na podstawie których ludzie i maszyny dokonują swoich ocen (np. „żywe vs. nieżywe”, „związane z jedzeniem”, „metalowe”).

Celem było nie tylko stworzenie tych „map myślenia” dla AI, ale także porównanie ich z mapami ludzkimi oraz ze wzorcami aktywności w prawdziwym ludzkim mózgu.

Wyniki: AI myśli zaskakująco podobnie do nas

Rezultaty badania są niezwykłe i rzucają nowe światło na naturę sztucznej inteligencji.

1. AI tworzy stabilne i interpretable „wymiary” poznawcze

Okazało się, że oceny dokonywane przez AI nie są chaotyczne. Zarówno modele językowe, jak i multimodalne, opierają swoje „sądy” na spójnym zestawie 66 fundamentalnych wymiarów. Co najważniejsze, wymiary te są interpretable – można im przypisać intuicyjne, ludzkie etykiety.

Przykładowe wymiary semantyczne Przykładowe wymiary percepcyjne
związane ze zwierzętami związane z fakturą (np. ziarnisty)
związane z jedzeniem związane z kształtem (np. płaski, podłużny)
związane z technologią związane z kolorem
związane z transportem związane z cechami przestrzennymi (np. zatłoczony)

Modele AI spontanicznie „odkryły” kategorie takie jak jedzenie, zwierzęta czy pojazdy, a nawet bardziej abstrakcyjne cechy, jak twardość, temperatura czy przeznaczenie dla dzieci vs. dorosłych.

2. Podobieństwa i różnice między umysłem ludzkim a maszynowym

Porównanie wymiarów AI z tymi uzyskanymi od ludzi ujawniło fascynujące wzorce:

  • Wspólny rdzeń pojęciowy: Wiele wymiarów jest wspólnych. Zarówno ludzie, jak i maszyny, uniwersalnie rozpoznają kategorie takie jak zwierzęta, jedzenie i technologia.

  • Siła percepcji ludzkiej: Ludzie znacznie lepiej różnicują obiekty na podstawie cech percepcyjnych, takich jak kolor, kształt i faktura. Te wymiary są słabiej reprezentowane w modelach AI, zwłaszcza tych czysto językowych.

  • Specjalizacja maszyn: Modele AI mają tendencję do tworzenia bardziej szczegółowych, „specjalistycznych” kategorii niż ludzie (np. osobne wymiary dla owoców, warzyw i mrożonych deserów, podczas gdy człowiek może grupować je szerzej jako „jedzenie”).

  • Rola multimodalności: Model Gemini (MLLM), który uczył się zarówno na tekście, jak i na obrazach, wytworzył reprezentacje znacznie bliższe ludzkim niż model czysto językowy (ChatGPT). Był on w stanie lepiej uchwycić cechy związane z kształtem czy cechami przestrzennymi, co dowodzi, że dostęp do danych wizualnych jest kluczowy dla rozwoju ludzkopodobnych reprezentacji.

Poniższa tabela ilustruje stopień dopasowania reprezentacji różnych modeli do reprezentacji ludzkiej (im wyższy wskaźnik, tym lepiej):

Model Dopasowanie do człowieka (korelacja)
ChatGPT (język) 0.71
Gemini (język + obraz) 0.85
Człowiek (benchmark) 0.90

3. Reprezentacje AI odzwierciedlają aktywność ludzkiego mózgu

Najbardziej spektakularnym odkryciem było porównanie „map myślenia” AI z rzeczywistą aktywnością mózgu. Naukowcy wykorzystali dane z potężnego badania fMRI (funkcjonalnego rezonansu magnetycznego), w którym uczestnicy oglądali tysiące obrazów.

Okazało się, że istnieje silna korelacja między osadzeniami obiektów w modelach AI a wzorcami aktywacji w wyspecjalizowanych obszarach ludzkiego mózgu, takich jak:

  • EBA (Extrastriate Body Area): obszar odpowiedzialny za postrzeganie ciała.

  • PPA (Parahippocampal Place Area): obszar związany z postrzeganiem scen i miejsc.

  • FFA (Fusiform Face Area): obszar specjalizujący się w rozpoznawaniu twarzy.

Szczególnie silne dopasowanie zaobserwowano dla modelu multimodalnego (Gemini), którego reprezentacje w prawie 90% odpowiadały poziomowi aktywności mózgu obserwowanemu u ludzi. To potężny dowód na to, że reprezentacje obiektów w zaawansowanych modelach AI, choć nie identyczne z ludzkimi, dzielą z nimi fundamentalne podobieństwa i odzwierciedlają kluczowe schematy ludzkiej wiedzy pojęciowej.

Wnioski: w stronę bardziej ludzkiej sztucznej inteligencji

To badanie pokazuje, że złożone, ludzkopodobne reprezentacje pojęciowe mogą wyłaniać się naturalnie z dużych modeli językowych i multimodalnych, bez potrzeby specjalistycznego, ukierunkowanego treningu. Maszyny uczą się organizować wiedzę o świecie w sposób, który jest zaskakująco podobny do naszego.

Te odkrycia mają ogromne implikacje:

  • Rozwój AI: Zrozumienie, jak AI „myśli”, pozwala na tworzenie bardziej inteligentnych i naturalnie interagujących z ludźmi systemów.

  • Neuronauka: Modele AI stają się potężnym narzędziem do badania ludzkiego mózgu i testowania teorii na temat tego, jak organizuje on wiedzę.

  • Filozofia: Wyniki te rzucają nowe światło na odwieczne pytania o naturę myślenia, świadomości i relacji między językiem a percepcją.

Choć modele AI wciąż różnią się od nas, to badanie udowadnia, że podążają ścieżką, która coraz bardziej zbliża je do ludzkiego sposobu pojmowania rzeczywistości.

Naukowcy odkryli "mapę myśli" sztucznej inteligencji. Jest zaskakująco podobna do naszej. by
Naukowcy odkryli „mapę myśli” sztucznej inteligencji. Jest zaskakująco podobna do naszej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *