Wszyscy używamy sztucznej inteligencji, często nawet o tym nie wiedząc. Tłumaczy nasze rozmowy, rozpoznaje twarze na zdjęciach i podpowiada, jaki film obejrzeć. Ale mało kto zdaje sobie sprawę, że fundamenty pod tę technologiczną rewolucję położyli… fizycy. Nagroda Nobla z fizyki w 2024 roku to hołd dla dwóch myślicieli, którzy, czerpiąc inspirację z natury materii i zasad rządzących energią, nauczyli maszyny naśladować dwie najbardziej fundamentalne funkcje mózgu: pamięć i uczenie się. To historia o tym, jak narzędzia fizyki posłużyły do odnalezienia wzorców w informacji i zapoczątkowały erę, w której żyjemy.

Dwie strony rewolucji: Pamięć i uczenie się

Nagrodę otrzymali John Hopfield i Geoffrey Hinton – dwaj naukowcy, których prace z lat 80. XX wieku na nowo rozbudziły zainteresowanie sieciami neuronowymi po dekadach stagnacji. Każdy z nich rozwiązał inną, kluczową część zagadki.

1. John Hopfield i pamięć, która odnajduje drogę w „krajobrazie energetycznym”

Wyobraź sobie, że próbujesz przypomnieć sobie rzadko używane słowo, np. „facjata”. Pamiętasz, że zaczyna się na „fa…”, może ma coś wspólnego z twarzą… Twój mózg przeszukuje podobne słowa, aż w końcu trafia na to właściwe. Ten proces to pamięć asocjacyjna – zdolność do odtworzenia pełnej informacji na podstawie jej fragmentu lub zniekształconej wersji.

John Hopfield, z wykształcenia fizyk, był zafascynowany tym, jak systemy składające się z wielu prostych elementów mogą tworzyć nowe, złożone właściwości. Inspirując się fizyką materiałów magnetycznych, gdzie każdy atom zachowuje się jak mały magnes oddziałujący na sąsiadów, stworzył on w 1982 roku przełomową strukturę: sieć Hopfielda.

Jego genialny pomysł polegał na opisaniu stanu całej sieci za pomocą pojęcia znanego z fizyki: energii.

  • Zapamiętywanie: Gdy sieć „uczy się” wzorca (np. obrazu czarno-białej twarzy), dostosowuje siłę połączeń między swoimi węzłami tak, aby ten konkretny wzorzec miał jak najniższą energię.

  • Odtwarzanie: Proces przypominania Hopfield przyrównał do toczenia się kulki po pagórkowatym krajobrazie. Każdy zapamiętany wzorzec to „dolina” w tym „krajobrazie energetycznym”. Kiedy podajemy sieci zniekształcony lub niekompletny obraz (np. twarz z brakującymi fragmentami), to tak, jakbyśmy upuszczali kulkę na zboczu góry. Kulka, zgodnie z prawami fizyki, będzie się toczyć w dół, aż zatrzyma się w najbliższej dolinie – czyli odtworzy najbliższy, poprawny wzorzec, który ma w pamięci.

Sieć Hopfielda była pierwszym modelem, który pokazał, jak można zbudować niezawodną pamięć asocjacyjną. To był fundamentalny krok w stronę maszyn, które potrafią nie tylko liczyć, ale i „pamiętać” w sposób zbliżony do ludzkiego.

2. Geoffrey Hinton i maszyna, która uczy się rozpoznawać świat

Pamiętanie obrazu to jedno, ale zrozumienie, co on przedstawia, to zupełnie inny poziom złożoności. Małe dziecko nie potrzebuje diagramów, by nauczyć się odróżniać psa od kota. Wystarczy, że zobaczy kilka przykładów, a w jego głowie tworzą się odpowiednie kategorie. Geoffrey Hinton, psycholog poznawczy i pionier AI, zastanawiał się, czy maszyny mogą uczyć się w podobny sposób – przez przykład, a nie przez instrukcję.

Wraz ze swoim kolegą Terrencem Sejnowskim, Hinton rozwinął koncepcję sieci Hopfielda, tworząc coś nowego: maszynę Boltzmanna. Ponownie, inspiracja przyszła z fizyki, a konkretnie z fizyki statystycznej i prac Ludwiga Boltzmanna, który opisywał zachowanie gazów.

  • Fizyka statystyczna w AI: Tak jak w gazie, gdzie nie da się śledzić każdej cząsteczki z osobna, ale można opisać właściwości całego układu (ciśnienie, temperatura), tak w sieci neuronowej nie da się analizować każdego neuronu. Maszyna Boltzmanna, wykorzystując równanie Boltzmanna, analizuje sieć jako całość, przypisując każdemu możliwemu wzorcowi pewne prawdopodobieństwo wystąpienia.

  • Ukryte warstwy (Hidden Layers): To kluczowa innowacja Hintona. Jego sieć składała się nie tylko z węzłów „widocznych” (którym podajemy dane), ale także z warstwy węzłów „ukrytych”. Te ukryte neurony nie mają bezpośredniego kontaktu ze światem zewnętrznym, ale uczą się rozpoznawać abstrakcyjne cechy i zależności w danych wejściowych. To one pozwalają sieci na generalizację i rozpoznawanie nowych przykładów należących do znanej kategorii (np. rozpoznanie nowego zdjęcia kota jako „kota”).

Późniejsza praca Hintona z 2006 roku, w której pokazał, jak można efektywnie trenować sieci składające się z wielu ukrytych warstw (tzw. głębokie sieci neuronowe), stała się bezpośrednim zapalnikiem dla rewolucji w uczeniu maszynowym, która eksplodowała około 2010 roku.

Od fizyki do rewolucji AI: dziedzictwo noblistów

Prace Hopfielda i Hintona, choć powstały w latach 80., położyły fundamenty pod dzisiejsze gigantyczne modele językowe, które składają się nie z kilkudziesięciu, ale z bilionów parametrów. Pokazały one, że zasady i narzędzia matematyczne z fizyki mogą być z powodzeniem użyte do modelowania procesów inspirowanych biologią (mózgiem).

To piękne zamknięcie koła. Fizyka dostarczyła narzędzi do stworzenia uczenia maszynowego, a teraz uczenie maszynowe rewolucjonizuje fizykę. Jest używane do przesiewania ogromnych ilości danych z Wielkiego Zderzacza Hadronów w poszukiwaniu cząstki Higgsa, do redukcji szumu w pomiarach fal grawitacyjnych czy do poszukiwania egzoplanet.

Nagroda Nobla z fizyki w 2024 roku to przypomnienie, że największe rewolucje często rodzą się na styku dziedzin, a fundamentalne badania, inspirowane ciekawością i chęcią zrozumienia świata, mogą nieoczekiwanie zmienić naszą cywilizację.

Fizyka, która nauczyła maszyny myśleć. Nobel z fizyki 2024 za rewolucję AI. by
Fizyka, która nauczyła maszyny myśleć. Nobel z fizyki 2024 za rewolucję AI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *