Chcesz zgłębić fundamentalne aspekty sztucznej inteligencji i jej potencjalnego wpływu na przyszłość w ramach swojego doktoratu?

Skontaktuj się – pomożemy Ci spojrzeć poza horyzont obecnych trendów!


Próby przewidzenia przyszłych zdolności sztucznej inteligencji (AI) oraz jej wpływu na gospodarkę i społeczeństwo są jak wróżenie z fusów – trudne, ale niezwykle kuszące. Ludzie zazwyczaj stosują dwie główne metody prognozowania. Pierwsza polega na analizie dotychczasowych osiągnięć AI i tempa ich zmian, próbując ekstrapolować te trendy na przyszłość. Druga opiera się na rozumowaniu „od pierwszych zasad”, biorąc pod uwagę fundamentalne możliwości i ograniczenia ludzkiego mózgu, dostępność danych treningowych czy koszty obliczeniowe. Ten temat jest niezwykle ważny, ponieważ wybór metody prognozowania ma kluczowe znaczenie dla naszych oczekiwań i przygotowań na nadchodzące zmiany. Czy powinniśmy patrzeć wstecz, czy raczej skupić się na fundamentalnych potencjałach?

Pułapki ekstrapolacji: dlaczego patrzenie w przeszłość może być mylące?

Metoda ekstrapolacji, często preferowana przez ekonomistów, polega na założeniu, że przyszłe zadania, które AI uzna za łatwe, będą podobne do tych, które potrafi wykonywać obecnie. Przykładem może być prognoza Robina Hansona z 2012 roku, który na podstawie opinii ekspertów AI oszacował, że osiągnięcie AI na poziomie ludzkim zajmie sto lub więcej lat.

  • Błędne założenia o specyfikacji problemu: Wpływowy artykuł Frey i Osborne’a z 2013 roku sugerował, że komputeryzacja będzie zależeć od zdolności programistów do precyzyjnego opisania każdego możliwego scenariusza. Postępy w głębokim uczeniu obaliły tę tezę – dzisiejsze duże modele językowe (LLM) wykonują wiele zadań bez pełnego zrozumienia ich wewnętrznych mechanizmów przez człowieka.

  • AI jako „maszyny predykcyjne”: Po rewolucji głębokiego uczenia, w latach 2012-2019 dominowały metody uczenia nadzorowanego, świetnie sprawdzające się w zadaniach predykcyjnych. To doprowadziło do kolejnego błędnego założenia, że przyszłość AI to po prostu „lepsze maszyny predykcyjne”. Jednak przejście na uczenie nienadzorowane i rozwój generatywnej AI (np. chatboty, generatory obrazów) pokazały ograniczenia tej perspektywy.

Cytaty z tamtego okresu dobrze ilustrują to myślenie:

„…postęp, który zaobserwowaliśmy, dotyczy uczenia maszynowego, które można właściwie określić jako postęp, choć znaczący, w statystyce; w szczególności w statystyce służącej generowaniu prognoz.”
„Co nowe technologie AI uczynią tak tanimi? Przewidywanie. Dlatego, jak mówi nam ekonomia, nie tylko zaczniemy używać znacznie więcej przewidywań, ale zobaczymy, jak pojawiają się one w zaskakująco nowych miejscach.”

Obecny błąd: wąskie ramy „generatywnej AI”
Dziś podobny błąd polega na postrzeganiu najnowszych osiągnięć AI wyłącznie przez pryzmat „generatywnej AI”. Sugeruje to, że przyszłość to jedynie tańsze i lepsze chatboty czy generatory obrazów.

Tabela Andrew Nga z 2016 roku jako przestroga:
Aby zilustrować, jak bardzo mylne mogą być takie ekstrapolacje, warto przytoczyć tabelę z artykułu Andrew Nga z 2016 roku, pokazującą, co ówczesne systemy AI potrafiły, a czego nie:

(W tym miejscu w oryginalnym tekście znajduje się obraz tabeli. Z opisu wynika, że umiejętności kluczowe dla AI w 2025 roku, takie jak odpowiadanie na pytania, czytanie ze zrozumieniem, generowanie obrazów, programowanie czy matematyka, w ogóle nie pojawiały się w tej tabeli.)

Żadna z umiejętności, które dziś (w 2025 r.) uważamy za kluczowe dla AI, nie była wówczas wymieniana! Pojawiły się one dzięki skalowaniu i postępom algorytmicznym, które byłyby niewidoczne dla kogoś, kto stosowałby naiwną ekstrapolację. Powinniśmy domyślnie zakładać, że różnica między obecnymi a przyszłymi (za dekadę) zdolnościami AI będzie równie znacząca.

Przykład niedoszacowania: analiza Acemoglu (2024)
Nawet wpływowe analizy, takie jak praca Acemoglu z 2024 roku, mogą wpadać w pułapkę zbyt dużego polegania na ekstrapolacji. Acemoglu, opierając się na szacunkach dotyczących automatyzacji zadań przez LLM i oczekiwanych oszczędnościach kosztów, prognozuje wzrost produkcji gospodarczej o 0,7% w ciągu najbliższych dziesięciu lat dzięki AI.
Szacunki te opierają się na następujących założeniach:

  1. Około 20% zadań w USA jest podatnych na automatyzację przez LLM (Eloundou i in., 2023).

  2. Tylko 23% zadań możliwych do zautomatyzowania przez systemy przetwarzania obrazu byłoby opłacalnie zautomatyzowanych (Svanberg i in., 2024).

  3. Średnie oszczędności kosztów pracy dla zautomatyzowanych zadań wyniosą ok. 30%.

  4. Koszty pracy stanowią ok. 50% całkowitych kosztów tych zadań, co daje całkowite oszczędności kosztów na poziomie ok. 15%.
    Wynik: około 0,2 * 0,23 = 4,6% zadań doświadczy redukcji kosztów. Mnożąc to przez domniemany wzrost produktywności (ok. 17,6%), otrzymujemy wpływ na produktywność czynników produkcji na poziomie ok. 0,8%.

To rozsądna prognoza dla technologii typu „LLM, ale lepsze”. Jednak nie oddaje ona potencjału AI, która za 10 lat będzie zdolna do wykonywania zadań dziś niemożliwych. Powinniśmy spodziewać się wielu nieciągłości i nagłego pojawiania się nowych możliwości, podobnie jak w przypadku postępów modeli językowych w matematyce, gdzie zmiana paradygmatu obliczeniowego przyniosła skokowy wzrost wydajności.

Alternatywa: rozumowanie od pierwszych zasad

W przeciwieństwie do ekstrapolacji, metoda rozumowania od pierwszych zasad była często stosowana przez badaczy i futurologów AI. Najbardziej znanym przykładem jest Ray Kurzweil, który w 1999 roku, szacując moc obliczeniową mózgu i łącząc ją z prawem Moore’a, przewidział powstanie AI na poziomie ludzkim w 2029 roku. Podobne podejście stosowano np. przy analizie paradoksu Moraveca, odwołując się do argumentów ewolucyjnych.

Dla zadań, których obecne AI nie potrafią wykonać lub radzą sobie z nimi bardzo słabo (zadania „przedpojawienia się”), nasze prognozy powinny opierać się na dowodach istnienia dostarczonych przez ludzki mózg i jego wymaganiach zasobowych. Dla każdego zadania poznawczego, które człowiek potrafi wykonać, możemy założyć, że do zbudowania sieci neuronowej zdolnej je wykonać wystarczy co najmniej:

  1. 1e15 FLOP/s obliczeń w czasie pracy (przybliżona moc obliczeniowa mózgu).

  2. 1e24 FLOP obliczeń treningowych (człowiek do 30. roku życia przetwarza informacje przez ok. miliard sekund).

  3. Algorytm treningowy znacznie mniejszy niż 100 MB i wymagający znacznie mniej niż 1e45 FLOP obliczeń do jego odkrycia (ograniczenia wynikające z rozmiaru genomu i termodynamiki ewolucji).

  4. Tyle danych treningowych, ile człowiek widzi w ciągu życia.

Obecnie jesteśmy w stanie osiągnąć punkty (1), (2) i (4) dla większości zadań. Próg 1e24 FLOP obliczeń treningowych został przekroczony zaledwie około dwa lata temu. Fakt, że nie mamy jeszcze AI o nadludzkich zdolnościach, świadczy o tym, że nasze algorytmy (punkt 3) wciąż ustępują ludzkiemu mózgowi.

Przyjmując konserwatywnie, że obliczenia potrzebne do odkrycia algorytmów przewyższających ludzki mózg są równomiernie rozłożone w przestrzeni logarytmicznej między dotychczas wydanymi (prawdopodobnie 1e26-1e30 FLOP) a górną granicą 1e45 FLOP, oraz zakładając 1000-krotny wzrost skumulowanych obliczeń do końca dekady, otrzymujemy około 20% szans na trafienie właściwego algorytmu. Nawet po zdyskontowaniu tego o połowę ze względu na niepewność modelu, daje to 10% szans na AI na poziomie ludzkim do 2030 roku.

To oszacowanie nie uwzględnia nawet możliwości wymiany między obliczeniami na wyszukiwanie algorytmiczne, trening modelu i wnioskowanie, co mogłoby pozwolić na użycie gorszego algorytmu przy większych zasobach obliczeniowych. Uwzględnienie tego powinno dać prawdopodobieństwo znacznie wyższe niż 10%.

Połączenie tego obrazu z paradoksem Moraveca (zadania łatwe dla ludzi, np. percepcja, są trudne dla AI, a trudne dla ludzi, np. logika, są łatwe dla AI) sugeruje, w których zadaniach AI najpierw osiągnie poziom ludzki: tam, gdzie ma przewagę danych i mniejszą wadę algorytmiczną. Na przykład, wbrew niektórym opiniom, rozumowanie naukowe może być podatne na automatyzację, ponieważ nie jest to zadanie, do którego ludzie ewolucyjnie wykształcili wysoce wydajne algorytmy, w przeciwieństwie do zadań sensomotorycznych.

Wniosek: teraźniejszość AI to nie cała historia

Podstawowy wniosek jest prosty: to, co AI potrafi obecnie, nie jest całą historią. Jeśli chcemy prognozować przyszłość AI poza horyzontem kilku lat, opieranie się na obecnych zdolnościach czy nawet tempie ich zmian jest złym pomysłem. Zamiast tego, powinniśmy myśleć w kategoriach wewnętrznej trudności różnych zadań i zasobów potrzebnych do ich automatyzacji.

Taka perspektywa daje znacznie bardziej optymistyczny (lub, w zależności od punktu widzenia, niepokojący) obraz postępu AI, który lepiej pasuje do niedawnej historii. Wiele obecnych argumentów o wewnętrznych ograniczeniach „generatywnej AI” brzmiałoby słabo, gdyby zastosowano je do systemów AI z 2016 roku. Jeśli chcemy tworzyć lepsze prognozy, nie powinniśmy polegać na metodach, które zawiodły w przeszłości.

Przyszłość AI: dlaczego obecne możliwości to nie cała historia? by
Przyszłość AI: dlaczego obecne możliwości to nie cała historia?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *