Sztuczna inteligencja to technologia o podwójnym obliczu. Z jednej strony obiecuje erę bezprecedensowego dobrobytu: wirtualni geniusze rozwiązujący problem zmian klimatycznych, leczący raka i zapewniający niemal darmową energię. Z drugiej strony, rosnąca liczba ekspertów – w tym pionierów tej dziedziny – ostrzega przed ryzykiem katastrofalnym, a nawet egzystencjalnym. Mówią o zagrożeniach przewyższających broń nuklearną.

Ile Kosztuje Ocalenie Świata przed AI? Ekonomia ma Odpowiedź

Ta debata szybko opuszcza sferę science fiction i wchodzi do gabinetów decydentów. Stawia nas przed jednym z najtrudniejszych pytań w historii: ile jesteśmy i ile powinniśmy być gotowi zapłacić, aby uchronić się przed scenariuszem, w którym nasze największe dzieło staje się naszym ostatnim? To nie jest pytanie filozoficzne, lecz twardy problem ekonomiczny, który wymaga chłodnej kalkulacji. Przełomowe badanie ekonomisty ze Stanfordu, Charlesa I. Jonesa, dostarcza pierwszych, opartych na solidnych danych, ram do udzielenia odpowiedzi.

Punkt odniesienia: lekcja z pandemii covid-19

Aby oszacować, ile warto wydać na ryzyko, które jeszcze się nie zmaterializowało, musimy znaleźć punkt odniesienia w rzeczywistości. Badanie proponuje potężną i niedawną analogię: pandemię Covid-19. W jej trakcie Stany Zjednoczone, poprzez ograniczenie aktywności gospodarczej, faktycznie „wydały” około 4% swojego PKB, aby przeciwdziałać ryzyku śmierci szacowanemu na około 0.3% populacji.

To daje nam twardą, empiryczną podstawę. Wielu ekspertów od AI szacuje prawdopodobieństwo katastrofy związanej ze sztuczną inteligencją w nadchodzących dekadach na znacznie wyższe niż 0.3%. Ankieta przeprowadzona wśród ponad 2500 czołowych badaczy AI wykazała, że mediana ich szacunków ryzyka egzystencjalnego wynosi 5%. Jeśli jako społeczeństwo byliśmy gotowi ponieść ogromny koszt ekonomiczny w obliczu pandemii, logika podpowiada, że w obliczu potencjalnie większego ryzyka powinniśmy być gotowi na co najmniej porównywalny wysiłek.

Ekonomiczna wycena życia: twarda waluta w debacie o ryzyku

Kluczowym narzędziem w tej analizie jest koncepcja, która może wydawać się bezduszna, ale jest fundamentem polityki publicznej na całym świecie: Wycena Statystycznego Życia (VSL). To kwota, jaką społeczeństwo jest gotowe zapłacić, aby uniknąć jednej statystycznej śmierci. Amerykańskie agencje rządowe rutynowo stosują w swoich analizach wartości rzędu 10 milionów dolarów.

Ten rachunek prowadzi do naprawdę zdumiewających wniosków.

  • Jeśli wartość życia to 10 milionów dolarów, to aby uniknąć ryzyka śmierci wynoszącego 1%, społeczeństwo powinno być gotowe zapłacić 1% z tej kwoty, czyli 100 000 dolarów na osobę.

  • Średni PKB na mieszkańca w USA to około 85 000 dolarów.

  • Oznacza to, że gotowość do zapłaty za uniknięcie 1% ryzyka śmierci przekracza 100% rocznego dochodu na osobę. Dzieje się tak, ponieważ dochód jest strumieniem rocznym, a życie jest zasobem obejmującym całą przyszłość – być może 40 lat lub więcej.

Ta prosta arytmetyka pokazuje, dlaczego nawet niewielkie ryzyko egzystencjalne, które dotyka całej populacji, uzasadnia z ekonomicznego punktu widzenia ogromne wydatki na jego mitygację.

Ile powinniśmy wydawać? Zaskakujące wyniki analizy

Badanie idzie o krok dalej, budując precyzyjny model ekonomiczny, który pozwala obliczyć optymalny poziom wydatków na bezpieczeństwo AI. Model ten opiera się na trzech filarach:

  1. Poziom ryzyka: Jakie jest prawdopodobieństwo katastrofy, jeśli nic nie zrobimy?

  2. Skuteczność mitygacji: Jak bardzo nasze wydatki mogą to ryzyko obniżyć?

  3. Wartość przyszłości: Jak wysoko cenimy życie obecnych i przyszłych pokoleń?

Najbardziej uderzającym wnioskiem jest to, że nawet przy przyjęciu całkowicie egoistycznej perspektywy – czyli zerowej troski o los przyszłych pokoleń – optymalne wydatki są zdumiewająco wysokie.

  • W scenariuszu bazowym, przy ryzyku egzystencjalnym na poziomie 1% w ciągu następnej dekady, optymalne wydatki na mitygację ryzyka sięgają aż 15.8% PKB rocznie.

  • Nawet jeśli ryzyko jest o połowę mniejsze (0.5%, czyli blisko poziomu Covid-19), wciąż mówimy o wydatkach rzędu 8.3% PKB.

  • Średnia optymalnych wydatków w szerokim zakresie symulacji (uwzględniających niepewność co do parametrów) wynosi 8.1% PKB.

Co więcej, jeśli do modelu dodamy nawet skromny altruizm wobec przyszłych pokoleń (zakładając, że cenimy jedno przyszłe pokolenie tak jak nasze), optymalne wydatki w scenariuszu bazowym wzrastają z 15.8% do 29.5% PKB.

Kiedy nie robić nic? Scenariusz zerowych inwestycji

Model pozwala również precyzyjnie określić warunki, w których nie opłaca się inwestować w bezpieczeństwo AI. Taka sytuacja ma miejsce tylko wtedy, gdy spełnione są jednocześnie dwa warunki:

  1. Ryzyko jest bardzo niskie (np. dziesięciokrotnie niższe niż w scenariuszu bazowym, czyli 0.1%).

  2. Technologia mitygacji jest bardzo nieskuteczna (np. wydanie całego rocznego PKB na bezpieczeństwo redukuje ryzyko o zaledwie kilka procent).

W każdym innym przypadku, zwłaszcza gdy nie mamy pewności co do tych parametrów, model ekonomiczny jednoznacznie wskazuje, że znaczące inwestycje są racjonalną strategią.

Od modelu do polityki: co to dla nas oznacza?

Analiza ta stanowi potężny, oparty na danych argument w debacie o przyszłości AI. Pokazuje, że obawy o ryzyko egzystencjalne to nie jest panikarstwo, ale racjonalna ocena, która znajduje potwierdzenie w standardowych narzędziach ekonomii. Główny wniosek jest prosty i trudny do zignorowania: jako społeczeństwo prawdopodobnie drastycznie niedoinwestowujemy w bezpieczeństwo technologii, która ma potencjał, by zdefiniować naszą przyszłość lub jej brak.


FAQ – Najczęściej zadawane pytania

  1. Czy wydawanie ponad 10% PKB na bezpieczeństwo AI jest realistyczne?
    Liczby te wydają się astronomiczne, ale należy je postrzegać w kontekście skali ryzyka. Są one wynikiem zastosowania tej samej logiki ekonomicznej, którą rządy stosują przy decyzjach o budowie barier drogowych czy wprowadzaniu norm bezpieczeństwa w przemyśle. Badanie pokazuje, że jeśli traktujemy ryzyko egzystencjalne poważnie, konsekwencją są właśnie tak duże liczby.

  2. Co dokładnie oznaczają „wydatki na mitygację ryzyka”?
    Mogą one przyjmować różne formy. To między innymi: finansowanie badań nad bezpieczeństwem i „wyrównaniem” AI (alignment), tworzenie międzynarodowych agencji nadzoru, regulacje spowalniające wyścig w rozwijaniu najpotężniejszych modeli, inwestycje w systemy weryfikacji i kontroli, a nawet opodatkowanie mocy obliczeniowej (GPU) w celu sfinansowania tych działań.

  3. Dlaczego badanie skupia się na „egoistycznej” perspektywie, ignorując przyszłe pokolenia?
    To świadomy zabieg metodologiczny. Pokazując, że nawet bez uwzględniania losu bilionów przyszłych ludzi, uzasadnione są ogromne wydatki, autor wzmacnia swój argument. Jest to najbardziej konserwatywne i trudne do podważenia stanowisko – każda doza altruizmu tylko dodatkowo zwiększa te liczby.

  4. Czy model nie ignoruje gigantycznych korzyści, jakie może przynieść AI?
    Model pośrednio uwzględnia te korzyści, zakładając, że dzięki AI przyszły wzrost gospodarczy może być bardzo wysoki, co zwiększa wartość ocalonego życia. Jednak jego głównym celem jest odpowiedź na inne pytanie: zakładając, że AI i tak powstanie, ile powinniśmy wydać, aby upewnić się, że jej rozwój nie doprowadzi do katastrofy?

  5. Skąd pochodzą szacunki ryzyka egzystencjalnego na poziomie 5% czy 10%?
    Pochodzą one z ankiet przeprowadzanych wśród tysięcy naukowców aktywnie publikujących w czołowych czasopismach i na konferencjach poświęconych sztucznej inteligencji. Są to więc opinie ekspertów z samego serca tej dziedziny, a nie zewnętrznych obserwatorów.


Publikacje wykonane przez nas w podobnej tematyce

  1. Ekonomia „czerwonego przycisku”: modelowanie kosztów i korzyści globalnego moratorium na rozwój superinteligencji.

  2. Wycena Statystycznego Pokolenia: rozszerzenie koncepcji VSL na ryzyka egzystencjalne w ramach teorii longterministycznej.

  3. Modelowanie „wyścigu zbrojeń” w bezpieczeństwie AI: teoria gier i optymalna alokacja zasobów między rozwojem a kontrolą.

  4. Opodatkowanie mocy obliczeniowej jako instrument polityki bezpieczeństwa AI: analiza równowagi ogólnej.

  5. Ryzyko egzystencjalne jako problem dóbr publicznych: bariery dla międzynarodowej kooperacji w regulacji AI.


Pomysł na doktorat

Tytuł: Zastosowanie teorii opcji realnych do optymalizacji sekwencyjnych inwestycji w bezpieczeństwo AI w warunkach niepewności co do tempa postępu technologicznego i poziomu ryzyka egzystencjalnego.

Ile Kosztuje Ocalenie Świata przed AI? Ekonomia ma Odpowiedź by
Ile Kosztuje Ocalenie Świata przed AI? Ekonomia ma Odpowiedź

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *