Potrzebujesz dogłębnej analizy wpływu nowych technologii na bezpieczeństwo lub wsparcia w badaniach nad etyką AI i zarządzaniem ryzykiem w ramach doktoratu?
Skontaktuj się – pomożemy Ci zrozumieć złożoność problemu i przygotować rzetelne opracowanie!
AI kontra wirusy: czy twój komputer może stać się laboratorium broni biologicznej?
Od lat słyszymy ostrzeżenia: powinniśmy zacząć działać w sprawie sztucznej inteligencji (AI), gdy tylko zacznie ona wykazywać „niebezpieczne zdolności”. Wygląda na to, że ten moment właśnie nadszedł, a konsekwencje mogą być bardziej namacalne i niepokojące, niż wielu z nas przypuszczało. Rozwój AI nie dotyczy już tylko chatbotów piszących wiersze czy generujących obrazy. Najnowsze badania wskazują, że zaawansowane modele językowe (LLM) wkraczają na tereny dotychczas zarezerwowane dla wąskiego grona specjalistów, takie jak wirusologia. To niezwykle ważny temat, ponieważ dotyka on fundamentalnych kwestii bezpieczeństwa globalnego, etyki badań i potencjalnego niewłaściwego wykorzystania potężnych technologii. Czy jesteśmy świadkami cichej rewolucji, która może obniżyć bariery dla rozwoju broni biologicznej? Przeanalizujmy fakty.

Dlaczego wiedza wirusologiczna była dotąd twierdzą dla nielicznych?
Zrozumienie wirusów, ich budowy, mechanizmów działania i sposobów manipulacji to domena wymagająca lat nauki i specjalistycznego doświadczenia. Wiedza w dziedzinach o tzw. „podwójnym zastosowaniu” (mogących służyć zarówno celom pokojowym, jak i militarnym), takich jak wirusologia, jest trudna do zdobycia.
-
Edukacja: Wymaga ukończenia wielu stopni naukowych i poświęcenia całej kariery badawczej.
-
Dostęp do informacji: Literatura naukowa jest pełna specjalistycznego żargonu, niezrozumiałego dla osób spoza dziedziny.
-
Wymogi laboratoryjne: Badania nad groźnymi patogenami (np. SARS, wąglik, ptasia grypa H5N1), klasyfikowanymi jako poziom bezpieczeństwa biologicznego 3 (BSL-3), wymagają:
-
Certyfikacji placówki.
-
Pozwoleń bezpieczeństwa.
-
Specjalistycznych szkoleń.
-
Stałego nadzoru medycznego.
-
-
Ukryte umiejętności: Dopiero po spełnieniu tych warunków naukowcy mogą uzyskać dostęp do patogenów i zacząć nabywać praktyczne, często nieopisane w podręcznikach, umiejętności pracy z nimi.
Te wysokie bariery wejścia skutecznie ograniczały liczbę osób z dostępem do potężnej wiedzy o podwójnym zastosowaniu, minimalizując ryzyko jej nadużycia. Jednak gwałtowny rozwój publicznie dostępnych systemów AI grozi radykalną zmianą tej sytuacji.
Gdy AI przewyższa ekspertów: alarmujące wyniki badań
Najnowszy raport opublikowany przez Center for AI Safety we współpracy z SecureBio rzuca nowe, niepokojące światło na możliwości modeli AI. Badania te wprowadziły nowy benchmark, zwany testem zdolności wirusologicznych (Virology Capabilities Test – VCT), aby ocenić praktyczne umiejętności modeli AI w tej dziedzinie.
Wyniki są, delikatnie mówiąc, alarmujące: kilka czołowych, publicznie dostępnych modeli LLM wykazuje zdolności przewyższające większość ludzkich ekspertów w rozwiązywaniu praktycznych problemów laboratoryjnych.
Czym jest test VCT i co mierzy?
Test VCT, opracowany przy udziale 57 ekspertów wirusologów, składa się z 322 pytań wielokrotnego wyboru. Wiele z nich zawiera elementy tekstowe i graficzne, odzwierciedlając realne wyzwania, z którymi wirusolodzy borykają się na co dzień w laboratorium. Pytania te:
-
Koncentrują się na praktycznej pracy laboratoryjnej, a nie abstrakcyjnej teorii.
-
Często inspirowane są niszowymi, ale praktycznymi problemami napotkanymi przez ekspertów.
-
Zostały zaprojektowane tak, aby odpowiedzi nie można było łatwo znaleźć za pomocą wyszukiwarki internetowej.
Uznano, że wyniki w teście VCT są dobrym wskaźnikiem rzeczywistych, użytecznych zdolności wirusologicznych – zdolności, które mogą być wykorzystane zarówno w legalnych badaniach, jak i do celów szkodliwych.
Wyniki, które dają do myślenia: LLM kontra ludzcy eksperci
Po przetestowaniu ekspertów (na pytaniach z VCT istotnych dla ich specjalizacji, których nie tworzyli ani nie recenzowali), poddano testowi kilka powszechnie dostępnych modeli LLM. Wyniki są uderzające:
| Model AI | Wynik w porównaniu do ludzkich ekspertów (percentyl) |
| GPT-4o | Lepszy niż 53% ekspertów |
| Gemini 1.5 Pro | Lepszy niż 67% ekspertów |
| Claude Sonnet 3.5 | 75. percentyl |
| o1 (model badawczy) | 89. percentyl |
| o3 (model badawczy) | 95. percentyl |
Te dane pokazują, że niektóre modele AI nie tylko dorównują, ale wręcz przewyższają znaczną część doświadczonych naukowców w ich własnych dziedzinach.
To nie wyjątek, to trend: AI w naukach ścisłych
Choć wyniki VCT są niepokojące, nie powinny być całkowitym zaskoczeniem. Modele AI systematycznie stają się coraz bardziej kompetentne we wszystkich dziedzinach STEM (nauka, technologia, inżynieria, matematyka). Wirusologia jest częścią STEM, więc jeśli modele osiągają poziom doktorancki w innych naukach ścisłych, należało się spodziewać podobnych postępów w wirusologii. Kluczowa obawa polega na tym, że wiedza wirusologiczna ma charakter podwójnego zastosowania. Wirusolog z doktoratem może wykorzystać swoją wiedzę do tworzenia broni biologicznej.
Wyniki VCT potwierdzają wcześniejsze obserwacje z innych testów:
-
WMDP (Weapons of Mass Destruction Proxy): Testuje wiedzę koncepcyjną potrzebną do niebezpiecznych zastosowań. Model o1 osiągnął tu ok. 87%, podczas gdy ludzcy eksperci średnio 60%.
-
ProtocolQA i BioLP-bench: Oceniają zdolność modeli do rozumowania i rozwiązywania problemów w typowych protokołach laboratoriów biologicznych. Wyniki modeli AI zbliżają się do średnich wyników ekspertów ludzkich.
Wniosek jest jeden: powszechnie dostępne systemy AI mogą ułatwić każdemu, kto pracuje z wirusami – w tym osobom o złych intencjach – pokonywanie praktycznych problemów.
„Tarcie” jako klucz do bezpieczeństwa: dlaczego dostępność ma znaczenie?
Ryzyko związane z bronią biologiczną zależy od kilku czynników: liczby osób z dostępem do odpowiednich umiejętności, ich intencji oraz potencjalnej szkodliwości broni. Dotychczas ryzyko było stosunkowo niskie, ponieważ liczba ekspertów wirusologów była ograniczona (kilkaset osób z czołowych programów), a ich motywacja do tworzenia pandemii niewielka. Jednakże, jeśli umiejętności te stają się dostępne dla setek milionów ludzi za pośrednictwem LLM, prawdopodobieństwo celowego uwolnienia patogenu wzrasta o rzędy wielkości.
Podstawowym sposobem redukcji ryzyka biologicznego jest zwiększenie „tarcia” – czyli utrudnienie potencjalnym złoczyńcom dostępu do wiedzy i narzędzi. Chodzi o ograniczenie liczby osób posiadających eksperckie umiejętności wirusologiczne tylko do tych, którzy ich naprawdę potrzebują do legalnych celów.
Jak zwiększyć tarcie i ograniczyć ryzyko? proponowane działania
-
Dwupoziomowy dostęp do modeli AI:
-
Domyślne filtry w modelach uniemożliwiające udostępnianie szczegółowych instrukcji dotyczących manipulowania groźnymi patogenami (np. z listy wybranych agentów USA).
-
Proces weryfikacji dla legalnych badaczy, umożliwiający im dostęp do pełnych możliwości modelu po wykazaniu pożytecznego celu ich pracy.
-
-
Monitorowanie laboratoriów w chmurze:
-
Placówki wykonujące eksperymenty na zlecenie zdalnych użytkowników powinny wprowadzić środki wykrywania prób tworzenia niebezpiecznych patogenów (np. przesiew genomów pod kątem znanych, groźnych sekwencji).
-
-
Ograniczenie zdolności agentów AI:
-
Twórcy AI nie powinni udostępniać niesprawdzonym użytkownikom agentów AI posiadających eksperckie zdolności wirusologiczne, które mogłyby autonomicznie wykonywać czynności na zlecenie.
-
-
Surowsze ograniczenia dla bardziej zaawansowanych modeli:
-
W miarę wzrostu możliwości AI w projektowaniu np. bardziej śmiercionośnych wirusów, należy nakładać na nie coraz bardziej restrykcyjne zabezpieczenia.
-
Należy podkreślić, że nie jesteśmy jeszcze na etapie, gdzie publicznie dostępny LLM mógłby samodzielnie stworzyć i uwolnić śmiercionośnego wirusa. Jednak już obecne zdolności AI wzmacniają ryzyko biologiczne, ułatwiając zadanie osobom o złych intencjach.
Tykająca bomba zegarowa: czas na działanie jest teraz
Odkrycie, że istniejące, publicznie dostępne modele AI wzmacniają ryzyko biologiczne, powinno być traktowane jak „kanarek w kopalni węgla” – sygnał alarmowy skłaniający do natychmiastowych działań. Problem polega na tym, że nie mamy gotowych, odpowiednich środków zaradczych. Prace nad zabezpieczeniami nie mogą czekać, aż zagrożenie zostanie w pełni udowodnione, bo wtedy może być za późno.
Opracowanie i wdrożenie solidnych zabezpieczeń (definiowanie standardów, tworzenie zbiorów danych do trenowania filtrów, testowanie, wdrażanie) może zająć miesiące. Każdy dzień, w którym możliwości podwójnego zastosowania AI są publicznie dostępne bez odpowiednich zabezpieczeń, to okno dla potencjalnych nadużyć.
Zwiększenie „tarcia” daje nam czas na przygotowanie się na potencjalne zagrożenia, np. poprzez opracowanie protokołów szybkiego reagowania czy gromadzenie środków ochrony. Czas ten pozwala również na wzrost gospodarczy, który może sfinansować te środki obronne.
Musimy wyciągnąć wnioski z obecnej sytuacji dotyczącej bioryzyka i proaktywnie zająć się łagodzeniem innych potencjalnych zagrożeń, np. w cyberbezpieczeństwie, zanim zostaną one w pełni zademonstrowane. Używając znanej metafory, jesteśmy jak żaba w powoli podgrzewanej wodzie. Temperatura rośnie, a woda już paruje. Najwyższy czas wyskoczyć, zanim będzie za późno.
Sztuczna inteligencja demokratyzuje zagrożenie: wirusologia na poziomie eksperckim w zasięgu ręki? by www.doktoraty.pl