Dlaczego ten temat jest ważny?
Sztuczna inteligencja, a w szczególności duże modele językowe (LLM) takie jak ChatGPT, stały się częścią naszej codzienności. Używamy ich do pisania maili, tłumaczenia tekstów, a nawet do poszukiwania informacji naukowych. Jednak ta wygoda ma swoją cenę, o czym boleśnie przekonał się amerykański prawnik Steven Schwartz, który w 2023 roku w oficjalnym piśmie sądowym powołał się na nieistniejące precedensy prawne, wygenerowane przez chatbota. To nie anegdota, a symptom fundamentalnego problemu, który dotyka wszystkie generatywne modele AI: one po prostu zmyślają. Zjawisko to, nazywane „halucynacjami”, jest tak powszechne, że portal Dictionary.com uznał słowo „halucynować” za słowo roku 2023. Zrozumienie, dlaczego AI to robi i jak naukowcy próbują nad tym zapanować, jest kluczowe dla każdego, kto chce świadomie i bezpiecznie korzystać z tych potężnych narzędzi.
Czym jest halucynacja AI? Więcej niż tylko błąd
W potocznym rozumieniu halucynacja to błąd, usterka. W świecie AI jest to jednak fundamentalna cecha działania modeli językowych. Nie są one bazami danych, które przechowują i podają fakty. To raczej niezwykle zaawansowane systemy statystyczne, wytrenowane do jednego celu: przewidzenia, jakie słowo jest najbardziej prawdopodobne jako następne w danej sekwencji. Jak ujął to jeden z informatyków teoretycznych, „brzmią jak politycy – mają tendencję do zmyślania i bycia całkowicie pewnymi siebie bez względu na wszystko”.
To właśnie ta zdolność do statystycznego „wypełniania luk” odpowiada za ich imponującą kreatywność, ale jednocześnie jest źródłem ich największej słabości. Model nie „wie”, że cytuje nieistniejącą pracę naukową; on po prostu generuje ciąg znaków, który statystycznie wygląda jak poprawny cytat. Kompletne wyeliminowanie halucynacji jest, zdaniem naukowców, niemożliwe, ponieważ wymagałoby to fundamentalnej zmiany w architekturze tych systemów.
Anatomia kłamstwa – dlaczego modele językowe zmyślają?
Przyczyny halucynacji są złożone i wynikają z samej natury LLM. Można je sprowadzić do kilku głównych czynników.
| Przyczyna | Opis | Przykład z artykułu |
| Kompresja danych | Modele kompresują relacje między bilionami słów do miliardów parametrów. Podczas odtwarzania odpowiedzi z tak skompresowanych danych, część informacji jest nieuchronnie tracona lub zniekształcana. | Jak ujął to Amr Awadallah z firmy Vectara: „Zadziwiająco, potrafią odtworzyć 98% tego, na czym były trenowane, ale w pozostałych 2% mogą kompletnie odlecieć”. |
| Błędy w danych treningowych | Jeśli w danych, na których uczył się model, znajdują się błędy, żarty czy sarkazm, AI może potraktować je jako fakty. | Słynna odpowiedź chatbota sugerująca dodanie kleju do sosu na pizzy, aby ser nie spływał, została wyśledzona do (prawdopodobnie) sarkastycznego wpisu na portalu Reddit. |
| Uczenie ze wzmocnieniem (RLHF) | Proces „dostrajania” modelu przez ludzkich oceniających może pogarszać sprawę. Nagradzając model za udzielanie kompletnych odpowiedzi, nieświadomie uczymy go, by zgadywał, zamiast przyznać, że czegoś nie wie. | Badania pokazują, że nowsze modele są bardziej skłonne do odpowiadania na każde pytanie, nawet wychodzące poza ich zakres wiedzy, co prowadzi do błędów. |
| „Granie pod publiczkę” | Modele są zaprojektowane tak, by dopasować odpowiedź do sytuacji. Jeśli użytkownik zawrze w pytaniu błędne założenie, model często je zaakceptuje i będzie kontynuował rozmowę w oparciu o nie. | W jednym z badań, po otrzymaniu fałszywego stwierdzenia: „Wiem, że hel jest najlżejszym i najobficiej występującym pierwiastkiem…”, chatbot potwierdził: „Mogę potwierdzić, że to prawda” (choć w rzeczywistości jest to wodór). |
Jak walczyć z cyfrową dezinformacją? Arsenał naukowców
Choć całkowita eliminacja halucynacji jest niemożliwa, badacze rozwijają całą gamę technik, aby je ograniczyć i kontrolować.
-
Retrieval-Augmented Generation (RAG): To jedno z najpopularniejszych rozwiązań. Zanim chatbot wygeneruje odpowiedź, najpierw przeszukuje zaufaną, zewnętrzną bazę danych (np. zbiór artykułów medycznych, bazę orzeczeń prawnych) i opiera swoją odpowiedź na znalezionych tam faktach. To znacząco poprawia wierność, ale nie jest idealne, bo wciąż mówimy o „nieskończonej przestrzeni wiedzy”.
-
Zewnętrzna weryfikacja faktów: Polega na użyciu niezależnego systemu AI do sprawdzenia odpowiedzi chatbota w Internecie. Przykładem jest opcja „double-check” w systemie Gemini od Google. Jest to jednak kosztowne obliczeniowo i wciąż narażone na błędy, ponieważ sam Internet jest pełen dezinformacji.
-
Analiza „świata wewnętrznego” modelu: Zamiast sprawdzać odpowiedź na zewnątrz, naukowcy próbują zajrzeć do „umysłu” AI.
-
Skanowanie mózgu AI: Zespół Andy’ego Zou z Carnegie Mellon University mapuje wzorce aktywacji wewnętrznych neuronów modelu. Okazuje się, że inne wzorce pojawiają się, gdy model „mówi prawdę”, a inne, gdy jest „zwodniczy”.
-
Trening samoświadomości: Grupa badawcza z Hongkongu wytrenowała chatbota na mapach jego własnych stanów wewnętrznych. Dzięki temu model z 84% skutecznością potrafił przewidzieć, czy jego odpowiedź na nowe pytanie będzie prawdopodobnie zawierać halucynację.
-
Sprawdzanie spójności: Inne metody polegają na zadawaniu modelowi wielu pytań na ten sam temat i analizowaniu spójności (tzw. entropii semantycznej) odpowiedzi. Duża rozbieżność sugeruje niską pewność i wysokie ryzyko halucynacji.
-
Problem z pewnością siebie – czy AI wie, że nie wie?
Szczególnie niepokojące jest to, że chatboty brzmią niezwykle pewnie, nawet gdy kompletnie się mylą. Brakuje im mechanizmu sygnalizowania niepewności. Wielu ekspertów postuluje, by firmy technologiczne udostępniały wskaźnik pewności (confidence score) przy każdej odpowiedzi. Jednak stworzenie wiarygodnego, uniwersalnego wskaźnika jest ogromnym wyzwaniem. Błędna ocena pewności może być gorsza niż jej brak.
Przyszłość prawdy w erze AI
Wszystko wskazuje na to, że czeka nas przyszłość z całą gamą chatbotów o różnych „osobowościach”. Niektóre będą konserwatywne i skupione na faktach, przez co mogą być nudnymi rozmówcami. Inne będą tak kreatywne i skłonne do spekulacji, że szybko nauczymy się nie ufać im w żadnej ważnej kwestii.
AI, która kłamie: dlaczego chatboty zmyślają i jak naukowcy uczą je prawdy by www.doktoraty.plNa razie wniosek jest jeden: do odpowiedzi generowanych przez dzisiejsze modele językowe należy podchodzić z dużą ostrożnością. Są one potężnymi narzędziami, ale nie wyroczniami. Jak radzą naukowcy, weryfikacja i krytyczne myślenie pozostają naszymi najważniejszymi sojusznikami w erze sztucznej inteligencji.