Wprowadzenie: Dwie Kultury Poznania – Paradygmat Chomsky’ego i Wyzwanie Statystyczne
W połowie XX wieku lingwistyka, a wraz z nią całe nauki o poznaniu, przeszły fundamentalną transformację, często określaną mianem rewolucji kognitywnej. Centralną postacią tej rewolucji był Noam Chomsky, którego prace stanowiły radykalne odejście od dominującego wówczas paradygmatu behawiorystycznego.1 Behawioryzm, z jego czołowym przedstawicielem B.F. Skinnerem, postrzegał umysł jako „czarną skrzynkę”, a język jako zespół wyuczonych nawyków, kształtowanych przez bodźce i reakcje.1 Chomsky, w swojej przełomowej krytyce, argumentował, że takie podejście jest fundamentalnie nieadekwatne do wyjaśnienia złożoności i kreatywności ludzkiego języka. Zaproponował w zamian perspektywę mentalistyczną i racjonalistyczną, w której język nie jest jedynie zewnętrznym zachowaniem, ale przede wszystkim wewnętrznym systemem obliczeniowym, wrodzoną, biologiczną cechą gatunku ludzkiego.4 W tym ujęciu, celem lingwistyki stało się badanie abstrakcyjnych struktur mentalnych, które leżą u podstaw zdolności językowej.7
Kilkadziesiąt lat później, na scenę wkroczyła nowa siła, napędzana bezprecedensowym wzrostem mocy obliczeniowej i dostępem do ogromnych zbiorów danych – sztuczna inteligencja (AI) w postaci dużych modeli językowych (LLM).2 Systemy takie jak ChatGPT od OpenAI, oparte na architekturach głębokich sieci neuronowych, uczą się języka poprzez analizę i internalizację wzorców statystycznych w niewyobrażalnych ilościach tekstu.10 Ich zdumiewająca zdolność do generowania płynnego, spójnego i często nieodróżnialnego od ludzkiego tekstu, doprowadziła do powstania tezy, że stanowią one empiryczne obalenie fundamentalnych założeń lingwistyki Chomsky’ego.
Niniejszy raport stanowi krytyczną analizę tej tezy, która opiera się na trzech filarach:
-
Twierdzeniu, że ogólne mechanizmy uczenia się, zademonstrowane przez AI, są wystarczające do opanowania języka, co czyni postulat wrodzonej zdolności językowej zbędnym.
-
Przekonaniu, że natura języka jest z gruntu „niechlujna” i statystyczna, a nie rządzona przez eleganckie, ukryte reguły, jak postuluje Chomsky.
-
Założeniu, że język można opanować na podstawie samego języka (danych tekstowych), bez konieczności jego „ugruntowania” w doświadczeniu sensorycznym i realnym świecie.
Raport ten systematycznie przeanalizuje każdy z tych punktów, konfrontując je z kluczowymi koncepcjami teorii generatywnej, dowodami płynącymi z działania modeli AI oraz argumentami z toczącej się debaty na styku lingwistyki, informatyki i filozofii.
W istocie, obecna debata jest czymś więcej niż tylko technicznym sporem o najlepszą metodę modelowania języka. Reprezentuje ona nowoczesne wcielenie wielowiekowego filozoficznego starcia między racjonalizmem a empiryzmem. Prace Chomsky’ego są głęboko zakorzenione w kartezjańskim racjonalizmie, kładącym nacisk na idee wrodzone i pre-egzystujące struktury mentalne jako warunek konieczny poznania.7 Z kolei duże modele językowe są ostatecznym produktem tradycji empirystycznej; cała ich „wiedza” pochodzi wyłącznie z doświadczenia, czyli z analizy wzorców statystycznych w danych sensorycznych (w tym przypadku, w gigantycznych korpusach tekstu).11 W tym kontekście, teza, że AI „obala” Chomsky’ego, jest nie tylko twierdzeniem naukowym, ale i filozoficznym. Sugeruje ona, że model empirystyczny – uczenie się z danych – jest wystarczający, a model racjonalistyczny, wymagający wrodzonych struktur, jest zbędny. Cały spór można więc postrzegać jako konfrontację dwóch fundamentalnie różnych „kultur” rozumienia poznania, jak trafnie ujął to Peter Norvig, dyrektor badań w Google, w tytule swojego eseju „On Chomsky and the Two Cultures of Statistical Learning”.14 Analiza musi zatem objąć nie tylko roszczenia techniczne, ale również ich głębokie, filozoficzne podłoże.
Część I: Problem Nabywania Języka – Wrodzona Gramatyka czy Uczenie się ze Skali?
Pierwszy filar tezy o obaleniu Chomsky’ego uderza w sam rdzeń jego teorii: postulat, że ludzie posiadają wrodzoną, wyspecjalizowaną zdolność do nabywania języka. Kontrargument, inspirowany sukcesem AI, głosi, że uniwersalne mechanizmy uczenia się, dysponujące wystarczającą ilością danych, są w stanie samodzielnie opanować język, co czyni hipotezę natywistyczną niepotrzebną. Analiza tego twierdzenia wymaga szczegółowego zbadania zarówno argumentów Chomsky’ego, jak i natury procesu uczenia się w modelach AI.
Rozdział 1.1: Filary Natywizmu: Gramatyka Uniwersalna i Argument z Ubóstwa Bodźca
Teoria lingwistyczna Noama Chomsky’ego jest z gruntu natywistyczna. Twierdzi on, że zdolność do posługiwania się językiem jest wrodzoną, genetycznie uwarunkowaną cechą gatunku ludzkiego, a nie czymś, czego uczymy się od zera na podstawie doświadczenia.4 Ta perspektywa opiera się na dwóch kluczowych koncepcjach: Gramatyce Uniwersalnej i argumencie z ubóstwa bodźca.
Gramatyka Uniwersalna (UG) to hipotetyczny, wrodzony system wiedzy o języku, wspólny dla wszystkich ludzi.4 Należy podkreślić, że UG nie jest gramatyką konkretnego języka, jak polski czy angielski. Jest to raczej zbiór abstrakcyjnych zasad, warunków i parametrów, które definiują przestrzeń możliwych gramatyk ludzkich.13 Można ją przyrównać do wbudowanego „szablonu”, który pozwala dziecku wiedzieć, na co zwracać uwagę w potoku mowy, z którym się styka, i jak organizować te dane w spójny system gramatyczny. Teoria ta postuluje, że wszystkie języki, pomimo swojej powierzchniowej różnorodności, dzielą wspólną, głęboką strukturę.7 Na przykład, zasada, że zdania mają hierarchiczną strukturę frazową (a nie są tylko liniowym ciągiem słów), jest uważana za część UG.
Implementacją Gramatyki Uniwersalnej w umyśle/mózgu dziecka jest Urządzenie do Przyswajania Języka (Language Acquisition Device – LAD).13 Jest to hipotetyczny moduł poznawczy, wyspecjalizowany w zadaniu nauki języka.21 Dzięki LAD, dziecko nie musi testować nieskończonej liczby możliwych reguł gramatycznych; jego hipotezy są od początku ograniczone przez zasady UG. To właśnie ten mechanizm ma wyjaśniać zdumiewającą szybkość i łatwość, z jaką dzieci opanowują swój język ojczysty, niezależnie od ich ogólnej inteligencji.17
Centralnym argumentem na rzecz istnienia UG i LAD jest argument z ubóstwa bodźca (Poverty of the Stimulus). Chomsky i jego zwolennicy utrzymują, że dane językowe, z którymi styka się dziecko, są zbyt „ubogie”, aby na ich podstawie mogło ono wydedukować złożone i subtelne reguły gramatyki.3 Mowa dorosłych, skierowana do dzieci, jest często fragmentaryczna, pełna błędów, przejęzyczeń i niegramatycznych konstrukcji.17 Mimo to, każde normalnie rozwijające się dziecko w wieku 5-6 lat staje się biegle posługującym się, kreatywnym użytkownikiem języka. Co więcej, dzieci potrafią tworzyć i rozumieć zdania, których nigdy wcześniej nie słyszały, a także poprawnie stosować reguły w nowych kontekstach. To sugeruje, że proces uczenia się nie polega na prostej imitacji czy zapamiętywaniu, ale na aktywacji wrodzonego systemu, który generuje reguły na podstawie ograniczonych danych.7
Dowody wspierające tę perspektywę pochodzą z różnych źródeł. Jednym z najbardziej sugestywnych jest zjawisko powstawania języków kreolskich. Kiedy dorośli mówiący różnymi językami tworzą uproszczony, nieustrukturyzowany system komunikacji zwany pidżynem, ich dzieci, wychowując się w takim środowisku, spontanicznie tworzą w pełni rozwinięty, spójny gramatycznie język kreolski. Ponieważ nie mogły nauczyć się tej gramatyki od rodziców (którzy jej nie posiadali), argumentuje się, że musiały ją stworzyć przy użyciu wrodzonego „bioprogramu językowego”. Innym dowodem są badania neuropsychologiczne, które pokazują, że mózg przetwarza struktury językowe w sposób hierarchiczny, niezależnie od ich sensowności. Słynne zdanie Chomsky’ego „Colorless green ideas sleep furiously” („Bezbarwne zielone idee wściekle śpią”) jest nonsensowne, ale każdy rodzimy użytkownik angielskiego rozpozna je jako gramatycznie poprawne, w przeciwieństwie do „Furiously sleep ideas green colorless”. Badania neuroobrazowe potwierdzają, że mózg reaguje na naruszenia struktury składniowej w inny sposób niż na naruszenia sensu, co sugeruje istnienie wyspecjalizowanego mechanizmu gramatycznego.24
Rozdział 1.2: Kontrargument Sztucznej Inteligencji: Pozorna Kreacja z Danych
Pojawienie się dużych modeli językowych (LLM) stanowiło potężne wyzwanie dla natywistycznego paradygmatu. Te systemy, w przeciwieństwie do ludzkiego dziecka, z całą pewnością nie posiadają wrodzonej Gramatyki Uniwersalnej. Są to złożone sieci neuronowe, których architektura jest inspirowana ogólną budową mózgu, ale nie jest jego wiernym modelem i nie zawiera żadnych predefiniowanych, specyficznie językowych struktur.12 Ich proces uczenia się opiera się na zupełnie innych zasadach.
LLM są trenowane na ogromnych, często obejmujących znaczną część publicznego internetu, zbiorach danych tekstowych.9 Proces ten odbywa się zazwyczaj w trybie samonadzorowanym, co oznacza, że model uczy się bezpośrednio z surowych danych, bez etykiet dostarczanych przez człowieka.25 Podstawowym zadaniem, na którym trenowany jest model, jest przewidywanie następnego słowa (a dokładniej, „tokenu”, który jest częścią słowa) w danej sekwencji.9 Na przykład, po otrzymaniu fragmentu „Być albo nie być, oto jest…”, model uczy się przypisywać najwyższe prawdopodobieństwo słowu „pytanie”. Robi to, analizując statystyczne korelacje i wzorce współwystępowania słów w miliardach zdań, które przetworzył podczas treningu.27
Zdolność LLM do generowania gramatycznego, spójnego i kontekstowo adekwatnego tekstu nie wynika więc ze zrozumienia abstrakcyjnych reguł syntaktycznych, ale z niezwykle wyrafinowanej internalizacji wzorców statystycznych. Model „wie”, że po rzeczowniku w liczbie mnogiej powinien nastąpić czasownik w odpowiedniej formie nie dlatego, że zna regułę „zgodności podmiotu z orzeczeniem”, ale dlatego, że w danych treningowych takie połączenia występowały z przytłaczającą regularnością.
Z perspektywy krytyków Chomsky’ego, ten sukces stanowi potężny kontrargument. Jeśli system pozbawiony wrodzonej wiedzy językowej jest w stanie, dysponując jedynie potężnym mechanizmem uczenia statystycznego i ogromną ilością danych, osiągnąć tak wysoki poziom biegłości językowej, to być może cała hipoteza UG jest niepotrzebnym, zbyt skomplikowanym wyjaśnieniem.28 Zwolennicy tego poglądu sugerują, że zjawiska, które Chomsky przypisywał wrodzonej gramatyce – takie jak zdolność do uogólniania reguł na nowe przypadki – można w pełni wyjaśnić za pomocą uczenia statystycznego i rozumowania przez analogię, pod warunkiem, że system ma dostęp do odpowiednio dużego i zróżnicowanego zbioru danych.23 W tym ujęciu, „ubóstwo bodźca” jest iluzją; dane, choć pozornie ubogie dla pojedynczego dziecka, w skali gatunku i w ujęciu statystycznym są wystarczająco bogate, aby wyłoniła się z nich cała złożoność gramatyki.
Rozdział 1.3: Synteza Krytyczna – Czy Ludzki Umysł jest Analogiczny do LLM?
Centralnym punktem argumentu, że AI obala Chomsky’ego, jest założenie, że proces uczenia się dziecka i proces treningu LLM są do siebie wystarczająco podobne, aby można je było bezpośrednio porównywać. Jednak bliższa analiza ujawnia, że ta analogia jest głęboko myląca i ignoruje fundamentalne różnice między tymi dwoma systemami. Chomsky i jego zwolennicy konsekwentnie podkreślają, że ludzki umysł jest „zaskakująco efektywnym i eleganckim systemem, który działa z ograniczoną ilością informacji”.1 W przeciwieństwie do niego, LLM to „ciężkie silniki statystyczne do dopasowywania wzorców, pożerające setki terabajtów danych”.29
Aby systematycznie zbadać te różnice, warto przeanalizować kluczowe aspekty obu procesów uczenia się w formie tabelarycznej. Tabela ta nie jest jedynie zbiorem faktów, ale narzędziem analitycznym, które dekonstruuje pozorną analogię leżącą u podstaw tezy o obaleniu natywizmu. Uwydatnia ona fundamentalne różnice w architekturze, warunkach i mechanizmach uczenia się, prowadząc do pytania, czy te dwa systemy w ogóle rozwiązują ten sam problem w ten sam sposób.
Tabela 1: Analiza Porównawcza Ludzkiej Akwizycji Języka i Treningu Dużych Modeli Językowych
|
Cecha |
Dziecko ludzkie |
Duży Model Językowy (LLM) |
|
Ilość danych wejściowych |
Ograniczona, „uboga” (Argument z Ubóstwa Bodźca) 3 |
Ogromna, planetarna skala (setki terabajtów tekstu) 9 |
|
Jakość danych |
Niechlujne, niegramatyczne, fragmentaryczne, pełne błędów 17 |
Wyselekcjonowane, w dużej mierze oczyszczone korpusy tekstowe |
|
Rodzaj danych |
Multimodalne: dźwięk, obraz, dotyk, gest, mimika, interakcja społeczna 22 |
Głównie tekstowe (unimodalne), pozbawione kontekstu pozajęzykowego |
|
Mechanizm uczenia |
Aktywna generacja i testowanie hipotez, interakcja ze światem 7 |
Pasywne dopasowywanie wzorców statystycznych, predykcja tokenów 9 |
|
Sprzężenie zwrotne |
Bezpośrednie, pragmatyczne konsekwencje wypowiedzi w interakcji społecznej |
Uczenie wzmacniające z ludzkim udziałem (RLHF), korekty programistów |
|
Zużycie energii |
Niezwykle niskie (ok. 20 watów dla całego mózgu) |
Ekstremalnie wysokie (porównywalne z zużyciem energii małego miasta) |
|
Cel uczenia |
Efektywna komunikacja, myślenie, osiąganie celów w świecie fizycznym i społecznym |
Minimalizacja błędu predykcji w statycznym zbiorze danych |
Analiza zawarta w tabeli prowadzi do głębszej refleksji. Zamiast interpretować sukces LLM jako obalenie teorii Chomsky’ego, można go postrzegać jako potężny argument na rzecz istnienia wrodzonego, wyspecjalizowanego mechanizmu językowego u ludzi. Drastyczna różnica w efektywności między biologicznym systemem poznawczym a systemem sztucznym jest uderzająca. Dziecko osiąga znacznie głębsze i bardziej elastyczne opanowanie języka, wykorzystując do tego nieporównywalnie mniejszą ilość danych, które są w dodatku gorszej jakości, a wszystko to przy minimalnym zużyciu energii.
Skąd bierze się ta niezwykła wydajność ludzkiego mózgu? Hipoteza natywistyczna dostarcza eleganckiej odpowiedzi: dziecko nie zaczyna od zera. Posiada wrodzoną architekturę (UG/LAD), która działa jak potężny „skrót” ewolucyjny, drastycznie zawężając przestrzeń możliwych gramatyk, które musi rozważyć.6 Z drugiej strony, jeśli przyjmiemy hipotezę empirystyczną – że mózg jest uniwersalnym mechanizmem uczącym się – musielibyśmy założyć, że jest on niewiarygodnie potężnym procesorem statystycznym. Jednak LLM, które są takimi potężnymi procesorami, potrzebują zasobów (danych i energii) o rzędy wielkości większych niż ludzki mózg, aby osiągnąć jedynie powierzchowną biegłość.
Ta fundamentalna rozbieżność czyni hipotezę o mózgu jako uniwersalnym mechanizmie uczącym się, analogicznym do LLM, znacznie mniej prawdopodobną. Sukces LLM, osiągnięty metodą „brutalnej siły”, paradoksalnie uwypukla skalę problemu, jakim jest nauka języka „od zera”. Skoro naturze udało się rozwiązać ten problem w tak niezwykle oszczędny i efektywny sposób, jest wysoce prawdopodobne, że dokonała tego poprzez ewolucję wyspecjalizowanego, dedykowanego modułu, a nie poprzez budowę uniwersalnego analizatora statystycznego. W tym świetle, duże modele językowe nie obalają Gramatyki Uniwersalnej; one raczej pokazują, jak wyglądałby świat poznawczy bez niej – świat, w którym opanowanie języka wymagałoby przetwarzania danych na skalę planety.
Część II: Natura Języka – Elegancki System czy Statystyczny Chaos?
Drugi filar krytyki skierowanej przeciwko Chomsky’emu dotyczy samej natury obiektu badań lingwistyki. Teza głosi, że język jest z natury „niechlujny” i statystyczny, a poszukiwanie przez Chomsky’ego eleganckiego, formalnego systemu reguł jest chybionym przedsięwzięciem. Ta kontrowersja sięga głębiej niż tylko do metodologii; dotyka fundamentalnego pytania o to, czym właściwie jest język i jaki jest cel nauki, która go bada.
Rozdział 2.1: Projekt Generatywny: Język jako Formalny System Obliczeniowy
Aby zrozumieć stanowisko Chomsky’ego, kluczowe jest przyswojenie jego fundamentalnego rozróżnienia na kompetencję językową (competence) i wykonanie językowe (performance).17 Kompetencja to idealna, w dużej mierze nieuświadomiona wiedza, jaką użytkownik języka posiada na temat jego struktury i reguł. Jest to abstrakcyjny, wewnętrzny system gramatyczny. Wykonanie, z drugiej strony, to faktyczne użycie języka w konkretnych sytuacjach komunikacyjnych. To wykonanie jest „niechlujne” – podlega wpływom takich czynników jak ograniczenia pamięci, rozproszenie uwagi, zmęczenie, błędy i przejęzyczenia.32
Chomsky argumentuje, że celem lingwistyki teoretycznej powinno być modelowanie i wyjaśnianie abstrakcyjnej, uporządkowanej kompetencji, a nie opisywanie chaotycznych i zmiennych danych z wykonania.32 Jego zdaniem, badanie wykonania ma sens tylko wtedy, gdy przyjmiemy istnienie leżącej u jego podstaw kompetencji.32 W przeciwnym razie lingwistyka sprowadzałaby się do klasyfikacji i systematyzacji danych, czyli opisu powierzchniowych zjawisk bez próby dotarcia do ich głębszych przyczyn.
W tym kontekście narodziła się gramatyka generatywna. Jej celem jest stworzenie w pełni eksplicytnego, formalnego systemu reguł, który byłby w stanie wygenerować (czyli opisać strukturalnie) wszystkie gramatyczne zdania danego języka i żadnych niegramatycznych.17 Teoria ta poszukuje ukrytych, uniwersalnych zasad, które rządzą językiem. Wczesne wersje teorii postulowały istnienie „struktury głębokiej”, która reprezentowała abstrakcyjne, semantyczne jądro zdania, oraz „struktury powierzchniowej”, czyli formy, w jakiej zdanie jest faktycznie wypowiadane.3 Reguły transformacyjne miały opisywać proces przekształcania struktury głębokiej w powierzchniową. Chociaż teoria ewoluowała, jej rdzeń pozostał ten sam: dążenie do odkrycia eleganckiego, niemal matematycznego porządku ukrytego pod pozornym chaosem mowy.7
Co więcej, w ujęciu Chomsky’ego język jest przede wszystkim wewnętrznym narzędziem myślenia i reprezentacji świata (tzw. I-language, od internal), a dopiero w drugiej kolejności zewnętrznym narzędziem komunikacji (E-language, od external).1 E-language, czyli zbiór wszystkich wypowiedzi w danej społeczności, jest zjawiskiem niejednorodnym i „niechlujnym”. Prawdziwym obiektem badań naukowych powinien być I-language – spójny system obliczeniowy zaimplementowany w umyśle/mózgu jednostki.
Rozdział 2.2: Paradygmat Statystyczny: Akceptacja i Modelowanie „Nieporządku”
Podejście statystyczne, którego zwieńczeniem są duże modele językowe, przyjmuje diametralnie odmienną perspektywę. Zamiast odfiltrowywać „nieporządek” wykonania w poszukiwaniu idealnej kompetencji, traktuje ono ten „nieporządek” jako integralną i istotną cechę samego języka. Peter Norvig, jeden z czołowych krytyków Chomsky’ego ze świata AI, argumentuje, że język jest zjawiskiem z natury stochastycznym, czyli probabilistycznym.15 Interpretacja wypowiedzi, zwłaszcza w warunkach szumu informacyjnego, jest problemem nieodłącznie probabilistycznym: „biorąc pod uwagę strumień zaszumionych danych docierających do moich uszu, co mówiący najprawdopodobniej miał na myśli?”.15
Z tej perspektywy, próba opisania języka za pomocą zwięzłego zestawu deterministycznych, bezwyjątkowych reguł jest nadmiernym uproszczeniem, które ignoruje wszechobecną wariancję, niejednoznaczność i kontekstową zależność znaczenia. „Niechlujność” nie jest błędem do poprawienia, ale sygnałem, który należy modelować. Duże modele językowe są w tym mistrzami. Uczą się one bezpośrednio z gigantycznych korpusów faktycznego wykonania językowego (performance data) i ich celem jest jak najlepsze przybliżenie statystycznych właściwości tych danych. Ich sukces polega właśnie na zdolności do uchwycenia i replikacji subtelnych prawdopodobieństw, idiomatycznych połączeń i stylistycznych niuansów, które wymykają się sztywnym, formalnym regułom.
Chomsky stanowczo odrzuca takie podejście, określając je mianem „kolekcjonowania motyli” (butterfly collecting).15 Porównuje je do botanika, który skrupulatnie zbiera, klasyfikuje i opisuje każdy liść w lesie, ale nigdy nie zadaje pytania o fundamentalne procesy biologiczne, takie jak fotosynteza, które sprawiają, że liście w ogóle istnieją. W jego opinii, modele statystyczne jedynie opisują i aproksymują dane, nie dążąc do zrozumienia fundamentalnych zasad i mechanizmów, które je generują.
Rozdział 2.3: Spór o Definicję Nauki: Wyjaśnianie kontra Inżynieria
Debata między Chomskym a Norvigiem jest w istocie sporem o fundamentalne cele i definicję samej nauki.37 Reprezentują oni dwie odmienne „kultury” badawcze.
Podejście Chomsky’ego, które można nazwać nauką jako wyjaśnianiem, zakłada, że ostatecznym celem jest tworzenie głębokich, predyktywnych teorii, które wyjaśniają, dlaczego świat jest taki, jaki jest. W tym ujęciu nauka poszukuje fundamentalnych praw, zasad i mechanizmów przyczynowych. Często wymaga to idealizacji i abstrahowania od skomplikowanej, „niechlujnej” rzeczywistości – tak jak fizyka w swoich podstawowych modelach ignoruje tarcie czy opór powietrza, aby odkryć uniwersalne prawo grawitacji.29 Sukces naukowy mierzy się tu głębią i mocą wyjaśniającą teorii, a nie jej zdolnością do dokładnego odtworzenia każdego punktu danych.
Podejście Norviga, które można określić jako naukę jako predykcję lub inżynierię, kładzie nacisk na tworzenie modeli, które jak najdokładniej przewidują nowe, nieobserwowane wcześniej dane. Z tej perspektywy, sukces inżynieryjny – na przykład stworzenie działającej wyszukiwarki internetowej czy skutecznego translatora maszynowego – jest potężnym dowodem na to, że model poprawnie uchwycił coś istotnego o naturze rzeczywistości.2 Norvig argumentuje, że nauka i inżynieria historycznie rozwijały się w ścisłym związku, a żmudne gromadzenie i modelowanie faktów jest dominującym, a nie nowatorskim, trybem uprawiania nauki.15 Sukces mierzy się tu trafnością predykcji i praktyczną użytecznością modelu.
Chomsky kontratakuje, twierdząc, że podejście statystyczne, choć może mieć ogromną wartość inżynieryjną, oddala naukę od jej prawdziwego celu – zrozumienia. Porównuje je do sytuacji, w której meteorolodzy, zamiast budować modele dynamiki atmosfery, skupiliby się wyłącznie na tworzeniu coraz większych baz danych o przeszłych stanach pogody, aby statystycznie przewidywać przyszłe. Mogliby osiągnąć wysoką trafność prognoz, ale nie dowiedzieliby się niczego o tym, jak działa pogoda. W swoim głośnym eseju „The False Promise of ChatGPT”, argumentuje on, że LLM potrafią opisywać i przewidywać, ale nie potrafią wyjaśniać, co jest cechą charakterystyczną prawdziwej inteligencji.27
Norvig odpowiada, że Chomsky niesłusznie odrzuca całą klasę modeli probabilistycznych na podstawie wad przestarzałych i prostych modeli (takich jak modele Markowa), ignorując postęp, jaki dokonał się w tej dziedzinie.15 Twierdzi również, że wgląd w działanie złożonych systemów można uzyskać nie tylko przez analizę prostych reguł, ale także przez systematyczne badanie właściwości samego modelu statystycznego – analizowanie, w jakich warunkach odnosi on sukces, a w jakich ponosi porażkę.15
Klasyczna dychotomia kompetencja/wykonanie, choć analitycznie użyteczna, może być niewystarczająca do pełnego uchwycenia tego, co robią LLM. Jest ona zresztą przedmiotem krytyki nie tylko ze strony badaczy AI, ale także lingwistów o orientacji funkcjonalnej i socjolingwistów, którzy argumentują, że kompetencja nie jest odizolowanym modułem, ale wyłania się z praktyki językowej (wykonania).33 W obliczu niezwykłych zdolności LLM, które osiągają imponujące wyniki w zadaniach testujących znajomość reguł gramatycznych (np. utrzymanie zgodności podmiotu z orzeczeniem na dużą odległość w zdaniu), pojawia się pytanie, czy posiadają one jakiś rodzaj „kompetencji”.
Aby odpowiedzieć na to pytanie w bardziej zniuansowany sposób, niektórzy badacze, jak Kyle Mahowald i jego współpracownicy, proponują nowe rozróżnienie: na kompetencję formalną i kompetencję funkcjonalną.40
-
Kompetencja formalna to znajomość reguł, wzorców i statystycznych regularności samego języka – wiedza o fonologii, morfologii i składni.
-
Kompetencja funkcjonalna to zdolność do używania języka w celu osiągania celów w realnym świecie. Wymaga ona nie tylko wiedzy o języku, ale także wiedzy o świecie, zdolności do rozumowania, modelowania sytuacji, rozumienia intencji innych itp.
W świetle tej nowej ramy analitycznej, można argumentować, że LLM wykazują niemal ludzki, a czasem nawet nadludzki, poziom kompetencji formalnej. Jednak ich kompetencja funkcjonalna pozostaje bardzo nierówna, często zawodna i wymaga specjalistycznego dostrajania lub integracji z zewnętrznymi modułami (np. kalkulatorami czy bazami wiedzy).40
To nowe rozróżnienie pozwala wyjść poza uproszczoną opozycję. Teza, że język jest „niechlujny”, okazuje się nieprecyzyjna. Duże modele językowe pokazują, że możliwe jest oddzielenie formalnej, strukturalnej „czystości” języka od jego funkcjonalnego, kontekstowego i często „niechlujnego” użycia w świecie. LLM doskonale radzą sobie z tym pierwszym aspektem, ale mają fundamentalne problemy z drugim. To sugeruje, że Chomsky, koncentrując się na abstrakcyjnej kompetencji, oraz jego krytycy, skupiając się na praktycznym użyciu, mogli badać dwa różne, choć powiązane, wymiary zjawiska językowego. Z tej perspektywy, LLM nie tyle obalają teorię Chomsky’ego, co raczej zmuszają do redefinicji i uszczegółowienia jej kluczowych pojęć, ujawniając wielowymiarowość tego, co potocznie nazywamy „znajomością języka”.
Część III: Problem Znaczenia – Ugruntowanie Symboliczne a Syntaktyczna Pustka
Trzeci i być może najgłębszy filozoficznie filar tezy o obaleniu Chomsky’ego głosi, że „język wystarcza do nauki języka”, co oznacza, że proces ten nie wymaga „ugruntowania” (grounding) w świecie zewnętrznym. Sukces LLM, które uczą się wyłącznie na podstawie danych tekstowych, jest przedstawiany jako ostateczny dowód na poparcie tego twierdzenia. Ta kwestia dotyka samego serca problemu znaczenia i intencjonalności w systemach poznawczych, zarówno naturalnych, jak i sztucznych.
Rozdział 3.1: Problem Ugruntowania Symboli w Kognitywistyce (Symbol Grounding Problem)
Problem ugruntowania symboli, sformułowany przez kognitywistę Stevana Harnada, zadaje fundamentalne pytanie: w jaki sposób symbole (takie jak słowa w języku lub tokeny w systemie komputerowym), które same w sobie są arbitralnymi, pozbawionymi znaczenia kształtami, nabierają wewnętrznego, rzeczywistego znaczenia?.42 Systemy czysto symboliczne, takie jak komputery, działają na zasadzie manipulacji symbolami zgodnie z formalnymi regułami (składnią), nie mając żadnego dostępu do ich znaczenia (semantyki).44
Harnad opisuje to jako problem wydostania się z „karuzeli symbol/symbol” (symbol/symbol merry-go-round).43 Wyobraźmy sobie próbę nauczenia się języka chińskiego wyłącznie za pomocą chińsko-chińskiego słownika. Definicja każdego nieznanego symbolu składałaby się z innych nieznanych symboli, prowadząc do nieskończonej pętli bez jakiegokolwiek połączenia ze światem rzeczywistym. Taki system byłby całkowicie „nieugruntowany”.
Najsłynniejszą ilustracją tego problemu jest eksperyment myślowy z Chińskim Pokojem autorstwa filozofa Johna Searle’a.43 Searle wyobraża sobie osobę nieznającą języka chińskiego, zamkniętą w pokoju. Osoba ta otrzymuje kartki z chińskimi symbolami (pytania) i, korzystając z obszernej instrukcji w swoim ojczystym języku, która mówi, jak dopasowywać kształty symboli, produkuje inne chińskie symbole (odpowiedzi). Z perspektywy obserwatora na zewnątrz, pokój jako całość prowadzi płynną konwersację po chińsku i zdaje test Turinga. Jednak osoba w środku nie rozumie ani jednego słowa. Manipuluje ona symbolami czysto syntaktycznie, bez żadnego dostępu do ich semantycznego wymiaru. Argument Searle’a głosi, że to samo dotyczy komputerów: programowanie, bez względu na jego złożoność, jest jedynie manipulacją symbolami i nigdy nie będzie wystarczające do powstania prawdziwego rozumienia i intencjonalności.
Jak zatem systemy naturalne, takie jak ludzki mózg, rozwiązują ten problem? Odpowiedź, jaką daje kognitywistyka, jest jednoznaczna: u ludzi symbole są ugruntowane w doświadczeniu sensorycznym i percepcyjnym.42 Słowo „pies” nabiera znaczenia nie dlatego, że jest zdefiniowane przez inne słowa („ssak”, „czworonożny”, „szczekający”), ale dlatego, że jest systematycznie powiązane z naszymi wielomodalnymi doświadczeniami: widokiem psów, dźwiękiem ich szczekania, uczuciem ich sierści, interakcjami z nimi. Ten proces ugruntowania wymaga nie tylko pasywnej percepcji, ale także aktywnych procesów poznawczych, takich jak kategoryzacja, abstrakcja i zdolność do działania w świecie.42
Rozdział 3.2: Duże Modele Językowe jako Systemy Nieugruntowane
Duże modele językowe są niemal doskonałym, fizycznym wcieleniem „karuzeli symbol/symbol” Harnada i „Chińskiego Pokoju” Searle’a. Uczą się one relacji między tokenami wyłącznie na podstawie ich statystycznego współwystępowania w gigantycznych korpusach tekstu.39 Dla LLM, znaczenie słowa „pies” jest w całości zdefiniowane przez jego wektorową reprezentację w wielowymiarowej przestrzeni, której położenie jest określone przez statystyczne sąsiedztwo z wektorami dla słów takich jak „kość”, „smycz”, „szczekać” czy „merdać ogonem”. Model nie ma absolutnie żadnego połączenia z rzeczywistym, czworonożnym, oddychającym stworzeniem, do którego te symbole się odnoszą.
Podejście to, znane jako hipoteza semantyki dystrybucyjnej, zakłada, że znaczenie słowa można w pełni lub w dużej mierze uchwycić, analizując zbiór kontekstów, w jakich to słowo występuje. LLM są ostatecznym i najbardziej spektakularnym testem tej hipotezy. Ich zdolność do generowania tekstu, który dla ludzkiego odbiorcy wydaje się pełen znaczenia i zrozumienia, jest zdumiewająca. To właśnie ten pozorny sukces prowadzi do postawienia tezy, że być może ugruntowanie w świecie fizycznym, choć jest sposobem, w jaki uczą się ludzie, nie jest koniecznym warunkiem opanowania języka i znaczenia.
Rozdział 3.3: Czy Ugruntowanie Ma Znaczenie? Granice Semantyki Dystrybucyjnej
Pomimo imponujących zdolności, ograniczenia LLM, wynikające bezpośrednio z braku ugruntowania, są głębokie i fundamentalne. Noam Chomsky, wraz ze współautorami Ianem Robertsem i Jeffreyem Watumullem, poświęcił temu zagadnieniu swój esej w „The New York Times” zatytułowany „The False Promise of ChatGPT”.29 Przedstawiają w nim serię argumentów demaskujących iluzję rozumienia w modelach językowych.
Po pierwsze, Chomsky argumentuje, że najgłębszą wadą tych systemów jest brak najważniejszej zdolności każdej inteligencji: mówienia nie tylko o tym, co jest, było i będzie (co jest opisem i predykcją), ale także o tym, co nie jest, oraz co mogłoby, a co nie mogłoby być.29 Zdolność do myślenia kontrfaktycznego jest podstawą rozumowania przyczynowego i tworzenia wyjaśnień. LLM, trenowane na korelacjach, potrafią opisywać i przewidywać, ale nie potrafią wyjaśniać. Prawdziwa inteligencja to nie tylko stwierdzenie „jabłko spada”, ale także rozumienie, że „jabłko nie spadłoby, gdyby nie siła grawitacji”.29
Po drugie, brak modelu świata sprawia, że LLM są niezdolne do odróżniania tego, co możliwe, od tego, co niemożliwe.27 Ponieważ uczą się wyłącznie na podstawie prawdopodobieństw w danych tekstowych, mogą z równą łatwością „nauczyć się”, że Ziemia jest płaska, jak i że jest okrągła, jeśli tylko dostarczy im się odpowiednich danych. Brakuje im fizycznych i logicznych ograniczeń, które dla ludzi wynikają z interakcji ze światem. Prowadzi to do absurdalnych błędów, które nie zdarzyłyby się człowiekowi dysponującemu zdrowym rozsądkiem. Przykładem jest sugestia LLM, że aby przenieść przez drzwi stół szerszy od nich, należy… użyć piły tarczowej do przecięcia drzwi na pół.24 To pokazuje całkowity brak rozumienia fizycznych właściwości obiektów. Podobnie, Chomsky podaje przykład, w którym LLM błędnie interpretuje zdanie „John is too stubborn to talk to” (Jan jest zbyt uparty, by z nim rozmawiać) przez powierzchowną analogię do „John ate an apple” (Jan zjadł jabłko), nie rozumiejąc ukrytej, złożonej struktury syntaktycznej, która jest oczywista dla człowieka.29
Po trzecie, prawdziwa inteligencja, zdaniem Chomsky’ego, jest zdolna do myślenia moralnego. LLM, pozbawione intencjonalności, doświadczeń i zdolności do empatii, są z natury amoralne.29 Ich pozorne trzymanie się zasad etycznych nie wynika z wewnętrznego kompasu moralnego, lecz z zewnętrznych ograniczeń i filtrów nałożonych przez programistów, aby uniknąć generowania treści szkodliwych lub kontrowersyjnych. Jak pokazuje dialog z ChatGPT na temat etyki terraformowania Marsa, model konsekwentnie unika zajęcia stanowiska, prezentując jedynie podsumowanie istniejących opinii i zrzucając odpowiedzialność na swoich twórców.29 Jest to, jak określa to Chomsky, „moralna obojętność zrodzona z braku inteligencji”.
Debata na temat ugruntowania ujawnia fundamentalnie różne poglądy na to, czym jest język. Dla zwolenników podejścia statystycznego, język w dużej mierze jest światem – modele uczą się z tekstów, które są przecież opisem świata. Dla Chomsky’ego i tradycji kognitywistycznej, język jest narzędziem do modelowania świata. Sukces LLM nie dowodzi, że ugruntowanie jest zbędne. Dowodzi raczej czegoś innego: że w ludzkim języku, w postaci tekstu, zakodowana jest ogromna ilość informacji o strukturze świata. LLM, dzięki swojej mocy obliczeniowej, są w stanie tę ukrytą strukturę wydobyć i zrekonstruować.
Nie jest to jednak to samo co prawdziwe ugruntowanie. Jest to raczej forma „ugruntowania pasożytniczego” (parasitic grounding).43 Model korzysta ze znaczeń, które zostały wcześniej ugruntowane w umysłach milionów ludzi, którzy tworzyli teksty, na których był trenowany. Sam model nie ma jednak bezpośredniego, przyczynowego dostępu do referentów tych słów.
Problem nie jest więc binarny: ugruntowane kontra nieugruntowane. LLM nie są całkowicie pustymi systemami syntaktycznymi, ale nie są też w pełni ugruntowanymi systemami semantycznymi. Reprezentują one potężny, ale ograniczony rodzaj znaczenia – znaczenie dystrybucyjne. Wyzwanie, jakie stawiają one teorii Chomsky’ego, nie polega na tym, że obalają potrzebę ugruntowania. Polega ono raczej na tym, że zmuszają nas do zadania nowego, bardziej zniuansowanego pytania: jak wiele semantyki i wiedzy o świecie można wydobyć z samych relacji dystrybucyjnych, jeśli dysponuje się wystarczającą ilością danych? To przesuwa oś debaty z pytania „czy ugruntowanie jest potrzebne?” na pytanie „do czego dokładnie ugruntowanie jest potrzebne i jakie aspekty znaczenia i poznania na zawsze pozostaną poza zasięgiem systemów czysto dystrybucyjnych?”.
Wnioski: Czy Sztuczna Inteligencja Rzeczywiście Obaliła Chomsky’ego? Zniuansowany Werdykt
Po szczegółowej analizie trzech filarów tezy, że sztuczna inteligencja skutecznie obaliła lingwistyczne podejście Noama Chomsky’ego, można sformułować jednoznaczny wniosek: teza ta jest nieuzasadniona i opiera się na serii głębokich uproszczeń, błędnych analogii i niezrozumienia fundamentalnych celów obu dziedzin badawczych.
Synteza przedstawionych argumentów prowadzi do następujących konkluzji w odniesieniu do każdego z punktów wyjściowej tezy:
-
Ad 1 (Brak wrodzonej zdolności): Twierdzenie, że sukces LLM dowodzi, iż ogólne mechanizmy uczenia się wystarczą do opanowania języka, opiera się na fałszywej analogii między dzieckiem a maszyną. Ludzie i LLM reprezentują radykalnie odmienne architektury poznawcze, uczące się w drastycznie różnych warunkach i na podstawie nieporównywalnych danych. Gigantyczne zapotrzebowanie LLM na dane i energię, w kontraście do niezwykłej efektywności ludzkiego dziecka, nie falsyfikuje hipotezy o istnieniu wrodzonej Gramatyki Uniwersalnej. Wręcz przeciwnie, można argumentować, że paradoksalnie ją wzmacnia, podkreślając skalę problemu, jaki natura rozwiązała poprzez ewolucję wysoce wyspecjalizowanego, oszczędnego biologicznie mechanizmu.
-
Ad 2 (Niechlujny język): Spór o to, czy język jest „eleganckim systemem” czy „statystycznym chaosem”, jest w rzeczywistości sporem o cele nauki i definicję obiektu badań. Lingwistyka generatywna Chomsky’ego dąży do wyjaśnienia abstrakcyjnej, idealnej kompetencji językowej (I-language), postrzegając „niechlujność” jako artefakt wykonania. Z kolei duże modele językowe są narzędziami inżynieryjnymi, których celem jest jak najwierniejsze modelowanie statystycznych właściwości „niechlujnego” wykonania (E-language). Oba podejścia badają różne aspekty tego samego zjawiska i dążą do osiągnięcia różnych celów: głębi wyjaśnienia kontra trafności predykcji. Nowsze koncepcje, takie jak rozróżnienie na kompetencję formalną i funkcjonalną, pokazują, że LLM mogą doskonale radzić sobie z jednym aspektem (strukturą), jednocześnie zawodząc w drugim (funkcją), co dodatkowo komplikuje prostą dychotomię.
-
Ad 3 (Brak ugruntowania): Sukces LLM nie dowodzi, że ugruntowanie znaczenia w świecie rzeczywistym jest zbędne. Dowodzi on raczej, jak wiele informacji o strukturze świata jest ukrytych w relacjach dystrybucyjnych w języku. LLM osiągają swoje wyniki dzięki „pasożytniczemu ugruntowaniu” na wiedzy milionów ludzi, którzy stworzyli dane treningowe. Ich fundamentalne ograniczenia w rozumowaniu przyczynowym, myśleniu kontrfaktycznym, zdrowym rozsądku i refleksji moralnej są bezpośrednią konsekwencją braku bezpośredniego, sensorycznego i sprawczego kontaktu ze światem. Wskazują one wyraźnie na granice semantyki czysto dystrybucyjnej i kluczową rolę ugruntowania dla osiągnięcia prawdziwej, elastycznej inteligencji.
Ostateczny werdykt musi być zatem jednoznaczny: sztuczna inteligencja nie obaliła teorii Chomsky’ego. Duże modele językowe nie są modelami ludzkiego umysłu ani procesu akwizycji języka przez dziecko.30 Są to potężne narzędzia inżynieryjne, które rozwiązują problem przetwarzania języka w sposób fundamentalnie odmienny od tego, jak robi to biologia.
Zamiast postrzegać te dwa paradygmaty jako wzajemnie się wykluczające, bardziej owocne jest traktowanie ich jako komplementarne. Lingwistyka generatywna, w tradycji naukowej, stawia głębokie i trudne pytania o naturę ludzkiego poznania, granice ludzkiej wiedzy i biologiczną unikalność języka jako narzędzia myślenia. Duże modele językowe, jako szczytowe osiągnięcie inżynierii, dostarczają bezprecedensowych narzędzi do testowania hipotez lingwistycznych na ogromną skalę, badania granic uczenia statystycznego i eksplorowania natury znaczenia w sposób, który wcześniej był niemożliwy. Przyszłość postępu w rozumieniu języka i inteligencji nie leży w ogłaszaniu zwycięstwa jednej „kultury” nad drugą, ale w budowaniu mostów i prowadzeniu dialogu między nimi, w celu integracji wglądów płynących zarówno z racjonalistycznej analizy struktur umysłu, jak i empirycznego modelowania danych na masową skalę.
Cytowane prace
-
Noam Chomsky: cytaty, biografia, książki, manipulacja społeczna – Empowerment Coaching, otwierano: czerwca 15, 2025, https://www.empowerment-coaching.com/post/noam-chomsky-teoria-manipulacji-spolecznej
-
Co poszło źle w sztucznej inteligencji? Rozmowa z Noamem Chomskym1 – Yarden Katz, otwierano: czerwca 15, 2025, https://yarden.github.io/pdfs/YK_NC_AtlanticInterview_Polish.pdf
-
czy tylko człowiek włada językiem? – Centrum Kopernika Badań Interdyscyplinarnych, otwierano: czerwca 15, 2025, https://www.copernicuscenter.edu.pl/wp-content/uploads/2020/01/COPERNICUS_SRODEK.pdf
-
Noam Chomsky – Wikipedia, wolna encyklopedia, otwierano: czerwca 15, 2025, https://pl.wikipedia.org/wiki/Noam_Chomsky
-
Język i jego problematyczne właściwości w teorii Noama Chomsky’ego – Repozytorium UMK, otwierano: czerwca 15, 2025, https://repozytorium.umk.pl/bitstream/handle/item/925/A.%20Derra%2C%20J%C4%99zyk%20i%20jego%20problematyczne%20w%C5%82asno%C5%9Bci%20w%20teorii%20Noama%20Chomsky%27ego.pdf?sequence=1
-
Noam Chomsky – 10 inspirujących cytatów, które zmieniają spojrzenie na świat, otwierano: czerwca 15, 2025, https://dobrewiadomosci.net.pl/76590-noam-chomsky-10-inspirujacych-cytatow-ktore-zmieniaja-spojrzenie-na-swiat/
-
Lingwistyczne teorie Noama Chomsky’ego w … – Biblioteka Nauki, otwierano: czerwca 15, 2025, https://bibliotekanauki.pl/articles/2137066.pdf
-
Jakimi istotami jesteśmy? Noam Chomsky książka | TaniaKsiazka.pl, otwierano: czerwca 15, 2025, https://www.taniaksiazka.pl/ksiazka/jakimi-istotami-jestesmy-chomsky-noam
-
Co to jest LLM, czyli jak działają duże modele językowe | KajoData, otwierano: czerwca 15, 2025, https://kajodata.com/ai/co-to-jest-llm-duze-modele-jezykowe/
-
Model językowy – Wikipedia, wolna encyklopedia, otwierano: czerwca 15, 2025, https://pl.wikipedia.org/wiki/Model_j%C4%99zykowy
-
Co to jest duży model językowy (LLM)? – SAP, otwierano: czerwca 15, 2025, https://www.sap.com/poland/resources/what-is-large-language-model
-
Co to jest duży model językowy (LLM)? – OVH, otwierano: czerwca 15, 2025, https://www.ovhcloud.com/pl/learn/what-is-large-language-model/
-
Najlepsze dzieła Noama Chomsky’ego – Speechify, otwierano: czerwca 15, 2025, https://speechify.com/pl/blog/best-works-by-noam-chomsky/
-
Preliminaries, otwierano: czerwca 15, 2025, https://dmice.ohsu.edu/bedricks/courses/cs662/syllabus/1-first-session.html
-
On Chomsky and the Two Cultures of Statistical Learning, otwierano: czerwca 15, 2025, https://norvig.com/chomsky.html
-
is describing language mere butterfly collection? on epistemology, statistical language models, and corpus – Abstract View, otwierano: czerwca 15, 2025, https://library.iated.org/view/UZEDAGARRAO2019ISD
-
Język Według Noama Chomsky’ego | PDF – Scribd, otwierano: czerwca 15, 2025, https://www.scribd.com/document/410461498/Je-zyk-wed%C5%82ug-Noama-Chomsky-ego
-
Noam Chomsky Trzy elementy projektujące język – Bazhum, otwierano: czerwca 15, 2025, https://bazhum.muzhp.pl/media/texts/prace-jezykoznawcze/2008-tom-10/prace_jezykoznawcze-r2008-t10-s241-273.pdf
-
Noam Chomsky – streszczenie poglądów – :: 3bird Projects, otwierano: czerwca 15, 2025, https://edukacja.3bird.pl/download/filozofia/platon/filozofia-noam-chomsky-streszczenie.pdf
-
Noam Chomsky i jego wpływ na naukę języków – Taalhammer, otwierano: czerwca 15, 2025, https://www.taalhammer.com/pl/noam-chomsky-i-jego-wplyw-na-nauke-jezykow/
-
Język jest wrodzony: Natywizm i Noam Chomsky (1950) – Taalhammer, otwierano: czerwca 15, 2025, https://www.taalhammer.com/pl/natywizm-jezyk-jest-wrodzony-chomsky/
-
Uniwersalny język – Wielkie Pytania, otwierano: czerwca 15, 2025, https://www.wielkiepytania.pl/article/uniwersalny-jezyk/
-
Teoria Chomsky’ego o Wrodzonych Aspektach Języka | PDF – Scribd, otwierano: czerwca 15, 2025, https://www.scribd.com/document/792759985/Teoria-Chomsky-ego-o-wrodzonych-aspektach-j%C4%99zyka
-
Despite Their Feats, Large Language Models Still Haven’t Contributed to Linguistics, otwierano: czerwca 15, 2025, https://towardsdatascience.com/despite-their-feats-large-language-models-still-havent-contributed-to-linguistics-657bea43a8a3/
-
Duży model językowy – Wikipedia, wolna encyklopedia, otwierano: czerwca 15, 2025, https://pl.wikipedia.org/wiki/Du%C5%BCy_model_j%C4%99zykowy
-
Co to są duże modele językowe (LLM) – Shaip, otwierano: czerwca 15, 2025, https://pl.shaip.com/blog/a-guide-large-language-model-llm/
-
Noam Chomsky’s article on NYTimes : r/ChatGPT – Reddit, otwierano: czerwca 15, 2025, https://www.reddit.com/r/ChatGPT/comments/11m59bm/noam_chomskys_article_on_nytimes/
-
W jaki sposób ludzie uczą się języka? – Babbel, otwierano: czerwca 15, 2025, https://pl.babbel.com/pl/magazine/teorie-akwizycji-jezyka
-
Noam Chomsky: The False Promise of ChatGPT : r/ChatGPT – Reddit, otwierano: czerwca 15, 2025, https://www.reddit.com/r/ChatGPT/comments/11ng6t6/noam_chomsky_the_false_promise_of_chatgpt/
-
Noam Chomsky Exposes The False Promise Of Chatgpt – YouTube, otwierano: czerwca 15, 2025, https://www.youtube.com/watch?v=-enGMTwEpqg
-
Noam Chomsky on the False Promise of ChatGPT! – Tony’s Thoughts – CUNY, otwierano: czerwca 15, 2025, https://apicciano.commons.gc.cuny.edu/2023/03/09/noam-chomsky-on-the-false-promise-of-chatgpt/
-
(PDF) Model kompetencji językowej Noama Chomsky’ego – ResearchGate, otwierano: czerwca 15, 2025, https://www.researchgate.net/publication/273399285_Model_kompetencji_jezykowej_Noama_Chomsky’ego
-
Linguistic competence – Wikipedia, otwierano: czerwca 15, 2025, https://en.wikipedia.org/wiki/Linguistic_competence
-
Can someone help with confusion between language fluency and proficiency, competence and performance, especially with L2? : r/linguistics – Reddit, otwierano: czerwca 15, 2025, https://www.reddit.com/r/linguistics/comments/2k44s0/can_someone_help_with_confusion_between_language/
-
Is there a consensus among linguists on whether the proposed distinctions between”Linguistic competence” and „linguistic performance” are real or not? – Reddit, otwierano: czerwca 15, 2025, https://www.reddit.com/r/linguistics/comments/4n418o/is_there_a_consensus_among_linguists_on_whether/
-
Manipulacja społeczna – teoria Noama Chomsky’ego – Projekt Błonie, otwierano: czerwca 15, 2025, https://projektblonie.pl/manipulacja-spoleczna-teoria-noama-chomskyego/
-
Przeglad Filozoficzny 2-2013.indd – Przegląd Filozoficzny, otwierano: czerwca 15, 2025, https://pf.uw.edu.pl/images/NUMERY_PDF/086/2-13-2_Katz.pdf
-
On Chomsky and the Two Cultures of Statistical Learning | Request PDF – ResearchGate, otwierano: czerwca 15, 2025, https://www.researchgate.net/publication/318015716_On_Chomsky_and_the_Two_Cultures_of_Statistical_Learning
-
Noam Chomsky: The False Promise of ChatGPT – LingQ Language Forums, otwierano: czerwca 15, 2025, https://forum.lingq.com/t/noam-chomsky-the-false-promise-of-chatgpt/37316
-
Dissociating language and thought in large language models – MIT, otwierano: czerwca 15, 2025, https://web.mit.edu/bcs/nklab/media/pdfs/Mahowald.TICs2024.pdf
-
arXiv:2301.06627v3 [cs.CL] 23 Mar 2024, otwierano: czerwca 15, 2025, https://arxiv.org/pdf/2301.06627
-
The Symbol Grounding Problem Explained – Number Analytics, otwierano: czerwca 15, 2025, https://www.numberanalytics.com/blog/symbol-grounding-problem-explained
-
Symbol grounding problem – Wikipedia, otwierano: czerwca 15, 2025, https://en.wikipedia.org/wiki/Symbol_grounding_problem
-
The Symbol Grounding Problem – arXiv, otwierano: czerwca 15, 2025, http://arxiv.org/html/cs/9906002
-
Symbol grounding problem – Scholarpedia, otwierano: czerwca 15, 2025, http://www.scholarpedia.org/article/Symbol_grounding_problem
-
Chomsky et al. on ChatGPT. How important is statistical learning for language acquisition?, otwierano: czerwca 15, 2025, http://www.vitorzimmerer.net/blog/2023/3/12/chomsky-et-al-on-chatgpt
-
Noam Chomsky: Ludzki umysł nie jest jak ChatGPT – Agencja Informacyjna, otwierano: czerwca 15, 2025, https://agencja-informacyjna.com/noam-chomsky-chatgpt/