Puste pole w oknie ChatGPT początkowo wydawało się obietnicą – czystą kartą dającą dostęp do niemal całej ludzkiej wiedzy. Wystarczyła intencja, by uruchomić potężny silnik intelektualny. Jednak każda obiecująca technologia ma swojego mrocznego bliźniaka. Media społecznościowe nauczyły nas doomscrollingu – biernego konsumowania nieskończonego strumienia treści. Sztuczna inteligencja wprowadza nas w erę doompromptingu – biernej „konwersacji” i pozornego „tworzenia”.

To nowe, uzależniające zachowanie, w którym zamiast głęboko myśleć, zaledwie z połową uwagi negocjujemy z maszyną, której nigdy nie brakuje sugestii. Zaczynamy od przemyślanego polecenia, ale z każdą kolejną iteracją nasze zapytania stają się krótsze, a odpowiedzi AI – dłuższe i bardziej uwodzicielskie. Dźwignią tego nowego automatu do gier jest proste pytanie: „Kontynuować?”. Doomprompting to nowy doomscrolling.

Iluzja produktywności: teatr myślenia

Problem nie leży w samej technologii AI, która stanowi autentyczny i często magiczny postęp. Kłopot w tym, jak interfejsy, zaprojektowane z myślą o maksymalizacji zaangażowania, a nie pogłębianiu poznania, kształtują naszą relację z samym myśleniem.

  • Bierna rozmowa zamiast aktywnego tworzenia: Podczas gdy doomscrolling uczynił nas biernymi konsumentami, doomprompting czyni nas biernymi rozmówcami i twórcami. Przejście od konsumpcji do pozornego uczestnictwa sprawia, że iluzja jest znacznie bardziej przekonująca, a uzależnienie – bardziej wyrafinowane.

  • Dopamina odczuwanej produktywności: Zastąpiliśmy dopaminę płynącą z polubień i udostępnień nowym narkotykiem – dopaminą odczuwanej produktywności, partnerstwa intelektualnego i społecznej akceptacji ze strony maszyny. Mamy wrażenie, że coś „pomyśleliśmy”, „rozwiązaliśmy” czy „stworzyliśmy”, podczas gdy w rzeczywistości jedynie nadzorowaliśmy proces generowania. Mylimy działanie z faktycznym działaniem.

  • Omijanie „brudnego środka”: Analiza naukowa pokazuje, że AI jest najbardziej przydatna na początku procesu twórczego (burza mózgów, generowanie zarysu) i na jego końcu (redakcja, testowanie argumentów). Jednak kluczowy, „brudny środek” – tam, gdzie rodzi się autentyczna myśl i wykuwa główna teza – wciąż należy do człowieka. Zlecanie AI najważniejszej części pracy skutkuje dziełem, które jest powierzchowne, pełne banałów i pozbawione osobowości.

Poniższa tabela zestawia dynamikę starych i nowych mediów w kontekście uzależnienia uwagi.

Zjawisko Medium Proces Psychologiczny mechanizm Długofalowy skutek
Doomscrolling Media społecznościowe Bierne konsumowanie treści Dopamina z nowości i społecznej walidacji (polubienia) Skrócenie czasu koncentracji, pasywność.
Doomprompting Generatywna AI Bierne uczestnictwo w „tworzeniu” Dopamina z odczuwanej produktywności i partnerstwa intelektualnego Atrofia mięśni poznawczych, utrata zdolności do głębokiego myślenia.

Tępienie najważniejszego narzędzia: własnego umysłu

Największym zagrożeniem płynącym z doompromptingu jest erozja naszych zdolności poznawczych. Osiągamy rezultaty, nie budując „mięśni” umysłowych, które są do tego potrzebne. Tępimy kluczowy instrument – nasz własny umysł – jednocześnie ostrząc narzędzie zewnętrzne.

Jak ostrzega informatyk Leslie Lamport: „Jeśli myślisz bez pisania, to tylko wydaje ci się, że myślisz”. Zlecanie pisania sztucznej inteligencji jest w istocie zlecaniem samego myślenia. Paul Graham idzie o krok dalej, przewidując świat podzielony na piszących i niepiszących, co w praktyce oznacza świat myślących i niemyślących.

Konsekwencje są subtelne, ale głębokie:

  • Uśrednienie kreatywności: Kiedy wszyscy korzystają z AI wytrenowanej na tych samych danych, nieuchronnie zmierzamy w kierunku średniej ważonej osobowości i kreatywności. Tracimy zdolność do myślenia poza schematem.

  • Infekcja języka: Nadmierne korzystanie z LLM-ów sprawia, że nieświadomie naśladujemy ich styl, rytm i dobór słów, co prowadzi do zubożenia i ujednolicenia naszego własnego języka.

  • Utrata osądu: Najlepsza współpraca z AI wymaga ludzi, którzy potrafią wykonać pracę samodzielnie, ale strategicznie decydują się na wsparcie. Kiedy zlecamy pracę na zewnątrz, zanim rozwiniemy własny osąd, stajemy się zależni, nigdy nie stając się wymagający.

Jak się bronić? W poszukiwaniu poznawczego oporu

Przyszłość nie polega na unikaniu AI, ale na świadomym kształtowaniu naszej relacji z nią. Zamiast silników realizacji, które wykonują za nas pracę, potrzebujemy partnerów poznawczych, którzy rzucą nam wyzwanie. Kluczem jest celowość: używajmy AI do wzmacniania ludzkiej kreatywności, a nie do jej zastępowania.

Oto pięć ideałów, którymi możemy się kierować:

  1. Żądaj AI, która zmusza cię do pracy. Potrzebujemy nowej generacji „powolnej AI” – interfejsów opartych na ograniczeniach, które pomagają nam samodzielnie dochodzić do wglądu. Nowy „Tryb nauki” w ChatGPT, który ma za zadanie pomagać, a nie wyręczać, jest krokiem w tym kierunku.

  2. Szukaj narzędzi, które traktują tarcie jako funkcję. W świecie cyfrowym tarcie jest postrzegane jako wada. Musimy zacząć je cenić jako siłę, która zmusza do refleksji i intencjonalności. Paradoksalnie, obecne ograniczenia w użytkowaniu AI (np. limity zapytań) przypadkowo pełnią tę funkcję, zmuszając nas do przerw na myślenie.

  3. Ceń rozwagę bardziej niż wydajność. Szybkość mylimy z postępem. Czasem dłuższa droga jest skrótem. Spacer oczyszcza umysł w sposób, w jaki szybka jazda samochodem nigdy tego nie zrobi. Proces twórczy potrzebuje czasu na inkubację.

  4. Unikaj systemów pochlebczych. Niektóre modele AI są zaprojektowane tak, by unikać konfrontacji i prawić nam komplementy. Czysta walidacja jest jednak nudna i poznawczo niebezpieczna. Potrzebujemy systemów, które opierają się na wartościach i zasadach (jak Constitutional AI w modelu Claude), a nie tylko na natychmiastowej satysfakcji użytkownika.

  5. Znajdź ludzkich partnerów poznawczych. Najlepszą obroną przed zależnością od maszyn jest najstarsza metoda: budowanie relacji z ludźmi, którzy myślą niezależnie, rzucają nam wyzwania i zmuszają do obrony własnych stanowisk. Miej mądrych przyjaciół.

Rywalizacja nie toczy się między ludźmi a maszynami, ale między dwoma modelami interakcji z technologią. Jeden traktuje poznanie jak towar do zoptymalizowania. Drugi chroni to, co czyniło puste pole w oknie czatu wyjątkowym: szlachetną walkę ludzkiej ciekawości z własnymi ograniczeniami. Wybór należy do nas.


Najczęściej zadawane pytania (FAQ)

  1. Czym dokładnie doomprompting różni się od zwykłego korzystania z AI?
    Zwykłe korzystanie z AI jest celowe i aktywne – używasz narzędzia do rozwiązania konkretnego problemu. Doomprompting to stan, w którym interakcja z AI staje się bezrefleksyjna i pasywna. Zamiast formułować precyzyjne polecenia, zdajesz się na sugestie maszyny, wchodząc w niekończący się cykl drobnych modyfikacji, który daje iluzję pracy, ale nie prowadzi do głębokiego zrozumienia ani autentycznej twórczości.

  2. Czy autor sugeruje, żeby w ogóle nie używać AI do pisania lub kodowania?
    Nie, autor podkreśla, że AI jest fenomenalnym narzędziem, ale kluczowe jest świadome i strategiczne korzystanie z niego. Sugeruje używanie AI na skrajnych etapach procesu twórczego (burza mózgów i redakcja), ale zachowanie dla siebie kluczowego, środkowego etapu, w którym kształtuje się główna myśl. Chodzi o współpracę, a nie o abdykację z myślenia.

  3. Na czym polega „efekt poznawczej sztangi”?
    To metafora opisująca polaryzację umiejętności. W kontekście AI oznacza to, że zaniknie „klasa średnia” umiejętności. Zamiast szerokiego spektrum ludzi piszących na różnym poziomie (od słabego, przez niezły, po dobry), pozostaną tylko dwie grupy: ci, którzy piszą bardzo dobrze (bo świadomie ćwiczą tę umiejętność) i ci, którzy nie potrafią pisać wcale (bo całkowicie zlecili tę funkcję AI).

  4. Co to jest „Constitutional AI” (Konstytucyjna AI)?
    To podejście do trenowania modeli AI, opracowane przez firmę Anthropic dla ich modelu Claude. Zamiast polegać wyłącznie na ludzkich opiniach (które mogą być zmienne i stronnicze), model jest uczony, by przestrzegać zestawu fundamentalnych zasad (swoistej „konstytucji”), takich jak promowanie uczciwości i unikanie szkodliwych treści. Ma to na celu stworzenie AI, która jest bardziej przewidywalna i oparta na wartościach.

  5. Czy naprawdę istnieje ryzyko „psychozy GPT”?
    Termin ten jest używany metaforycznie do opisania stanu, w którym osoba traci kontakt z rzeczywistoą z powodu nadmiernego polegania na bezkrytycznej walidacji i pochlebstwach ze strony AI. Ciągłe otrzymywanie pozytywnych, pozbawionych tarcia odpowiedzi może prowadzić do zniekształconego postrzegania własnych pomysłów i utraty zdolności do krytycznej samooceny.

Publikacje wykonane przez nas w podobnej tematyce

  1. Ekonomia uwagi 2.0: analiza mechanizmów uzależniających w generatywnej sztucznej inteligencji.

  2. Atrofia poznawcza w erze AI: badanie wpływu LLM na procesy uczenia się i kreatywność.

  3. Projektowanie tarcia: jak interfejsy oparte na ograniczeniach mogą promować głębsze myślenie we współpracy z AI.

  4. Syndrom uśrednienia: analiza wpływu generatywnej AI na dywergencję i oryginalność w pracy twórczej.

  5. Ludzki partner poznawczy vs. AI: studium porównawcze efektywności i jakości wglądu w procesie rozwiązywania problemów.


Potrzebujesz wsparcia w analizie wpływu technologii na społeczeństwo, przygotowaniu raportu badawczego lub publikacji naukowej? Nasz zespół łączy wiedzę z zakresu kognitywistyki, socjologii i technologii. Skontaktuj się z nami, aby Twoje analizy zyskały naukową głębię.

Doomprompting: nowy doomscrolling, który kradnie twoją zdolność myślenia by
Doomprompting: nowy doomscrolling, który kradnie twoją zdolność myślenia

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *