Wstęp: Nowy Paradygmat Badań Doktoranckich – Sztuczna Inteligencja jako Partner w Krytycznym Myśleniu

Proces tworzenia pracy doktorskiej jest jednym z najbardziej wymagających przedsięwzięć intelektualnych. To podróż naznaczona nie tylko głęboką eksploracją wybranej dziedziny, ale również licznymi wyzwaniami o charakterze osobistym i metodologicznym. Doktoranci często zmagają się z poczuciem izolacji, spadkami motywacji, presją na innowacyjność oraz paraliżującym syndromem pustej strony.1 W tym złożonym krajobrazie pojawienie się zaawansowanych modeli generatywnej sztucznej inteligencji (GenAI), takich jak ChatGPT, stanowi punkt zwrotny, który redefiniuje możliwości i charakter pracy badawczej. Jednakże powszechne postrzeganie AI jako narzędzia do automatyzacji prostych zadań – korekty gramatycznej, streszczania tekstów czy generowania szkiców – jest nie tylko powierzchowne, ale i niebezpieczne. Tego rodzaju podejście grozi sprowadzeniem technologii do roli „technologicznej protezy”, która osłabia, zamiast wzmacniać, kluczowe kompetencje badawcze.

Doktorant analizujący dane na laptopie obok symbolicznej grafiki mózgu i sztucznej inteligencji

Niniejszy artykuł przedstawia radykalnie odmienną perspektywę: strategiczne wykorzystanie sztucznej inteligencji jako „intelektualnego sparingpartnera”.4 Celem jest zademonstrowanie, jak świadomy i ustrukturyzowany dialog z AI, oparty na dziesięciu fundamentalnych podpowiedziach stymulujących myślenie krytyczne, może przekształcić każdy etap pracy nad dysertacją. Podpowiedzi te – od kwestionowania założeń, przez poszukiwanie kontrargumentów, po ocenę z różnych perspektyw – nie są zbiorem przypadkowych pytań. Stanowią one spójny, zintegrowany system, który pozwala przekształcić generyczny duży model językowy (LLM) w wyspecjalizowane narzędzie do pogłębionej analizy, testowania hipotez i wzmacniania argumentacji.

Teza tego opracowania jest następująca: opanowanie sztuki krytycznego dialogu z AI jest nową, fundamentalną metakompetencją współczesnego badacza. Kompetencja ta redefiniuje proces naukowy, przenosząc ciężar z zadań technicznych i czasochłonnych, takich jak wstępne przeszukiwanie literatury czy formatowanie, na myślenie wyższego rzędu: ewaluację, syntezę, kreatywność i krytyczną refleksję.5 AI, używana w ten sposób, nie zastępuje myślenia doktoranta, lecz je prowokuje, intensyfikuje i wzbogaca, stając się katalizatorem głębszych i bardziej oryginalnych wglądów.

Struktura niniejszego przewodnika odzwierciedla chronologiczną podróż przez proces tworzenia doktoratu. W Części I skupimy się na fundamentach – od precyzowania pytania badawczego po nowatorskie podejście do przeglądu literatury. Część II zagłębi się w rdzeń pracy naukowej, demonstrując, jak AI może służyć do budowania rygorystycznej metodologii i testowania siły własnej argumentacji. Część III poświęcona będzie finalizacji pracy, syntezie wyników oraz, co kluczowe, omówieniu nienegocjowalnych ram etycznych i instytucjonalnych, które muszą regulować każde użycie tej potężnej technologii. Celem jest dostarczenie doktorantom i ich opiekunom naukowym kompleksowego, praktycznego i odpowiedzialnego przewodnika po nowym paradygmacie badań, w którym człowiek i maszyna wchodzą w synergiczną relację, dążąc do poszerzenia granic wiedzy.

Część I: Fundamenty – Strategiczne Wykorzystanie AI w Początkowych Etapach Doktoratu

Początkowe fazy pracy nad doktoratem są kluczowe dla powodzenia całego przedsięwzięcia. To na tym etapie definiuje się pole badawcze, identyfikuje lukę w istniejącej wiedzy i buduje fundament teoretyczny, na którym opierać się będzie cała dysertacja. Błędy popełnione w tej fazie mogą prowadzić do miesięcy, a nawet lat frustrującej i bezowocnej pracy. Sztuczna inteligencja, jeśli zostanie wykorzystana w sposób strategiczny, może stać się nieocenionym wsparciem w precyzyjnym nawigowaniu po tych wczesnych, często niepewnych etapach. Zamiast jednak traktować AI jako źródło gotowych odpowiedzi, należy ją postrzegać jako narzędzie do zadawania lepszych pytań i dekonstrukcji problemu.

Rozdział 1: Od Ogólnego Pomysłu do Precyzyjnego Pytania Badawczego

1.1 Diagnoza problemu: „Klątwa szerokiego tematu” i trudność w znalezieniu luki badawczej

Jednym z najczęstszych i najbardziej paraliżujących wyzwań, przed jakimi stają doktoranci, jest przejście od ogólnego obszaru zainteresowań do sformułowania precyzyjnego, oryginalnego i badawczego pytania.2 Problem ten, określany mianem „klątwy szerokiego tematu”, często wynika z przytłoczenia ogromem istniejącej literatury i trudnością w zidentyfikowaniu rzeczywistej luki badawczej (research gap). Pytanie „Czym mam się zająć?” może prowadzić do blokady twórczej i poczucia, że „wszystko już zostało napisane”. Tradycyjne podejście polega na wielomiesięcznym, żmudnym przeglądzie literatury w nadziei na znalezienie niezagospodarowanego obszaru. Sztuczna inteligencja może znacząco skrócić ten proces, ale jej naiwne użycie – na przykład poprzez prompt „Zaproponuj mi temat na doktorat z [dziedzina]” – prowadzi jedynie do generycznych i nieoryginalnych propozycji. Kluczem jest wykorzystanie AI nie do generowania odpowiedzi, ale do mapowania i dekonstrukcji pola badawczego.

1.2 Zastosowanie krytycznych podpowiedzi do eksploracji i zawężania tematu

Strategiczne wykorzystanie krytycznych podpowiedzi pozwala przekształcić AI z generatora pomysłów w analityczne narzędzie do badania struktury samej wiedzy. Poniższe techniki umożliwiają doktorantowi przejście od pasywnego odbiorcy do aktywnego architekta problemu badawczego.

Podpowiedź 1: „Jakie założenia leżą u podstaw tego argumentu lub stwierdzenia?”

Ta podpowiedź jest potężnym narzędziem do dekonstrukcji ogólnych idei i powszechnie przyjmowanych prawd w danej dziedzinie. Zamiast akceptować dany obszar badawczy jako oczywisty, doktorant może użyć AI do zidentyfikowania jego ukrytych, często nieuświadomionych przesłanek.1 Te założenia mogą stać się celem krytyki lub punktem wyjścia do sformułowania oryginalnej tezy.

  • Przykład praktycznego dialogu:

  • Użytkownik: „Chcę badać wpływ mediów społecznościowych na polaryzację polityczną.”

  • AI: (Generuje ogólne podsumowanie badań na ten temat, wskazując na algorytmy, bańki informacyjne itp.)

  • Użytkownik: „Jakie założenia leżą u podstaw twierdzenia, że algorytmy mediów społecznościowych nieuchronnie prowadzą do polaryzacji?”

  • AI: (Analizując, może odpowiedzieć) „To twierdzenie opiera się na kilku kluczowych założeniach: 1. Użytkownicy są pasywnymi odbiorcami treści algorytmicznych. 2. Celem algorytmów jest maksymalizacja zaangażowania, a treści polaryzujące generują największe zaangażowanie. 3. Ekspozycja na odmienne poglądy jest ograniczona. 4. Polaryzacja jest mierzona głównie poprzez postawy, a nie zachowania. Każde z tych założeń może być kwestionowane.”

Taka odpowiedź natychmiast otwiera nowe ścieżki badawcze: Czy użytkownicy faktycznie są pasywni? Czy można zaprojektować algorytmy optymalizujące pod kątem zrozumienia, a nie zaangażowania? Jakie są behawioralne, a nie tylko deklaratywne, wskaźniki polaryzacji?

Podpowiedź 8: „Jakie pytania pozostają bez odpowiedzi lub wymagają dalszego dochodzenia?”

To najbardziej bezpośrednie narzędzie do identyfikacji luki badawczej. Po wstępnym zmapowaniu pola przez AI, ta podpowiedź zmusza model do dokonania syntezy i wskazania obszarów, które są niedostatecznie zbadane lub kontrowersyjne.7 Jest to znacznie skuteczniejsze niż samodzielne przeszukiwanie setek artykułów w poszukiwaniu fraz typu „future research is needed”.

  • Przykład praktycznego dialogu:

  • Użytkownik: „Podsumuj w punktach główne nurty badań nad wykorzystaniem AI w diagnostyce medycznej w ciągu ostatnich 5 lat.”

  • AI: (Generuje listę głównych trendów: analiza obrazów, predykcja chorób na podstawie danych genetycznych, NLP w analizie dokumentacji medycznej).

  • Użytkownik: „Na podstawie tego podsumowania, jakie kluczowe pytania w tej dziedzinie wciąż pozostają bez odpowiedzi lub wymagają dalszych, pogłębionych badań?”

  • AI: „Na podstawie przedstawionych trendów, kilka pytań pozostaje otwartych: 1. Jak zapewnić rzetelność i sprawiedliwość (fairness) modeli AI na danych pochodzących z różnych grup etnicznych i demograficznych, gdzie zbiory danych są niezbalansowane? 2. Jakie są długoterminowe skutki integracji systemów AI z pracą lekarzy w kontekście ich autonomii decyzyjnej i ryzyka de-kwalifikacji? 3. Jakie ramy prawne i etyczne są potrzebne do regulacji odpowiedzialności za błędy diagnostyczne popełnione przez AI? 4. W jaki sposób można efektywnie walidować modele AI w warunkach klinicznych w czasie rzeczywistym, a nie tylko na historycznych zbiorach danych?”.10

Podpowiedź 6: „Jakie alternatywne rozwiązania lub podejścia można rozważyć?”

Ta podpowiedź stymuluje myślenie dywergencyjne i zachęca do wychodzenia poza utarte schematy metodologiczne lub teoretyczne dominujące w danej subdyscyplinie.12 AI, dzięki dostępowi do szerokiego spektrum wiedzy, może proponować nieoczywiste połączenia interdyscyplinarne, które mogą stać się źródłem innowacyjności.

  • Przykład praktycznego dialogu:

  • Użytkownik: „W badaniach nad przywództwem w organizacjach dominuje podejście oparte na ankietach i analizie cech osobowości. Jakie alternatywne podejścia metodologiczne można by zastosować do badania tego zjawiska?”

  • AI: „Oprócz tradycyjnych metod ankietowych, można rozważyć następujące alternatywne podejścia: 1. Analiza sieci organizacyjnych (ONA): Zbadanie, jak przepływ informacji i nieformalne wpływy kształtują postrzeganie przywództwa, niezależnie od formalnej hierarchii. 2. Podejście etnograficzne: Długoterminowa obserwacja uczestnicząca w zespole w celu zrozumienia, jak przywództwo jest 'odgrywane’ i negocjowane w codziennych interakcjach. 3. Metody narracyjne: Analiza opowieści i historii krążących w organizacji na temat liderów i kluczowych wydarzeń w celu zrozumienia kultury przywództwa. 4. Eksperymenty laboratoryjne/symulacje: Stworzenie kontrolowanych warunków do testowania, jak różne style przywództwa wpływają na dynamikę grupy i efektywność zadań.”

1.3 Przekształcenie Roli Doktoranta: Od Poszukiwacza do Architekta

Fundamentalnym błędem poznawczym jest traktowanie sztucznej inteligencji jako „generatora tematów”. Podejście oparte na krytycznych podpowiedziach całkowicie odwraca tę dynamikę. Proces badawczy przestaje być pasywnym poszukiwaniem gotowej odpowiedzi, a staje się aktywną dekonstrukcją i rekonstrukcją pola wiedzy. Zamiast pytać „Co mam badać?”, doktorant zadaje serię pytań, które zmuszają AI do przeprowadzenia analizy na meta-poziomie: nie „co już wiadomo?”, ale „czego nie wiemy?”, „co jest bezkrytycznie przyjmowane za pewnik?” i „jak można na to spojrzeć inaczej?”.

Logika tego procesu jest następująca: doktorant zaczyna od ogólnego problemu, który często jest źle zdefiniowany.2 Standardowe zapytanie do AI dałoby jedynie powtórzenie istniejącej wiedzy.4 Zastosowanie podpowiedzi 1, 8 i 6 zmusza model do wyjścia poza prostą syntezę i do wygenerowania wielowymiarowego obrazu dziedziny, uwzględniającego jej założenia, luki i alternatywne ścieżki. W ten sposób doktorant, poprzez serię iteracyjnych dialogów, samodzielnie przeprowadza „mapowanie poznawcze” interesującego go obszaru.

W rezultacie rola doktoranta ewoluuje. Z „poszukiwacza” gotowej luki badawczej staje się „architektem” problemu badawczego. AI nie dostarcza mu gotowego projektu, ale materiały konstrukcyjne – zidentyfikowane założenia, nierozwiązane pytania, alternatywne perspektywy. Ostateczna decyzja, które z tych elementów połączyć w spójną i oryginalną konstrukcję badawczą, należy do człowieka. To on, uzbrojony w głębsze zrozumienie struktury wiedzy w swojej dziedzinie, jest w stanie sformułować pytanie, które jest nie tylko nowe, ale i znaczące.

Rozdział 2: Przegląd Literatury Nowej Generacji: Dialog z Dorobkiem Naukowym

2.1 Problem: Powierzchowny lub niekompletny przegląd literatury i ryzyko „halucynacji”

Przegląd literatury stanowi teoretyczny kręgosłup każdej dysertacji doktorskiej. Jego celem jest nie tylko podsumowanie dotychczasowego stanu wiedzy, ale również krytyczna ocena istniejących badań, identyfikacja głównych debat i umiejscowienie własnego projektu w szerszym kontekście naukowym. Niewystarczający lub powierzchowny przegląd literatury jest jednym z fundamentalnych błędów, który podważa wiarygodność i oryginalność całej pracy.6

Wprowadzenie sztucznej inteligencji do tego procesu oferuje ogromny potencjał przyspieszenia pracy, ale niesie ze sobą równie duże ryzyka. Najpoważniejszym z nich jest zjawisko „halucynacji” – generowanie przez modele językowe fałszywych, nieistniejących źródeł, które wyglądają wiarygodnie, ale nie mają pokrycia w rzeczywistości.11 Poleganie na generycznych chatbotach w celu wyszukiwania literatury jest prostą drogą do popełnienia poważnego błędu naukowego. Dodatkowo, nawet jeśli AI opiera się na prawdziwych źródłach, jej podsumowania mogą być uproszczone, pozbawione niuansów i kluczowego kontekstu, co prowadzi do powierzchownego zrozumienia tematu.8

2.2 Odpowiedzialne wykorzystanie AI do przeglądu literatury: proces dwuetapowy

Aby uniknąć tych pułapek, kluczowe jest przyjęcie zdyscyplinowanego, dwuetapowego podejścia, które wyraźnie oddziela funkcję wyszukiwania od funkcji analizy.

Krok 1: Identyfikacja źródeł przy użyciu wyspecjalizowanych narzędzi AI

Zamiast używać generycznych chatbotów, takich jak ChatGPT, do wyszukiwania artykułów naukowych, doktorant powinien sięgnąć po wyspecjalizowane platformy AI, które są zintegrowane z wiarygodnymi bazami danych akademickich, takimi jak Semantic Scholar, PubMed, ArXiv i inne. Narzędzia te zostały zaprojektowane specjalnie do celów badawczych i minimalizują ryzyko generowania nieistniejących cytowań.

  • Elicit: Działa jak asystent badawczy, który na podstawie pytania w języku naturalnym (np. „Jaki jest wpływ ćwiczeń fizycznych na funkcje poznawcze u osób starszych?”) przeszukuje bazę Semantic Scholar i przedstawia wyniki w formie tabelarycznej, streszczając kluczowe wnioski, metodologię i populację badawczą z każdego artykułu.16

  • ResearchRabbit: Umożliwia wizualne mapowanie sieci powiązań między artykułami. Zaczynając od kilku kluczowych publikacji, narzędzie generuje interaktywne grafy pokazujące, które prace cytują dany artykuł, a które są przez niego cytowane, pomagając odkryć kluczowych autorów i fundamentalne prace w danej dziedzinie.17

  • Scite: Unikalną cechą tego narzędzia jest analiza kontekstu cytowań. Scite pokazuje nie tylko, ile razy dany artykuł był cytowany, ale także, czy cytowania te miały charakter wspierający, podważający czy jedynie wspominający tezy oryginalnej pracy. Jest to nieocenione narzędzie do oceny wiarygodności i wpływu danego badania.18

  • Semantic Scholar: To potężna, oparta na AI wyszukiwarka akademicka, która oferuje zaawansowane filtrowanie, podsumowania generowane przez AI oraz identyfikację wpływowych cytowań, co ułatwia szybkie zorientowanie się w nowej dziedzinie.17

Krok 2: Krytyczny dialog z tekstem za pośrednictwem zaawansowanych LLM

Po zebraniu korpusu wiarygodnych artykułów za pomocą specjalistycznych narzędzi, doktorant może przejść do drugiego etapu: głębokiej analizy treści. Nowoczesne modele LLM, takie jak GPT-4o czy Claude 3.5, oferują możliwość przesyłania dokumentów (np. w formacie PDF) i prowadzenia z nimi „rozmowy”. To właśnie na tym etapie dziesięć krytycznych podpowiedzi ujawnia swoją pełną moc.

Podpowiedź 3: „Jakie dowody potwierdzają lub zaprzeczają temu twierdzeniu?”

Zamiast prosić o ogólne streszczenie, ta podpowiedź zmusza AI do precyzyjnej ekstrakcji danych i metodologicznych podstaw argumentacji autora. Uczy to doktoranta krytycznej oceny siły dowodowej przedstawianych tez.2

  • Przykład praktycznego dialogu (po wgraniu pliku PDF z artykułem):

  • Użytkownik: „W sekcji 'Wyniki’ autor twierdzi, że interwencja X znacząco poprawiła wyniki grupy badanej. Jakie konkretne dowody statystyczne (np. wartości p, wielkości efektu, przedziały ufności) przedstawiono w tekście na poparcie tego twierdzenia?”

  • AI: „Autor popiera to twierdzenie następującymi danymi: 'stwierdzono statystycznie istotną różnicę między grupą eksperymentalną (M = 25.4, SD = 3.2) a grupą kontrolną (M = 21.1, SD = 3.5), t(58) = 4.52, p <.001, d Cohena = 1.18′. Oznacza to, że zaobserwowany efekt jest duży i mało prawdopodobne, aby był dziełem przypadku.”

Podpowiedź 2: „Czy możesz przedstawić kontrargumenty lub alternatywne perspektywy na ten temat?”

Ta podpowiedź jest kluczowym narzędziem do przełamywania tendencyjności potwierdzenia (confirmation bias), czyli skłonności do poszukiwania i interpretowania informacji w sposób potwierdzający wcześniejsze przekonania.6 AI, analizując dany artykuł lub czerpiąc z szerszej bazy wiedzy, może wskazać na autorów o przeciwnych poglądach, alternatywne interpretacje tych samych danych lub słabości metodologiczne, które podważają wnioski autora.4

Podpowiedź 7: „W jaki sposób ta informacja pasuje do tego, co już wiem?”

Przegląd literatury to nie tylko zbieranie informacji, ale budowanie spójnej siatki pojęciowej. Ta podpowiedź pozwala na dynamiczne integrowanie nowej wiedzy z już posiadaną.22 Doktorant może najpierw „nauczyć” AI swojego dotychczasowego rozumienia tematu (np. poprzez wklejenie fragmentu swojego tekstu), a następnie poprosić o umiejscowienie nowego artykułu w tej strukturze, wskazując na punkty zbieżne, rozbieżne i uzupełniające.

2.3 Tabela Porównawcza: Narzędzia AI do Przeglądu Literatury

Świadomy wybór odpowiedniego narzędzia jest kluczowy dla efektywności i rzetelności przeglądu literatury. Poniższa tabela przedstawia porównanie wybranych platform AI, pomagając doktorantom w podjęciu strategicznej decyzji, które narzędzie najlepiej odpowiada ich aktualnym potrzebom badawczym.17

Nazwa Narzędzia

Kluczowe Funkcje

Model Cenowy

Główne Zalety dla Doktoranta

Główne Ograniczenia/Ryzyka

Elicit

Odpowiadanie na pytania badawcze, ekstrakcja danych z artykułów (metodologia, wyniki, ograniczenia), automatyzacja przeglądów systematycznych. 16

Freemium (darmowy plan podstawowy, płatne plany z większymi limitami). 16

Idealne do szybkiego przeglądu dużej liczby artykułów i identyfikacji kluczowych informacji bez konieczności czytania całości. Niezastąpione przy metaanalizach i przeglądach systematycznych. 16

Jakość analizy zależy od dostępności pełnych tekstów (często działa tylko na abstraktach). Może pomijać niuanse jakościowe. 18

ResearchRabbit

Wizualizacja sieci cytowań, odkrywanie powiązanych artykułów („w przód” i „w tył”), alerty o nowych publikacjach, funkcje kolaboracyjne. 17

Obecnie darmowe. 26

Doskonałe do mapowania pola badawczego, identyfikacji fundamentalnych prac (seminal papers) i śledzenia ewolucji idei w czasie. Intuicyjny interfejs wizualny. 17

Mniejsza baza danych w porównaniu z największymi platformami. Podstawowe opcje eksportu cytowań. 17

Scite

Analiza kontekstu cytowań (wspierające, podważające, neutralne), zaawansowane filtrowanie wyszukiwania, alerty o cytowaniach. 18

Freemium (ograniczona darmowa wersja, płatne subskrypcje). 21

Pozwala na szybką ocenę wiarygodności i recepcji danego artykułu w środowisku naukowym. Pomaga uniknąć opierania się na badaniach, które zostały później podważone. 18

Nie oferuje tak zaawansowanej syntezy treści jak Elicit. Skupia się na metadanych i relacjach między artykułami, a nie na ich wewnętrznej treści. 18

Connected Papers

Generowanie grafów powiązań dla pojedynczego artykułu, wizualne odkrywanie podobnych prac, identyfikacja kluczowych autorów w danej „bańce” tematycznej. 17

Freemium (kilka darmowych grafów miesięcznie, potem płatne). 26

Bardzo szybki sposób na znalezienie „klastra” najważniejszych artykułów wokół jednego, kluczowego dla nas tekstu. Świetne do szybkiego zanurzenia się w nowym temacie. 17

Czasami tworzy pozorne powiązania. Skupia się na podobieństwie, co może prowadzić do pominięcia ważnych, ale odmiennych metodologicznie prac. 23

ChatGPT (z funkcją analizy plików)

Prowadzenie dialogu na temat treści przesłanych dokumentów, synteza, parafrazowanie, generowanie pytań, identyfikacja argumentów i kontrargumentów. 4

Freemium (GPT-3.5 darmowy, GPT-4o i nowsze w planach płatnych).

Niezrównana elastyczność w prowadzeniu „rozmowy” z tekstem. Umożliwia głęboką, krytyczną analizę pojedynczych źródeł w sposób niemożliwy do osiągnięcia w innych, bardziej zautomatyzowanych narzędziach.

Nie jest wyszukiwarką – wysokie ryzyko halucynacji, jeśli jest używane do znajdowania źródeł. Wymaga starannego promptingu i stałej weryfikacji. 13

2.4 Redefinicja Kompetencji Badawczych

Powyższy, dwuetapowy proces pokazuje, że przegląd literatury z pomocą AI nie jest czynnością jednorazową, lecz cyklicznym procesem: Wyszukiwanie (narzędzia specjalistyczne) → Selekcja (badacz) → Dialog (AI + badacz) → Synteza (badacz). Kluczowe staje się zrozumienie, że ryzyko naukowe nie leży w samej technologii AI, ale w jej niewłaściwym zastosowaniu. Używanie generycznego chatbota do wyszukiwania literatury jest fundamentalnym błędem warsztatowym. Natomiast wykorzystanie go do przeprowadzenia krytycznego „przesłuchania” rzetelnie znalezionego artykułu jest zaawansowaną i pożądaną techniką badawczą.

To podejście redefiniuje pojęcie kompetencji w zakresie „researchu”. Nie polega ona już tylko na umiejętności znajdowania odpowiednich artykułów w bazach danych. Nowa kompetencja polega na zdolności do projektowania i zarządzania wieloetapowym procesem badawczym, w którym różne narzędzia AI pełnią odmienne, wyspecjalizowane role. Doktorant staje się menedżerem przepływu informacji, który świadomie dobiera technologie do konkretnych zadań, a sam pełni nadrzędną rolę ostatecznego weryfikatora, krytyka i integratora wiedzy. To on, a nie maszyna, jest autorem ostatecznej syntezy, która stanowi oryginalny wkład w naukę.

Część II: Rdzeń Pracy – Budowanie Argumentacji i Metodologii z AI

Po zdefiniowaniu problemu badawczego i zbudowaniu solidnego fundamentu teoretycznego, doktorant wkracza w serce swojej pracy: projektowanie metodologii i konstruowanie centralnej linii argumentacyjnej. To na tym etapie oryginalność i rygor intelektualny są poddawane najcięższej próbie. Słabości w metodologii mogą podważyć wiarygodność nawet najbardziej interesujących wyników, a nieprzekonująca argumentacja może sprawić, że cenne odkrycia pozostaną niezauważone. W tej fazie sztuczna inteligencja, kierowana krytycznymi podpowiedziami, może odegrać rolę wymagającego konsultanta i intelektualnego adwersarza, pomagając wzmocnić pracę i przygotować ją na surową ocenę środowiska naukowego.

Rozdział 3: Projektowanie Rygorystycznej Metodologii Badawczej

3.1 Problem: Słaba lub nieuzasadniona metodologia

Wybór, uzasadnienie i szczegółowy opis metodologii badawczej to jeden z najtrudniejszych i najważniejszych elementów dysertacji. Często jest to słaby punkt wielu prac, co bezpośrednio podważa validację i rzetelność uzyskanych wyników.6 Doktoranci mogą mieć trudności z dostrzeżeniem alternatywnych podejść, przewidzeniem praktycznych i etycznych konsekwencji swojego wyboru, czy też z precyzyjnym uzasadnieniem, dlaczego wybrana metoda jest optymalna do odpowiedzi na postawione pytania badawcze. Tradycyjnie, głównym źródłem wsparcia jest promotor, jednak jego czas jest ograniczony.

3.2 Wykorzystanie AI jako „konsultanta metodologicznego”

Strategicznie wykorzystana sztuczna inteligencja może pełnić funkcję „konsultanta metodologicznego na żądanie”, który pomaga w systematycznym przeglądzie, ocenie i „stress-testingu” planu badawczego.7 Kluczem nie jest pytanie AI „Jaką metodologię mam wybrać?”, ale przedstawienie własnej propozycji i poddanie jej symulowanej, wieloaspektowej krytyce.

Podpowiedź 6: „Jakie alternatywne rozwiązania lub podejścia można rozważyć?”

Po sformułowaniu wstępnego planu metodologicznego, doktorant może użyć tej podpowiedzi, aby poszerzyć swoje horyzonty i upewnić się, że nie pominął istotnych alternatyw. AI może przedstawić inne metody stosowane w podobnych badaniach, wraz z ich zaletami i wadami, co pozwala na bardziej świadomy i lepiej uzasadniony wybór.12

  • Przykład praktycznego dialogu:

  • Użytkownik: „W moim badaniu dotyczącym doświadczeń migracyjnych planuję przeprowadzić serię 20 półstrukturyzowanych wywiadów pogłębionych. Jakie alternatywne metody jakościowe mógłbym rozważyć do zbadania tego zjawiska i jakie są ich ograniczenia w porównaniu z wywiadami?”

  • AI: „Oprócz wywiadów półstrukturyzowanych, w badaniu doświadczeń migracyjnych można rozważyć następujące alternatywy: 1. Etnografia wizualna (Visual Ethnography): Poproszenie uczestników o robienie zdjęć lub nagrywanie filmów dokumentujących ich codzienne życie, a następnie przeprowadzenie wywiadów opartych na tych materiałach (photo-elicitation). Zaleta: Dostęp do niewerbalnych, codziennych praktyk. Ograniczenie: Wymaga większego zaangażowania uczestników i umiejętności analizy materiału wizualnego. 2. Dzienniki (Diaries): Poproszenie uczestników o prowadzenie pisemnych, audio lub wideo dzienników przez określony czas. Zaleta: Umożliwia zbieranie danych longitudinalnych i wgląd w prywatne refleksje. Ograniczenie: Ryzyko nieregularności wpisów i mniejsza kontrola badacza nad zbieranymi danymi. 3. Metoda narracyjna (Narrative Inquiry): Skupienie się na zbieraniu i analizie całych historii życia (life stories), a nie tylko odpowiedzi na konkretne pytania. Zaleta: Głębokie zrozumienie tożsamości i sensu nadawanego doświadczeniom. Ograniczenie: Czasochłonna analiza, mniejsza porównywalność między przypadkami.”

Podpowiedź 4: „Jakie są możliwe konsekwencje lub skutki uboczne tej decyzji lub działania?”

To narzędzie do analizy ryzyka metodologicznego. Po wyborze konkretnej metody, doktorant może poprosić AI o zidentyfikowanie potencjalnych problemów, które mogą pojawić się na etapie realizacji badania. Jest to ćwiczenie z myślenia strategicznego i dalekowzroczności, które pozwala przygotować plany awaryjne.3

  • Przykład praktycznego dialogu:

  • Użytkownik: „Zdecydowałem się na przeprowadzenie ankiety online na reprezentatywnej próbie 2000 osób w celu zbadania postaw wobec energii jądrowej. Jakie są możliwe negatywne konsekwencje lub problemy metodologiczne związane z tą decyzją?”

  • AI: „Możliwe konsekwencje i problemy to: 1. Błąd doboru próby (Sampling Bias): Ankiety online mogą nadreprezentować osoby młodsze, lepiej wykształcone i z dostępem do internetu, a niedoreprezentować osoby starsze lub z obszarów wiejskich. 2. Niska stopa zwrotu (Low Response Rate): Może to prowadzić do dalszych zniekształceń próby, gdyż osoby o silnych, skrajnych poglądach (zarówno pro, jak i anty) mogą być bardziej skłonne do udziału. 3. Efekt sformułowania pytań (Question Wording Effect): Niewielkie zmiany w sformułowaniu pytań mogą znacząco wpłynąć na odpowiedzi, zwłaszcza w przypadku tematów nacechowanych emocjonalnie. 4. Brak głębi: Ankiety, w przeciwieństwie do metod jakościowych, rzadko pozwalają na zrozumienie 'dlaczego’ respondenci mają dane poglądy.”

Podpowiedź 10: „Jak byś oceniał ten argument [plan] z perspektywy jakiejś dyscypliny lub punktu widzenia?”

Ta podpowiedź pozwala na wielowymiarową ocenę planu badawczego. Doktorant może poprosić AI o wcielenie się w rolę recenzenta reprezentującego różne perspektywy, co pozwala na kompleksową ocenę propozycji.32

  • Przykład praktycznego dialogu:

  • Użytkownik: „Oto mój plan badawczy: [szczegółowy opis projektu, w tym pytania, metoda, próba]. Oceń ten plan z perspektywy etyki badań naukowych. Na jakie potencjalne problemy etyczne powinienem zwrócić szczególną uwagę?”

  • AI (w roli etyka): „Z perspektywy etycznej, należy zwrócić uwagę na: 1. Świadomą zgodę: Czy formularz zgody jasno informuje o celu badania, ryzyku, anonimowości i prawie do wycofania się w dowolnym momencie? 2. Ochronę danych: Gdzie i jak będą przechowywane dane? Kto będzie miał do nich dostęp? Jak zostanie zapewniona anonimizacja, zwłaszcza w przypadku danych jakościowych? 3. Potencjalną szkodę: Czy pytania badawcze (np. dotyczące traumatycznych doświadczeń) mogą wywołać dyskomfort psychiczny u uczestników? Jeśli tak, jakie środki wsparcia są przewidziane? 4. Wrażliwe populacje: Czy badanie obejmuje grupy szczególnie wrażliwe (np. dzieci, osoby chore) i czy zastosowano odpowiednie, dodatkowe środki ochrony?”

3.3 Wgląd w proces: Od prośby o radę do symulacji panelu recenzenckiego

Wykorzystanie AI na etapie projektowania metodologii nie polega na biernym oczekiwaniu na gotowe rozwiązania. Jest to aktywny proces, w którym doktorant tworzy symulowany „panel ekspertów” lub „komitet recenzencki”. Zamiast zadawać proste pytanie „Jaką metodologię mam wybrać?”, przedstawia swoją własną, przemyślaną propozycję, a następnie używa krytycznych podpowiedzi (4, 6, 10), aby poddać ją rygorystycznemu „stress-testingowi” z różnych perspektyw: alternatywnych podejść, potencjalnych ryzyk i ograniczeń, oraz wymogów etycznych.

Taka symulacja procesu recenzji naukowej, przeprowadzona zanim projekt zostanie faktycznie przedstawiony promotorowi czy komisji etycznej, jest niezwykle cenna. Zmusza doktoranta do antycypowania potencjalnej krytyki, proaktywnego poszukiwania słabych punktów w swoim rozumowaniu i wzmacniania uzasadnienia dla podjętych decyzji metodologicznych. Proces ten buduje nie tylko lepszą i bardziej przemyślaną metodologię, ale także głębsze jej zrozumienie przez samego badacza.

W konsekwencji, zmienia to również dynamikę relacji z promotorem. Doktorant przychodzi na spotkanie nie z ogólnym pytaniem „Co mam teraz zrobić?”, ale z dojrzałą propozycją: „Oto mój szczegółowy plan metodologiczny. Przy pomocy symulacji zidentyfikowałem następujące potencjalne ryzyka. Oto moje propozycje ich mitygacji [X, Y, Z]. Chciałbym omówić, czy te rozwiązania są wystarczające.” Taka postawa demonstruje znacznie wyższy poziom samodzielności, dojrzałości badawczej i krytycznego myślenia, które są celem studiów doktoranckich.

Rozdział 4: Wzmacnianie i Testowanie Własnej Argumentacji

4.1 Problem: Błędy logiczne i słabość argumentacji

Nawet przy rzetelnie zebranych danych i solidnej metodologii, praca doktorska może nie sprostać wymaganiom naukowym z powodu błędów w rozumowaniu lub niezdolności do zbudowania spójnej i przekonującej narracji argumentacyjnej. Identyfikacja własnych błędów logicznych, nieuświadomionych założeń czy słabych punktów w argumentacji jest niezwykle trudna z powodu naturalnych tendencyjności poznawczych, takich jak efekt potwierdzenia.6 Badacz, głęboko zanurzony w swoim projekcie, często traci zdolność do zdystansowanego, krytycznego spojrzenia.

4.2 Sokratejski dialog z AI w celu wzmocnienia argumentów

Ten rozdział stanowi serce przewodnika, pokazując, jak przekształcić generatywną AI z narzędzia do pisania w potężnego partnera do intelektualnego sparingu. Celem jest wykorzystanie modelu językowego do symulowania oporu intelektualnego i prowadzenia sokratycznego dialogu, który iteracyjnie wzmacnia i uodparnia na krytykę kluczowe tezy dysertacji.4

Podpowiedź 5: „Czy są jakieś błędy logiczne lub błędy w tym rozumowaniu?”

Po napisaniu kluczowego fragmentu argumentacji, doktorant może poprosić AI o wcielenie się w rolę sceptycznego logika lub recenzenta i przeanalizowanie tekstu pod kątem formalnych błędów w rozumowaniu. Jest to niezwykle skuteczny sposób na wykrycie słabości, które mogłyby zostać wykorzystane przez recenzentów.39

  • Przykład praktycznego dialogu:

  • Użytkownik: „Oto fragment mojej argumentacji: 'W badanych firmach zaobserwowano wysoką korelację między inwestycjami w szkolenia z umiejętności miękkich a wzrostem innowacyjności. Wynika z tego, że inwestycje w szkolenia z umiejętności miękkich bezpośrednio powodują wzrost innowacyjności.’ Czy w tym rozumowaniu są jakieś błędy logiczne?”

  • AI (w roli logika): „Tak, w przedstawionym rozumowaniu można zidentyfikować potencjalny błąd logiczny znany jako 'cum hoc ergo propter hoc’ (korelacja nie implikuje przyczynowości). Stwierdzenie, że dwa zjawiska występują jednocześnie (korelacja), nie jest wystarczającym dowodem na to, że jedno z nich jest przyczyną drugiego. Możliwe są inne wyjaśnienia: 1. Wspólna przyczyna (Third Cause): Być może istnieje trzeci, niezmierzony czynnik (np. progresywna kultura organizacyjna), który jednocześnie skłania firmy do inwestowania w szkolenia i promuje innowacyjność. 2. Odwrotna przyczynowość (Reverse Causality): Być może to bardziej innowacyjne firmy mają więcej zasobów i chęci, by inwestować w rozwój pracowników, a nie odwrotnie. Aby wzmocnić argument, należałoby przedstawić dodatkowe dowody, np. z badań longitudinalnych lub eksperymentalnych, które lepiej kontrolują inne zmienne.”

Podpowiedź 2: „Czy możesz przedstawić kontrargumenty lub alternatywne perspektywy na ten temat?”

Ta podpowiedź służy do proaktywnego mapowania potencjalnych punktów ataku na tezę doktoranta. Zamiast czekać na krytykę w recenzji, badacz może poprosić AI o wygenerowanie najbardziej prawdopodobnych i najsilniejszych kontrargumentów. Umożliwia to ich uprzednie zaadresowanie w pracy, co czyni ją znacznie bardziej solidną i przekonującą.4

  • Przykład praktycznego dialogu:

  • Użytkownik: „Moja główna teza brzmi: 'Wprowadzenie uniwersalnego dochodu podstawowego (UBI) doprowadzi do wzrostu przedsiębiorczości i samozatrudnienia, ponieważ zmniejszy awersję do ryzyka u potencjalnych założycieli firm.’ Przedstaw najsilniejsze kontrargumenty do tej tezy.”

  • AI: „Najsilniejsze kontrargumenty to: 1. Efekt dochodowy vs. substytucyjny: UBI może zmniejszyć motywację do pracy w ogóle, w tym do podejmowania wymagającego wysiłku samozatrudnienia. Gwarantowany dochód może sprawić, że czas wolny stanie się bardziej atrakcyjny niż praca (efekt substytucyjny). 2. Brak kapitału i umiejętności: Samo bezpieczeństwo finansowe nie wystarczy do założenia firmy. UBI nie rozwiązuje problemu braku dostępu do kapitału początkowego, specjalistycznej wiedzy czy sieci kontaktów. 3. Charakter przedsiębiorczości: Argument zakłada, że główną barierą jest awersja do ryzyka finansowego. Jednak wiele badań wskazuje, że kluczowe są cechy psychologiczne, takie jak wysoka tolerancja na niepewność i potrzeba osiągnięć, na które UBI może nie mieć wpływu.”

Podpowiedź 10: „Jak byś oceniał ten argument z perspektywy jakiejś dyscypliny lub punktu widzenia?”

Ta zaawansowana technika pozwala na zniuansowanie i pogłębienie argumentacji poprzez skonfrontowanie jej z różnymi szkołami myślenia lub paradygmatami teoretycznymi istniejącymi w danej dyscyplinie.32 Pozwala to na wyjście poza prostą, jednowymiarową tezę i pokazanie zrozumienia dla złożoności debaty naukowej.

  • Przykład praktycznego dialogu (w naukach społecznych):

  • Użytkownik: „Oto mój główny argument dotyczący reformy edukacji [opis]. Jak oceniłby go przedstawiciel szkoły frankfurckiej, a jak zwolennik teorii racjonalnego wyboru?”

  • AI: „Perspektywa szkoły frankfurckiej: Przedstawiciel tej szkoły prawdopodobnie skrytykowałby reformę jako narzędzie reprodukcji nierówności społecznych pod płaszczykiem merytokracji. Zwróciłby uwagę, jak proponowane zmiany wzmacniają hegemonię kulturową i służą interesom kapitału, a nie autentycznemu rozwojowi krytycznego myślenia u uczniów. Perspektywa teorii racjonalnego wyboru: Zwolennik tego podejścia analizowałby reformę w kategoriach bodźców i kosztów dla poszczególnych aktorów (uczniów, nauczycieli, rodziców, administratorów). Oceniłby, czy proponowane mechanizmy (np. systemy ocen, ścieżki kariery) tworzą racjonalne zachęty do osiągania pożądanych celów edukacyjnych, czy też prowadzą do niezamierzonych, negatywnych konsekwencji (np. 'uczenie pod testy’).”

4.3 Budowanie odporności intelektualnej poprzez symulowany opór

Największa wartość sztucznej inteligencji na tym etapie nie leży w jej zdolności do generowania tekstu, ale w jej zdolności do symulowania oporu intelektualnego. Zamiast prosić AI o pomoc w pisaniu, doktorant prosi ją o pomoc w krytykowaniu. Model językowy staje się „adwokatem diabła”, który metodycznie i bez emocji punktuje każdą słabość, każdą nieścisłość i każdy potencjalny błąd w rozumowaniu. Ten proces, głęboko zakorzeniony w sokratejskiej metodzie dialogu 36, buduje u badacza odporność intelektualną.

Jest to forma „poznawczego odciążenia” (cognitive offloading), ale w sensie pozytywnym i strategicznym.40 Doktorant nie oddaje maszynie procesu myślenia, lecz deleguje jej czasochłonne i trudne poznawczo zadanie bycia nieustannym krytykiem. Dzięki temu sam może skupić się na zadaniu wyższego rzędu: syntezie tej krytyki i iteracyjnym wzmacnianiu swojej argumentacji.

Praca doktorska, która przeszła przez taki proces symulowanego „stress-testu”, staje się bardziej „anty-krucha” (antifragile) – nie tylko jest odporna na krytykę, ale wręcz staje się silniejsza dzięki niej. Doktorant, który w ten sposób przygotował swoją argumentację, jest znacznie lepiej przygotowany do procesu recenzyjnego i publicznej obrony. Przewidział już większość możliwych zarzutów i przygotował na nie odpowiedzi, co świadczy o jego rygorze intelektualnym i dogłębnym opanowaniu tematu.

Część III: Synteza i Perspektywy – Finalizacja Pracy i Rozwój Kompetencji Badacza

Ostatnia faza pracy nad doktoratem to czas syntezy, refleksji i przygotowania ostatecznej wersji manuskryptu. To etap, na którym pojedyncze rozdziały muszą zostać zintegrowane w spójną, logiczną całość, a cała praca poddana krytycznej ocenie pod kątem jej wkładu, ograniczeń i potencjalnych uprzedzeń. Sztuczna inteligencja, używana jako narzędzie do auto-recenzji, może pomóc badaczowi spojrzeć na własne dzieło z niezbędnego dystansu, a rygorystyczne przestrzeganie ram etycznych gwarantuje, że cały proces badawczy pozostaje w zgodzie z najwyższymi standardami naukowymi.

Rozdział 5: Synteza Wyników, Identyfikacja Stronniczości i Integracja Wiedzy

5.1 Problem: Brak spójności i świadomości własnych ograniczeń

Po miesiącach, a nawet latach intensywnej pracy nad poszczególnymi fragmentami dysertacji, autorowi często trudno jest dostrzec „las, a nie tylko drzewa”. Zapewnienie spójności argumentacji między odległymi rozdziałami, identyfikacja nieświadomych założeń i uprzedzeń, które mogły wpłynąć na kształt badań, oraz uczciwe przedstawienie ograniczeń własnej pracy to kluczowe wyzwania końcowego etapu. Efekt „zanurzenia” sprawia, że badacz staje się najmniej obiektywnym czytelnikiem swojego tekstu.

5.2 Wykorzystanie AI do recenzji i syntezy własnego tekstu

Na tym etapie AI może pełnić funkcję „inteligentnego lustra”, które odbija pracę w sposób zsyntetyzowany i krytyczny, pozwalając autorowi dostrzec to, co stało się dla niego niewidoczne. Jest to potężne narzędzie do auto-recenzji i budowania intelektualnej pokory, która jest cechą dojrzałego badacza.7

Podpowiedź 9: „Czy potrafisz podsumować i zsyntetyzować główne idee, podkreślając wszelkie uprzedzenia?”

Ta podpowiedź jest niezwykle wartościowa, ponieważ łączy dwa zadania: syntezę i krytykę. Doktorant może „nakarmić” AI całym rozdziałem lub nawet całą pracą i poprosić o wykonanie dwóch czynności: po pierwsze, o zwięzłe podsumowanie kluczowych tez (co pozwala sprawdzić, czy główny przekaz jest klarowny), a po drugie, o identyfikację potencjalnych, nieuświadomionych uprzedzeń.41 Uprzedzenia te mogą mieć różny charakter: teoretyczny (bezkrytyczne przyjęcie jednej szkoły myślenia), metodologiczny (wynikający z ograniczeń doboru próby), terminologiczny (używanie języka, który faworyzuje jedną perspektywę) czy nawet kulturowy.42

  • Przykład praktycznego dialogu:

  • Użytkownik: „[Wkleja tekst całego rozdziału analitycznego] Podsumuj główne wnioski z tego rozdziału w trzech punktach. Następnie, działając jako krytyczny socjolog, zidentyfikuj potencjalne uprzedzenia lub stronniczość w mojej analizie i interpretacji danych.”

  • AI: „Podsumowanie wniosków: 1…. 2…. 3…. Analiza potencjalnych uprzedzeń: 1. Uprzedzenie selekcji (Selection Bias): Analiza opiera się wyłącznie na wywiadach z menedżerami wyższego szczebla. Może to prowadzić do perspektywy 'z góry na dół’, która ignoruje doświadczenia i percepcję pracowników niższego szczebla. 2. Uprzedzenie zachodnie/eurocentryczne (Western-centric Bias): Używane ramy teoretyczne (np. modele motywacji Maslowa, style przywództwa Lewina) zostały opracowane w kontekście kultur zachodnich i mogą nie być w pełni adekwatne do analizy dynamiki w badanej organizacji działającej w kontekście azjatyckim. 3. Uprzedzenie językowe (Linguistic Bias): Użycie terminu 'opór wobec zmian’ może negatywnie stygmatyzować reakcje pracowników, podczas gdy alternatywne ramy pojęciowe mogłyby interpretować te same zachowania jako 'uzasadnioną obronę interesów’ lub 'krytyczny feedback’.”

Podpowiedź 7: „W jaki sposób ta informacja pasuje do tego, co już wiem?” (w nowym kontekście)

W końcowej fazie pisania, ta podpowiedź może być użyta do weryfikacji spójności wewnętrznej całej pracy. Doktorant może poprosić AI o porównanie dwóch różnych rozdziałów i zidentyfikowanie ewentualnych niespójności logicznych, terminologicznych lub argumentacyjnych.22

  • Przykład praktycznego dialogu:

  • Użytkownik: „Oto tekst mojego rozdziału teoretycznego (Rozdział 2) i rozdziału z dyskusją wyników (Rozdział 5). W jaki sposób argumenty przedstawione w Rozdziale 5 nawiązują do ram teoretycznych zdefiniowanych w Rozdziale 2? Czy widzisz jakieś niespójności lub luki między teorią a interpretacją wyników?”

Podpowiedź 8: „Jakie pytania pozostają bez odpowiedzi lub wymagają dalszego dochodzenia?”

Ta podpowiedź jest idealnym narzędziem do sformułowania jednej z ostatnich, ale kluczowych sekcji dysertacji: „Ograniczenia badania i kierunki dalszych badań”. Zamiast wymyślać ogólnikowe sugestie, doktorant może poprosić AI o analizę przeprowadzonych badań i wskazanie, jakie nowe, konkretne pytania otwierają uzyskane wyniki.7 To pokazuje, że praca jest nie tylko zamknięciem pewnego etapu, ale i otwarciem nowych horyzontów badawczych.

5.3 Auto-recenzja jako narzędzie rozwoju badacza

Na tym etapie AI pełni funkcję krytycznego, ale bezstronnego recenzenta. Pozwala badaczowi spojrzeć na własną pracę z dystansu, tak jak zrobiłby to zewnętrzny czytelnik, który nie zna całego kontekstu i miesięcy pracy, jakie za nią stoją. Ten proces auto-recenzji, wspomagany przez AI, jest niezwykle cenny. Umożliwia wyłapanie błędów, niespójności i uprzedzeń, które mogłyby zostać przeoczone przez samego autora, a które z pewnością zostałyby zauważone przez promotora lub recenzentów.

Co więcej, ten proces rozwija kluczową kompetencję dojrzałego badacza: zdolność do autorefleksji i krytycznej oceny własnej pracy. Uczy, że praca naukowa nie kończy się na przedstawieniu wyników, ale na ich odpowiedzialnym umiejscowieniu w szerszym kontekście, z pełną świadomością własnych ograniczeń i założeń. To właśnie ta intelektualna pokora, połączona z rygorem, stanowi o najwyższej jakości badań naukowych.

Rozdział 6: Ramy Etyczne i Instytucjonalne: Nienegocjowalne Zasady Użycia AI

6.1 Konieczność działania w ramach zasad

Wykorzystanie generatywnej sztucznej inteligencji w badaniach naukowych nie jest i nie może być „dzikim zachodem”. Jest to obszar, który podlega ścisłym i dynamicznie rozwijającym się regulacjom dotyczącym integralności akademickiej, praw autorskich, prywatności danych i transparentności.14 Ignorowanie tych zasad nie tylko podważa wiarygodność naukową pracy, ale może również prowadzić do poważnych konsekwencji, w tym oskarżeń o plagiat, nierzetelność naukową, a nawet do naruszenia prawa. Każdy doktorant korzystający z narzędzi AI musi działać z pełną świadomością tych ram.

6.2 Kluczowe obszary odpowiedzialności doktoranta

Odpowiedzialność za etyczne i rzetelne wykorzystanie AI spoczywa w całości na badaczu. Poniżej przedstawiono cztery filary tej odpowiedzialności.

1. Autorstwo i Plagiat:

Najważniejsza zasada, co do której panuje powszechny konsensus wśród czołowych wydawców (Elsevier, Springer Nature, SAGE), organizacji (COPE) i uniwersytetów, brzmi: sztuczna inteligencja nie może być autorem ani współautorem pracy naukowej.51 Autorstwo wiąże się z odpowiedzialnością za treść, której maszyna nie może ponieść. Doktorant musi być jedynym autorem swojego oryginalnego wkładu intelektualnego. Używanie AI do generowania całych fragmentów tekstu i przedstawianie ich jako własne jest formą plagiatu i nierzetelności naukowej.45 Nawet przy korzystaniu z AI do parafrazowania, konieczna jest głęboka redakcja i weryfikacja przez człowieka, aby uniknąć niezamierzonego plagiatu i zapewnić, że tekst oddaje własną myśl autora.9

2. Transparentność i Ujawnianie (Disclosure):

Drugim filarem jest transparentność. Badacze są zobowiązani do jasnego i precyzyjnego informowania o wykorzystaniu narzędzi AI w procesie badawczym i pisarskim. Wytyczne różnią się w zależności od wydawcy i instytucji, ale ogólna zasada jest taka sama: należy ujawnić, jakie narzędzia zostały użyte i w jakim celu.52 Zazwyczaj taka informacja powinna znaleźć się w sekcji „Metodologia” lub w „Podziękowaniach”. Należy podać nazwę narzędzia (np. OpenAI ChatGPT-4o), a czasem nawet wersję i datę użycia. Ta zasada nie dotyczy zwykle podstawowych narzędzi do sprawdzania gramatyki, ale obejmuje wszelkie zastosowania AI do generowania pomysłów, strukturyzowania tekstu, analizy danych czy tworzenia ilustracji.

3. Prywatność i Bezpieczeństwo Danych:

Jest to jeden z najbardziej krytycznych i często niedocenianych aspektów. Kategorycznie zabronione jest wprowadzanie do publicznie dostępnych, komercyjnych narzędzi AI jakichkolwiek danych wrażliwych. Obejmuje to: dane osobowe uczestników badań, poufne wyniki, nieopublikowane manuskrypty, dane objęte umowami o poufności (NDA) z partnerami przemysłowymi, czy jakąkolwiek inną formę własności intelektualnej.47 Wprowadzenie takich danych do systemu, którego polityka prywatności pozwala na ich wykorzystanie do trenowania przyszłych modeli, jest równoznaczne z ich publicznym ujawnieniem i może stanowić poważne naruszenie etyki badawczej, regulacji (np. RODO/GDPR) oraz praw własności intelektualnej.46 Wiele uniwersytetów oferuje dostęp do bezpiecznych, instytucjonalnych wersji narzędzi AI (np. poprzez własne, zabezpieczone instancje), które powinny być preferowanym wyborem.

4. Weryfikacja i Ostateczna Odpowiedzialność:

Ostateczna i niepodzielna odpowiedzialność za każdy element pracy – każdą tezę, każdy fakt, każdy cytat – spoczywa na ludzkim autorze. Modele AI są podatne na błędy, uprzedzenia i „halucynacje”.11 Mogą generować nieprawdziwe informacje, które brzmią przekonująco, a nawet wymyślać nieistniejące cytaty.14 Dlatego

obowiązkiem doktoranta jest rygorystyczna weryfikacja każdej informacji wygenerowanej przez AI przy użyciu wiarygodnych, pierwotnych źródeł.65 Poleganie na AI bez krytycznej weryfikacji jest równoznaczne z nierzetelnością naukową.

6.3 Tabela Podsumowująca: Etyczna Checklista Użycia AI dla Doktorantów

Aby ułatwić nawigację po tych złożonych zasadach, poniższa tabela działa jak „etyczna checklista”, kondensując kluczowe wytyczne w praktyczny zestaw reguł. Powinna być ona stałym punktem odniesienia dla każdego doktoranta integrującego AI ze swoim warsztatem badawczym.67

Obszar

Zasada

Źródło Wytycznej (Przykłady)

Praktyczna Implikacja dla Doktoranta

Autorstwo

AI nie może być autorem ani współautorem pracy naukowej.

COPE 54, Nature 53, Elsevier 52, Springer 59

Nigdy nie wpisuj nazwy narzędzia AI (np. ChatGPT) jako autora. Cała odpowiedzialność za treść spoczywa na Tobie.

Plagiat

Prezentowanie tekstu wygenerowanego przez AI jako własnego, bez znaczącej modyfikacji i wkładu intelektualnego, jest formą plagiatu.

City St George’s Uni 45, Stanford 70

Używaj AI do inspiracji, strukturyzowania i edycji, ale zawsze pisz ostateczną wersję własnymi słowami. Każdy fragment musi być przefiltrowany przez Twoje krytyczne myślenie.

Transparentność i Ujawnianie

Należy transparentnie zadeklarować użycie narzędzi AI w publikacji.

Elsevier 56, Springer Nature 59, IEEE 57, UKRI 71

W sekcji „Metodologia” lub „Podziękowania” dodaj akapit opisujący, jakiego narzędzia AI użyłeś i do jakich zadań (np. „Do edycji językowej i poprawy czytelności manuskryptu wykorzystano narzędzie ChatGPT-4o firmy OpenAI.”).

Prywatność Danych

Kategorycznie zabrania się wprowadzania danych wrażliwych, osobowych lub poufnych do publicznych narzędzi AI.

Stanford 63, MIT 64, UKRI 72

Nigdy nie wklejaj do publicznego ChatGPT danych z wywiadów, ankiet, wyników badań klinicznych, nieopublikowanych fragmentów pracy czy danych objętych NDA. Korzystaj z bezpiecznych, instytucjonalnych platform, jeśli są dostępne.

Własność Intelektualna (IP)

Wprowadzanie do AI materiałów chronionych prawem autorskim lub własnych, nieopublikowanych pomysłów może prowadzić do utraty nad nimi kontroli.

Stanford 63, Paperguide 46

Sprawdzaj politykę prywatności i warunki użytkowania każdego narzędzia. Unikaj wprowadzania treści, które stanowią rdzeń Twojej własności intelektualnej, do narzędzi, które mogą wykorzystywać te dane do dalszego treningu.

Weryfikacja i Rzetelność

Autor ponosi pełną odpowiedzialność za poprawność merytoryczną wszystkich treści, w tym tych wygenerowanych przez AI.

City St George’s Uni 14, SAGE 60, OpenAI 65

Weryfikuj każdy fakt, datę, liczbę i cytat wygenerowany przez AI w niezależnych, wiarygodnych źródłach. Traktuj odpowiedzi AI jako hipotezy do sprawdzenia, a nie jako ostateczne fakty.

Dokumentacja Procesu

Zaleca się prowadzenie dokumentacji interakcji z AI w celach transparentności i odtwarzalności.

Framework for Responsible AI 73

Prowadź dziennik badawczy, w którym zapisujesz kluczowe prompty, uzyskane odpowiedzi i swoją krytyczną ocenę tych odpowiedzi. Może to być wymagane przez promotora lub recenzentów.

6.4 Ewolucja Warsztatu Badawczego: Dokumentacja Użycia Narzędzi

Instytucje naukowe, od uniwersytetów po wydawców i agencje grantowe, w szybkim tempie adaptują swoje regulacje do nowej rzeczywistości zdominowanej przez AI.66 Wspólnym mianownikiem tych regulacji jest przeniesienie pełnej i niepodzielnej odpowiedzialności na ludzkiego badacza. Sztuczna inteligencja jest konsekwentnie traktowana jako potężne, ale potencjalnie wadliwe narzędzie, a nie jako autonomiczny podmiot zdolny do ponoszenia odpowiedzialności.

Dla doktoranta oznacza to konieczność prowadzenia swoistej „podwójnej księgowości”. Z jednej strony, musi on w tradycyjny sposób dokumentować swoje badania – źródła, metody, wyniki. Z drugiej strony, pojawia się nowy obowiązek: dokumentowanie sposobu użycia narzędzi, które wspomagały te badania. Dziennik interakcji z AI, zawierający zapisy kluczowych promptów, uzyskanych odpowiedzi oraz, co najważniejsze, krytycznej oceny i modyfikacji tych odpowiedzi przez badacza, staje się integralną częścią nowoczesnego warsztatu naukowego.

Można przewidzieć, że w niedalekiej przyszłości proces recenzji naukowej i publicznej obrony pracy doktorskiej będzie ewoluował. Ocena może objąć nie tylko samą treść dysertacji, ale również audyt procesu badawczego, w tym sposobu, w jaki wykorzystano w nim sztuczną inteligencję. Zdolność do transparentnego, etycznego i rzetelnego udokumentowania tego procesu stanie się kompetencją równie ważną, jak merytoryczna zawartość samej pracy.

Zakończenie: Doktorant jako Kurator i Dyrygent Sztucznej Inteligencji

Przedstawiony przewodnik demonstruje, że strategiczne wykorzystanie generatywnej sztucznej inteligencji, oparte na dziesięciu krytycznych podpowiedziach, fundamentalnie przekształca proces tworzenia pracy doktorskiej. Przenosi on punkt ciężkości z postrzegania AI jako technologicznej protezy, która wykonuje proste zadania, w kierunku modelu, w którym staje się ona intelektualnym partnerem, stymulującym głębsze i bardziej rygorystyczne myślenie.

Kluczowy wniosek płynący z tej analizy jest taki, że rola doktoranta w erze AI ulega ewolucji. Coraz mniej przypomina on „samotnego geniusza” tworzącego wiedzę ex nihilo, a coraz bardziej staje się „dyrygentem” lub „kuratorem”.5 Jego głównym zadaniem nie jest już tylko generowanie informacji, ale inteligentne zarządzanie złożonymi zasobami poznawczymi – zarówno własnymi, jak i maszynowymi. Kluczową umiejętnością staje się nie tyle tworzenie wiedzy od podstaw, ile mistrzowska ewaluacja, krytyczna selekcja, kreatywna synteza i odpowiedzialna integracja informacji, których ogromną ilość może dostarczyć AI.

Jednocześnie należy z całą mocą podkreślić ryzyko związane z bezrefleksyjnym poleganiem na tej technologii. Zjawisko „poznawczego odciążenia” (cognitive offloading), jeśli jest stosowane bezkrytycznie, prowadzi nieuchronnie do atrofii kluczowych umiejętności badawczych – zdolności do samodzielnego rozwiązywania problemów, krytycznej analizy i budowania złożonej argumentacji.40 Badania wskazują, że nadmierne poleganie na AI może prowadzić do „długu poznawczego”, obniżając zaangażowanie i zdolność do samodzielnego myślenia.76 Dziesięć krytycznych podpowiedzi, stanowiących rdzeń tego artykułu, jest swoistym antidotum na tę tendencję. Każda z nich – od kwestionowania założeń po poszukiwanie kontrargumentów – zmusza zarówno użytkownika, jak i maszynę do aktywnego, a nie pasywnego, przetwarzania informacji.

Wizja przyszłości badań naukowych, jaka wyłania się z tej analizy, jest optymistyczna, ale i wymagająca. Sztuczna inteligencja bez wątpienia będzie coraz głębiej integrowana z procesem naukowym, automatyzując analizę danych na niespotykaną dotąd skalę, pomagając w generowaniu nowych hipotez i przyspieszając cykl odkryć.77 Jednak ostateczna wartość pracy naukowej – jej oryginalność, głębia, znaczenie i rzetelność – zawsze będzie wynikać z niezastąpionych ludzkich cech: ciekawości, która zadaje fundamentalne pytania; kreatywności, która łączy pozornie odległe idee; i rygoru intelektualnego, który nieustannie dąży do prawdy. Sztuczna inteligencja pozostanie potężnym, ale tylko narzędziem w rękach świadomego, krytycznego i etycznie odpowiedzialnego badacza. To on, jako ostateczny kurator i dyrygent procesu poznawczego, będzie decydował o kształcie przyszłej nauki.

Cytowane prace

  1. Challenges in Writing a Research Thesis/Dissertation: It’s Effect on PhD Students, otwierano: czerwca 29, 2025, https://www.researchgate.net/publication/375697948_Challenges_in_Writing_a_Research_ThesisDissertation_It’s_Effect_on_PhD_Students

  2. 10 most common PhD challenges and how to overcome them – Smart Researcher, otwierano: czerwca 29, 2025, https://www.smartresearcher.me/10-most-common-phd-challenges-and-how-to-overcome-them/

  3. Thesis Writing Challenges: Tips for PhD Students – Aimlay, otwierano: czerwca 29, 2025, https://www.aimlay.com/thesis-writing-challenges-tips-for-phd-students/

  4. A Student’s Guide to Writing with ChatGPT | OpenAI, otwierano: czerwca 29, 2025, https://openai.com/chatgpt/use-cases/student-writing-guide/

  5. The Impact of AI on Research and Innovation – Cognitive World, otwierano: czerwca 29, 2025, https://cognitiveworld.com/articles/2025/3/02/the-impact-of-ai-on-research-and-innovation

  6. Common Pitfalls of PhD Thesis Writing and 10 Tips to Avoid Them, otwierano: czerwca 29, 2025, https://www.theresearchguardian.com/pitfalls-of-phd-thesis-writing-tips/

  7. Effective and Responsible Use of AI in Research – UW Graduate School, otwierano: czerwca 29, 2025, https://grad.uw.edu/advice/effective-and-responsible-use-of-ai-in-research/

  8. Should you use ChatGPT for Literature Search? – Researcher.Life, otwierano: czerwca 29, 2025, https://researcher.life/blog/article/should-you-use-chatgpt-for-a-literature-search/

  9. Ethical Use Cases of AI in Academic Writing: A 2025 Guide for Students and Researchers, otwierano: czerwca 29, 2025, https://www.thesify.ai/blog/ethical-use-cases-of-ai-in-academic-writing-a-2025-guide-for-students-and-researchers

  10. (PDF) GENERATIVE AI FOR SCIENTIFIC DISCOVERY: AUTOMATED HYPOTHESIS GENERATION AND TESTING – ResearchGate, otwierano: czerwca 29, 2025, https://www.researchgate.net/publication/390371479_GENERATIVE_AI_FOR_SCIENTIFIC_DISCOVERY_AUTOMATED_HYPOTHESIS_GENERATION_AND_TESTING

  11. A Survey on Hypothesis Generation for Scientific Discovery in the Era of Large Language Models – arXiv, otwierano: czerwca 29, 2025, https://arxiv.org/html/2504.05496v1

  12. AI in Academic Research: A Disruptive Force or a Game-Changer – Aquinas Network, otwierano: czerwca 29, 2025, https://aquinasnetwork.com/blog/artificial-intelligence-in-academic-research-shaping-the-next-generation-of-students-analysts-and-scientists/

  13. Is Utilizing AI Tools for Conducting Literature Reviews in Academic Research Advisable?, otwierano: czerwca 29, 2025, https://academia.stackexchange.com/questions/205889/is-utilizing-ai-tools-for-conducting-literature-reviews-in-academic-research-adv

  14. www.citystgeorges.ac.uk, otwierano: czerwca 29, 2025, https://www.citystgeorges.ac.uk/research/city-doctoral-college/doctoral-training-resources/use-of-generative-ai-tools-in-doctoral-research#:~:text=Material%20generated%20by%20AI%20tools,techniques%20used%20during%20the%20doctorate.&text=For%20example%2C%20it%20is%20unacceptable,articles%20that%20do%20not%20exist.

  15. The Risks of AI-Assisted Academic Writing – Elsevier Author Services, otwierano: czerwca 29, 2025, https://scientific-publishing.webshop.elsevier.com/research-process/the-dangers-of-ai-assisted-academic-writing/

  16. Elicit: The AI Research Assistant, otwierano: czerwca 29, 2025, https://elicit.com/

  17. I tested every ai literature review tool so you don’t have to (8 best …, otwierano: czerwca 29, 2025, https://techpoint.africa/guide/best-ai-tools-for-literature-reviews/

  18. Scite vs Elicit: The Specialist Showdown [2025] | Anara, otwierano: czerwca 29, 2025, https://anara.com/blog/scite-vs-elicit

  19. 10 Top Must-Know Elicit Alternatives in 2024 | JotBot AI, otwierano: czerwca 29, 2025, https://myjotbot.com/blog/elicit-ai

  20. Elicit and Scispace vs. Research Rabbit: Which is best? #research – YouTube, otwierano: czerwca 29, 2025, https://www.youtube.com/watch?v=yO9wb8IYcHc

  21. Elicit vs Scite: Which Content Optimizer is Best in 2025? – Fahim AI, otwierano: czerwca 29, 2025, https://www.fahimai.com/elicit-vs-scite

  22. How Artificial Intelligence is Reshaping Academic Research Workflows – Context.inc, otwierano: czerwca 29, 2025, https://www.context.inc/blog/how-artificial-intelligence-is-reshaping-academic-research-workflows

  23. Generative AI Tools for Literature Reviews – LibGuides at Oregon State University, otwierano: czerwca 29, 2025, https://guides.library.oregonstate.edu/ailitreviewtools

  24. AI Tools for Literature Review – Research Guides at Texas A&M University-Corpus Christi, otwierano: czerwca 29, 2025, https://guides.library.tamucc.edu/ai-tools-lit-review/gen-ai-tool-comparison

  25. AI, Robot Neuroscientist: Reimagining Hypothesis Generation | OpenReview, otwierano: czerwca 29, 2025, https://openreview.net/forum?id=CllNd4XWVF

  26. AI Tools for Research – Artificial Intelligence (Generative) Resources – Guides at Georgetown University, otwierano: czerwca 29, 2025, https://guides.library.georgetown.edu/ai/tools

  27. Artificial Intelligence Now: ChatGPT + AI Literacy Toolbox: Literature Reviews with Prompts, otwierano: czerwca 29, 2025, https://library.fiu.edu/ai/lit-review

  28. ChatGPT [beta] – Literature Reviews – Research Guides at University of Michigan Library, otwierano: czerwca 29, 2025, https://guides.lib.umich.edu/c.php?g=1209331&p=9938227

  29. The Ultimate Guide to AI Research Strategies – Qualtrics, otwierano: czerwca 29, 2025, https://www.qualtrics.com/experience-management/research/ai-research-strategies/

  30. AI Research Paper Methodology Generator (FREE, No Signup) – LogicBalls, otwierano: czerwca 29, 2025, https://logicballs.com/tools/research-paper-methodology-generator

  31. AI in research methodology: New approaches for 2024 – Insight7, otwierano: czerwca 29, 2025, https://insight7.io/ai-in-research-methodology-new-approaches-for-2024/

  32. Large Language Models in the Classroom: Enhancing Doctoral Dissertation Proposals, otwierano: czerwca 29, 2025, https://www.phoenix.edu/research/news/2025/large-language-models-in-the-classroom–enhancing-doctoral-disse0.html

  33. How to Use ChatGPT with Academic Writing Papers – SciTechEdit, otwierano: czerwca 29, 2025, https://scitechedit.com/chatgpt-and-academic-writing/

  34. 15 ChatGPT Prompts for Academic Writing, otwierano: czerwca 29, 2025, https://www.godofprompt.ai/blog/chatgpt-prompts-for-academic-writing

  35. ChatGPT in Academic Writing and Research: Best Tips for Effective Use – Yomu AI, otwierano: czerwca 29, 2025, https://www.yomu.ai/blog/chatgpt-in-academic-writing-and-research-best-tips-for-effective-use

  36. The 8 Levels of the Socratic Method — Now Powered by AI | by Maskmen | Medium, otwierano: czerwca 29, 2025, https://medium.com/@adity250123465/the-8-levels-of-the-socratic-method-now-powered-by-ai-5f8cff88aa88

  37. Socratic wisdom in the age of AI: a comparative study of ChatGPT and human tutors in enhancing critical thinking skills – Frontiers, otwierano: czerwca 29, 2025, https://www.frontiersin.org/journals/education/articles/10.3389/feduc.2025.1528603/full

  38. The Socratic Method In The Age Of Artificial Intelligence | ICSB, otwierano: czerwca 29, 2025, https://icsb.org/ayman-tarabishy/the-socratic-method-in-the-age-of-artificial-intelligence/

  39. research.com, otwierano: czerwca 29, 2025, https://research.com/research/the-role-of-ai-in-academic-research#:~:text=By%20expediting%20data%20analysis%2C%20improving,concerns%20that%20need%20careful%20navigation.

  40. Does Using Artificial Intelligence Ruin Your Actual Intelligence …, otwierano: czerwca 29, 2025, https://www.sciencealert.com/does-using-artificial-intelligence-ruin-your-actual-intelligence-scientists-investigated

  41. Using AI in academics and research | Information Technology Services, otwierano: czerwca 29, 2025, https://its.uiowa.edu/using-ai-academics-and-research

  42. Explicitly unbiased large language models still form biased associations – PNAS, otwierano: czerwca 29, 2025, https://www.pnas.org/doi/10.1073/pnas.2416228122

  43. Bias in Large Language Models—and Who Should Be Held …, otwierano: czerwca 29, 2025, https://law.stanford.edu/press/bias-in-large-language-models-and-who-should-be-held-accountable/

  44. Unpacking the bias of large language models | MIT News, otwierano: czerwca 29, 2025, https://news.mit.edu/2025/unpacking-large-language-model-bias-0617

  45. Use of Generative AI Tools in Doctoral Research • City St George’s, University of London, otwierano: czerwca 29, 2025, https://www.citystgeorges.ac.uk/research/city-doctoral-college/doctoral-training-resources/use-of-generative-ai-tools-in-doctoral-research

  46. Using AI Writing Tools Ethically in PhD Education – Paperguide, otwierano: czerwca 29, 2025, https://paperguide.ai/blog/ai-writing-software-phd-ethics-best-practices/

  47. edly.io, otwierano: czerwca 29, 2025, https://edly.io/blog/artificial-intelligence-in-education-and-privacy-concerns/#:~:text=Summary%3A%20The%20use%20of%20AI,unsafe%20learning%20environment%20for%20students.

  48. Artificial Intelligence in Education: Striking a Balance between Innovation & Privacy – Edly, otwierano: czerwca 29, 2025, https://edly.io/blog/artificial-intelligence-in-education-and-privacy-concerns/

  49. An Intellectual Property Approach to the Use of Generative AI – IIARD, otwierano: czerwca 29, 2025, https://www.iiardjournals.org/get/WJIMT/VOL.%209%20NO.%204%202025/An%20Intellectual%20Property%2097-116.pdf

  50. AI and intellectual property rights – Dentons, otwierano: czerwca 29, 2025, https://www.dentons.com/en/insights/articles/2025/january/28/ai-and-intellectual-property-rights

  51. AI, Large Language Models, and the Responsible Conduct of Research at UNSW, otwierano: czerwca 29, 2025, https://www.unsw.edu.au/content/dam/pdfs/planning-assurance/conduct-integrity/2024-04-unsw-position-on-generative-ai-in-research.pdf

  52. Comparing AI Policies for Academic Authors: Elsevier vs Wiley – SciPub+, otwierano: czerwca 29, 2025, https://scipubplus.com/hub/blog/comparing-ai-policies-for-academic-authors-elsevier-vs-wiley/

  53. Artificial Intelligence (AI) Guide: Nature Journals – LibGuides, otwierano: czerwca 29, 2025, https://utsouthwestern.libguides.com/artificial-intelligence/ai-publishing-nature

  54. Authorship and AI tools | COPE – Committee on Publication Ethics, otwierano: czerwca 29, 2025, https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools

  55. Policy of Academic Journals Towards AI-generated Content – Rachel So’s Papers, otwierano: czerwca 29, 2025, https://project-rachel.4open.science/Rachel.So.Policy.of.Academic.Journals.Towards.AI-generated.Content.pdf

  56. Elsevier vs. Springer Nature: Comparing AI Policies for Academic Authors | SciPub+, otwierano: czerwca 29, 2025, https://scipubplus.com/hub/blog/elsevier-vs-springer-nature-comparing-ai-policies-for-academic-authors/

  57. Artificial Intelligence (AI): Publisher Policies – Purdue Libraries Research Guides!, otwierano: czerwca 29, 2025, https://guides.lib.purdue.edu/c.php?g=1371380&p=10135076

  58. Editorial policies – Springer Nature, otwierano: czerwca 29, 2025, https://www.springernature.com/gp/policies/editorial-policies

  59. Artificial Intelligence (AI) | Springer — International Publisher, otwierano: czerwca 29, 2025, https://www.springer.com/gp/editorial-policies/artificial-intelligence–ai-/25428500

  60. Artificial Intelligence Policy | SAGE Publications Inc, otwierano: czerwca 29, 2025, https://us.sagepub.com/en-us/nam/artificial-intelligence-policy

  61. Emerging AI dilemmas in scholarly publishing | COPE: Committee on Publication Ethics, otwierano: czerwca 29, 2025, https://publicationethics.org/topic-discussions/emerging-ai-dilemmas-scholarly-publishing

  62. Ethical and Responsible Use of Generative AI – Privacy & Cybersecurity, otwierano: czerwca 29, 2025, https://www.cybersecurity.illinois.edu/policies-governance/privacy-considerations-for-generative-ai/

  63. Responsible AI at Stanford | University IT, otwierano: czerwca 29, 2025, https://uit.stanford.edu/security/responsibleai

  64. Guidance for use of Generative AI tools | Information Systems & Technology – MIT IS&T, otwierano: czerwca 29, 2025, https://ist.mit.edu/ai-guidance

  65. How can I use Large Language Models (LLMs) in my Research? | Editage – YouTube, otwierano: czerwca 29, 2025, https://www.youtube.com/watch?v=245i9nsVptY

  66. Report outlines Stanford principles for use of AI, otwierano: czerwca 29, 2025, https://news.stanford.edu/stories/2025/01/report-outlines-stanford-principles-for-use-of-ai

  67. Ethical considerations for students – AI Checklist Generator, otwierano: czerwca 29, 2025, https://checklistgenerator.ai/checklists/ethical-considerations-for-students-0a4a0d1c57

  68. Gen AI quick checklist | Generative AI, otwierano: czerwca 29, 2025, https://generative-ai.leeds.ac.uk/ai-and-assessments/gen-ai-quick-checklist/

  69. Checklist for ai use in research – Sheffield Hallam University, otwierano: czerwca 29, 2025, https://www.shu.ac.uk/-/media/home/research/ethics-integrity-and-practice/checklist-for-ai-use-in-research.pdf

  70. Generative AI Policy Guidance – Office of Community Standards – Stanford University, otwierano: czerwca 29, 2025, https://communitystandards.stanford.edu/generative-ai-policy-guidance

  71. Use of generative artificial intelligence in application preparation and assessment – UKRI, otwierano: czerwca 29, 2025, https://www.ukri.org/publications/generative-artificial-intelligence-in-application-and-assessment-policy/use-of-generative-artificial-intelligence-in-application-preparation-and-assessment/

  72. Interim guidance for applicants and grant holders developing software and Artificial Intelligence in biomedical research and innovation – UKRI, otwierano: czerwca 29, 2025, https://www.ukri.org/wp-content/uploads/2024/10/MRC-25102024-Interim-MRC-guidance-AI_software-v1.6.pdf

  73. Full article: A university framework for the responsible use of …, otwierano: czerwca 29, 2025, https://www.tandfonline.com/doi/full/10.1080/1360080X.2025.2509187?src=exp-la

  74. Artificial intelligence and authorship | COPE – Committee on Publication Ethics, otwierano: czerwca 29, 2025, https://publicationethics.org/news-opinion/artificial-intelligence-and-authorship

  75. Productive Struggle: How Artificial Intelligence Is Changing Learning, Effort, and Youth Development in Education | Bellwether, otwierano: czerwca 29, 2025, https://bellwether.org/publications/productive-struggle/

  76. ChatGPT’s Impact On Our Brains According to an MIT Study – Time Magazine, otwierano: czerwca 29, 2025, https://time.com/7295195/ai-chatgpt-google-learning-school/

  77. AI and the Future of Scientific Discovery – MIT FutureTech, otwierano: czerwca 29, 2025, https://futuretech.mit.edu/news/ai-and-the-future-of-scientific-discovery

  78. How AI could usher in a new age of scientific discovery – Imperial College London, otwierano: czerwca 29, 2025, https://www.imperial.ac.uk/business-school/ib-knowledge/technology/how-ai-could-usher-new-age-scientific-discovery/

  79. AI and the future of research | Advancing Discovery | Springer Nature, otwierano: czerwca 29, 2025, https://www.springernature.com/gp/advancing-discovery/springboard/blog/blogposts-technology-partnerships/jraf-2023-ai-and-the-future/26968360

Sztuczna inteligencja w doktoracie: Partner intelektualny czy niebezpieczna proteza? by
Sztuczna inteligencja w doktoracie: Partner intelektualny czy niebezpieczna proteza?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *