Wprowadzenie

Szybki rozwój narzędzi generatywnej sztucznej inteligencji (np. ChatGPT) zmienia sposób komunikowania nauki. Coraz więcej prac naukowych zawiera ślady użycia AI, co rodzi pytania o plagiat, wiarygodność oraz inne dylematy etyczne (Nature).

Conceptual illustration showing a group of scientists arguing next to an AI chip.

Metodologia badania

Redakcja Nature przeprowadziła anonimową ankietę w marcu 2025 r. wśród 5 229 naukowców z całego świata (m.in. 21% z USA, 10% z Indii, 8% z Niemiec), reprezentujących różne dziedziny i etapy kariery. Pytano ich o etyczną dopuszczalność i własne doświadczenia związane z użyciem AI do:

  • generowania pierwszego szkicu artykułu,
  • redagowania własnych tekstów,
  • tworzenia wybranych sekcji manuskryptu,
  • tłumaczenia pracy,
  • wspomagania recenzji lub tworzenia wstępnych raportów recenzenckich (Nature).

Główne wnioski

  • Redakcja i tłumaczenie: Ponad 90% badanych uważa, że etycznie dopuszczalne jest użycie AI do edycji własnej pracy oraz jej tłumaczenia (Nature).
  • Tworzenie tekstu: Około 65% respondentów akceptuje wykorzystanie AI do generowania tekstu (np. draft pierwszego szkicu), jednak tylko 13% zgadza się na udział AI w całym pierwszym szkicu, a 16% — w tworzeniu streszczeń (Nature).
  • Sekcje manuskryptu: Generowanie abstraktu budzi najmniej kontrowersji, natomiast najbardziej niepokoi badaczy użycie AI do napisania części „Wyniki” (Nature).
  • Peer review: Ponad 60% uznało za nieodpowiednie sporządzanie wstępnego raportu recenzenckiego przez AI, ale 57% dopuszcza wspomaganie recenzji (np. odpowiadanie na pytania o manuskrypt) (Nature).

Rzeczywiste wykorzystanie AI

Mimo że wielu badaczy uważa określone zastosowania AI za dopuszczalne, realne użycie narzędzi generatywnych pozostaje ograniczone:

  • 28% deklaruje skorzystanie z AI do redagowania artykułu,
  • ok. 8% — do tworzenia szkicu,
  • zaledwie 4% — do tłumaczenia lub wstępnej recenzji (Nature).

Czynniki demograficzne

  • Etap kariery: Młodsi naukowcy chętniej eksperymentują z AI i są bardziej przychylni jej wykorzystaniu w redagowaniu tekstów (Nature).
  • Język: Badacze spoza krajów anglojęzycznych częściej korzystają z AI (m.in. ze względu na wsparcie w języku angielskim), lecz ich poglądy etyczne na temat użycia AI nie odbiegają znacząco od reszty (Nature).

Obawy i nadzieje

Respondenci zwracali uwagę na ryzyko plagiatu, utratę kontroli nad treścią, niepewność co do jakości generowanych cytowań oraz wpływ AI na środowisko. Jednocześnie doceniali, że AI może wyrównywać szanse naukowców, dla których angielski nie jest językiem ojczystym, oraz skracać czas potrzebny na monotonne prace redakcyjne (Nature).

Perspektywy i rekomendacje

  1. Transparentność: wprowadzenie jasnych wytycznych redakcyjnych, obowiązku ujawniania użycia AI i – jeśli to możliwe – szczegółów dotyczących użytych promptów.
  2. Edukacja: szkolenia z zakresu etycznego i odpowiedzialnego stosowania narzędzi AI w procesie badawczym.
  3. Narzędzia dedykowane: rozwój specjalistycznych aplikacji AI zoptymalizowanych pod kątem potrzeb akademickich (np. weryfikacja cytowań, poprawa spójności merytorycznej).

Podsumowanie

Badanie Nature pokazuje, że choć entuzjazm wobec AI w środowisku naukowym jest duży, praktyka i akceptowalność jej zastosowań wciąż budzą mieszane uczucia. Kluczowe stanie się wypracowanie wspólnych standardów, które pozwolą wykorzystać potencjał AI jako realnego wsparcia, a nie zagrożenia dla rzetelności i wiarygodności nauki.

Podzieleni badacze: czy AI może pisać prace naukowe? by
Podzieleni badacze: czy AI może pisać prace naukowe?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *