Coraz więcej artykułów naukowych powstaje przy wsparciu generatywnej sztucznej inteligencji. Modele językowe takie jak ChatGPT stają się narzędziem nie tylko w laboratorium, ale także… przy klawiaturze. W informatyce już niemal co piąty abstrakt i wstęp w publikacjach z 2024 roku został napisany przez AI. Czy ta rewolucja oznacza przyspieszenie tempa innowacji, czy raczej zwiastuje dewaluację naukowego pisania jako miernika wartości intelektualnej?
Zjawisko: nauka pisana przez maszyny
Zespół badaczy z Uniwersytetu Stanforda przeanalizował ponad 1,1 miliona publikacji naukowych i preprintów z trzech głównych źródeł: arXiv, bioRxiv i Nature. Celem było zbadanie obecności językowych modeli generatywnych (LLM) w treściach naukowych. Wyniki nie pozostawiają złudzeń: w ciągu niespełna dwóch lat udział tekstów tworzonych przez AI wzrósł skokowo.
W informatyce w 2024 roku aż 22,5% abstraktów i 19,5% wstępów zostało wygenerowanych lub istotnie zmodyfikowanych przez LLM. Dla porównania, w listopadzie 2022 roku udział ten wynosił zaledwie 2,4%. Podobne zjawisko obserwowane jest także w dziedzinie elektrotechniki i nauk systemowych (18–18,4%) oraz – w mniejszym stopniu – w matematyce (8,9–9,4%).
Największa aktywność LLM koncentruje się właśnie w sekcjach otwierających artykuły – abstraktach i wstępach. To fragmenty, w których modele językowe radzą sobie najlepiej: wymagają syntetycznego ujęcia problemu, sprawnego streszczenia treści i płynności językowej, a niekoniecznie oryginalnego wkładu koncepcyjnego. W sekcjach metodologicznych i wynikowych obecność AI jest zauważalnie mniejsza.
Motywacje: szybkość i presja
Za wzrostem wykorzystania AI w pisaniu nie stoją wyłącznie możliwości technologiczne, ale również czynniki systemowe. Autorzy częściej publikujący preprinty znacznie chętniej korzystają z LLM – prawdopodobnie z powodu rosnącej presji na tempo publikowania.
W świecie nauki, zwłaszcza w dyscyplinach technologicznych, liczba publikacji coraz częściej przekłada się na prestiż, finansowanie i awans. Modele generatywne stają się więc sposobem na zwiększenie „przepustowości” – przyspieszają redagowanie tekstów, poprawiają język angielski, pomagają zbudować atrakcyjny przekaz. W tekstach poniżej 5000 słów ich obecność jest szczególnie widoczna.
Równolegle widać wyraźne różnice geograficzne. Artykuły z Chin i Europy kontynentalnej częściej zawierają fragmenty napisane przez AI niż te z Ameryki Północnej czy Wielkiej Brytanii. Autorzy nieanglojęzyczni chętniej korzystają z LLM jako wsparcia językowego, co – jak sugerują badacze – może wynikać z ograniczonego dostępu do redakcji językowej lub z potrzeby szybkiej optymalizacji komunikatu naukowego.
Problem: jakość kontra oryginalność
Automatyzacja pisania naukowego rodzi jednak pytania głębsze niż tylko te związane z efektywnością. Główne obawy dotyczą jakości, autentyczności oraz oryginalności tekstów naukowych.
Czy abstrakt wygenerowany przez AI przez cały czas reprezentuje unikalny wkład autora? Czy wstęp napisany przez LLM spełnia kryteria twórczości naukowej, czy jest tylko poprawną językowo kompilacją istniejących koncepcji? A co z odpowiedzialnością za treść – czy naukowiec podpisujący się pod tekstem wygenerowanym przez maszynę przez cały czas pozostaje jego jedynym autorem?
Niepokój budzi także kwestia „oswajania” modeli – naukowcy mogą nieświadomie dostosowywać język i strukturę publikacji do schematów preferowanych przez LLM, przez co styl akademicki stanie się ujednolicony, zautomatyzowany i podatny na manipulację.
Ryzyka: inflacja treści i rozmycie recenzji
W dłuższej perspektywie może to prowadzić do tzw. inflacji treści – zalewu poprawnych, ale wtórnych publikacji. Modele językowe ułatwiają tworzenie dużej liczby artykułów, które spełniają formalne kryteria, ale nie wnoszą wartości merytorycznej. jeżeli tempo będzie rosnąć, a narzędzia będą coraz bardziej powszechne, system recenzji naukowej stanie przed ogromnym wyzwaniem.
Recenzenci mogą mieć trudność z oceną, czy tekst został napisany przez człowieka, przez AI, czy wspólnie. Co więcej, rozmycie autorstwa może utrudnić identyfikację rzeczywistego wkładu naukowca, co z kolei osłabi zaufanie do procesu publikacyjnego jako mechanizmu selekcji jakościowej.
Nowe normy i transparentność
Obecnie kilka czasopism czy platform naukowych jasno reguluje korzystanie z AI przy pisaniu. Pojawiają się jednak głosy o konieczności wprowadzenia zasad transparentności – podobnie jak w przypadku deklarowania konfliktu interesów czy źródeł finansowania badań.
Część środowiska akademickiego postuluje, by korzystanie z LLM było otwarcie deklarowane: czy to w przypisie, czy w specjalnej sekcji „autorzy i narzędzia”. Pojawiają się też pomysły klasyfikowania LLM jako formy asystenta, podobnej do edytora językowego – choć o znacznie większym wpływie na treść. To, jak gwałtownie i w jakiej formie zostaną wypracowane nowe standardy, zdecyduje o tym, czy AI stanie się sprzymierzeńcem jakości, czy katalizatorem jej erozji.