Pewne niezgrabne frazy charakterystyczne dla ChatuGPT pojawiają się w recenzowanych publikacjach w czasopismach naukowych – wynika z analizy prof. Artura Strzeleckiego z UEK. W jego ocenie może to podkopywać zaufanie do procesu przygotowywania treści naukowych.
W odpowiedziach tworzonych przez ChatGPT pojawiają się pewne charakterystyczne, nie używane raczej przez ludzi struktury, jak np. "Według mojej wiedzy na dzień ostatniej aktualizacji…", "Mam nadzieję, że to pomoże!", "Oczywiście! Tutaj jest/są …", "Cieszę się, że mogę pomóc!", "Mam nadzieję, że to wyjaśnia Twoje pytanie. Jeśli potrzebujesz więcej informacji, daj znać!".
Dr. hab. Artur Strzelecki, prof. Uniwersytetu Ekonomicznego w Katowicach postanowił sprawdzić, czy "nienaturalne" sformułowania tego typu zaczęły się częściej pojawiać w anglojęzycznych publikacjach naukowych. To zaś zdradza, że autorzy publikacji bezmyślnie przekopiowali do swojego artykułu naukowego fragment wypowiedzi ChatuGPT. A w dodatku nie zostało to zauważone przez współautorów, recenzentów, ani redaktorów czasopisma.
Przeczytaj także
Naukowcy pompują dorobek naukowy. GW: "Oszustwo na duża skalę"
Naukowiec z UEK w swojej pracy przeanalizował tylko te artykuły, w których nie wspominano o programie ChatGPT i nie deklarowano korzystania z tego narzędzia w pisaniu pracy.
Autor wybrał kilkanaście typowych dla ChatuGPT zwrotów i wyszukiwał je w bazie publikacji naukowych Google Scholar. O ile przed pojawieniem się ChatuGPT niektóre zwroty występowały sporadycznie i najczęściej jako fragment dialogu w badaniach jakościowych, o tyle w kolejnych latach ich popularność poszybowała.
Wśród takich fraz, które w publikacjach zaczęły się pojawiać za sprawą bezrefleksyjnego użycia ChatuGPT, są zwroty takie jak: "Według mojej wiedzy na dzień ostatniej aktualizacji…" ("as of my last knowledge update"), "Jako model językowy AI" ("as an AI language model") czy "I don’t have access to real-time…" ("nie mam dostępu do aktualnych…").
Okazuje się też, że ponad sto razy w publikacjach naukowych skopiowano treść interfejsu – pod każdą odpowiedzią ChatuGPT był dawniej przycisk "regenerate response", czyli polecenie, by chat ponownie opracował swoją odpowiedź. Całkiem wielu nieuważnych naukowców skopiowało odpowiedź AI wraz z jej "stopką" i nie przeczytało do końca tekstu wysyłanego do wydawnictwa.
Kiedy brano pod uwagę tylko część bardziej prestiżowych recenzowanych czasopism naukowych z bazy Scopus, to frazy ChatuGPT nie były tam może nagminne, ale prof. Strzelecki odnalazł je w 89 artykułach. A to oznacza, że i w lepszych wydawnictwach takie nowego typu "uchybienia językowe" mogą przemknąć niezauważone.
"ChatGPT jest tylko narzędziem. To autor bierze całą odpowiedzialność za to, co zawrze w swoim artykule naukowym" – skomentował w rozmowie z PAP prof. Strzelecki. Zdaniem naukowca fakt bezmyślnego wykorzystywania ChatuGPT w nauce podkopuje jej autorytet. "Jak można ufać niektórym czasopismom naukowym, skoro nawet tam pojawiają się niedbale przygotowane treści" – zwraca uwagę badacz.
Według niego zadaniem każdego użytkownika korzystającego z AI jest krytyczne przeanalizowanie całej wypowiedzi modelu. Dopiero wtedy można zastanowić się nad dalszym jej wykorzystaniem.
Prof. Strzelecki zwraca uwagę, że ChatGPT to pomocne narzędzie, z którego warto korzystać np. w ramach korekty językowej czy przy tłumaczeniu tekstu na obcy język. Przypomina jednak, że nie należy brać za dobrą monetę wszystkiego, co wytworzy AI.
"Nie wszystko, co brzmi profesjonalnie – jest prawdziwe – podkreśla naukowiec. – Skoro już korzystamy z ChatuGPT w swojej pracy, to róbmy to odpowiedzialnie".
Ludwika Tomala (PAP)
lt/ agt/ amac/