Czy AI wykryje prace napisaną z wykorzystaniem...
Współczesna dyskusja na temat sztucznej inteligencji w świecie akademickim coraz częściej koncentruje się na pytaniu, czy AI potrafi wykryć pracę napisaną z wykorzystaniem AI i w jaki sposób funkcjonują nowoczesne systemy antyplagiatowe, które zostały postawione przed zupełnie nowymi wyzwaniami związanymi z rozwojem modeli językowych generujących teksty płynne, poprawne stylistycznie i pozornie naturalne, a jednocześnie tworzone bez udziału tradycyjnych źródeł, co radykalnie zmienia kontekst oceny oryginalności prac dyplomowych. Obawy studentów i wykładowców nie są bezpodstawne, ponieważ pojawienie się narzędzi takich jak ChatGPT, Gemini czy Claude sprawiło, że tradycyjne rozumienie plagiatu – oparte na porównywaniu fragmentów tekstu ze znanymi źródłami – przestało być wystarczające, a systemy antyplagiatowe muszą zmierzyć się z nowym typem treści, które nie są kopiowane, lecz generowane, czyli nie pochodzą z konkretnej publikacji, a jednak mogą nie być efektem ludzkiej pracy twórczej.
Zacząć należy od tego, że większość współczesnych narzędzi antyplagiatowych, takich jak popularne w Polsce systemy JSA (Jednolity System Antyplagiatowy), Plagiat.pl czy Turnitin, została zaprojektowana przede wszystkim do wyszukiwania podobieństw pomiędzy tekstem oddanym do sprawdzenia a bazą istniejących publikacji, artykułów, książek, stron internetowych oraz innych prac dyplomowych, które wcześniej trafiły do repozytoriów, dlatego bardzo dobrze radzą sobie z wykrywaniem kopiowania, zapożyczeń, parafraz o niskiej oryginalności czy cytowania bez oznaczenia źródła, ale nie są w stanie wskazać, czy tekst został napisany przez człowieka, czy przez model językowy, ponieważ algorytmy porównują treść, a nie sposób jej wytworzenia. Systemy te nie analizują procesów myślowych, nie badają stylistycznego podpisu autora i nie potrafią odróżnić kreatywnego stylu ludzkiego od statystycznie wygenerowanego stylu AI, zwłaszcza że modele językowe tworzą treści unikatowe, a więc trudne do wykrycia w ramach tradycyjnego porównywania.
Z tego powodu pojawiły się narzędzia rzekomo „wykrywające AI”, jednak ich skuteczność jest coraz bardziej podważana, ponieważ modele językowe rozwijają się tak dynamicznie, że potrafią tworzyć teksty zróżnicowane stylistycznie, zawierające naturalne błędy, zmienne konstrukcje zdań, odmienne rytmy wypowiedzi oraz cechy przypisywane dotychczas jedynie pracy ludzkiej, co powoduje, że detektory AI, takie jak GPTZero, ZeroGPT czy Originality.ai, zaczynają mieć trudności z jednoznacznym wskazaniem, czy tekst został napisany przez człowieka. W rzeczywistości ich działanie oparte jest na statystycznych cechach wypowiedzi – takich jak przewidywalność kolejnych słów, jednolitość stylu, brak złożonych konstrukcji argumentacyjnych, powtarzalność schematów i rytmów językowych – co sprawia, że te narzędzia nie tyle rozpoznają AI, ile raczej szacują prawdopodobieństwo, że dany tekst mógł zostać wygenerowany, a ich skuteczność spada, gdy tekst jest edytowany, uzupełniany lub redagowany przez człowieka, ponieważ takie modyfikacje na tyle zmieniają parametry statystyczne, że rozpoznanie staje się praktycznie niemożliwe.
Warto podkreślić, że uniwersytety zdają sobie sprawę z ograniczeń systemów wykrywających AI, dlatego coraz częściej opierają ocenę oryginalności pracy nie tylko na analizie tekstu, lecz także na rozmowach ze studentem, analizie procesu powstawania pracy, regularnych konsultacjach oraz konieczności przedstawienia etapów twórczych, co pozwala promotorowi ocenić, czy autor rzeczywiście rozumie napisany tekst, potrafi wyjaśnić źródła, metody, wnioski i tok rozumowania, ponieważ żaden system nie jest w stanie zastąpić ludzkiej oceny kompetencji i wiedzy. Coraz częściej to właśnie promotor, nie algorytm, pełni rolę „wykrywacza AI”, ponieważ szybko zauważa, gdy student nie potrafi obronić zapisanych treści, gdy tekst jest zbyt ogólny, jednolity stylistycznie, zbyt idealnie zredagowany, pozbawiony głębi analitycznej, rozmów ze źródłami czy logicznego powiązania rozdziałów, czyli cech, które często są charakterystyczne dla tekstów generowanych przez AI.
Trzeba również zaznaczyć, że sztuczna inteligencja – wbrew obawom – nie jest w stanie sama w sobie wykrywać tekstów pisanych przez inne modele językowe, ponieważ nie ma dostępu do sposobu powstawania tekstu ani do „podpisu algorytmicznego”, a jej odpowiedzi nie stanowią materiału porównawczego w tradycyjnym sensie. W momencie, gdy student dostosuje, przepisze lub zredaguje tekst wygenerowany przez AI, nawet najlepsze detektory tracą zdolność rozróżnienia, ponieważ granica między ludzką a sztuczną edycją zaciera się w sposób absolutny. Nie istnieje więc żaden system, który gwarantuje stuprocentowe wykrywanie AI – ani w Polsce, ani na świecie – a rozwój modeli językowych powoduje, że ich wypowiedzi są coraz mniej przewidywalne i coraz bardziej ludzkie.
Podsumowując, współczesne systemy antyplagiatowe nie wykrywają treści wygenerowanych przez AI, lecz jedynie porównują teksty z istniejącymi publikacjami, natomiast narzędzia mające wykrywać AI działają w oparciu o algorytmy statystyczne, które obarczone są wysokim poziomem błędu i nie dają jednoznacznych, naukowo zweryfikowanych rezultatów. W rzeczywistości więc najlepszym i najskuteczniejszym sposobem rozpoznania tekstu napisanego przez sztuczną inteligencję wciąż pozostaje ocena promotora, rozmowa ze studentem oraz analiza procesu powstawania pracy, ponieważ to właśnie zdolność do obrony tekstu, wyjaśnienia metod, zrozumienia literatury i przedstawienia toku rozumowania jest tym, czego AI nie potrafi podrobić i co weryfikuje prawdziwe kompetencje autora. Dzięki temu staje się jasne, że systemy antyplagiatowe w dobie AI muszą ewoluować, ale ich działanie nie opiera się na wykrywaniu sztucznej inteligencji, lecz na coraz większym udziale człowieka w ocenie autentyczności procesu twórczego. Jeśli chcesz, mogę również przygotować esej o etycznym korzystaniu z AI lub wyjaśnić, jak bezpiecznie wykorzystywać AI w procesie pisania pracy.