Jeszcze kilka lat temu pisanie pracy dyplomowej czy artykułu naukowego kojarzyło się z samotnym siedzeniem nad źródłami, żmudnym redagowaniem i poprawianiem tekstu słowo po słowie. Dziś coraz częściej do tego procesu wkracza sztuczna inteligencja. Narzędzia oparte na AI, takie jak ChatGPT czy Gemini, stały się naturalnym wsparciem studentów, badaczy i copywriterów. Jednak wraz z tym wsparciem pojawiły się też kontrowersje – zwłaszcza w kontekście programów wykrywających tzw. „tekst tworzony przez AI”.
Narzędzia do wykrywania AI – jak działają Plaigat.pl i JSA?
W polskich uczelniach coraz częściej stosuje się systemy takie jak Plaigat.pl czy JSA (Jednolity System Antyplagiatowy). Ich zadaniem jest sprawdzanie oryginalności prac dyplomowych i naukowych. Choć JSA powstał głównie z myślą o wykrywaniu klasycznych plagiatów (czyli kopiowania fragmentów cudzych tekstów bez podania źródła), obecnie dodaje się do niego algorytmy analizujące tzw. „styl AI”.
Plaigat.pl z kolei mocniej eksponuje funkcję wykrywania sztucznie generowanych treści. Programy te badają strukturę językową, powtarzalność słów, schematy gramatyczne i długość zdań. Na tej podstawie przypisują tekstowi procentowe prawdopodobieństwo, że został stworzony przez człowieka lub przez maszynę.
Problem w tym, że te narzędzia działają jak radar nastawiony zbyt szeroko. Owszem, wychwytują część sztucznie tworzonych tekstów, ale równie często wskazują na false positive – czyli sytuacje, w których w pełni ludzki tekst uznawany jest za wygenerowany przez AI.
Kiedy 90% oznacza… nic
W raportach Plaigat.pl czy JSA często pojawia się liczba: „90% prawdopodobieństwa, że tekst jest napisany przez AI”. Brzmi groźnie. W praktyce jednak takie wskazanie bywa bardziej straszakiem niż dowodem.
Badania nad algorytmami AI-detection pokazują, że nawet 60% ludzkich tekstów zostaje błędnie zakwalifikowanych jako maszynowe. Powód? Język naukowy i akademicki sam w sobie jest często:
- schematyczny,
- powtarzalny,
- pozbawiony indywidualnych metafor,
- zbudowany z długich, wielokrotnie złożonych zdań.
A to właśnie takie cechy algorytmy utożsamiają z generowaniem treści przez AI. W rezultacie student, który napisał pracę samodzielnie, może otrzymać raport sugerujący 90–100% „udziału AI” – i znaleźć się pod nieuzasadnionym podejrzeniem.
Jak rozmawiać z promotorem w sytuacji false positive?
Co zrobić, jeśli raport systemu antyplagiatowego stawia nas w złym świetle? Najważniejsze to nie panikować i nie przyjmować automatycznie winy.
- Pokaż warsztat pracy – zaprezentuj promotorowi notatki, wersje robocze, konspekty czy wcześniejsze fragmenty tekstu. To dowód, że praca powstawała etapami, a nie w jednym „kliknięciu”.
- Podkreśl ograniczenia narzędzi – warto spokojnie wyjaśnić, że programy wykrywające AI często dają wyniki obarczone błędem. Wystarczy przytoczyć przykłady badań, które wskazują na wysokie ryzyko false positive.
- Zaproponuj dodatkowe sprawdzenie – czasem warto oddać fragment tekstu do innego systemu, by porównać wyniki i pokazać rozbieżności.
- Rozmawiaj o intencjach, nie tylko o narzędziach – celem akademickiej uczciwości nie jest karanie za użycie nowoczesnych narzędzi wspierających myślenie, ale zapobieganie kradzieży cudzych prac.
- Uważaj na proporcje przypisów – niektórzy promotorzy zwracają uwagę na ilość odwołań. Jeśli w pracy liczącej kilkadziesiąt stron pojawiają się jedynie dwa przypisy na stronę, może to zostać odczytane jako brak rzetelnego oparcia w literaturze lub próba „obejścia” akademickich standardów. Warto więc wyjaśnić, że liczba przypisów nie zawsze świadczy o jakości tekstu – niektóre fragmenty mają charakter analityczny, interpretacyjny czy opisowy i naturalnie zawierają mniej cytatów. Jednocześnie można podkreślić, że całość pracy bazuje na solidnej bibliografii i że nie ma tu intencji ukrywania źródeł. Dobrym rozwiązaniem jest też pokazanie promotorowi, w których miejscach świadomie rezygnuje się z nadmiaru przypisów, aby zachować płynność narracji.
- Uważaj na źródła generowane przez AI – warto też pamiętać, że narzędzia sztucznej inteligencji mają tendencję do „halucynacji”, czyli wymyślania nieistniejących książek, artykułów czy przypisów. Student, który bezkrytycznie skopiuje takie elementy do pracy, naraża się na bardzo poważne konsekwencje – promotor szybko zauważy brak realnego źródła, a to podważy wiarygodność całej pracy. Dlatego zamiast zdawać się na gotowe bibliografie wygenerowane przez AI, lepiej samodzielnie zweryfikować każde źródło w katalogach bibliotek, bazach naukowych czy Google Scholar.
Kara zamiast dialogu?
Największym problemem obecnego podejścia jest fakt, że studenci często są karani za sam fakt korzystania z AI – nawet wtedy, gdy sztuczna inteligencja pełniła jedynie rolę wsparcia, np. do sprawdzania gramatyki, stylu czy tworzenia inspiracyjnych pytań badawczych.
To sytuacja paradoksalna. W świecie biznesu, marketingu czy badań rynkowych AI jest traktowana jako narzędzie, które zwiększa efektywność i kreatywność. Tymczasem w uczelnianych murach – zamiast przemyślanej integracji – wprowadza się reżim podejrzliwości.
Potrzeba nowego podejścia
Zamiast budować system oparty na strachu, warto pomyśleć o nowym kontrakcie edukacyjnym. Oznaczałoby to:
- jasne wytyczne – kiedy i w jakim zakresie AI może być używana w pisaniu prac,
- szkolenia – jak rozróżnić wsparcie technologiczne od nieuczciwego zastępowania własnej pracy,
- przesunięcie akcentu z wykrywania na rozwijanie umiejętności krytycznego myślenia.
Bo przecież sama sztuczna inteligencja nie jest wrogiem edukacji – wrogiem jest brak refleksji nad jej mądrym wykorzystaniem.
AI w pisaniu nie jest chwilową modą, lecz elementem nowej rzeczywistości. Narzędzia takie jak Plaigat.pl czy JSA starają się kontrolować ten proces, ale ich ograniczenia sprawiają, że często niesprawiedliwie stygmatyzują studentów.
Zamiast karać, warto budować przestrzeń do dialogu: jak używać AI odpowiedzialnie, jak dokumentować własną pracę i jak chronić prawdziwą wartość akademicką – czyli zdolność do samodzielnego myślenia.










