„Czy ten artykuł napisała sztuczna inteligencja?” – studium przypadku „wykrywania plagiatu”


Anna Małgorzata Kamińska 


Abstrakt

Cel/Teza: Artykuł ocenia użycie detektorów treści generowanych przez GenSI w kontekście weryfikacji uczciwości akademickiej. Główna teza głosi, że narzędzia te nie potrafią odróżnić tekstu wygenerowanego przez SI od treści opracowanych przez człowieka poddanych jedynie redakcji stylistycznej przez duże modele językowe, przez co wysokie wyniki detekcji nie stanowią wiarygodnego dowodu plagiatu.

Koncepcja/Metody badań: Zastosowano studium przypadku. Stworzono biografię fikcyjnej postaci autorstwa człowieka, którą następnie zredagowano przy użyciu ChatGPT i Claude z precyzyjnymi poleceniami ograniczającymi SI do roli redakcyjnej. Wszystkie wersje przeanalizowano detektorem ZeroGPT.

Wyniki i wnioski: Tekst oryginalny uzyskał wynik 0% prawdopodobieństwa bycia wygenerowanym przez SI, podczas gdy wersje zredagowane przez ChatGPT i Claude osiągnęły odpowiednio 96,7% i 100%. Detektory identyfikują cechy stylistyczne charakterystyczne dla dobrze zredagowanych tekstów, a nie rzeczywiste pochodzenie wkładu intelektualnego.

Zastosowania praktyczne: Wyniki wskazują na konieczność rewizji polityk akademickich opartych na detektorach SI. Instytucje powinny promować transparentne zasady wykorzystania SI jako narzędzia wspierającego, zamiast polegać na zawodnych technologiach prowadzących do niesprawiedliwych ocen.

Oryginalność/Wartość poznawcza: Praca dostarcza empirycznych dowodów na brak wiarygodności detektorów SI w kontekście wykrywania plagiatów, wyznaczając jasną granicę etyczną między wykorzystaniem SI jako narzędzia a nieuczciwością akademicką oraz promując świadome podejście do wdrażania nowych technologii w nauce.

Słowa kluczowe

Detekcja treści SI. Duże modele językowe (DMJ). Etyka w nauce. Generatywna sztuczna inteligencja. GenSI. Komunikacja naukowa. Narzędzia redakcyjne. Plagiat. Studium przypadku.


Barrot, J. S. (2020). Integrating technology into ESL/EFL writing through Grammarly. RELC Journal, 53(3), 764–768. doi: 10.1177/0033688220966632

Francis, N. J., Jones, S., Smith, D. P. (2025). Generative AI in higher education: balancing innovation and integrity. British Journal of Biomedical Science, 81(14048), 1–9. doi: 10.3389/bjbs.2024.14048

Helgesson, G., Eriksson, S. (2015). Plagiarism in research. Medicine, Health Care and Philosophy, 18, 91–101. doi: 10.1007/s11019-014-9583-8

Luo, J. (2024). A critical review of GenAI policies in higher education assessment: A call to reconsider the “originality” of students’ work. Assessment & Evaluation in Higher Education, 49(5), 651–664. doi: 10.1080/02602938.2024.2309963

Oakman, R. L. (1994). The evolution of intelligent writing assistants: trends and future prospects. In: Proceedings Sixth International Conference on Tools with Artificial Intelligence. TAI 94 (233–234). Institute of Electrical and Electronics Engineer,. doi: 10.1109/TAI.1994.346488

Tillmanns, T., Filho, A. S., Rudra, S., Weber, P., Dawitz, J., Wiersma, E., Dudenaite, D., Reynolds, S. (2025). Mapping tomorrow’s teaching and learning spaces: A systematic review on GenAI in higher education. Trends in Higher Education, 4(1), 2, 1–26. doi: 10.3390/higheredu4010002

Wang, Y., Zhao, L. (2024). Toward the transparent use of Generative Artificial Intelligence in academic articles. Journal of Scholarly Publishing, 55(4), 467–484. doi: 10.3138/jsp-2023-0053

Yusuf, A., Pervin, N., Román-González, M., Noor, N. M. (2024). Generative AI in education and research: A systematic mapping review. Review of Education, 12(2), e3489. doi: 10.1002/rev3.3489


Opublikowane: 2025-12-31



Anna Małgorzata Kamińska  anna.kaminska@us.edu.pl






Creative Commons License

Utwór dostępny jest na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne – Bez utworów zależnych 4.0 Międzynarodowe.

CC BY-NC-ND 4.0 Uznanie autorstwa - Użycie niekomercyjne - Bez utworów zależnych 4.0 Międzynarodowe