„Czy ten artykuł napisała sztuczna inteligencja?” – studium przypadku „wykrywania plagiatu”
Anna Małgorzata Kamińska
Abstrakt
Cel/Teza: Artykuł ocenia użycie detektorów treści generowanych przez GenSI w kontekście weryfikacji uczciwości akademickiej. Główna teza głosi, że narzędzia te nie potrafią odróżnić tekstu wygenerowanego przez SI od treści opracowanych przez człowieka poddanych jedynie redakcji stylistycznej przez duże modele językowe, przez co wysokie wyniki detekcji nie stanowią wiarygodnego dowodu plagiatu.
Koncepcja/Metody badań: Zastosowano studium przypadku. Stworzono biografię fikcyjnej postaci autorstwa człowieka, którą następnie zredagowano przy użyciu ChatGPT i Claude z precyzyjnymi poleceniami ograniczającymi SI do roli redakcyjnej. Wszystkie wersje przeanalizowano detektorem ZeroGPT.
Wyniki i wnioski: Tekst oryginalny uzyskał wynik 0% prawdopodobieństwa bycia wygenerowanym przez SI, podczas gdy wersje zredagowane przez ChatGPT i Claude osiągnęły odpowiednio 96,7% i 100%. Detektory identyfikują cechy stylistyczne charakterystyczne dla dobrze zredagowanych tekstów, a nie rzeczywiste pochodzenie wkładu intelektualnego.
Zastosowania praktyczne: Wyniki wskazują na konieczność rewizji polityk akademickich opartych na detektorach SI. Instytucje powinny promować transparentne zasady wykorzystania SI jako narzędzia wspierającego, zamiast polegać na zawodnych technologiach prowadzących do niesprawiedliwych ocen.
Oryginalność/Wartość poznawcza: Praca dostarcza empirycznych dowodów na brak wiarygodności detektorów SI w kontekście wykrywania plagiatów, wyznaczając jasną granicę etyczną między wykorzystaniem SI jako narzędzia a nieuczciwością akademicką oraz promując świadome podejście do wdrażania nowych technologii w nauce.
Słowa kluczowe
Detekcja treści SI. Duże modele językowe (DMJ). Etyka w nauce. Generatywna sztuczna inteligencja. GenSI. Komunikacja naukowa. Narzędzia redakcyjne. Plagiat. Studium przypadku.
Bibliografia
Barrot, J. S. (2020). Integrating technology into ESL/EFL writing through Grammarly. RELC Journal, 53(3), 764–768. doi: 10.1177/0033688220966632
Francis, N. J., Jones, S., Smith, D. P. (2025). Generative AI in higher education: balancing innovation and integrity. British Journal of Biomedical Science, 81(14048), 1–9. doi: 10.3389/bjbs.2024.14048
Helgesson, G., Eriksson, S. (2015). Plagiarism in research. Medicine, Health Care and Philosophy, 18, 91–101. doi: 10.1007/s11019-014-9583-8
Luo, J. (2024). A critical review of GenAI policies in higher education assessment: A call to reconsider the “originality” of students’ work. Assessment & Evaluation in Higher Education, 49(5), 651–664. doi: 10.1080/02602938.2024.2309963
Oakman, R. L. (1994). The evolution of intelligent writing assistants: trends and future prospects. In: Proceedings Sixth International Conference on Tools with Artificial Intelligence. TAI 94 (233–234). Institute of Electrical and Electronics Engineer,. doi: 10.1109/TAI.1994.346488
Tillmanns, T., Filho, A. S., Rudra, S., Weber, P., Dawitz, J., Wiersma, E., Dudenaite, D., Reynolds, S. (2025). Mapping tomorrow’s teaching and learning spaces: A systematic review on GenAI in higher education. Trends in Higher Education, 4(1), 2, 1–26. doi: 10.3390/higheredu4010002
Wang, Y., Zhao, L. (2024). Toward the transparent use of Generative Artificial Intelligence in academic articles. Journal of Scholarly Publishing, 55(4), 467–484. doi: 10.3138/jsp-2023-0053
Yusuf, A., Pervin, N., Román-González, M., Noor, N. M. (2024). Generative AI in education and research: A systematic mapping review. Review of Education, 12(2), e3489. doi: 10.1002/rev3.3489

Utwór dostępny jest na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne – Bez utworów zależnych 4.0 Międzynarodowe.
CC BY-NC-ND 4.0 Uznanie autorstwa - Użycie niekomercyjne - Bez utworów zależnych 4.0 Międzynarodowe



