Opasnosti od prekomjernog korištenja generativne umjetne inteligencije

Sažetak: U tekstu se pruža uvodna informacija o opasnostima od korištenja generativne umjetne inteligencije (GUI, konkretno ChatGPT) za opću populaciju, ali i studente i adolescente. U uvodu se opisuje GUI i navode se sve vrste šteta koje GUI proizvodi svojim postojanjem i radom, ali i općim utjecajem na ljude i okoliš. U središnjem dijelu navode se i opisuju rizici, opasnosti i mjerljive štete prekomjernog korištenja ChatGPT-a za studente i adolescente. U zaključku se sugerira što bi mogle biti činjenice o stanju stvari i pruža se preporuka o odgovornom korištenju GUI-ja.

Što je chatbot generativne umjetne inteligencije?

Generativna umjetna inteligencija (GUI) je vrsta umjetne inteligencije (UI) koja koristi generativne modele kako bi na zahtjev proizvela tekst, sliku ili druge vrste podataka. ChatGPT je generativni chatbot umjetne inteligencije kojeg je razvio OpenAI i objavio u studenom 2022., a trenutno se koristi GPT-5.1 za generiranje teksta, govora i slika kao odgovor na korisničke upute. ChatGPT je većinski korišten generativni chatbot na tržištu, tj. ima oko 80-83 % tržišnog udjela prema različitim mjerenjima. Drugi najčešći su Perplexity, Microsoft Copilot i Google Gemini, ali znatno iza ChatGPT-a. 

Koje su stvarne, vjerojatne i potencijalne dobrobiti i štete koje proizvodi ChatGPT?

O tome koje su dobrobiti ili koristi od korištenja ChatGPT-a ne treba posebno govoriti jer je to vjerojatno jasno svima koji su ga barem jednom koristili. Za sažetak prednosti u kojem se analizira 159 prethodnih istraživanja vidi Al Naqbi, Bahroun, & Ahmed (2024). Oni navode mnoge prednosti u većini sektora društva, znanosti i poslovanja. Slično sa sažimanjem prednosti postupaju i Sengar, Hasan, Kumar, et al. (2025). Oni pak uz postojeće prednosti u raznim sektorima modeliraju i smjer daljnjeg napredovanja primjene GUI-ja. Ipak, ovdje treba biti oprezan jer GUI kompanije posluju blisko modelu oligopola i stvaraju ekonomski balon koji, iako zasad naglo raste, ipak može puknuti i izazvati stagnaciju ili recesiju (Krkač 2025a)

Nasuprot dobrobitima postoje rizici, opasnosti i mjerljive štete. Razlikujemo štete od samog postojanja i rada te štete od korištenja ChatGPT-a. ChatGPT svojim postojanjem i radom vjerojatno uzrokuje gubitak raznih poslova koje su dosad obavljali ljudi, a svojim radom značajno utječe na okoliš (proizvodi visoke emisije CO2). Nadalje, ChatGPT (ne ljudi koji ga proizvode) može proizvesti rasne, spolne, nacionalne i druge pristranosti (tj. može sam biti pristran ako ga korisnici zlorabe, tj. „zavedu“, ali može i utjecati na pojavu pristranosti kod korisnika). Tu su i druge mjerljive štete poput slabe zakonske regulacije rada, deepfakea, pitanje copyrighta, kibernetičkog kriminala itd., ali i cijeli niz stvarnih kontroverzi poput zlouporabe u novinarstvu. 

Neke od kontroverzi tih zlouporaba tiču se studenata, poput plagiranja, parafraziranja, prevođenja, uređenja teksta i općenito akademskog poštenja. Rješenja su različita. Ponekad se ChatGPT u osnovnim i srednjim školama zabranjuje, a ponekad se u istima i na fakultetima dopušta, ali se zahtijeva neka vrsta napomene o odgovornom korištenju, tj. o tome za što je sve i kako je korišten ChatGPT u radu (istraživanju, eseju, studiji slučaja, završnom ili diplomskom radu, znanstvenom članku i sl.). 

Rizici, opasnosti i mjerljive štete od prekomjernog korištenja ChatGPT-a za studente?

Rizici i opasnosti

Ne ulazeći u detalje pojedinačnih rizika i opasnosti, ovdje ćemo ih samo nabrojati. Rizika i opasnosti postoji i više, ali ovi su najčešći i o njima su provedena barem neka istraživanja (vidi popis s referencama niže u tekstu). Ovdje treba biti oprezan jer još uvijek ne postoji dovoljno istraživanja (i replikacija postojećih) kako bismo mogli biti sigurniji u rezultate i zaključke. Neki od rizika i opasnosti za djecu i adolescente (i studente) su sljedeći:

Koristi i štete za mentalno zdravlje

„Mnogi pojedinci koriste ChatGPT i usporedive velike jezične modele (LLM) za mentalno zdravlje i emocionalnu podršku.“ (Rousmaniere, Goldberg, Torous 2025) „Istraživanje Sveučilišta Sentio iz 2025. godine provedeno na 499 korisnika LLM-a sa samoprijavljenim stanjima mentalnog zdravlja pokazalo je da 96,2 % koristi ChatGPT, a 48,7 % ga koristi posebno za podršku mentalnom zdravlju ili u svrhe terapije.“ (Rousmaniere, Zhang, Li, Shah 2025). „Istraživanja u ovom području ukazuju na potencijalne koristi i štete.“ (Blease, Torous 2023) „Studija koja je procjenjivala odgovore šest glavnih LLM-ova na krize mentalnog zdravlja otkrila je da je, iako je ChatGPT postigao savršene rezultate za izražavanje empatije, rangiran pri dnu ukupne kliničke sigurnosti zbog propusta u prepoznavanju rizika, pružanju kriznih resursa i pružanju praktičnih smjernica tijekom otkrivanja visokorizičnih mentalnih zdravstvenih stanja.“ (Santos i dr. 2025

Suicidalnost

U listopadu 2025. OpenAI je izvijestio da otprilike 0,15 % aktivnih korisnika ChatGPT-a dnevno vodi razgovore koji uključuju eksplicitne pokazatelje potencijalnog suicidalnog planiranja ili namjere, što je više od milijun ljudi tjedno. (Zeff 2025) OpenAI je priznao da je bilo „slučajeva u kojima naš 4o model nije uspio prepoznati znakove zablude ili emocionalne ovisnosti“, (OpenAI 2025) te je izvijestio da radi na poboljšanju sigurnosti (OpenAI 2025).

Slučaj Adama Raine

11.04.2025. šesnaestogodišnji Adam Raine (SAD) počinio je samoubojstvo, a njegovi roditelji tvrde kako je za informiranje o samoubojstvu odgovoran ChatGPT i 26.08.2025. pokrenuli su tužbu protiv kompanije OpenAI i njezinog direktor. (Krkač 2025) „Adamovi roditelji kažu da je u posljednjim tjednima koristio chatbot s umjetnom inteligencijom kao zamjenu za ljudsko društvo, raspravljajući o svojim problemima s anksioznošću i poteškoćama u razgovoru s obitelji te da zapisi chata pokazuju kako je bot od pomaganja Adamu s domaćom zadaćom postao njegov trener za samoubojstvo.“ .“ U novoj tužbi, podijeljenoj u emisiji „TODAY“, Raineovi tvrde da je “ChatGPT aktivno pomagao Adamu da istraži metode samoubojstva“. U velikoj većini stvarnih slučajeva u kojima robot, UI ili robot i UI uzrokuju smrt čovjeka, odgovornost je podijeljena između:

  • kompanije koja je proizvela (i/ili održava) UI (ili robota) pod vidom nepostojećih ili smanjenih sigurnosnih mjera (ponekad namjerno kako bi se povećala učinkovitost, prodaja, zarada i sl.)
  • čovjeka ili sustava koji upravlja ili nadzire robota ili UI i 
  • čovjeka koji je stradao zbog vlastitog nemara. 

Robert Williams poznat je kao prva žrtva industrijskog robota. On je naime smrtno stradao 1979. godine u pogonima Forda zbog tehničke pogreške i kvara robota. Sličnu je sudbinu imala i pješakinja Elaine Herzberg koju je 2018. godine ubilo autonomno vozilo. Najveći dio odgovornosti je zasigurno na korporaciji koja je proizvela i/ili održava stroj. No, puno je manje vjerojatno da bi se smrt dogodila da nije postojao barem neki nemar od strane korisnika stroja. Primjerice, da je Williams odbio popeti se na treću etažu gdje ga je usmrtila robotska ruka što mu je naložio nadređeni ili npr. da Herzberg nije prelazila prometnicu izvan pješačkog prijelaza i/ili da nije bila pozitivna na metamfetamin i marihuanu što su slučajevi nemarnog ponašanja. 

U slučaju Adama Rainea kompanija je vjerojatno bila nemarna. No i sam Raine je možda bio nemaran. To pak ovisi o stupnju suicidalnosti prije i nakon korištenja ChatGPT-a, ali vjerojatno su nemarni bili članovi obitelji koji za nemar tuže OpenAI (tj. za manjkavost proizvoda i neuspješno upozoravanje). 

Zaključak

Čini se kako je činjenica da GUI proizvodi mnoge dobrobiti i koristi za pojedince, skupine, institucije, organizacije i cijela društva. Također, čini se da proizvodi i rizike, opasnosti i mjerljive štete. Uz štete koje proizvodi samim svojim radom (npr. preuzimanjem poslova koje su dotad obavljali ljudi ili utjecajem na okoliš) postoje i štete koje proizvodi samom uporabom od strane ljudi, napose prekomjernim korištenjem. Radi se o raznim tjelesnim (lokomotornim), intelektualnim, voljnim, emotivnim, socijalnim i drugim rizicima i mjerljivim štetama. Štoviše, čini se da postoje i ozbiljne štete za mentalno zdravlje pa čak i vjerojatan utjecaj na suicidalne ljude što je svakako dobrim dijelom odgovornost samih kompanija koje su vlasnici GUI-ja. Uz opću populaciju, djeca, adolescenti i studenti su posebno ranjive skupine. Ovdje nema pretjerano smisla govoriti o odnosu i omjeru dobrobiti i šteta jer se čini kako se mnoge štete, napose one uzrokovane prekomjernim korištenjem ChatGPT-a mogu smanjiti raznim upozorenjima (i protokolima) ugrađenim u sam GUI, ali i njegovim odgovornim korištenjem od strane ljudi pa tako i studenata i načelno adolescenata pa dobrobiti prosječno vjerojatno nadvisuju štete. Protokoli za odgovorno korištenje GUI-ja danas već postoje u sustavima visokog obrazovanja, znanosti i istraživanju, poslovnom svijetu i političkim djelatnostima.

Iznimka: Opasnost ipak postoji ako se prekomjerno korištenje otkrije kod predškolske djece (koja nerijetko već znaju čitati i pisati prije prvog razreda osnovne škole) i djece nižih razreda osnovne škole, tj. u predadolescentskoj dobi jer im se tad još uvijek razvijaju tjelesne i mentalne sposobnosti pa nije vjerojatno kako će kritički i odgovorno pristupati ChatGPT-u nego će ga prije shvatiti kao igračku ili zabavu (te je odgovornost tad na obiteljima, vrtićima i drugim odgojnim institucijama). 

Abbas, M., Jam, F.A. & Khan, T.I. (2024) “Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students”, Int J Educ Technol High Educ 21, 10 (2024). https://doi.org/10.1186/s41239-024-00444-7, URL

Al Naqbi, H., Bahroun, Z., & Ahmed, V. (2024) “Enhancing Work Productivity through Generative Artificial Intelligence: A Comprehensive Literature Review”, Sustainability, 16(3), 1166. https://doi.org/10.3390/su16031166, URL

Bittle, K., El-Gayar, O. (2025) “Generative AI and Academic Integrity in Higher Education: A Systematic Review and Research Agenda”, Information 2025, 16(4), 296; https://doi.org/10.3390/info16040296, URL.

Blease C., Torous J. (2023) “ChatGPT and mental healthcare: balancing benefits with risks of harms”, BMJ Ment Health. 2023 Nov;26(1), doi: 10.1136/bmjment-2023-300884, URL

Chan C. (2023) “A comprehensive AI policy education framework for university teaching and learning”, Int J Educ Technol High Educ, https://doi.org/10.1186/s41239-023-004083, URL.     

Hou, I. et. al. (2025) “All Roads Lead to ChatGPT: How Generative AI is Eroding Social Interactions and Student Learning Communities”, Arhiv, Computer and Society, Cornell University, URL

Jukiewicz, M. (2025) „How generative artificial intelligence transforms teaching and influences student wellbeing in future education”, Front. Educ., 12 August 2025 Sec. Mental Health and Wellbeing in Education, Volume 10, https://doi.org/10.3389/feduc.2025.1594572, URL

Kim, J., Klopfer, M., Grohs, J.R. et al. Examining Faculty and Student Perceptions of Generative AI in University Courses. Innov High Educ 50, 1281–1313 (2025). https://doi.org/10.1007/s10755-024-09774-w, URL

Krkač, K. (2025a) “Posluju li središnje kompanije u području generativne umjetne inteligencije temeljem oligopola i stvaraju li gospodarski balon?”, Točno tako, URL

Krkač, K. (2025b) „ChatGPT je „aktivno pomagao“ Adamu Raineu „istraživati metode samoubojstva““, Lažna uzbuna, URL.

Rousmaniere, T., Goldberg, S.B., Torous J. (2025) „Large language models as mental health providers“, Lancet Psychiatry, doi: 10.1016/S2215-0366(25)00269-X, URL

Rousmaniere, T., Zhang, Y., Li, X., & Shah, S. (2025) „Large language models as mental health resources: Patterns of use in the United States“, Practice Innovations, Advance online publication, https://doi.org/10.1037/pri0000292, URL

Santos J. M., Shah, S., Gupta, A. et al. (2025) „Evaluating the Clinical Safety of LLMs in Response to High-Risk Mental Health Disclosures“, 14 August 2025, PREPRINT (Version 1) available at Research Square, https://doi.org/10.21203/rs.3.rs-7364128/v1, URL

Saúde, S., Barros, J. P., Almeida, I. (2024) “Impacts of Generative Artificial Intelligence in Higher Education: Research Trends and Students’ Perceptions”, Soc. Sci. 2024, 13(8), 410; https://doi.org/10.3390/socsci13080410, URL.

Sengar, S.S., Hasan, A.B., Kumar, S. et al. (2025) “Generative artificial intelligence: a systematic review and applications. Multimed Tools Appl 84, 23661–23700, https://doi.org/10.1007/s11042-024-20016-1, URL. 

Wiredu, J. K., Abuba, N. S, and Zakaria, H. (2024) “Impact of Generative AI in Academic Integrity and Learning Outcomes: A Case Study in the Upper East Region”, Asian Journal of Research in Computer Science 17 (8):70–88. https://doi.org/10.9734/ajrcos/2024/v17i7491, URL

Zeff, M. (2025) “OpenAI says over a million people talk to ChatGPT about suicide weekly”, Tech Crunch, URL.

Abbas, M., Jam, F.A. & Khan, T.I. (2024) “Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students”, Int J Educ Technol High Educ 21, 10 (2024). https://doi.org/10.1186/s41239-024-00444-7, URL

Al Naqbi, H., Bahroun, Z., & Ahmed, V. (2024) “Enhancing Work Productivity through Generative Artificial Intelligence: A Comprehensive Literature Review”, Sustainability, 16(3), 1166. https://doi.org/10.3390/su16031166, URL

Bittle, K., El-Gayar, O. (2025) “Generative AI and Academic Integrity in Higher Education: A Systematic Review and Research Agenda”, Information 2025, 16(4), 296; https://doi.org/10.3390/info16040296, URL.

Blease C., Torous J. (2023) “ChatGPT and mental healthcare: balancing benefits with risks of harms”, BMJ Ment Health. 2023 Nov;26(1), doi: 10.1136/bmjment-2023-300884, URL

Chan C. (2023) “A comprehensive AI policy education framework for university teaching and learning”, Int J Educ Technol High Educ, https://doi.org/10.1186/s41239-023-004083, URL.     

Hou, I. et. al. (2025) “All Roads Lead to ChatGPT: How Generative AI is Eroding Social Interactions and Student Learning Communities”, Arhiv, Computer and Society, Cornell University, URL

Jukiewicz, M. (2025) „How generative artificial intelligence transforms teaching and influences student wellbeing in future education”, Front. Educ., 12 August 2025 Sec. Mental Health and Wellbeing in Education, Volume 10, https://doi.org/10.3389/feduc.2025.1594572, URL

Kim, J., Klopfer, M., Grohs, J.R. et al. Examining Faculty and Student Perceptions of Generative AI in University Courses. Innov High Educ 50, 1281–1313 (2025). https://doi.org/10.1007/s10755-024-09774-w, URL

Krkač, K. (2025a) “Posluju li središnje kompanije u području generativne umjetne inteligencije temeljem oligopola i stvaraju li gospodarski balon?”, Točno tako, URL

Krkač, K. (2025b) „ChatGPT je „aktivno pomagao“ Adamu Raineu „istraživati metode samoubojstva““, Lažna uzbuna, URL.

Rousmaniere, T., Goldberg, S.B., Torous J. (2025) „Large language models as mental health providers“, Lancet Psychiatry, doi: 10.1016/S2215-0366(25)00269-X, URL

Rousmaniere, T., Zhang, Y., Li, X., & Shah, S. (2025) „Large language models as mental health resources: Patterns of use in the United States“, Practice Innovations, Advance online publication, https://doi.org/10.1037/pri0000292, URL

Santos J. M., Shah, S., Gupta, A. et al. (2025) „Evaluating the Clinical Safety of LLMs in Response to High-Risk Mental Health Disclosures“, 14 August 2025, PREPRINT (Version 1) available at Research Square, https://doi.org/10.21203/rs.3.rs-7364128/v1, URL

Saúde, S., Barros, J. P., Almeida, I. (2024) “Impacts of Generative Artificial Intelligence in Higher Education: Research Trends and Students’ Perceptions”, Soc. Sci. 2024, 13(8), 410; https://doi.org/10.3390/socsci13080410, URL.

Sengar, S.S., Hasan, A.B., Kumar, S. et al. (2025) “Generative artificial intelligence: a systematic review and applications. Multimed Tools Appl 84, 23661–23700, https://doi.org/10.1007/s11042-024-20016-1, URL. 

Wiredu, J. K., Abuba, N. S, and Zakaria, H. (2024) “Impact of Generative AI in Academic Integrity and Learning Outcomes: A Case Study in the Upper East Region”, Asian Journal of Research in Computer Science 17 (8):70–88. https://doi.org/10.9734/ajrcos/2024/v17i7491, URL

Zeff, M. (2025) “OpenAI says over a million people talk to ChatGPT about suicide weekly”, Tech Crunch, URL.

Naslovna slika: Master1305/Shutterstock

Kristijan Krkač
Izv. prof. dr. sc. Kristijan Krkač, (rođ. 1970) profesor je na Zagreb School of Economics and Management (ZSEM) od 2003. Prije toga bio je profesor na Faculty of Philosophy and Religious Sciences of the University of Zagreb (1996-2017). Bio je gost profesor u Francuskoj, Latviji i Italiji. Njegovo istraživanje dominantno obuhvaća korporacijsku društvenu neod… Saznajte više

Povezani članci