
Učinkovito komuniciranje složene znanosti o okolišu različitim publikama – od donositelja politika do šire javnosti – ključna je komponenta poticanja promjena. Ova studija slučaja pruža praktični vodič za korištenje velikih jezičnih modela (LLM) poput ChatGPT-a, Google Geminija ili Claudea kao „digitalnog pisara“ kako bi se ta komunikacija učinila dostupnijom i utjecajnijom, uz snalaženje u značajnim etičkim rizicima.
Veliki jezični modeli nude nekoliko jasnih prednosti za znanstvenu komunikaciju. Mogu brzo sažeti duge, guste istraživačke radove, čineći ključne nalaze dostupnima nestručnjacima. Oni su moćni alati za, primjerice, poboljšanje jasnoće i čitljivosti nacrta istraživanja, što je posebno korisno za istraživače kojima engleski nije materinji jezik. Jedna je studija eksperimentalno pokazala da su sažeci znanstvenih članaka generirani umjetnom inteligencijom percipirani kao jasniji i lakši za razumijevanje od strane javnosti nego originalni sažeci koje su napisali sami znanstvenici.
Međutim, zamke su jednako značajne i zahtijevaju budan pristup „čovjeka u petlji“. Najistaknutiji rizik je rizik od „halucinacija“, gdje veliki jezični model samouvjereno izmišlja informacije, uključujući uvjerljive, ali nepostojeće citate. Jedna analiza otkrila je da je 47% citata koje je generirala novija verzija ChatGPT-a bilo lažno. Veliki jezični modeli također mogu održavati pristranosti prisutne u njihovim podacima za treniranje i mogu previše pojednostaviti složene teme, lišavajući ih ključnih nijansi. Nepouzdanost pristupa informacijama, o čemu svjedoče zaštićene ili nedostupne mrežne stranice, naglašava da se ne može slijepo vjerovati izvorima koje bi umjetna inteligencija mogla tvrditi da koristi.

Stoga, etička i učinkovita upotreba velikih jezičnih modela u ovom kontekstu zahtijeva pridržavanje strogog skupa najboljih praksi. Veliki jezični model trebao bi se koristiti kao alat za pomoć, a ne za zamjenu ljudskog komunikatora. Može se koristiti za razmišljanje o idejama, generiranje prve verzije ili predlaganje alternativnih fraza, ali konačni sadržaj mora biti proizvod ljudskog intelekta i prosuđivanja. Svaka činjenična tvrdnja, statistika ili citat generiran od strane modela mora se rigorozno provjeriti u odnosu na originalne, pouzdane izvore. Konačno, transparentnost je najvažnija. Kada je veliki jezični model značajno korišten u procesu pisanja, njegov doprinos treba eksplicitno navesti, baš kao što bi se citirao bilo koji drugi alat ili suradnik. Slijedeći ove smjernice, komunikatori mogu iskoristiti učinkovitost velikih jezičnih modela uz očuvanje znanstvenog i etičkog integriteta svog rada.
![HER[AI]TAGE](https://her-ai-tage.pou-cakovec.hr/wp-content/uploads/2025/03/logo-1.png)