Stručnjaci upozoravaju: Ove podatke ne unosite u ChatGPT

U eri u kojoj su AI alati postali dio svakodnevice, stručnjaci upozoravaju da neoprezno dijeljenje ličnih i povjerljivih podataka s chatbotovima može predstavljati ozbiljan bezbjednosni rizik. Evo koje informacije nikada ne biste trebali unositi u razgovor s ChatGPT-om i sličnim modelima.
Lični podaci
Nikada ne biste trebali dijeliti svoje lične podatke poput imena, prezimena, adrese, JMBG-a, broja lične karte ili pasoša s AI chatbotovima. To uključuje i fotografije tih dokumenata. Ako koristite chatbot za izradu biografije (CV-a), bolje je tražiti od njega samo obrazac koji ćete sami popuniti, nego unositi svoje lične podatke u model.
Informacije o ličnim finansijama
Kao što se savjetuje oprez pri dijeljenju finansijskih podataka poput broja kreditnih kartica, broja računa ili lozinki za internet bankarstvo, isto pravilo važi i za AI modele. Umjesto dijeljenja stvarnih podataka, bolje je koristiti izmišljene primjere ako tražite savjete o kreditima ili poreskim uštedama.
Lozinke i šifre
Otkrivanje lozinki za pristup vašim korisničkim ili poslovnim nalozima izuzetno je neoprezno. Kao što ne biste povjerili svoje ključeve nepoznatoj osobi, nemojte ni AI modelima dijeliti lozinke i korisnička imena.
Privatne informacije
AI model nije mjesto za dijeljenje osjetljivih ili povjerljivih informacija. Lične stvari poput problema, glasina ili detalja o zdravlju i porodici ne bi trebale biti predmet razgovora s AI modelima. Ne tretirajte ga kao ispovjednika ili prijatelja kojem možete otkriti sve tajne.
Povjerljive informacije o firmama ili poslodavcu
Iako se može činiti praktičnim koristiti ChatGPT za izradu ugovora ili poslovnih dokumenata, to nije bez rizika. Isto važi i za dijeljenje povjerljivih informacija, poput podataka o patentima, prototipovima, poslovnim planovima ili finansijama. To je jedan od razloga zašto mnoge firme blokiraju pristup AI modelima na službenim računarima.
Eksplicitan sadržaj
Čak i ako postavite šalu poput „kako se trajno riješiti nekoga“, to vam može donijeti probleme. Ne samo da AI modeli poput ChatGPT-a neće odgovoriti na takva pitanja, već mogu automatski označiti sumnjive upite. Zato je bolje suzdržati se od takvih pitanja, bez obzira na ton u kojem ih postavljate, prenosi Večernji.hr.
Medicinske informacije
Mnogi korisnici danas zamjenjuju Google s ChatGPT-om, tretirajući ga gotovo kao ličnog ljekara. Iako nije problem tražiti pojašnjenje za neki medicinski pojam, važno je izbjegavati dijeljenje ličnih podataka u svojim upitima. Bolje je postaviti opšte pitanje, poput: „Preporuči mi vježbe za muškarca u tridesetim godinama koji ima problema s išijasom.“
Ako niste sigurni trebate li podijeliti neku informaciju, zapitajte se: „Da li bih volio da neko objavi moj upit na internetu?“ Ako je odgovor „ne“, bolje je da se suzdržite od postavljanja tog pitanja AI modelu.


