- Hronika
- Kolumne
-
Radio
- Izdvajamo
-
Emisije
- Dokumentarni program
- Pop top
- Europuls
- Zrno po zrno
- Radio ordinacija
- Kulturna panorama
- Zelena priča
- Epoleta
- +382
- Spona
- Svijet jednakih šansi
- Matica
- Život po mjeri čovjeka
- Link
- Izokrenuti svijet
- Koracima mladih
- Moja profesija je...
- Sportski program
- Kulturno-umjetnički program
- Muzički program
- Koracima prošlosti
- Naučno-obrazovni program
- RCG
- R98
- Programska šema
- Trofej Radija Crne Gore
- Frekvencije
- Radio drama
Nauka i tehnologija
12. 05. 2025.
13:25 >> 13:25
Čitaj mi:
BUDITE OPREZNI
Koristite ChatGPT - Ovih sedam stvari mu nemojte nikad otkriti
Veliki jezični modeli, odnosno alati s vještačkom inteligencijom, gotovo su postali neizostavan dio života. Čak i ako ih ne koristite aktivno svakog dana, velike su šanse da koristite neki servis koji u pozadini koristi model AI poput ChatGPT-ja, Geminija, Perplexityja i sličnih.
No, iako se mnogi oslanjaju na te servise kako bi im pomogli u svakodnevnim poslovnim (i privatnim) obavezama, isto tako nisu svjesni da svako njihovo korišćenje predstavlja određenu sigurnosnu prijetnju.
Naime, ljudi u želji da što prije obave neki posao često chatbotovima i drugim AI modelima otkrivaju osjetljive i privatne informacije koje se ne bi trebale otkrivati drugim osobama. No, chatbotovi nisu osobe, zar ne?
Zapravo, u ovom kontekstu treba ih smatrati osobama, jer baš kao što ne biste neki podatak o sebi ili firmi u kojoj radite otkrili bilo kome na cesti, tako ga ne biste smjeli olako upisivati ni u chatbotove AI modela, prenosi ZIMO.hr.
Iako firme koje razvijaju te modele najčešće ne koriste podatke iz razgovora korisnika s modelom (iako, primjerice, DeepSeek upravo tako trenira svoj AI model) za dodatno treniranje modela, to ne znači da ti podaci ne ostaju zapisani u vašem korisničkom računu. Dovoljno je da neko sjedne za vaš računar i otvori vaš omiljeni AI model te tamo pročita istoriju vaših razgovora, a time i osjetljive podatke.
Koje osjetljive podatke ne smijete dijeliti?
Lične podatke
Bez obzira na to koliko povjerenja imali u AI modele, zbog vlastite sigurnosti nikad ne biste trebali podijeliti u razgovoru s bilo kakvim AI chatbotom svoje puno ime i prezime, adresu, OIB, broj lične karte, pasoša i sličnih identifikacijskih dokumenata. Isto se odnosi i na fotografije takvih identifikacijskih dokumenata.
Ako koristite chatbot za stvaranje biografije, radije ga zamolite da vam osmisli obrazac, koji vi potom možete popuniti na svom računaru, nego da u AI model ubacujete lične podatke.
Finansijske informacije
Baš kao što stalno upozoravamo na to da ne bi trebalo dijeliti finansijske podatke poput broja kreditne ili debitne kartice, podataka o bankovnom računu ili lozinke za pristup internetskom odnosno mobilnom bankarstvu, isto se pravilo odnosi i na dijeljenje tih podataka s AI modelima.
Možda biste od AI modela željeli dobiti savjet o kreditu koji bi vam najbolje odgovarao ili kako uštedjeti na porezu, ali u tom slučaju radije koristiti "izmišljeni scenarijo" nego lične podatke.
Lozinke
Moramo li uopšte objašnjavati? Dijeljenje lozinki za pristup korisničkim računima ili računima unutar vaše firme posebno je neodgovorno. Kao što ne biste strancu na ulici dali svoje ključeve i adresu stana, nemojte ni AI modelu otkrivati lozinke i korisnička imena.
Osjetljive ili tajne informacije
AI model ne biste smjeli tretirati kao ispovjednika ili najboljeg prijatelja i otkrivati mu osjetljive ili tajne informacije. Privatne podatke poput ko vara koga i s kim ili što je kolega na poslu napravio nisu informacije koje bi AI model trebao znati. Isto se odnosi i na privatne podatke o nečijem zdravlju ili članovima porodice.
Informacije o firmi u kojoj radite ili s kojom sarađujete
Može biti primamljivo ubaciti podatke u ChatGPT i zatražiti od njega da sastavi ugovor između dviju firmi, no to nije pametan potez. Isto se odnosi i na bilo kakve dokumente koji sadrže povjerljive informacije (informacije o prototipovima, zaštićenim patentima i slično), kao i informacije o sastancima, poslovnim planovima i finansijama firme. Upravo je to razlog zašto neke firme blokiraju pristup ChatGPT-ju i ostalim AI modelima na službenim računarima.
Eksplicitni sadržaj
Čak i ako ste u šali od ChatGPT-a zatražili informaciju "kako se riješiti nekoga trajno", to bi vam moglo izazvati probleme. Ne samo da vam ChatGPT neće odgovoriti na takvo pitanje, nego neki AI modeli takva sumnjiva pitanja označavaju i prijavljuju policiji. Stoga, ako ste u prilici pitati ga za savjet, radije se suzdržite.
Medicinske informacije
Čuli ste za izraz "doktor Google"? E pa mnogi korisnici Google su zamijenili ChatGPT-om i tretiraju ga kao ličnog ljekara. Nema ništa loše da upitate ChatGPT za pojašnjenje nekog nalaza, ali izbjegavajte specifične identifikacijske informacije u upitu. Radije saopštite svoj upit. Primjerice, "preporuči mi vježbe za mušku osobu u 30-im godinama, koja ima problema s išijasom".
Ako niste sigurni o tome smijete li podijeliti neku informaciju ili ne, vodite se ovim jednostavnim uputstvom – ako ne želite da vam neko ponovi, vidi ili objavi vaš upit negdje na internetu, oglasnoj ploči ili u medijima, vjerovatno ga ne želite ni postaviti AI modelu.
Коментари0
Остави коментар