
AI bot ChatGPT postao je deo svakodnevice – milijarde pitanja dnevno postavljaju mu korisnici širom sveta. Ali, stručnjaci sada upozoravaju da je reč o pravoj „crnoj rupi privatnosti“, koja može ugroziti vaše najosetljivije podatke.
Prema najnovijim statistikama, više od 100 miliona ljudi koristi ChatGPT svakog dana, uz više od milijardu upita dnevno. Međutim, iza ove masovne upotrebe kriju se ozbiljne brige kada je u pitanju bezbednost unetih podataka.
OpenAI, tvorac ChatGPT-a, ne krije da podaci koje korisnici unesu mogu biti korišćeni za obučavanje modela, pa čak i biti izloženi u odgovorima drugim korisnicima. Ti podaci takođe mogu da budu pregledani od strane ljudi u cilju provere usklađenosti s pravilima. A kao i kod svakog servisa u oblaku, njihova bezbednost zavisi isključivo od sigurnosti samog provajdera, piše Forbes.
U suštini, sve što unesete u ChatGPT trebalo bi da tretirate kao javnu informaciju.
Evo pet stvari koje nikako ne bi trebalo da podelite sa AI chatbotovima:
Većina AI botova ima ugrađene zaštite koje sprečavaju da budu korišćeni u neetičke svrhe. Ako postavite pitanje koje ima veze sa krivičnim delima, prevarama ili manipulacijama koje mogu nekome naneti štetu, to može imati pravne posledice.
Zakoni se razlikuju od zemlje do zemlje – na primer, u Kini je zabranjeno korišćenje AI-ja za podrivanje državnog autoriteta, dok u EU svaki „deepfake“ mora biti jasno označen. U Velikoj Britaniji, Zakon o bezbednosti na internetu kriminalizuje deljenje AI-generisanih eksplicitnih sadržaja bez pristanka.
Kako agentni AI sistemi postaju sve napredniji, sve više ljudi ih koristi za integraciju s drugim servisima. Iako može izgledati praktično, deljenje korisničkih imena i lozinki sa AI botom je veliki rizik.
Do sada je zabeleženo više slučajeva kada su lični podaci uneseni od strane jednog korisnika slučajno prikazani drugom. Bezbednije je držati takve informacije isključivo unutar sigurnih, specijalizovanih sistema.
Bankovni računi, brojevi kreditnih kartica, PIN-ovi – sve to nikada ne bi trebalo unositi u chatbot. AI botovi ne koriste sigurnosne mehanizme kao što su enkripcija i automatsko brisanje podataka, što vas može izložiti prevarama, krađi identiteta ili čak ransomware napadima.
Bilo da ste pravnik, lekar ili zaposlen u nekoj firmi – imate odgovornost da štitite poverljive informacije. Unošenje zapisnika sa sastanaka, internih dokumenata ili poslovnih planova u chatbot može predstavljati kršenje poverljivosti, kao što se desilo sa zaposlenima u Samsungu 2023. godine.
AI chatbotove često koristimo kao „doktora iz džepa“. Ipak, ChatGPT sada može da „pamti“ i povezuje podatke iz različitih razgovora, bez ikakvih garancija privatnosti. Unošenje zdravstvenih podataka može vas dovesti u neprijatne situacije – posebno ako radite u zdravstvu, gde su kazne za ovakve propuste ozbiljne.
Kao i sa bilo čim na internetu – pretpostavite da ono što unesete neće zauvek ostati privatno. Sve više se oslanjamo na AI, ali sa tim dolazi i odgovornost da sami štitimo svoje podatke. Tehnologija se razvija brzo, ali osnovna pravila digitalne pismenosti ostaju ista: čuvajte svoju privatnost – jer niko to neće uraditi umesto vas.
Komentari (0)
Trenutno nema komentara. Budite prvi i ostavite komentar.