Pretraži

Sve opasnosti ChatGPT-a: 5 stvari koje nikada ne bi trebalo da podelite sa AI botom

Uncategorized
0
Foto: Dzmitry Kliapitski / Alamy / Profimedia

AI bot ChatGPT postao je deo svakodnevice – milijarde pitanja dnevno postavljaju mu korisnici širom sveta. Ali, stručnjaci sada upozoravaju da je reč o pravoj „crnoj rupi privatnosti“, koja može ugroziti vaše najosetljivije podatke.

Prema najnovijim statistikama, više od 100 miliona ljudi koristi ChatGPT svakog dana, uz više od milijardu upita dnevno. Međutim, iza ove masovne upotrebe kriju se ozbiljne brige kada je u pitanju bezbednost unetih podataka.

OpenAI, tvorac ChatGPT-a, ne krije da podaci koje korisnici unesu mogu biti korišćeni za obučavanje modela, pa čak i biti izloženi u odgovorima drugim korisnicima. Ti podaci takođe mogu da budu pregledani od strane ljudi u cilju provere usklađenosti s pravilima. A kao i kod svakog servisa u oblaku, njihova bezbednost zavisi isključivo od sigurnosti samog provajdera, piše Forbes.

U suštini, sve što unesete u ChatGPT trebalo bi da tretirate kao javnu informaciju.

Evo pet stvari koje nikako ne bi trebalo da podelite sa AI chatbotovima:


1. Nezakoniti ili neetički zahtevi

Većina AI botova ima ugrađene zaštite koje sprečavaju da budu korišćeni u neetičke svrhe. Ako postavite pitanje koje ima veze sa krivičnim delima, prevarama ili manipulacijama koje mogu nekome naneti štetu, to može imati pravne posledice.

Zakoni se razlikuju od zemlje do zemlje – na primer, u Kini je zabranjeno korišćenje AI-ja za podrivanje državnog autoriteta, dok u EU svaki „deepfake“ mora biti jasno označen. U Velikoj Britaniji, Zakon o bezbednosti na internetu kriminalizuje deljenje AI-generisanih eksplicitnih sadržaja bez pristanka.


2. Lozinke i pristupni podaci

Kako agentni AI sistemi postaju sve napredniji, sve više ljudi ih koristi za integraciju s drugim servisima. Iako može izgledati praktično, deljenje korisničkih imena i lozinki sa AI botom je veliki rizik.

Do sada je zabeleženo više slučajeva kada su lični podaci uneseni od strane jednog korisnika slučajno prikazani drugom. Bezbednije je držati takve informacije isključivo unutar sigurnih, specijalizovanih sistema.

Foto: Alina Vytiuk / Alamy / Profimedia

3. Finansijske informacije

Bankovni računi, brojevi kreditnih kartica, PIN-ovi – sve to nikada ne bi trebalo unositi u chatbot. AI botovi ne koriste sigurnosne mehanizme kao što su enkripcija i automatsko brisanje podataka, što vas može izložiti prevarama, krađi identiteta ili čak ransomware napadima.


4. Poverljive poslovne informacije

Bilo da ste pravnik, lekar ili zaposlen u nekoj firmi – imate odgovornost da štitite poverljive informacije. Unošenje zapisnika sa sastanaka, internih dokumenata ili poslovnih planova u chatbot može predstavljati kršenje poverljivosti, kao što se desilo sa zaposlenima u Samsungu 2023. godine.


5. Medicinski podaci

AI chatbotove često koristimo kao „doktora iz džepa“. Ipak, ChatGPT sada može da „pamti“ i povezuje podatke iz različitih razgovora, bez ikakvih garancija privatnosti. Unošenje zdravstvenih podataka može vas dovesti u neprijatne situacije – posebno ako radite u zdravstvu, gde su kazne za ovakve propuste ozbiljne.


Zaključak: Razmišljajte pre nego što podelite

Kao i sa bilo čim na internetu – pretpostavite da ono što unesete neće zauvek ostati privatno. Sve više se oslanjamo na AI, ali sa tim dolazi i odgovornost da sami štitimo svoje podatke. Tehnologija se razvija brzo, ali osnovna pravila digitalne pismenosti ostaju ista: čuvajte svoju privatnost – jer niko to neće uraditi umesto vas.

Izvor:  Forbes

Komentari (0)

Trenutno nema komentara. Budite prvi i ostavite komentar.

Ostavite odgovor

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *


Povezane vesti

Najnovije iz Uncategorized