Miközben a mesterséges intelligenciát alkalmazó eszközök
elősegítik az ötletek kidolgozását, szövegek és tartalmak összefoglalását, az üzleti stratégia alapjainak megalkotását, az AI használatakor figyelembe kell
venni azt is, hogy minden alkalommal, amikor kapcsolatba lép a felhasználó a chatbottal és információt kér tőle, fennáll a veszélye, hogy érzékeny adatokat
oszt meg magáról vagy a vállalatról. Az ESET közleménye szerint ezért mielőtt
valaki megpróbálja alkalmazni az AI eszközöket, meg kell tanulnia
biztonságosan, az adatok veszélyeztetése nélkül használni.
Az üzleti és otthoni biztonságtechnikai szoftvermegoldások
nemzetközi szállítójának kutatói arra hívják fel a figyelmet,
hogy
a nagy nyelvi modellek (LLM), például a ChatGPT használatakor érzékeny adatokat oszthatnak meg a felhasználók a nemzetközi nagyvállalatokkal. Ezek a rendszerek ugyanis az online szövegek felhasználásával hatékonyan képesek értelmezni és megválaszolni a felhasználók kérdéseit, és ezért lehet, hogy míg az egyik cég kifejezetten támogatja, a másik megtiltja a Chat GPT használatát a munkahelyi eszközökön.
Felhívták a figyelmet arra is, hogy amikor egy chatbotnak
kérdést tesznek fel, a beírt adatok nyilvánossá válnak. Ez nem jelenti azt,
hogy a rendszerek azonnal felhasználnák a megszerzett információt a másoknak
adott válaszokhoz, de az LLM szolgáltató vagy partnerei hozzáférhetnek az
adatokhoz, és beépíthetik azokat a technológia következő verzióiba.
Ugyanakkor az OpenAI, a ChatGPT mögött álló vállalat például
már bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami
megakadályozza, hogy a felhasználói adatokat az OpenAI mesterséges
intelligencia modelljeinek tanítására és fejlesztésére használják fel, s így a
felhasználók nagyobb kontrollal rendelkeznek az adataik felett. Az szakértők
szerint ezért az első lépés mindig legyen a csevegési előzmények kikapcsolása,
amikor alkalmazottként olyan eszközöket használ valaki, mint a ChatGPT.
Közölték azonban azt is, hogy ha még ki is kapcsolja a
felhasználó a csevegési előzményeket, a chatbot külső szerverei minden prompt
adatot tárolnak, ezáltal fennáll a veszélye annak, hogy hackerek jogosulatlanul
érik el az információkat.
Technikai hibák esetén pedig lehetséges, hogy illetéktelenek hozzáférhetnek a chatbot felhasználók adataihoz.
Ahogyan az
például 2023 márciusában is történt, amikor a ChatGPT elismerte: pár óráig
egyes felhasználók láthatták más aktív felhasználók kereszt- és vezetéknevét,
e-mail címét, fizetési címét, a bankkártya utolsó négy számjegyét és lejárati
dátumát, a teljes kártyaszámok azonban egyetlen pillanatban sem voltak
nyilvánosak.
Csizmazia-Darab Istvánt, az ESET termékeit
forgalmazó Sicontact Kft. kiberbiztonsági szakértőjét, aki elmondta, gyakori hiba, hogy a munkavállalók akaratlanul is érzékeny
információkat osztanak meg a vállalati ügyfelekről.
Éppen ezért mindig érdemes a legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel
– mondta.
Mivel a chatbotok hasznos megoldást jelenthetnek nagy
mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések
létrehozására, kockázatos az is, ha átmásolják a dokumentumokat az intelligens
rendszerekbe. Az ESET szakértői ezért az ajánlják a vállalatoknak, hogy
szigorúan szabályozzák a bizalmas dokumentumok kezelését és korlátozzák a
hozzáférést az iratokhoz.
