Miközben a mesterséges intelligenciát alkalmazó eszközök elősegítik az ötletek kidolgozását, szövegek és tartalmak összefoglalását, az üzleti stratégia alapjainak megalkotását, az AI használatakor figyelembe kell venni azt is, hogy minden alkalommal, amikor kapcsolatba lép a felhasználó a chatbottal és információt kér tőle, fennáll a veszélye, hogy érzékeny adatokat oszt meg magáról vagy a vállalatról. Az ESET közleménye szerint ezért mielőtt valaki megpróbálja alkalmazni az AI eszközöket, meg kell tanulnia biztonságosan, az adatok veszélyeztetése nélkül használni.

Az üzleti és otthoni biztonságtechnikai szoftvermegoldások nemzetközi szállítójának kutatói arra hívják fel a figyelmet, hogy

a nagy nyelvi modellek (LLM), például a ChatGPT használatakor érzékeny adatokat oszthatnak meg a felhasználók a nemzetközi nagyvállalatokkal. Ezek a rendszerek ugyanis az online szövegek felhasználásával hatékonyan képesek értelmezni és megválaszolni a felhasználók kérdéseit, és ezért lehet, hogy míg az egyik cég kifejezetten támogatja, a másik megtiltja a Chat GPT használatát a munkahelyi eszközökön.

 

Felhívták a figyelmet arra is, hogy amikor egy chatbotnak kérdést tesznek fel, a beírt adatok nyilvánossá válnak. Ez nem jelenti azt, hogy a rendszerek azonnal felhasználnák a megszerzett információt a másoknak adott válaszokhoz, de az LLM szolgáltató vagy partnerei hozzáférhetnek az adatokhoz, és beépíthetik azokat a technológia következő verzióiba.

Ugyanakkor az OpenAI, a ChatGPT mögött álló vállalat például már bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a felhasználói adatokat az OpenAI mesterséges intelligencia modelljeinek tanítására és fejlesztésére használják fel, s így a felhasználók nagyobb kontrollal rendelkeznek az adataik felett. Az szakértők szerint ezért az első lépés mindig legyen a csevegési előzmények kikapcsolása, amikor alkalmazottként olyan eszközöket használ valaki, mint a ChatGPT.

Közölték azonban azt is, hogy ha még ki is kapcsolja a felhasználó a csevegési előzményeket, a chatbot külső szerverei minden prompt adatot tárolnak, ezáltal fennáll a veszélye annak, hogy hackerek jogosulatlanul érik el az információkat.

Technikai hibák esetén pedig lehetséges, hogy illetéktelenek hozzáférhetnek a chatbot felhasználók adataihoz.

Ahogyan az például 2023 márciusában is történt, amikor a ChatGPT elismerte: pár óráig egyes felhasználók láthatták más aktív felhasználók kereszt- és vezetéknevét, e-mail címét, fizetési címét, a bankkártya utolsó négy számjegyét és lejárati dátumát, a teljes kártyaszámok azonban egyetlen pillanatban sem voltak nyilvánosak.

Csizmazia-Darab Istvánt, az ESET termékeit forgalmazó Sicontact Kft. kiberbiztonsági szakértőjét, aki elmondta, gyakori hiba, hogy a munkavállalók akaratlanul is érzékeny információkat osztanak meg a vállalati ügyfelekről.

Éppen ezért mindig érdemes a legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel

– mondta.

Mivel a chatbotok hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására, kockázatos az is, ha átmásolják a dokumentumokat az intelligens rendszerekbe. Az ESET szakértői ezért az ajánlják a vállalatoknak, hogy szigorúan szabályozzák a bizalmas dokumentumok kezelését és korlátozzák a hozzáférést az iratokhoz.

 

 

 

Nem az a baj, hogy a mesterséges intelligenciával egy új fajt hoztunk létre, hanem az, hogy egy új evolúciós folyamatot indíthat el – fogalmazott a Széchenyi-díjas evolúcióbiológus, Szathmáry Eörs. Véleménye szerint nem abban rejlik a legnagyobb veszély, hogy dolgokat bízunk rá vagy hogy rossz döntéseket hoz, hanem abban, hogy egy új evolúciós folyamatot hozhat létre. Itt olvashat erről részletesebben >>>