Az év elején egy hongkongi pénzügyi dolgozót arra vettek rá, hogy utaljon 25 millió dollárt egy csalónak, aki az ő felettesének álcázta magát videóhíváson keresztül.

Ilyen és ehhez hasonló csalások egyre gyakrabban fognak előfordulni a jövőben, a szakértők szerint azonban már most is vannak gyakorlatok, amelyeket a vállalatok alkalmaznak, amíg a kiberbiztonsági terület felzárkózik a technológiához.

A hongkongi esetben a brit Arup mérnöki cég volt az érintett a CNBC szerint, az ezzel kapcsolatos vizsgálatok azonban még most is folynak. Az ilyen jellegű csalási kísérletek a ChatGPT 2022-es indulása óta megszaporodtak. David Fairman, a Netskope kiberbiztonsági vállalat informatikai és biztonsági vezetője szerint az efféle szolgáltatások nyilvános elérhetősége csökkentette a belépési korlátot a kiberbűnözők számára.

Emellett pedig mivel a technológia folyamatosan fejlődik, így a csalások nem csak egyre gyakoribbak, de egyre kifinomultabbak is.

Az Arup a lapnak azt mondta, sok más vállalathoz hasonlóan az ő működésüket is rendszeresen van kitéve támadásoknak, ideértve a számlacsalást, az adathalász csalásokat, a WhatsApp hanghamisítást és a deepfake-et.

A hongkongi munkatárs állítólag egy videohíváson vett részt, amelyek a pénzügyi vezető mellett más munkatársaknak vélt személy is részt vett, akik arra kérték a munkavállalót, hogy utaljon nekik pénzt.

Azonban a megbeszélésen jelenlévők a valóságban digitális újrateremtett deepfake-ek voltak.

A vállalat megerősítése szerint az incidens során hamis hangokat és képeket használtak fel.

Kiberbiztonsági szakértők amiatt aggódnak, hogy a felsőbb vezetőikről készült deepfake tartalmakat, ideértve fotókat, videókat és hanganyagokat, más módon is fel lehet rosszindulatú célokra használni.

Kiemelték, hogy a generatív mesterséges intelligencia képes deepfake-et létrehozni digitális információk, például a közösségi médiában és más médiaplatformokon található nyilvánosan elérhető tartalmak alapján.

Ugyanakkor a szakértők szerint a vállalat megerősíthetik a védelmet az MI-alapú fenyegetésekkel szemben a személyzet képzésével, a kiberbiztonsági rendszerek tesztelésével, továbbá a kódszavak és a többlépcsős jóváhagyás megkövetelésével a tranzakciók esetében.

Nem kotnyeleskedhet bele a mesterséges intelligencia a bűnüldözésbe és az egészségügybe

Bár az Európai Parlament elsöprő többséggel fogadta el a mesterséges intelligenciáról szóló törvényt, az infokommunikációs szakjogász arra hívta fel az Economx figyelmét, hogy bizonyos, magas kockázatú AI-rendszerek esetében (például: egészségügy, bűnüldözés) a mesterséges intelligencia alkalmazását kategorikusan megtiltja a jogszabály.
Ha többre kíváncsi, itt olvashat tovább→