Az év elején egy hongkongi pénzügyi dolgozót arra vettek rá, hogy utaljon 25 millió dollárt egy csalónak, aki az ő felettesének álcázta magát videóhíváson keresztül.
Ilyen és ehhez hasonló csalások egyre gyakrabban fognak előfordulni a jövőben, a szakértők szerint azonban már most is vannak gyakorlatok, amelyeket a vállalatok alkalmaznak, amíg a kiberbiztonsági terület felzárkózik a technológiához.
Kapcsolódó
A hongkongi esetben a brit Arup mérnöki cég volt az érintett a CNBC szerint, az ezzel kapcsolatos vizsgálatok azonban még most is folynak. Az ilyen jellegű csalási kísérletek a ChatGPT 2022-es indulása óta megszaporodtak. David Fairman, a Netskope kiberbiztonsági vállalat informatikai és biztonsági vezetője szerint az efféle szolgáltatások nyilvános elérhetősége csökkentette a belépési korlátot a kiberbűnözők számára.
Emellett pedig mivel a technológia folyamatosan fejlődik, így a csalások nem csak egyre gyakoribbak, de egyre kifinomultabbak is.
Az Arup a lapnak azt mondta, sok más vállalathoz hasonlóan az ő működésüket is rendszeresen van kitéve támadásoknak, ideértve a számlacsalást, az adathalász csalásokat, a WhatsApp hanghamisítást és a deepfake-et.
A hongkongi munkatárs állítólag egy videohíváson vett részt, amelyek a pénzügyi vezető mellett más munkatársaknak vélt személy is részt vett, akik arra kérték a munkavállalót, hogy utaljon nekik pénzt.
Azonban a megbeszélésen jelenlévők a valóságban digitális újrateremtett deepfake-ek voltak.
A vállalat megerősítése szerint az incidens során hamis hangokat és képeket használtak fel.
Kiberbiztonsági szakértők amiatt aggódnak, hogy a felsőbb vezetőikről készült deepfake tartalmakat, ideértve fotókat, videókat és hanganyagokat, más módon is fel lehet rosszindulatú célokra használni.
Kiemelték, hogy a generatív mesterséges intelligencia képes deepfake-et létrehozni digitális információk, például a közösségi médiában és más médiaplatformokon található nyilvánosan elérhető tartalmak alapján.
Ugyanakkor a szakértők szerint a vállalat megerősíthetik a védelmet az MI-alapú fenyegetésekkel szemben a személyzet képzésével, a kiberbiztonsági rendszerek tesztelésével, továbbá a kódszavak és a többlépcsős jóváhagyás megkövetelésével a tranzakciók esetében.
Nem kotnyeleskedhet bele a mesterséges intelligencia a bűnüldözésbe és az egészségügybe
Bár az Európai Parlament elsöprő többséggel fogadta el a mesterséges intelligenciáról szóló törvényt, az infokommunikációs szakjogász arra hívta fel az Economx figyelmét, hogy bizonyos, magas kockázatú AI-rendszerek esetében (például: egészségügy, bűnüldözés) a mesterséges intelligencia alkalmazását kategorikusan megtiltja a jogszabály.Ha többre kíváncsi, itt olvashat tovább→
Kövesse az Economx.hu-t!
Értesüljön időben a legfontosabb gazdasági és pénzügyi hírekről! Kövessen minket Facebookon, Instagramon vagy iratkozzon fel Google News és YouTube-csatornánkra!
Legolvasottabb
Visszanyalt a fagyi: újabb devizahiteles nyert pert, megkopasztja a bankot a győztes ügyfél
Perceken múlt az újabb merénylet? Jelöletlen rendőrautók gázolták el a Bondi Beachre tartó férfiakat – Videó
Tabudöntés jöhet az EU-ban: megszavazhatják az orosz vagyon felhasználását
Vége a jó időknek? Látványosan esik az állampapírok hozama
Komolyan megsérült Fico különgépe, amely Brüsszelbe szállította a szlovák kormányfőt
Elege lett a magyaroknak a hírekből, teljesen másra vágynak az interneten
Megvan a NASA legújabb vezetője, el sem hiszi, honnan jött
A hivatal szerint tízezrek, a valóságban százezrek hagyják el az országot
Titkolt fegyverüzlet: a kormány gyakorlatilag ajándékba adott 66 harckocsit Szerbiának