BUX 136446.76 0,38 %
OTP 43330 1,79 %
Promo app

Töltse le az Economx appot!

Letöltés

Az esetek háromnegyedében ismerjük csak fel a mesterséges intelligencia által generált beszédet

Egy kutatás szerint az emberek csupán az esetek 73 százalékában ismerik fel, ha deepfake, azaz mesterséges intelligenciával generált beszédet hallanak. Az arányok a mandarin és az angol nyelvet beszélők között is egyformák. Miután azonban a kutató megtanították felismerni a résztvevőkkel a generált beszédet, a számok is javultak.

2023. augusztus 3. csütörtök, 21:15

A University College London 529 résztvevővel megtartott kutatásában azt vizsgálták, képesek-e megkülönböztetni a valódi hangmintát a mesterséges intelligencia által generálttól. Az esetnek csak a 73 százalékában tudták a hamis hangmintát felismerni. Ez a szám azonban némileg javult, miután megtanították nekik, hogyan szűrjék ki őket.

A kutatás azért is kiemelkedő, mert nem csupán az angol nyelvet, hanem a mandarint beszélőkre is kiterjesztették és mindkét esetben ugyanakkora volt a pontosság.

Kimberly Mai, a kutatás főszerzője a The Guardian brit lapnak úgy nyilatkozott, a résztvevők nagyon nagy arányban képesek voltak felismerni a deepfake felvételeket, ha ugyanaz a hang beszélt, illetve ha a hangkörnyezet hasonlóságokat mutatott. Más esetben azonban kevésbé. Hozzátette, fontos, hogy fejlesszék az automatizált deepfake hangfelvételek felismerését, továbbá a szervezeteknek ki kell gondolniuk egy stratégiát arra vonatkozóan, hogy a deepfake veszélyét csökkentsék.

Újfajta veszélyforrás lehet

Brad Smith, a Microsoft elnöke szerint a deepfake jelenti a legnagyobb aggályt a mesterséges intelligenciával kapcsolatosan.

Dr Karl Jones, a liverpooli John Moores Egyetem mérnöki vezetője arra figyelmeztetett, hogy az Egyesült Királyság igazságszolgáltatásának nincs védelmi eszköze a deepfake-el szemben. Sam Gergory, a Witness ügyvezető igazgatója szerint az egyik legnagyobb problémát az jelenti, hogy az újságírók, tényellenőrök, választási biztosok és a civil társadalom tagjai nem férnek hozzá a deepfake felismerésének eszközeihez.

Micsoda arcátlan képmutatás, hát nem szégyellik magukat?
A más képében tetszelgésnek súlyos társadalmi kockázata lehet. Bővebben--->
Zádori Bence
Zádori Bence
Újságíró

Ez is érdekelhet