Az Európai Parlament megszavazta az arcfelismerő technológiák rendőrségi alkalmazásának tilalmát köztereken, amely – a potenciális bűnözők gyorsabb felkutatását remélve – mesterséges intelligencia (AI) segítségével alkot profilt, a konkrét bűncselekmények elkövetése előtt. Ez szöges ellentétben áll néhány uniós tagállam politikájával, amelyek szívesen használják ezeket az ellentmondásos gyakorlatokat a biztonsági apparátusaik megerősítésére - írja a Politico.

Az elsöprő többséggel elfogadott, ugyanakkor nem kötelező érvényű állásfoglalás jelzésértékű abban a tekintetben, hogy az Európai Bizottság várhatóan miként fog szavazni a mesterséges intelligenciáról szóló törvény (AI Act) közelgő tárgyalásain. A kiállás előzményeként még áprilisban terjesztettek elő egy törvényjavaslatot, amelyben átfogó szabályozási keretet vezetnének be az AI-ra vonatkozóan. Az indítvány ennek értelmében korlátozza a távoli biometrikus azonosítás használatát nyilvános helyeken, kivéve, ha az a „súlyos" bűncselekmények – például emberrablások és terrorizmus – elleni küzdelemhez elengedhetetlen. 

A távoli megfigyelésre épülő technológiák létezésük óta vetnek fel emberi jogi kérdéseket – többek között a magánélet védelmével kapcsolatban –, ugyanakkor a különböző rendőri szervek egyre gyakrabban alkalmazzák Európa szerte.

Svédország adatvédelmi hatósága (IMY) februárban egy 300 ezer dolláros bírságot szabott ki a helyi rendőrségre, amiért az jogellenesen használta a Clearview AI néven elhíresült, megosztó arcfelismerő szoftvert. Emellett korábban a kanadai adatvédelmi hatóságok is úgy találták, hogy az amerikai startup vállalat szolgáltatása megsértette a helyi törvényeket, amikor a lakosság tudomása és engedélye nélkül több millió fotót gyűjtött emberekről egy arcfelismerő adatbázisba.

Ez még nem disztópia, de ne is legyen az

Az előzőek értelmében a magáncélra létrehozott adatbázisok használatát is megszüntetik, valamint felszólaltak a viselkedési mintákon alapuló, prediktív rendőri intézkedések tilalma mellett is. Az úgynevezett „szociális pontozási rendszerekkel” Kínában lehet találkozni, melyben a polgárok magaviselete alapján értékelik azok megbízhatóságát. Továbbá leállítják az iBorderCtrl nevezetű vitatott kutatási projektet, amely uniós finanszírozás keretében fejlesztett egy meglehetősen orwelli, arckifejezések elemzésén alapuló okos-hazugságvizsgálót a bevándorlók ellenőrzésének felgyorsítására – írja a TechChrunch.  

Mindemellett az állásfoglalás célba veszi az algoritmus elfogultságának kérdését is, amellyel kapcsolatban kötelező emberi felügyeletet és erős jogi hatásköröket követel a hátrányos megkülönböztetés megakadályozására. A képviselők a mesterséges intelligenciára épülő rendszerek használatakor – amelyekről úgy vélik, hogy nagyobb arányban azonosítják tévesen az etnikai kisebbségeket, az LMBTQ személyeket, az időseket és a nőket – az algoritmusnak átláthatónak, nyomon követhetőnek és kellően dokumentáltnak kell lennie.

A Fair Trials nevű globális emberi jogi szervezet üdvözölte a szavazást, szerintük a törvényjavaslat "mérföldkőnek számít az alapvető emberi jogok és a megkülönböztetés-mentesség elérésének szempontjából”.  


Tájékoztatás

 A projekt az Európai Unió társfinanszírozásával, az Európai Parlament kommunikáció területére vonatkozó támogatási programja részeként valósult meg. Előkészítésében az Európai Parlament nem vett részt, és semmilyen felelősséget vagy kötelezettséget nem vállal a projekt keretében nyilvánosságra hozott információkért és álláspontokért, amelyekért kizárólag a szerzők, a megkérdezett személyek, a program szerkesztői és terjesztői felelősek az alkalmazandó jognak megfelelően. Az Európai Parlament nem felel a projekt megvalósításából esetlegesen származó közvetlen vagy közvetett károkért sem.