Érdekes módját választották az Egyesült Államokban a mesterséges intelligencia elleni harcnak: a ChatGPT gyártóját, az OpenAI-t a Szövetségi Kereskedelmi Bizottság (Federal Trade Commission - FTC) jó hírnév megsértése miatt bírságolná meg. 

Washington Post számolt be arról, hogy a hatóság egy húsz oldalas dokumentummal kereste meg az OpenAI-t, számonkérve a vállalaton fogyasztóvédelmi törvények betartását. Mindezt annak ellenére, hogy az amerikai politikai döntéshozók alaposan lemaradtak a technológia mögött. Hónapok múlva készülhet csak el a Szenátus részéről a mesterséges intelligenciára vonatkozó új jogszabálycsomag.

Ettől függetlenül a kereskedelmi bizottság kiszabhat bírságokat, ha azt tapasztalja, hogy megsértik a fogyasztóvédelmi törvényeket. Már megbüntették a Metát, az Amazont, valamint a Twittert is. 

A csalás és megtévesztés új formái

A Bizottság több panaszt is összegyűjtött amerikai állampolgárok részéről, akik szerint „hamis, félrevezető, becsmérlő vagy káros” információkat közölt róluk a nyelvi modell. Amennyiben sikerül bebizonyítani, hogy a jó hírnév – tudatos – megsértésével kárt okozott a vállalat, akkor fizetniük kell majd. 

Lina Khan, a Bizottság vezetője a minap képviselőházi meghallgatásán igyekezett győzködni a politikusokat. Szerinte a ChatGPT „tévedései” a csalás és megtévesztés új formái lehetnek. A Bizottság részéről minden eszközt felhasználnának arra, hogy szembe szálljanak a területen tapasztalható káros gyakorlatokkal. 

Ilyen többek között a 

  • a mesterséges intelligenciával kapcsolatos csalások,
  • a potenciális ügyfelek manipulálása,
  • a mesterséges intelligenciával működő termékek képességeinek hamis eltúlzása.

A Bizottság azt is tudni akarja, hogy az OpenAI-nak van-e kimutatása arról, hogy a felhasználók mennyire tartják megbízhatónak az AI-eszközök által generált kimenetek pontosságát, valamint arra is választ várnak, hogy kezelik-e a hamis állításokról szóló panaszokat.

A Washington Post beszámol egy olyan ügyről is, amely során a ChatGPT szexuális zaklatással „vádolt meg” egy amerikai ügyvédet.

A cikkből kiderül, hogy az adatvédelem szempontjából az Egyesült Államok lemaradt az Európai Uniótól, s a szerző szerint innen nehéz lesz visszajönni, mivel a törvényhozók megpróbálnak egyensúlyt teremteni az innováció szükségessége és a technológia megfelelő védelmének biztosítása között.

Ezt árnyalja valamennyire, hogy Kamala Harris, az Egyesült Államok alelnöke a napokban egy sajtótájékoztatón arról beszélt, hogy egyszerre lehet védeni a fogyasztókat és előmozdítani a technológiai változást.

Ha van sérelem, van felelős is

Polyák Gábor szerint sincs kétség, hogy szükség van valamilyen szabályozásra, de az ELTE Médiatanszékének oktatója abban már nem biztos, hogy ez rövid időn megvalósulna, és ha meg is történne, nem valószínű, hogy megoldás még mindig adekvát lesz. Példaként hozta fel, hogy a Facebook esetében még mindig csak a jogi keret megalkotásánál tart Európa, miközben a platform sokat vesztett a jelentőségéből az elmúlt három esztendőben. 

Az egyetemi tanár a Napi.hu-nak hangsúlyozta azt is, a főprobléma létezik.

Ha rákérdezek, mit tud rólam a ChatGPT, akkor arra egy rakás hülyeség a válasz, amin én röhögök, de ha másvalaki ezekből a téves információkból indul ki, az valóban jogsértő, valóban okoz sérelmet

– hangsúlyozta, hozzátéve: ha van sérelem, akkor van felelős is, ami pedig a ChatGPT, ami olyan adatokat használ fel, amiből nem megfelelő következtetések von le.

Black box

Ez pedig nem úgy történik, hogy valaki téves adatokat táplál be, vagy az algoritmus téved el az interneten. Ez egy deep learning technológia. Egy ponton túl a fejlesztőknek sincs halvány fogalmuk arról, hogy ezek a tudásrétegek egymásra épülve pontosan hogyan fogják kiadni a képernyőn látható végeredményt – magyarázta. Ez a black box. Nem ügyes programozók hosszú algoritmusokkal működtetik a rendszert, inkább hasonlatos az emberi agy működéséhez.

A KKV és az IT-szektornak is jó a mesterséges intelligencia, de fontos feloldani az ellentmondásokat

Az elmúlt években komoly sokkhatások érték az IT-szektort, a folyamatok néha talán még ellentmondásosnak is tűnhetnek, ám minderre létezik magyarázat – mondta el a Napi.hu-nak a PROGmasters programozóiskola és IT képzési központ vezetője. Bővebben >>>

„A jog szerint azért vagy felelős, ami fölött kontrollod van, a deep learning fölött nincs kontrollod technológiai értelemben” – figyelmeztetett Polyák Gábor. 

„A felhasználó csak annyit tud tenni, hogy jelzi a fejlesztő felé, hogy téves az információ. Amit jelenleg elvárhatunk a ChatGPT-hez hasonló modellek gyártóitól, hogy garantálják a jogsértő hibák kijavítását, ha azokról külső vagy a saját a monitoring rendszerén keresztül tudomást szereznek. De az algoritmus annyira kiismerhetetlen, egyáltalán nem biztos, hogy a következő alkalomkor a legjobb szándék mellett sem téves információkat tesz majd közzé” – fogalmazott az ELTE oktatója.

Polyák Gábor szerint hiába mondja majd ki bíróság az Egyesült Államokban, hogy a fejlesztő felelős minden válaszért, végül nem akarják majd megfojtani a saját üzleti vállalkozásukat.

„Ez egy globális verseny, és Kína nyilván nem fog finomkodni a személyiségi jogokkal, Amerika sem teheti meg, hogy a fejlesztéseket veszélyeztesse” – közölte a szakértő. Polyák Gábor az internet világában egyszerűen kiszökött a kezünkből a lehetőség, hogy minden jogszerűtlenséget sikerüljön orvosolni, „és ez csak rosszabb lesz”.

„Ha egy magyar állampolgár próbálna most elégtételt venni a róla megjelent valótlanságok miatt, akkor megpróbálhatná beperelni az OpenAI-t, de még az sem biztos, hogy a magyar jogrend alapján magyar bíróság elé kerülne az ügye. Előjön ugyanaz a probléma, amivel küzdünk a Facebook és a Google esetében is, felhasználóként nem vagyunk abban a helyzetben, hogy bármilyen jogi csatába bonyolódjunk velük” – osztotta meg kételyeit Polyák Gábor. 

Mi hiszünk benne

Egyébként a magyar felhasználók 73 százaléka megbízik a létrehozott, illetve egy algoritmus által generált tartalomban.

Sőt, az AI használatára való igény egyre csak fokozódni látszik.

  • A fogyasztók csaknem fele (43 százalék) szeretné, ha a szervezetek a generatív mesterséges intelligenciát alkalmaznák az ügyfélkapcsolatok kezelése során.
  • Sőt, a fogyasztók 70 százalékának már most is a generatív mesterséges intelligencián alapuló eszközök a legfontosabbak az új termékekhez és szolgáltatásokhoz kapcsolódó ajánlások keresése során.
  • A fogyasztók többsége (64 százalék) nyitott arra, hogy ilyen tanácsok alapján vásároljon.
  • A korcsoportok között nincs jelentős eltérés: a fogyasztók 67 százaléka várakozással tekint a generatív mesterséges intelligencia azon képességére, hogy személyre szabott divat- és lakberendezési tanácsokat nyújtson.