Kína szigorúan fel akar lépni az ellen, hogy a mesterséges intelligenciával működő csevegőrobotok veszélyes módon befolyásolhassák az emberi érzelmeket és tartalmaikkal esetleg öngyilkosságra vagy önkárosításra ösztönözzenek - számolt be Peking terveiről a CNBC.
A csatorna ismertetése szerint a kibertér-hatóságok által javasolt szabályozás az úgynevezett „emberi interaktív mesterséges intelligencia szolgáltatásokat” célozza meg.
Az intézkedések a kínai lakosság számára kínált, emberi személyiséget szimuláló és szöveg, kép, hang vagy videó segítségével érzelmileg ható mesterséges intelligencia termékekre és szolgáltatásokra vonatkoznak majd.
Peking tervezett szabályai a világ első kísérletét jelentik az emberi vagy antropomorf jellemzőkkel rendelkező mesterséges intelligencia szabályozására – mutatott rá Winston Ma, a New York-i Egyetem Jogi Karának adjunktusa. Kína 2023-as generatív AI-szabályozásához képest ez a változat „kiemeli a tartalom biztonságáról az érzelmi biztonságra való átállást” - tette hozzá a szakember.
A szabálytervezet a következőket javasolja:
- Az AI-csevegőrobotok nem generálhatnak olyan tartalmat, amely öngyilkosságra vagy önkárosításra ösztönöz, illetve nem alkalmazhatnak verbális erőszakot vagy érzelmi manipulációt, amely károsítja a felhasználók mentális egészségét.
- Ha egy felhasználó kifejezetten öngyilkossági szándékot jelez, egy embernek kell átvennie a chatbottól a beszélgetést, és azonnal kapcsolatba kell lépnie a felhasználó gyámjával vagy egy kijelölt személlyel.
- Az AI-csevegőrobotok nem generálhatnak szerencsejátékkal kapcsolatos, obszcén vagy erőszakos tartalmat.
- Kiskorúak csak a gyám beleegyezésével használhatják az AI-t érzelmi társaságként, és a használatnak időkorlátot kell szabni.
- A platformoknak képesnek kell lenniük megállapítani, hogy egy felhasználó kiskorú-e, még akkor is, ha a felhasználó nem közli a korát, és kétség esetén a kiskorúakra vonatkozó beállításokat kell alkalmazniuk, ugyanakkor lehetőséget kell biztosítaniuk a fellebbezésre.
A további rendelkezések szerint a technológiai szolgáltatóknak két óra folyamatos AI-interakció után emlékeztetniük kell erre a felhasználókat, és biztonsági értékeléseket kell elvégezniük az 1 millió regisztrált felhasználóval vagy havi 100 ezer aktív felhasználóval rendelkező AI-csevegőrobotok esetében.