A magyar kormány már 2020-ban, jóval az uniós mesterséges intelligencia szabályozás elfogadása előtt fogadott el AI-stratégiát a technológia alkalmazásának ösztönzésére. Most pedig ott tartunk, hogy idén megújult a stratégia, megérkezett a 2.0-ás verziója.
„A tervek szerint a stratégia a jövőben az uniós keretekhez igazodva évente frissülni fog, miközben kijelöli azokat a területeket, amelyekre az évtized hátralévő részében érdemes építeni”
– árulta el lapunknak Vajda Viktor. Kiemelte, hogy a dokumentum hat alapozó pillérre tagolódik – szabályozás és biztonság, infrastruktúra, oktatás és kompetenciafejlesztés, adatgazdaság, kutatás-fejlesztés és innováció, valamint az alkalmazások ösztönzése és fejlesztése –, továbbá három kiemelt területet jelöl ki:
- „MI a társadalomért”,
- „MI a technológiáért”
- és „MI az üzletért”.
A cél ambiciózus: Magyarország a régió élvonalába kíván kerülni a mesterséges intelligencia alkalmazásában és fejlesztésében, miközben a társadalom és a gazdaság minden szereplője profitálhat az előrelépésekből.
Két út a szabályozáshoz – a kormány a gyakorlatiasabbat választotta
A hatályosított MI Stratégia egyik központi eleme a szabályozási környezet alakítása. Az uniós jogalkotás eredményeképpen 2024-ben elfogadott és hatályba léptetett mesterséges intelligencia rendelet (AI Act) hatékony hazai végrehajtása tekintetében a kormányzat több konkrét megvalósítási irányzatot is megvizsgált.
Az egyik módozat a MIS 2.0-ban szereplő távlati vízió volt, amely egy új központi hivatal létrehozására (Hungarian AI Office) tett javaslatot – ennek előnye, hogy a piac számára világos partnerséget kínálna az AI tárgykörben célirányosan kereshető hivatal révén – részletezte Vajda Viktor.
„A ténylegesen megvalósításra kerülő másik módozat a meglévő intézményi struktúra egyes elemeinek kijelölésével operál, amely a hatékony feladatellátás mellett az AI Act-ben rögzített határidőknek való lehető legsikeresebb megfelelést szolgálja”
– tette hozzá a szakértő. Magyarország egyszerre fogja garantálni a jogbiztonságot és elkerüli a szabályozási széttöredezettséget, egyúttal lehetővé teszi, hogy a vállalkozások az egységes európai piacon versenyképesen működjenek.
„Időben vagyunk, de cselekedni kell: minél előbb értik meg minél többen az AI hatásait,
annál felkészültebbek lehetünk a változásokra” – hangsúlyozta Vajda Viktor. A változás szerinte valóban mélyrehatónak ígérkezik:
„A hivatásos sofőrök helyébe önvezető autók, az emberi kreativitást nem igénylő információgyűjtő és -elemző munkakörök helyébe a nagy nyelvi modellek léphetnek, a legveszélyesebb feladatokat a hadászatban, a tűzoltásban és a műszaki mentésben robotkutyák vehetik át”
– mondott konkrét példákat. „Az átalakulás iránya tiszta, részletei, sebessége és mértéke azonban nem láthatók pontosan előre”. Véleménye szerint még így is sokkal jobb helyzetben vannak az államok, a gazdasági szereplők és az egyének is a változásokra való felkészülésük során, mint az ipari forradalom korábbi szakaszaiban – többek között éppen azért, mert a digitalizáció eddigi vívmányai és maga az AI is segítséget nyújt majd annak a felmérésében, hogy mi és mikor változik meg.
„Az első okostelefonokat még hiába kérdezgettük volna arról, hogy mit fognak megváltoztatni”
– érzékeltette egy példával a jogász. A nagy nyelvi modellek, például a ChatGPT ezzel szemben már válaszol ilyen kérdésekre. „Az emberi közreműködés természetesen nem válik feleslegessé hosszú távon sem, de arra számítani lehet, hogy egyre inkább azokon a területeken lesz nélkülözhetetlen, ahol a gépi tudás az emberi felügyeletet, a humánumot, a személyességet, a kreativitást, az egyediséget nem pótolhatja” – magyarázta Vajda Viktor.
Négyszintű szabályozás: a tiltástól a teljes szabadságig
„Az AI Act minden, az Európai Unióban fejlesztett és üzemeltetett AI-rendszerre vonatkozik,
azaz minden olyan informatikai alkalmazásra, amely képes az általa feldolgozott információk alapján alakítani a működésén és a válaszain" – ismertette a szabályozást a szakértő.
A szabályozás kötelezettjei e rendszerek fejlesztői és üzemeltetői, függetlenül attól, hogy ezek magánszervezetek vagy állami szervek.
„A tartalmi szabályozás négyszintű: egyes AI-alkalmazásokat megtilt, másokat magas kockázatúnak minősít, ezért részletesen szabályozza az alkalmazásukat, míg a korlátozott kockázatú AI-alkalmazásokra csupán általános transzparenciakövetelményeket érvényesít”
– magyarázta. Emellett vannak olyan, minimális kockázatú AI-rendszerek (például a spamszűrők vagy az AI-t alkalmazó egyszerű videójátékok), amelyekre egyáltalán nem állapítottak meg szabályokat. Végül – az uniós intézmények általi végrehajtás mellett – külön szabályok vonatkoznak a ChatGPT-hez hasonló általános célú mesterséges intelligencia modellekre.
Pórázt kaptak a legdurvább AI-eszközök
„Az AI Act olyan alkalmazási módokat sorol a tiltott kategóriába, amelyek súlyosan sérthetik az alapvető jogokat vagy egyébként károsak” – magyarázta Vajda Viktor. Ebbe a körbe tartozik például az AI-alapú manipuláció és megtévesztés, a sebezhető társadalmi csoportok (például a gyermekek vagy a digitális írástudással nem rendelkező idős személyek) sebezhetőségével való visszaélés, a társadalmi pontozás vagy a munkahelyeken és az oktatási intézményekben AI-alapú érzelemfelismerő rendszerek alkalmazása.
„Az alkalmazási tilalmak már február óta hatályosak”
– emelte ki. „Magas kockázatú rendszerből is többfélét ismer az AI Act: közös bennük, hogy ezek az AI olyan felhasználási eseteihez kapcsolódnak, amelyek súlyos kockázatot jelenthetnek az egészségre, a biztonságra vagy az alapvető jogokra nézve” – folytatta. Ilyen például az az eset, amikor az AI egy kritikus rendszer – például közműhálózat részeként vagy egy fizikai termék biztonsági komponenseként, akár egy sebészeti robotban vagy egy önvezető autóban működik – de szintén ilyen az AI bűnüldözési vagy igazságszolgáltatási célokra történő felhasználása is.
Munkáltatók figyelem! Azonosítani kell az AI-használatot
„Egy munkáltató akkor kerülhet az AI Act hatálya alá, hogyha AI-rendszert alkalmaz a munkavállalói tevékenységével, munkáltatói jogai gyakorlásával összefüggésben” – ismertette a szakértő. Hogy mik a konkrét kötelezettségei, az már az alkalmazott rendszer sajátosságaitól függ: „egy AI-alapú spamszűrő szoftverre például egyáltalán nem vonatkoznak majd az AI Act szabályai, míg az érzelemfelismerő megoldások alkalmazása egyenesen tiltott a munkahelyen.”
„Most a legfontosabb és logikailag is a legelső kötelezettsége a munkáltatóknak az AI Act alapján az, hogy azonosítsák azokat a folyamatokat, ahol AI-rendszert alkalmaznak”
– hangsúlyozta. Emellett mérlegelniük kell, hogy a munkavállalóik mikor és mire
használnak, használhatnak AI-rendszereket. „Az általános célú nyílt AI-rendszerek
munkahelyi alkalmazásának számos különböző kockázata lehet a szerzői jogok megsértésétől a bizalmas munkahelyi információk jogosulatlan megismerhetőségén át, az emberi kontroll gyengüléséből fakadó problémákig" – sorolta.
„Az AI Act-nek nincs adatvédelmi fejezete, az AI-t ugyanúgy az általános adatvédelmi
követelményeknek megfelelően kell alkalmazni, mint bármilyen más, személyes adatok
feldolgozására vonatkozó technológiát” – magyarázta Vajda. Az adatvédelmi és az AI-szabályozás együttes alkalmazása alapvetően egy irányba mutat, hiszen az AI-rendszerekben kezelt adatok emberi kontrollja és kezelésének átláthatósága tekintetében ugyanaz a célja a két szabályozásnak.
Rámutatott, hogy az adatvédelem sokkal régebbi történet, még az internet előtti: ahol van ilyen szabályozás (nincs mindenhol, az USA-ban például lényegében egyáltalán nincs), ott a 80-as, 90-es évek
óta változatlan az adatvédelmi szabályozások iránya. Magyarországon 1990-91-esek az adatvédelem elveit rögzítő AB-döntések, 1992-es volt az első magyar adatvédelmi törvény.
„Az AI Act és a GDPR céljai között nincs tartalmi ellentét, hogyha az AI-ról van szó, akkor nagyjából ugyanazt akarják: átlátható működést, és azt, hogy az emberé legyen a kontroll a folyamatok fölött”
– világított rá a szakértő. Ettől még persze a gyakorlatban lehetnek ellentmondások: „ilyen például az, hogy az AI Act kiemelt célja, hogy az AI-modellek szűrjék ki az egyes társadalmi csoportokkal szembeni elfogultságot a modelljeik működéséből, amihez sokszor azt is kellene vizsgálni, hogy miként érintettek egy adott társadalmi csoport tagjai.”
Az NGM-ben kaphat helyet az új AI piacfelügyeleti hatóság
Az újonnan megalakuló MI-hatóságról is kérdeztük a szakértőt, és hogy erre miért van szükség.
„A mesterséges intelligenciával kapcsolatos hatósági funkciók ellátására azért van szükség, mert nem mellőzhető az új jogszabály kikényszerítésében”
– magyarázta. Egyre több szereplő fog AI-t fejleszteni és használni, így ez egy bizalmi kérdés is, amit megnyugtatóan rendezni kell, és azt is, hogy aki AI-t hoz létre vagy használ, az ezt mindig felelősen tegye majd meg.
„Gondoljunk csak arra, hogy a benzinmotoros autók megjelenésével is számos kérdést kellett rendezni a KRESZ terén és az internet működtetésével kapcsolatban is. Maguktól, azaz önszabályozási alapon ezek a dolgok nem működhetnek”
– fogalmazott. „A kormány javaslata azon alapul, hogy a Nemzetgazdasági Minisztérium szervezeti keretei között kerüljön ellátásra az AI piacfelügyeleti hatósági feladatkör” – ismertette. Úgy véli, hogy az AI egyre szélesebb alkalmazása miatt szintén fontos szerepet játszó ágazati piacfelügyeleti hatóságokkal együttműködve – elsődleges felelőse lehet annak, hogy az AI Act-et hatékonyan, de a hazai gazdaság érdekeinek, a nemzeti versenyképességi szempontoknak megfelelően alkalmazzák Magyarországon.
Komplex felelősségi kérdések az AI-korszakban
Arról is kérdeztük a szakértőt, hogy kit terhel a felelősség akkor, ha egy AI-alapú döntés miatt valakinek baja esik.
„Aki másnak jogellenesen kárt okoz, az általában köteles azt megtéríteni: az AI alkalmazása kicsit nehezebbé teszi a felelősség tisztázását, de nem lehetetlenné”
– válaszolta, megjegyezve, hogy egyelőre sehol a világon nincs külön AI felelősségi szabályozás, azonban az AI-rendszerek sajátosságainak figyelembevételére egy bírónak már most is képesnek kell lennie. Az Európai Bizottság még 2022-ben tett közzé egy uniós jogszabálytervezetet, amely speciális szabályokat állapított volna meg az AI alkalmazása során okozott károkért való felelősségre, ez volt az AI felelősségi irányelv tervezete.
„Az irányelv elfogadása az AI Act elfogadása után a tanácsi egyeztetések során elakadt, mivel a tagállamok jelentős része úgy látta, hogy nincs itt az ideje egy újabb szigorú szabályozásnak. A tervezetet végül idén tavasszal a Bizottság visszavonta”
– világított rá Vajda. „Így aztán az AI-elemet érintő jogvitákban most – és várhatóan még minimum éveken keresztül – az általános polgári jogi kártérítési felelősség szabályait kell alkalmazni Magyarországon”.
Ez azt jelenti, hogy jelenleg attól függően követelhető más-más szereplőktől és más-más feltételekkel kártérítés, hogy az okozott kár az AI működésének milyen sajátosságából keletkezett, illetve mi volt magának az AI-rendszernek a célja.
Vajda Viktor: Magyarország lehet Európa digitális kapuja
Arról is kérdeztük a szakértőt, hogy Magyarország összességében milyen szerepet tölthet be az AI-korszakban.
„Az elmondottakat összefoglalva – véleményem szerint – a mesterséges intelligencia kihívásoktól korántsem mentes, ám izgalmas lehetőségeket tartogató világa látszik előttünk kirajzolódni, amelyben a jogalkalmazás kiszámíthatósága éppúgy versenyképességi tényező, mint az AI-rendszerek megfelelőségének szakszerű és költséghatékony tanúsítása”
– mondta, majd hozzáfűzte: „Mindez potenciálisan Európa digitális kapujának szerepébe helyezheti Magyarországot az amerikai és ázsiai fejlesztések, valamint a nemzetek közti tudásmegosztás tekintetében egyaránt” – zárta a szakértő, aki előadott a budapesti AI Summit 2025-ön.
* * *
dr. Vajda Viktor LL.M., AI-ra specializálódott uniós- és nemzetközi üzleti mesterjogász, a Mesterséges Intelligencia Koalíciót a Nemzetgazdasági Minisztérium háttérintézményeként közfeladatai ellátása körében működtető Neumann János Nonprofit Közhasznú Kft. ügyvezető-helyettese, technológiai szabályozási vezetője.