Az Európai Bizottság benyújtotta javaslatát a mesterséges intelligenciára vonatkozó irányelvéhez és az ehhez tartozó nemzeti felelősségi szabályok célzott összehangolásához. Az uniós szakmai munkában a Nemzeti Média- és Hírközlési Hatóság (NMHH) egyébként komoly szerepet vállal. Az Economx megkeresésére a NMHH szakértői közölték:

több tényező is közrejátszott abban, miért is okozott ebben a jogalkotási folyamatban késleltető hatást a ChatGPT és a hasonló generatív MI-rendszerek megjelenése.

Ezek közül talán az a legfontosabb, hogy mivel ezek a rendszerek most már bárki számára hozzáférhetőek, így társadalmi szinten is nyilvánvalóvá vált, az MI már nem utópia, hanem kőkemény valóság.

Megjelentek a felfokozott ijedelmek

Ez természetes módon abba az irányba hatott, hogy megjelentek a felfokozott ijedelmek – valósak és kevésbé komolyak egyaránt. Nőtt a nyomás a jogalkotókon is, miszerint védekezni kell az esetleges káros hatások, befolyásolások vagy alkalmazások ellen.

Lehet, hogy ez nem is baj, mert így a közvélemény számára is nyilvánvalóvá vált, hogy ennek a törvénynek kiemelt jelentősége van – hangsúlyozták a szakértők.

Jelenleg még nem látható, hogy mikor zárul le az MI-irányelv vitája és kerülhet kihirdetésre. Ám ez az időpont valószínűleg áttolódik 2024-re, amikor már a soros spanyol elnökségtől a belga elnökség veszi át a stafétabotot. Valószínűleg ők a viták lezárására fognak koncentrálni, így van rá reális esély, hogy 2024 első félévében kihirdessék az európai MI-irányelvet.

Ám ha a viták továbbra is elhúzódnak, akkor a 2024 második félévére, a magyar elnökség időszakára tolódik át a végső lezárás.

Betegek százezreinek kezelési tapasztalata segíthet

Ugyanakkor látni kell, akármennyire is látványos a generatív MI eredménye, nem ez jelenti a mesterséges intelligencia jelenlegi technológiai csúcsát.

Itt leginkább a nagy nyelvi feldolgozó rendszerek, majd a képalkotó rendszerek használatában történő alkalmazásról van szó, tehát a generatív mesterséges intelligencia (GAI) még nem éri el az általános mesterséges intelligencia (AGI) szintjét – utóbbi a mesterséges intelligencia következő fokozata.

A generatív mesterséges intelligencia elterjedése kétségtelenül megváltoztatja az életünket, azonban nem mutatja be mindazt, amire az MI, mint hasznos segítőtárs képes. Márpedig ki ne szeretné, ha ez a technológia leveszi az emberek válláról a monoton, unalmas tevékenységek elvégzését és ugyanakkor kitágítja a tudást.

Például, oly módon, hogy nem egy, vagy két szakorvos relatíve korlátozott praxisa alapján határolja be a betegségünket, hanem sok százezer beteg kezelésének a sikeressége, vagy sikertelensége alapján tud javasolni számunkra megfelelő gyógymódot.

Az MI hamis válaszokat is adhat

A szakemberek egy része – talán a többsége – szerint viszont ez egy teljesen más veszélyt hoz a felszínre, mint amikről mostanában olvasni lehet.

A Hírközlési és Informatikai Tudományos Egyesület ebben a hónapban megtartott HTE Infokom 2023 konferenciáján a mesterséges intelligencia szekció előadói egyöntetűen arra jutottak, hogy az MI – ami nagymennyiségű adat alapján tanul és finomítja a pontosságát – működésének a veszélye inkább abban rejlik, ha ez a betanító adatbázis nem hiteles, vagy hamisított adatokat is tartalmaz.

Torz, pontatlan, esetleg félrevezető adatok esetén ugyanis az MI „félretanul” és a hamis adatok alapján hamis válaszokat is fog adni. Lényeges tehát, hogy csak hiteles adatbázisok alapján lehessen a tanulási folyamatot végrehajtani, ehhez pedig szükség van egy ezt biztosító jogi szabályozásra is.

Remélhetőleg erre is sor fog kerülni az Európai Unióban, ez lehet a következő lépés a biztonságunk megtartása felé.

Ehhez pedig a blokklánc-technológia adhat megoldást, ami garantálni tudja az adatbázisok hitelességét és meghamísíthatatlanságát – húzták alá végezetül a NMHH szakértői.