Az Európai Bizottság benyújtotta javaslatát a mesterséges intelligenciára vonatkozó irányelvéhez és
az ehhez tartozó nemzeti felelősségi szabályok célzott összehangolásához. Az uniós
szakmai munkában a Nemzeti Média- és Hírközlési Hatóság (NMHH) egyébként komoly
szerepet vállal. Az Economx megkeresésére a NMHH szakértői közölték:
több tényező is közrejátszott abban, miért is okozott ebben a jogalkotási folyamatban késleltető hatást a ChatGPT és a hasonló generatív MI-rendszerek megjelenése.
Ezek közül talán az a legfontosabb, hogy mivel ezek a
rendszerek most már bárki számára hozzáférhetőek, így társadalmi szinten is
nyilvánvalóvá vált, az MI már nem utópia, hanem kőkemény valóság.
Megjelentek a
felfokozott ijedelmek
Ez természetes módon abba az irányba hatott, hogy megjelentek
a felfokozott ijedelmek – valósak és kevésbé komolyak egyaránt. Nőtt a nyomás a
jogalkotókon is, miszerint védekezni kell az esetleges káros hatások, befolyásolások
vagy alkalmazások ellen.
Lehet, hogy ez nem is baj, mert így a közvélemény számára is
nyilvánvalóvá vált, hogy ennek a törvénynek kiemelt jelentősége van –
hangsúlyozták a szakértők.
Jelenleg még nem látható, hogy mikor zárul le az MI-irányelv
vitája és kerülhet kihirdetésre. Ám ez az időpont valószínűleg áttolódik
2024-re, amikor már a soros spanyol elnökségtől a belga elnökség veszi át a
stafétabotot. Valószínűleg ők a viták lezárására fognak koncentrálni, így van
rá reális esély, hogy 2024 első félévében kihirdessék az európai MI-irányelvet.
Ám ha a viták továbbra is elhúzódnak, akkor a 2024 második félévére, a magyar elnökség időszakára tolódik át a végső lezárás.
Betegek százezreinek kezelési
tapasztalata segíthet
Ugyanakkor látni kell, akármennyire is látványos a generatív
MI eredménye, nem ez jelenti a mesterséges intelligencia jelenlegi technológiai
csúcsát.
Itt leginkább a nagy nyelvi feldolgozó rendszerek, majd a képalkotó
rendszerek használatában történő alkalmazásról van szó, tehát a generatív mesterséges intelligencia (GAI) még nem éri el az általános mesterséges
intelligencia (AGI) szintjét – utóbbi a mesterséges intelligencia következő
fokozata.
A generatív mesterséges intelligencia elterjedése
kétségtelenül megváltoztatja az életünket, azonban nem mutatja be mindazt,
amire az MI, mint hasznos segítőtárs képes. Márpedig ki ne szeretné, ha ez a technológia leveszi az emberek válláról a monoton, unalmas tevékenységek
elvégzését és ugyanakkor kitágítja a tudást.
Például, oly módon, hogy nem egy, vagy két szakorvos relatíve korlátozott praxisa alapján határolja be a betegségünket, hanem sok százezer beteg kezelésének a sikeressége, vagy sikertelensége alapján tud javasolni számunkra megfelelő gyógymódot.
Az MI hamis
válaszokat is adhat
A szakemberek egy része – talán a többsége – szerint viszont
ez egy teljesen más veszélyt hoz a felszínre, mint amikről mostanában olvasni
lehet.
A Hírközlési és Informatikai Tudományos Egyesület ebben a hónapban megtartott
HTE Infokom 2023 konferenciáján a mesterséges intelligencia szekció előadói
egyöntetűen arra jutottak, hogy az MI – ami nagymennyiségű adat alapján tanul
és finomítja a pontosságát – működésének a veszélye inkább abban rejlik, ha ez
a betanító adatbázis nem hiteles, vagy hamisított adatokat is tartalmaz.
Torz, pontatlan, esetleg félrevezető adatok esetén ugyanis az MI „félretanul” és a hamis adatok alapján hamis válaszokat is fog adni. Lényeges tehát, hogy csak hiteles adatbázisok alapján lehessen a tanulási folyamatot végrehajtani, ehhez pedig szükség van egy ezt biztosító jogi szabályozásra is.
Remélhetőleg erre is sor fog kerülni az Európai Unióban, ez
lehet a következő lépés a biztonságunk megtartása felé.
Ehhez pedig a
blokklánc-technológia adhat megoldást, ami garantálni tudja az adatbázisok
hitelességét és meghamísíthatatlanságát – húzták alá végezetül a NMHH szakértői.
