Amit tudnia kell
-
18:443 hónapja frissítveAz AI nem tudja megmondani, mi az a magyar
-
17:133 hónapja frissítveMit változtat meg az AI az oktatásban?
-
16:123 hónapja frissítveMegtalálták a NAV-nál a pokolba vezető utat
-
15:413 hónapja frissítveNégy gonosz fenyegeti az egészségügyet
-
12:213 hónapja frissítveMilyen AI-t ajánl a bankoknak az MNB?
-
11:213 hónapja frissítveNavracsics Tibor: Az AI segítségével fejlesztenek egy magyar nagytérséget
Megtalálták a NAV-nál a pokolba vezető utat
Vágujhelyi Ferenc, a MÁK és a NAV adatvagyonának optimalizálásáért felelős kormánybiztosa, az NHIT és a NAV elnöke felfedte a nagy titkot, és elárulta, az adóhivatal az MI-t a deviáns gazdasági viselkedés kiszűrésére használja. Azokat a szituációkat (például: áruszállítás) akarják látni, amelyek mögött nincs gazdasági racionalitás. Ugyanakkor a prekoncepciót az ember alakítja, nem bízzák az automatizmusra. A szabályok felismerése az ember dolga – tette hozzá Vágujhelyi Ferenc.
A NAV elnöke ezt azzal magyarázta, hogy nem indítunk el olyan kutatást, amely valakinek a vallását és a közteherviselést hasonlítja össze, illetve a pokolba vezető útnak nevezte, ha a közteherviselés mértékét és az iskola végzettséget vizsgálnák területi alapon. A gép képes a dimenziócsökkentésre, de az nem lehet véletlenszerű – magyarázta.
Úgy látja, hogy az államnak három szerepe van a mesterséges intelligencia alkalmazása során:
- társadalom védelme (erről szól az MI-rendelet, és az AI Act);
- gazdaságfejlesztés;
- közigazgatási szervek képessége kormányzat, önkormányzat, NAV).
Vágujhelyi Ferenc kiemelte, hogy az AI Act megalkotásakor minden uniós országnak egyet kellett érteni, ugyanis a jogszabály célja, hogy biztosítva legyen a normális élet lehetősége. Ugyanis sokkal sérülékenyebb helyzetben van az, aki a digitális térben éli az életét, és ebben a digitális térben teszik tönkre „az életét”. Azt viszont „döbbenetes öngólnak” nevezte, hogy a cigaretta reklámok gyerekek elől történő tiltása érdekében az MI a közösségi médiában jogilag teszi azonosíthatóvá a 18 év feletti felhasználókat, így az adataink egy harmadik félhez kerülünk.
Négy gonosz fenyegeti az egészségügyet
Azok az egészségügyi vállalatok, melyek költenek digitális fejlesztésekre, sokkal jobb pénzügyi eredményeket érnek el a növekedés területén és a profitabilitás szempontjából is
– mondta, Újlaki Ákos, a Boston Consulting ügyvezető igazgatója.
Az egészségügy érettségét az AI szempontjából egy középkategóriába teszik globálisan. Az egészségügy egy óriási piac,
2027-re akár egy 22 milliárd dolláros iparág is lehet.
A szakember beszélt a papírtigrisekről is, ezek azok az ügyfelek, akik megragadnak egy zéró hatású AI kísérletezésnél, sokan túl korán kiáltanak sikerért, véli a szakember.
Az egészségügy egy roppant hatékony rendszer, például a gyógyszerkutatás területén és a precíziós gyógyászatban is óriási potenciál van benne.
Ugyanakkor beszélt arról is, hogy a GDPR környezet az egyik legnagyobb akadálya az egészségügy fejlődésének Európában, szemben az amerikai gyakorlattal.
Az egészségügyi back office, az a terület, ahol egy Rondaldót soha nem fognak tudni megfizetni. Abszolút alulfinanszírozott a rendszer, tette hozzá Újlaki Ákos.
Négy fő probléma az egészségügyben:
- drága és nem hatékony;
- alacsony a hozzáférési lehetőség;
- magas a munkaerőhiány;
- hiányzik az intuíción alapuló ellátás.
Az egészségügy területén a gonosszal szemben vívott harcban nem járunk jó úton, tette hozzá a Boston Cosulting ügyvezetője.
Az AI az oktatás jövője
Anton Stepanenko a Boston Consulting Group dubaji irodájának partnere és társigazgatója a felsőoktatás mesterséges intelligenciával való újragondolásáról beszélt előadásában. Mint mondta,
a mesterséges intelligencia alkalmazása az oktatásban hatékony, csak meg kell értenünk, hogyan használjuk.
Azért érdemes elkezdeni megismerkedni az MI-vezérelt alkalmazásokkal a tanulásban és oktatásban, mert ez egy edzésfolyamat, melynek célja, hogy később hatékonyan tudjuk hasznosítani.
Bebizonyosodott, hogy az AI használatával hatékonyabbak a tanórák, ugyanis olyan kapcsolatot alakít ki a tanár és több diák között, hogy a diákok személyre szabottan tudnak tanulni – hasonló hatást ér el, mintha magánórát venne – érvelt Anton Stepanenko.
Meg kell találni a vállalatok evangélistáit
Egyértelmű segítséget adhat egy vállalkozásnak, ha van MI-stratégiája, amelyhez viszont szükség van a tudatosításra, felhasználási eseteken alapuló képzési programokra a Mesterséges Intelligencia Koalíció vezetői szerint. A kerekasztal beszélgetés során Jakab Roland elnök elmondta,
a magyar jogszabályok adta tesztkörnyezetben minden segítséget meg kell adni a magyar vállalkozásoknak.
A koalíció felelőssége, hogy ezt országosan megszervezze.
Másrészt hol nagy komplexitású feladatok ellátását, amilyen egy távközlési hálózat fenntartása, javítása, nem lehetne AI nélkül végrehajtani, így innen kiszorítja az embereket a technológia. Ez a természetes fejlődés része, mondta. Ellenpéldaként a szórakoztatóipart hozta fel, ami az AI mellett is egyre több embert vonz be.
Tóth Miklós szakmai vezető szerint az egy dolog, hogy van-e egy vállalatnak MI-stratégiája, de adatstratégiája nincsen.
„Vajon az adatainkkal mit fogunk csinálni?”
– tette fel a kérdést.
Szertics Gergely, AI szakértő (PHI Institute) elismerte, hogy nehéz a jelenlegi helyzetben rávenni egy cégvezetőt, hogy akár 3 évben gondolkozzon előre, hiszen 3 éve nem is volt Chat GPT. Ugyanakkor elképesztő a munkavállalóktól érkező belső nyomás is, miközben sokan nem a szervezeti céges rendszert, hanem a saját előfizetésüket használják, hogy segítsék a munkájukat.
A szakértő szerint bátorítani kell a cégvezetőket, hogy megtalálják a szervezeten belüli nagyköveteket, evangélistákat, akik használják az AI-t, hogy a létező kíváncsiság, szaktudás „megfertőzze a cégkultúrát”.
A résztvevők három üzenetet fogalmaztak meg:
- Az AI bevezetés a legemberibb IT-alkalmazás, az AI nem teremt értéket, arra csak az emberek képesek, ezt kell megérteni.
- Már minden céges problémára van valamiféle AI megoldás, meg kell azt keresni.
- Tudatosításra és evangélistákra van szükség a szervezeten belül.
Autó a házban
Javában zajlik az AI Summit 2024. Az érdeklődők számos programpont közül választhatnak, a részletek ezen a linken érhetők el.
A kkv-knak ezzel még meg fog gyűlni a bajuk
„A hibázást az embereknek elnézzük, de a mesterséges intelligenciának nem, az emberek túlzottan megbíznak a technológiában és a gépi ajánlásokat döntésekként kezelik”
– mondta előadásán Ződi Zsolt, a Nemzeti Közszolgálati Egyetem tudományos főmunkatársa.
Az AI Act egy ex ante termékmegfelelési jogszabály, bizonyos facilitáló elemekkel megfűszerezve, amelyek sok etikai-alapjogi jellegű szabályt is tartalmaz, amely horizontális jellegű (vagyis az összes AI-ra szeretne kiterjedni), és nagyon komolyan támaszkodik majd a puha jogi eszközökre.
A rendelkezés kiterjeszti az előzetes kockázatfelmérést és -megfelelést az emberi jogi aspektusokra is, például a diszkrimináció-mentesség vagy szólásszabadság. Ez merőben szokatlan egy termékmegfelelőségi jogszabályban, amely általában kvantifikálható paraméterekkel operál. A termékmegfelelőségi szabályoknak egyébként hatalmas hagyománya, kialakult szabályozási logikája és jól beállt intézményrendszere van az EU-ban – mondta Ződi Zsolt.
A jogalkotók mindenképpen egy átfogó szabályozást szerettek volna, de néhány terméktípust – például az autókat – nem vették bele a jogszabályba. Egy csomó facilitáló elem bekerült a jogalkotásba:
egyre szigorúbbak lettek a szabályozások, amiért az AI-ipar elkezdett panaszkodni, ezért bekerültek az ipart támogató rendelkezések is.
A kis- és mikrovállalkozások rengeteg könnyítést kapnak a szabályozás szerint, de Ződi Zsolt szerint ez a fejlesztés annyira nagy kaliberű, amit a kisebb vállalkozások lehet nem fognak tudni kivitelezni. A legproblematikusabb a „puha” követelmények erős számonkérése, amelyeket nagyon nehéz lesz kvantifikálható paraméterek hiányában betartani – ez komoly kockázatokat hordoz az AI-t fejlesztő cégek számára.
Az már régen rossz, ha fekete dobozként kezeljük az AI-t
Egy adattudós először azt vizsgálja meg, hogy egy adathalmazból milyen összefüggéseket lehet levonni, majd ezután kezdi el kitalálni, hogy milyen típusú modell lenne arra alkalmas, hogy beletöltse az adatokat – mondta Vécsey Richárd Ádám mesterséges intelligencia fejlesztő és adattudós az egyik pódiumbeszélgetésen.
Meglátása szerint ahány fejlesztő, annyiféle MI-definíció létezik: szerinte például az régen rossz, ha egy fekete dobozként tekintünk az MI-re.
Az MI-modelleknek átláthatónak kell lenniük a bemenet és a kimenet tekintetében is, ezért van az adattudomány, hogy ezt biztosítsa.
Magas kockázatú iparágak közé sorolja
- a kritikus infrastruktúrát (például közúti lámpák irányítása),
- az oktatás-szakképzést (például diákok érzelmeinek vizsgálata),
- illetve a foglalkoztatást (például az MI segítségével értékeltetik az álláshirdetésre jelentkezőket) is.
Az AI Act alapján tiltott gyakorlatnak minősül a tudattalan döntéseink befolyásolása, illetve a tulajdonságalapú sebezhetőség kihasználása is ide tartozik.