Február 21-én Elon Musk azt nyilatkozta az X-en, hogy már beléptünk a technológiai szingularitásba, és szerinte 2026-ban elérjük az AGI-t (artificial general intelligence - mesterséges általános intelligencia), ami bármiben legalább olyan jól teljesít, mint az ember, vagy még jobban. De itt meg kell említenünk az ASI-t is (artificial super intelligence - mesterséges szuperintelligencia), amely pedig már maga a szingularitás.
De kezdjük az elején, vagyis mit jelent a szingularitás a technológia területén? A technológiai szingularitás egy hipotetikus jövőbeli pont, amikor a technológiai fejlődés – elsősorban a mesterséges intelligencia révén – olyan mértékben felgyorsul, hogy visszafordíthatatlanná válik, és az emberi civilizációt radikálisan, előre nem megjósolható módon átalakítja.
A kifejezést a fizikából kölcsönözték: a fekete lyukak középpontjában lévő szingularitás olyan pont, ahol a fizikai törvények összeomlanak, és a tudósok a jelenlegi rendszereink és sémáink szerint már nem képesek kiszámítani a következő fázisokat. A technológiai szingularitás szintén már egy olyan állapot, ahol a megszokott modellek és előrejelzések már nem működnek.
Hihetetlen fejlődés
Esetünkben a technológiai szingularitás lényege az, hogy a mesterséges intelligencia hihetetlen tempóra vált a fejlődése tekintetében. Ehhez kapcsolódik az AGI, amely Musk szerint már idén megjelenik, és a fehérgalléros munkák egyre nagyobb részét váltja ki. Dario Amodei, a Claude chatbotot fejlesztő Anthropic társalapítója és vezérigazgatója 2026–2027-re teszi az AGI megjelenését.
Míg Sam Altman, az OpenAI (chatGPT) vezetője szerint szintén átléptük azt az eseményhorizontot, vagyis azt a határvonalat, amikor már nem tudjuk megjósolni, hogy mi történik. Szerinte is megkezdődött a szingularitás, és jóslata alapján a 2030-as években a mesterséges intelligencia hihetetlen tempóra vált.
Más tudósok még azért úgy gondolják, hogy 10-20 évre van szükség a szingularitás elérésére, azonban ez az idősík egyre rövidül köszönhetően a generatív nyelvi modellek (grok, chatgpt, deepseek, claude, gemini stb.) forradalmának (2022-2025). Tehát a szingularitás nem egy konkrét dátumhoz köthető, hanem egy olyan folyamat előszobája, amikor az AI fejlődése önfenntartóvá és exponenciálissá válik, vagyis már önmagát fejleszti AGI formájában.
Kiszámíthatatlan folyamatok
Bár sokan optimistán látják az AGI előretörését, amely az emberiség életminőségét radikálisan javíthatja, mások szerint a kockázatok hatalmasak, amely a magát a homo sapiens sapiens létét is fenyegetik. Olyan mértékben avatkozhat be az AGI a gazdasági, társadalmi és biztonsági folyamatokba, ami kiszámíthatatlan lehet a szingularitásnak köszönhetően. Mivel ezek a kockázatok egyre sürgetőbbek, ezért sokan követelik az AI radikális szabályozását és a felhasználhatóság etikai kereteinek a kidolgozását.
A Stanford Institute for Human-Centered AI (Stanford HAI) friss elemzése szerint már nem az a kérdés, hogy „Meg tudja-e csinálni a mesterséges intelligencia?”, hanem az, hogy „Milyen jól, milyen áron és kinek?” James Landay, a Stanford HAI társigazgatója szerint még nem jött el az AGI ideje, de idén is folytatódik a befektetési tevékenység az AI adatközpontokba. Ez nagy kockázatot is rejt, hiszen, ha kipukkan az AI spekulatív buborék, akkor hatalmas gazdasági válságot idézhet elő, teszi hozzá Landay.
Ráadásul az AI még átfogóan nem mutatott termelékenységnövekedést, kivéve néhány célzott területet, mint például a programozás és a call centerek. Sok kudarcos AI-projektről fogunk még hallani, amelyek arra ösztönözhetnek minket, hogy sikeresebben hasznosítsuk a mesterséges intelligenciát. Vagyis még teljes a káosz, különféle előrejelzések látnak napvilágot hetente, azonban nehéz kiszámítani az AI elterjedését és hasznosulását.
Katasztrófa is bekövetkezhet
Jelenleg az AI a chatbotoknál alapvetően emberi programozás hatására működik, azonban, ha hibás következtetéseket von le az AI, akkor miután átmegy szuper intelligenciába és saját magát fejleszti, akkor a tevékenysége akár biológiai katasztrófába is torkollhat. Nem véletlenül a Global Catastrophic Risks 2026 jelentés az AI-t a nukleáris fegyverek mellett említi, mint potenciális kockázatot az emberiség számára.
A jelentés egyébként az emberiséget jelenleg fenyegető öt legnagyobb kockázatot vizsgálja, így az éghajlatváltozást, a biológiai sokféleség összeomlását, a tömegpusztító fegyvereket, a mesterséges intelligencia szerepét a katonai döntéshozatalban és a Földhöz közeli aszteroidákat.
A jelenésben Denise Garcia a Northeastern Egyetem politikatudományi és nemzetközi ügyek professzora elemzi az AI szerepét. Többek között azt írja: "a mesterséges intelligencia gyorsan átalakítja a katonai döntéshozatalt, felgyorsítja a műveleteket és bővíti a gépvezérelt elemzés szerepét a csatatéren. Ahogy az AI-rendszerek befolyásolják az egykor emberek számára fenntartott döntéseket, növekszik a téves számítások, a nem szándékos eszkaláció, valamint a jogi vagy etikai jogsértések kockázata."
Emellett a szingularitás gazdasági "buborékot" is létrehozhat, hiszen az AI-őrület befektetések formájában is megjelenik a globális térben, elég csak az adatcenterek növekvő szerepére gondolni, amelyek nem mellesleg hatalmas mennyiségben „fogyasztják” az energiát.
Egyes adatok szerint 2025-ben az USA tőzsde-növekedésének 80 százaléka AI-cégekből jött. Más adatok szerint az amerikai tőzsde növekedésének 75-80 százaléka a 2023–2024-es időszakban a hét legnagyobb technológiai óriáscégnek, a „Magnificent Seven” (M7) csoportnak tulajdonítható. Ez a koncentráció történelmi léptékkel mérve is kiemelkedő, az 1930-as éveket idézi, vagyis bármikor érkezhet az eszkaláció.
De ez még semmi
Ahogy említettük, az AGI olyan szintű mesterséges intelligencia, amely emberi szinten vagy annál jobban képes bármilyen feladatot elvégezni, ráadásul nem csak egy szűk területen, mint például a nyelvi modellekben, hanem önmagától képes bármilyen területen működni. Ez már a közeljövő zenéje, vagyis bármikor elérhetjük ezt az állapotot. De ez még csak a kezdet lesz, hiszen jön maga az ASI, azaz a szuperintelligencia, amely már az embernél sokkal okosabb, szinte felfoghatatlanul fejlett intelligencia.
Az ASI-nál az AI túllép az emberi kereteken, hiszen gondolkodása már nem lineáris, hanem önmagát továbbfejlesztve percek/órák alatt válhat sokkal, de sokkal okosabbá. A felmerült problémákat olyan mélységben oldja meg, amelyről korábban fogalmunk sem lehetett. Az ASI az AGI után pár év alatt megérkezhet, hiszen az AGI már képes lesz saját magát fejleszteni, ez pedig maga a szingularitás.
Az ASI már nem csak technológiai, hanem kormányzati és etikai kihívás is, hiszen a működése potenciálisan kontrollálhatatlan és egzisztenciális kockázatokat hordoz. Vagyis a kocka el van vetve, az emberiségnek pedig jó lesz figyelni.