Ahogy Autumn Stanish előadásában fogalmazott: a számítástechnika története nem lineáris technológiai fejlődés, hanem egymást követő korszakok sorozata. Az 1960–70-es években az akadémiai kutatás volt a fő hajtóerő, a 80–90-es években a nagyvállalatok, a 2000–2010-es években pedig a fogyasztók formálták az IT fejlődését.
A következő korszak azonban gyökeresen más: a gépek maguk válnak a fejlődés motorjává. Nem csupán eszközökké, hanem autonóm döntéshozókká, amelyek képesek egymással együttműködni, tanulni és optimalizálni, sokszor emberi beavatkozás nélkül.
A Gartner ismertetett elemzése több időhorizontban írja le a számítástechnika jövőjét. Az első a következő 2–5 év, a „federált számítástechnika” időszaka. Itt már most is látható trendek erősödnek fel: AI-ügynökök minden szervezeti egységben, speciális célchipek (ASIC-ek), valamint az edge-, cloud- és térbeli számítástechnika párhuzamos használata.
Ez a világ hatékonyabb, de egyben nehezebben irányítható is. A decentralizáció nő, miközben az energiaigény, az adatforgalom és a szabályozási kockázatok is gyorsan emelkednek. Nem véletlen, hogy egyre több európai város és ország korlátozza az új adatközpontok építését a villamosenergia-hálózat terhelése miatt.
Amikor a gép lesz az ügyfél
Az egyik legizgalmasabb rövid távú fejlemény a „gép-ügyfelek” megjelenése.
Ezek az AI-alapú rendszerek nemcsak ajánlanak, hanem önállóan tárgyalnak, rendelnek és optimalizálnak a felhasználó nevében. Ipari környezetben ez már most is megjelenik: automatizált beszerzések, készletfeltöltés, áralku emberi beavatkozás nélkül.
A következő lépés ennek lakossági elterjedése lehet, ahol a mesterséges intelligencia figyeli a szokásainkat, előre jelez és dönt helyettünk. Ez ugyan hatékonyságot hoz, de egyben bizalmi kérdéseket is felvet: ki ellenőrzi ezeket a döntéseket, és kinek az érdekei szerint működnek?
A fejlődést nemcsak az innováció, hanem kemény fizikai és politikai korlátok is alakítják. Az adatközpontok energiaéhsége, a nyersanyagokhoz való hozzáférés, az adatátviteli kapacitások szűkössége és a digitális szuverenitás mind olyan tényezők, amelyek lassíthatják, vagy éppen új irányba terelhetik a technológiai fejlődést.
Stanish szerint éppen ezek a korlátok kényszerítik ki az új számítási modelleket: energiatakarékosabb architektúrákat, hibrid rendszereket és kifinomultabb adatkezelést.
Hibrid és evolúciós számítástechnika: túl a klasszikus gépeken
Az 5–10 éves távlatban a jövő nem egyetlen „csodatechnológiáról” szól. A kvantum, a neuromorfikus és a fotonikus számítástechnika egymás mellett, összehangoltan működik majd. Ehhez azonban teljesen újfajta irányítási rétegre lesz szükség.
Még távolabb, a 10+ éves távlatban pedig megjelenhetnek az önmagukat tervező rendszerek, a biológiai és szénalapú számítástechnika, valamint az emberi képességeket közvetlenül bővítő technológiák.
Stanish előadásában arra is felhívta a figyelmet, hogy a számítástechnika jövője nem technikai, hanem értékalapú döntés.
Az egyik irány a hypermachinity: az ember kiszorítása az optimalizálásból, autonóm rendszerekre bízva a döntéseket. A másik a hyperhumanity: a technológia mély integrálása az emberi képességek fejlesztésére.
Mindkettő reális forgatókönyv, azonban mindkettő hordoz kockázatokat. A kérdés így nem az, hogy melyik valósul meg technológiailag, hanem az, hogy társadalmi szinten melyiket tartjuk elfogadhatónak.
Az erre való felkészülést pragmatikus alapokon tudjuk elkezdeni: energiahatékonyság, elosztott adatkezelés, felkészülés a komplex rendszerek irányítására. A nagy áttörések előtt ezek a biztos alapok döntik majd el, ki tud majd alkalmazkodni, és ki marad le.
Kié lesz a jövő számítástechnikája?
Van egy jelenleg még kevésbé látványos, de annál mélyebb következménye a számítástechnika következő korszakának: a döntések lassú eltűnése az emberi szintről.
Nem látványos „AI takeover” történik, hanem apró delegálások sorozata. Először csak ajánlás, aztán automatizált jóváhagyás, végül teljes átvétel. Mire észrevesszük, már nem azt döntjük el, mit tegyünk, hanem legfeljebb azt, hogy elfogadjuk-e, amit a rendszer javasolt.
Ez különösen veszélyes vállalati és állami szinten, ahol a felelősség formálisan megmarad az embernél, de a tényleges döntési tér beszűkül.
Ezzel párhuzamosan megjelenik egy új kockázat: a technológiai amnézia. Ahogy az autonóm rendszerek egyre több folyamatot optimalizálnak, az emberi tudás fokozatosan kikopik a szervezetekből egyszerűen azért, mert nincs rá szükség a mindennapi működésben. A probléma akkor jelentkezik, amikor a rendszer hibázik, leáll vagy bármilyen más okból egyszerűen nem elérhető. Ilyenkor derül ki, hogy már nincs meg az a kollektív tudás, amivel vissza lehetne venni az irányítást.
Mindezek mellett az is aggasztó tendencia, hogy az energia-, adat- és chipkorlátok miatt a fejlett rendszerekhez való hozzáférés egyre inkább geopolitikai és gazdasági privilégium lesz. Nemcsak országok, hanem vállalatok és társadalmi csoportok között is digitális szakadék nyílhat, ezúttal nem az internet-hozzáférés, hanem az intelligens döntéshozatal szintjén. A kérdés tehát innentől kezdve nem az lesz, hogy ki a leginnovatívabb, hanem az, hogy ki engedheti meg magának a „jövőt”.