A mesterséges intelligencia platformok működése kettős veszélyt jelent a médiapiac számára: egyrészt jelentős mértékben elvonják a közönséget a hagyományos híroldalaktól, mivel egyre többen megelégszenek az MI által készített összefoglalókkal, és nem kattintanak át az eredeti cikkekre. Másrészt a hibás vagy pontatlan információk súlyosan érintik a hírforrások hírnevét, hiszen
az elhibázott hivatkozások következtében a felhasználók többsége nem az MI-t, hanem a hírforrást okolja a téves tartalomért. A BBC kutatása alátámasztja ezt, ugyanis a britek 35 százaléka inkább az eredeti forrást hibáztatja a mesterséges intelligencia helyett.
A BBC és az Európai Műsorsugárzók Uniója (EBU) friss kutatása alapján 22 közszolgálati hírszolgáltató vett részt abban a vizsgálatban, amely nagy platformokat – köztük a Google Geminit, a ChatGPT-t, a Copilotot és a Perplexityt - tesztelte aktuális hírekre vonatkozó kérdésekkel.
Az eredmények megdöbbentők:
- a Google Gemini válaszainak 76 százaléka,
- a Copilotnak 37 százaléka,
- a ChatGPT-nek 36 százaléka,
- míg a Perplexitynek 30 százaléka tartalmazott súlyos hibát.
Ezek a hibák között szerepelt elavult információk megadása, ténybeli tévedések, pontatlan összefoglalók, valamint teljes és pontos forrásmegjelölés hiánya.
A vizsgálat kiemelte azt a kockázatot is, hogy az MI-asszisztensek kommunikációs stílusa sokszor magabiztos, hiteles sajtóanyag látszatát kelti, holott nincsen mögöttük sem szerkesztői ellenőrzés, sem tényleges tényellenőrzési folyamat. Ez a „látszat tekintély” megtévesztő lehet, hiszen a felhasználók gyakran kritika nélkül fogadják el az ilyen válaszokat.
A BBC és az EBU szerint elengedhetetlen lenne mielőbb világos szabályozást kialakítani, bevezetni a forrásjelölési kötelezettséget, illetve egyértelmű megkülönböztetést alkalmazni az MI-válaszok esetében. Ellenkező esetben a dezinformációs folyamatok könnyen kontrollálhatatlanná válhatnak, súlyos társadalmi veszélyekkel járva – írja az ATV.