A BBC friss felmérése komoly figyelmeztetést fogalmaz meg a mesterséges intelligencia által készített hírösszefoglalókkal kapcsolatban: a rendszerek nemcsak pontatlanok lehetnek, hanem képesek olyan mértékben eltorzítani a valóságot, hogy az már a közbizalomra is kockázatot jelent. A tesztben négy nagy AI-platformot vizsgáltak – köztük a ChatGPT-t, a Google Geminit, a Microsoft Copilotot és a Perplexityt –, amelyek BBC-hírek alapján generáltak összefoglalókat vagy válaszokat.
A válaszok több mint fele hibás volt
A BBC szerint az eredmények aggasztó képet festenek: az esetek 51 százalékában súlyos probléma merült fel az AI által adott válaszokkal. Ezek nem apró félreírások vagy jelentéktelen tévedések voltak, hanem olyan hibák, amelyek a tartalom lényegét érintették.
A rendszerek rendszeresen félreértelmezték a BBC-cikkeket, hiányos vagy elferdített következtetéseket vontak le, és gyakran olyan állításokat tettek, amelyek egyszerűen nem szerepeltek a forrásban.
A jelentés külön kiemeli, hogy a hibák nem maradtak meg elméleti szinten. Több esetben az AI egészségügyi tényeket torzított el, például tévesen állította, hogy az NHS nem támogat bizonyos dohányzásról leszokást segítő eszközöket. Máskor politikai szereplők rossz pozíciókban vagy már nem létező tisztségekben jelentek meg, ami teljesen hamis képet adott a közéleti helyzetről. A legsúlyosabb problémák közé tartozik, hogy az AI egyes esetekben a BBC-cikkek jelentését is megváltoztatta, mintha új narratívát írt volna a valós események helyett.
A BBC szerint az idézetek megbízhatatlansága különösen riasztó. A vizsgált AI-válaszok 19 százalékában tényszerű hiba szerepelt, míg az idézetek 13 százalékát módosították vagy teljesen kitalálták. Ez azt jelenti, hogy
az AI nemcsak hibázik, hanem időnként olyan szövegeket is „idéz”, amelyek soha nem hangzottak el.
A BBC ezt a jelenséget az újságírói hitelesség közvetlen eróziójaként értékeli, mivel az idézetek torzítása alapjaiban ássa alá a forrásellenőrzés biztonságát.
A BBC vezetői szerint a legnagyobb kockázat nem az, hogy az AI hibázik, hanem az, hogy mindezt rendkívül meggyőző formában teszi. A generált válaszok magabiztos hangneme sok felhasználót arra késztethet, hogy igaznak fogadja el a valótlan állításokat. Ez különösen veszélyes akkor, amikor az AI ismert médiamárkákra hivatkozik, mivel így a tévedések hitelesnek tűnő köntösben jelennek meg.
