A ChatGPT-t kifejlesztő OpenAI felvázolt egy tervet, amellyel megakadályozná, hogy az eszközeit választási félretájékoztatás terjesztésére használják fel, miközben az idei évben több mint 50 ország szavazói készülnek arra, hogy az urnákhoz járuljanak.

A vállalat által egy blogbejegyzésben ismertetett biztosítékok között szerepelnek már meglévő irányelvek és újabb kezdeményezések is a generatív mesterséges intelligencia eszközeivel való visszaélés megakadályozására.

Az Euronews beszámolója szerint a hétfőn bejelentett döntések értelmében az OpenAI megtiltja, hogy az általuk kifejlesztett technológiát olyan chatbotok létrehozására használják, amelyek valódi jelölteknek vagy kormányoknak adják ki magukat, hamisan ábrázolják a szavazás működését vagy elriasztják az embereket a szavazástól.

Emellett amíg nem végeznek el több kutatást a technológia meggyőző erejével kapcsolatban, addig nem engedik a felhasználóknak, hogy politikai kampányolás vagy lobbi célú alkalmazásokat készítsenek.

Az OpenAI az év elejétől digitális vízjellel látja el a DALL-E képgenerátorral készített képeket, így könnyebben megállapítható, hogy egy adott képet a mesterséges intelligencia készített-e.

Mekela Panditharatne, a Brennan Centre for Justice demokráciaprogramjának tanácsadója szerint az OpenAI tervei egy pozitív fejleményt jelentenek a választási félretájékoztatás elleni küzdelemben, de minden attól függ, hogyan valósítják meg őket.

„Például mennyire lesznek kimerítőek és átfogóak a szűrők a választási folyamattal kapcsolatos kérdések megjelölésekor? Lesznek olyan elemek, amelyek átcsúsznak a réseken?” – tette fel a kérdést.

Az OpenAI vezérigazgatója, Sam Altman arról beszélt, hogy még akkor sem nyugszik meg teljesen, ha a cége minden biztosítéka élesítve van.

Szerintem jó, hogy sok bennünk a szorongás, mindent meg fogunk tenni annak érdekében, hogy minden a lehető legjobban sikerüljön

– mondta Altman a bevezetett intézkedésekről a davosi Világgazdasági Fórumon adott interjújában.