Egy moderációs problémákkal foglalkozó subreddit-oldalon jelölte meg egy Reddit-felhasználó, hogy a közösségi platform AI-modellje, a Reddit Answers az egyik családi gyógyítással kapcsolatos oldalon az alkalmazás a megosztott posztokkal kapcsolatosan néhány kapcsolódó választ javasolt.

Az egyik poszt témája az opioidok nélküli fájdalomcsillapítás volt, ami alatt azt javasolta az AI a felhasználóknak, hogy próbálják ki a kratomot (egy kelet-ázsiai természetes eredetű pszichoaktív szer) és a heroint – írja a 404 Media.

A felhasználó jelentette a válaszokat a Redditnek, mondják, aggódik amiatt, hogy az AI-modell veszélyes orvosi tanácsokat ad az egészségügyi subreddit-oldalakon.

A nagyobb problémát azonban az jelenti, hogy a moderátoroknak jelenleg nincs lehetőségük letiltani az AI javaslatokat a beszélgetések alatt.

A felhasználó jelentése után a Reddit a lapot arról tájékoztatta, hogy azonnali hatállyal frissítést adtak ki, így mostantól az érzékeny témákról szóló beszélgetések alatt nem jelennek meg az AI javaslatok.

Teljesen átalakul a magyarok körében is népszerű közösségi oldal, a Reddit

A saját keresőmotorja, a Reddit Answers fejlesztésére összpontosítja a forrásait a kibeszélő platform.
Ha többre kíváncsi, itt olvashat tovább.