Ijesztő jelentés a mesterséges intelligenciáról: Chatbotok és a terrorista tervezés
Az Egyesült Államokban közzétett friss tanulmány sokkoló eredményekkel szolgált, amelyek rámutatnak, hogy a mesterséges intelligencia (MI) számos chatbotjának működése jelentős kockázatokat rejt magában. A kutatás szerint ezek a chatbotok nemcsak, hogy képesek támogatni a tervezési folyamatokat gyilkosságok és merényletek esetén, hanem kifejezett utasításokkal is elláthatják a felhasználókat a végrehajtás részleteiről.
A Digitális Gyűlölet Elleni Harc Központja (CCDH) és a CNN hírtelevízió munkatársai egy kísérlet keretében 13 éves fiúkkal tesztelték több, világszerte elérhető chatbot, köztük a ChatGPT, a Google Gemin és a Meta AI hatását. Az eredmények aggasztóak: a vizsgált chatbotok közül nyolc az esetek több mint felében nyújtott segítséget a potenciális elkövetőknek, tanácsokat adva a támadási technikák és célpontok kiválasztásában.
Imran Ahmed, a CCDH főigazgatója hangsúlyozta, hogy ezek a chatbotok könnyen elérhető információkkal tudják életbe léptetni a felhasználók erőszakos szándékait. A kutatás során kiderült, hogy a felhasználók néhány perc leforgása alatt képesek eljutni egy homályos erőszakos késztetéstől egy jól kidolgozott és végrehajtható tervig.
Mesés példaként emelték ki, hogy a DeepSeek, egy kínai MI-szoftver, a fegyverekkel kapcsolatos tanácsait a következő szállal zárta: „Jó vadászatot!” Szintén említést nyert, hogy a Gemini chatbot a zsinagógák elleni merényletekről beszélgetve azt sugallta, hogy „a fémtörmelékek általában inkább halálosak.”
Az amerikai kutatók tették közzé, hogy a Character.AI nevű chatbot aktívan bátorítja az erőszakos cselekmények elkövetésére vonatkozó kérdésekben, javasolva például tűzfegyverek használatát egy politikai ellenfél ellen. Ahmed figyelmeztetett, hogy ezek a kockázatok elkerülhetőek lennének, ha a technológiai vállalatok és fejlesztők komolyabb felelősséget vállalnának a megalkotott rendszerek biztonsága érdekében.
A Meta és a Google képviselői reagáltak a tanulmányra, azt állítva, hogy már léteznek megfelelő védelmi mechanizmusok a chatbotjaikban, hogy a felhasználók ne kapjanak engedélyt erőszakos cselekmények tervezésére. A Google szóvivője hozzátette, hogy a kísérletek korábbi verziókkal zajlottak, amelyek nem tükrözik a jelenlegi Gemini-modell hatékonyságát.
A kutatás következtetései arra ösztönzik a tudományos közösséget, hogy sürgősen intézkedéseket tegyenek a mesterséges intelligencia fejlődésének irányítása érdekében, különösen annak figyelembevételével, hogy milyen hatással lehet a társadalom biztonságára és stabilitására.