A kiberbiztonsági kutatók új biztonsági problémát találtak az OpenAI ChatGPT Atlashoz hasonló agentic (ügynöki) böngészőkben. A felhasznált AI modelleket kontextusmérgező támadásoknak teszik ki, azaz egy rosszindulatú szereplő képes olyan weboldalakat létrehozni, amelyek különböző tartalmakat jelenítenek meg a böngészőknek és a ChatGPT és Perplexity által működtetett mesterséges intelligencia-crawlereknek. Ez a támadás hasonlít a keresőmotor-álcázó támadásokhoz, ahol egy weboldal eltérő verzióját mutatják a felhasználóknak és a crawlereknek is, azzal a céllal, hogy ez manipulálja a keresési rangsorokat.
Ivan Vlahov és Bastien Eymery nyilatkozata alapján a rendszerek közvetlen visszakeresésre támaszkodnak, így bármilyen tartalom is kerül hozzájuk, azt az MI alapvető igazságként kezeli – legyenek ezek áttekintések, összefoglalások vagy érvelés. Az SPLX szerint, attól függetlenül, hogy az AI álcázás egy relatíve egyszerű dolog, erőteljes téves információterjesztő fegyverré alakulhat, elásva a mesterséges intelligenciába fektetett bizalmat. Az MI crawlerek megtévesztése torzítást, részlehajrást és a közvélemény befolyásolását is okozhatja.
A felfedezésre akkor került sor, amikor a kutatók 20 böngészőügynököt elemeztek a leggyakoribb visszaélési forgatókönyvek felfedezése érdekében. A többfelhasználós regisztrációtól a kártyatesztelésig és a támogatási személyazonosság-lopásig felderítették, hogy a termékek szinte minden rosszindulatú kérést megkíséreltek anélkül, hogy bármilyen jailbreak-re lett volna szükség. A tanulmány megállapítása alapján, azokban az esetekben, amikor a művelet letiltásra került, többnyire az MI eszközök technikai képességeinek hiányából adódott, nem pedig a beépített biztonsági intézkedésekből.

