Két különböző biztonsági kutatócsoport is tesztelte az OpenAI nemrég bemutatott GPT-5 nyelvi modelljét, és mindkettő komoly biztonsági hiányosságokat fedezett fel. A Grok-4 modellt korábban két nap alatt sikerült feltörni, a GPT-5 pedig mindössze 24 óráig bírta ugyanazon kutatók keze alatt.
Nemrég több kutatócsoport mutatott be jailbreakeket, melyekkel olyan népszerű mesterséges intelligencia modelleket céloztak meg, mint az OpenAI ChatGPT, a DeepSeek R1 és az Alibaba Qwen.
A kínai DeepSeek cég nyílt forráskódú R1 modelljében a kiberbiztonsággal foglalkozó kutatók sebezhetőségeket fedeztek fel. A szakértők észrevették, hogy a többi mesterséges intelligencia modellekben régóta javított jailbreak módszerek továbbra is működnek a DeepSeek ellen.