ChatGPT 5

kami911 képe

ChatGPT 5 – 24 óra alatt jailbreak-elték meg

Két különböző biztonsági kutatócsoport is tesztelte az OpenAI nemrég bemutatott GPT-5 nyelvi modelljét, és mindkettő komoly biztonsági hiányosságokat fedezett fel. A Grok-4 modellt korábban két nap alatt sikerült feltörni, a GPT-5 pedig mindössze 24 óráig bírta ugyanazon kutatók keze alatt.

Feliratkozás RSS - ChatGPT 5 csatornájára