A nyílt forráskódú Keras könyvtárban felfedezett sebezhetőség lehetővé teheti a támadók számára tetszőleges helyi fájlok olvasását, illetve szerveroldali kérések (Server-Side Request Forgery – SSRF) manipulálását. A Keras a Python-interfésszel ellátott, magas szintű mélytanulási API, amely lehetővé teszi neurális hálózatok egyszerű kialakítását és futtatását JAX, TensorFlow és PyTorch környezetekben.
Az AI fénysebességgel formálja át az informatika világát, és ezzel együtt a közösséget is megosztja. Vannak, akik izgatottan kísérleteznek, mások szkeptikusok, néhányan félelemmel figyelik az új technológiát, és persze akadnak, akik már az élen járnak. A fejlődés tempója miatt a kompetenciák is egyre jobban szétválnak. A HWSW kraftie! ezt a jelenséget hivatott bemutatni az AI Engineering Demo Day eseményen, ahol három különböző területen dolgozó csapat élőben mutatja be, hogyan használják az AI-t a gyakorlatban.
Intel mérnökei folytatják a Crescent Island támogatásának előkészítését a Linux 6.19 kernelhez. A Crescent Island az Intel közelmúltban bejelentett Xe3P grafikus kártyája, amely 160 GB VRAM-mal rendelkezik, és elsősorban vállalati szintű AI inferenciára optimalizált. Az Intel nyílt forráskódú Linux grafikus driver csapata gyorsan elkezdte integrálni az új kártyát a Xe kernel grafikus driverbe, a korábbi Nova Lake Xe3P kódútvonalakat felhasználva.
A Microsoft biztonsági kutatói egy új, SesameOp névre keresztelt backdoor kártevőt fedeztek fel, amely az OpenAI Assistants API-t használja titkos kommunikációs csatornaként a támadók parancsainak továbbítására.
A kiberbiztonsági kutatók új biztonsági problémát találtak az OpenAI ChatGPT Atlashoz hasonló agentic (ügynöki) böngészőkben. A felhasznált AI modelleket kontextusmérgező támadásoknak teszik ki, azaz egy rosszindulatú szereplő képes olyan weboldalakat létrehozni, amelyek különböző tartalmakat jelenítenek meg a böngészőknek és a ChatGPT és Perplexity által működtetett mesterséges intelligencia-crawlereknek.
A Qualcomm bejelentette, hogy felvásárolja az Arduinót, amely legismertebb az egyszerűen programozható mikrokontroller platformjairól, melyek világszerte több millió hobbiprojekt és professzionális fejlesztés alapját képezik. A lépés jelentős fordulópont mindkét vállalat életében, hiszen céljuk, hogy a mesterséges intelligenciát (AI) és az edge számítástechnikát közelebb hozzák a fejlesztőkhöz.
A mesterséges intelligencia (AI – Artificial Intelligence) mindennapjaink szerves részévé vált, és különösen az informatikai világban hozott hatalmas változásokat. A legnagyobb technológiai vállalatok milliárdokat fektetnek be a fejlesztésébe, de közben egyre sürgetőbb kérdés: hol húzzuk meg a határt a felhasználásában? A Fedora Projekt most egyértelmű lépést tett annak érdekében, hogy meghatározza, miként alkalmazható az AI a közösségben úgy, hogy az egyszerre támogassa a hozzájárulásokat és megőrizze a közösség alapértékeit.
Kiberbiztonsági kutatók azonosították, hogy a kiberbűnözők számos AI-alapú fejlesztői platformot hamis CAPTCHA oldalak létrehozására használnak, amelyek célja a detektálás megkerülése és a felhasználók megtévesztése. Az áldozatokat ezek az oldalak adathalász (phishing) weblapokra irányítják át.
A LunaLock nevű új ransomware csoport különös, eddig példa nélkül álló zsarolási módot vezetett be. Azzal fenyeget, hogy a megszerzett digitális műalkotásokat AI modellek fejlesztésével foglalkozó vállalatoknak szivárogtatja ki, hogy azok a modellek betanítására használják fel. Ezzel az alkotói szabadság és az adatvédelem egyaránt veszélybe kerül. 2025 augusztus 30-án a LunaLock feltörte az Artists&Clients weboldalát.
A kiberbűnözés folyamatosan fejlődő világában a mesterséges intelligencia (AI) és az adaptív social engineering technikák jelentős forradalmat hoztak az adathalászat (phishing) és az online csalások terén. A kiberbűnözők napjainkban neurális hálózatokat és nagy nyelvi modelleket (LLM-eket) alkalmaznak annak érdekében, hogy rendkívül valósághű, megtévesztő tartalmakat hozzanak létre. Ezekkel hatékonyabban tudják átverni a szervezeteket valamint, magánszemélyeket gyakran aktuális eseményeket vagy személyes adatokat kihasználva.
Két különböző biztonsági kutatócsoport is tesztelte az OpenAI nemrég bemutatott GPT-5 nyelvi modelljét, és mindkettő komoly biztonsági hiányosságokat fedezett fel. A Grok-4 modellt korábban két nap alatt sikerült feltörni, a GPT-5 pedig mindössze 24 óráig bírta ugyanazon kutatók keze alatt.
Az elmúlt években az adathalász támadások fejlődése egyértelműen rávilágít arra, hogy a kiberbűnözőknek nem feltétlenül van szükségük kifinomult exploitokra, ehelyett sokkal inkább a bizalom megszerzésére fókuszálnak. A mesterséges intelligencia és a no-code platformok térnyerésével a támadók adathalász eszköztára a bizalom kiépítésében és a felhasználók megtévesztésében még soha nem volt ennyire hatékony.
A Carnegie Mellon Egyetem az Anthropic nevű mesterségesintelligencia-kutató szervezettel együttműködésben olyan kutatást indított, amelynek keretében az Equifax elleni 2017-es adatvédelmi incidens szimulációját valósították meg.
A Carnegie Mellon Egyetem kutatói arra voltak kíváncsiak, hogy a nagy nyelvi modellek emberi beavatkozás nélkül is képesek-e önállóan kifinomult kibertámadások megtervezésére és végrehajtására.
A „Koske” nevű, Linux-alapú kártevő rávilágít arra, hogyan képesek a kiberbűnözők mesterséges intelligenciát felhasználni rosszindulatú szoftverek fejlesztésére, rejtett működésük biztosítására és a környezethez való alkalmazkodásra. A felhő- és konténerbiztonsággal foglalkozó Aqua Security szerinta Koske fejlesztésébenjelentős mértékben használtak mesterséges intelligenciát.