Az Anthropic, egy mesterséges intelligenciát fejlesztő amerikai start-up cég jelentésben hozta nyilvánosságra, hogy hogyan leplezett le hackereket.
A bűnözők a cég AI-alapú szoftvereit használták arra, hogy kormányzati és egészségügyhez köthető szervereket – írja a hvg.hu.
Így leplezték le a hackereket
Az Anthropic egy nemrégiben közzétett jelentésében nyilvánosságra hozta, hogy a közelmúltban kiberbűnözők támadását leplezték le. A hackerek 17 kormányzati és egészségügyhöz köthető szervert próbáltak feltörni a cég mesterséges intelligencia alapú alkalmazásaival, elsősorban a Claude nevű programmal. A megtámadott intézményektől a bűnözők súlyos összegeket próbáltak kizsarolni. Az Anthropic a jelentésében hangsúlyozta, a hackerek példátlan mértékben támaszkodtak a mesterséges intelligenciára a bűncselekmény elkövetésekor.

A bűnözők a cég kódolási asszisztensét, a Claude Code-ot használták arra, hogy automatizálják a rendszerek feltérképezését, hogy begyűjtsék a védtelen intézmények adatait, és hogy hozzáférjenek a hálózataikhoz. A jelentés szerint az AI-t arra is használták, hogy stratégiai döntéseket hozzon meg a támadással kapcsolatban, például, hogy milyen adatokat érdemes ellopni, de még a zsaroló levél megírásához is mesterséges intelligencia segítségét vették igénybe.
A cég minden információt megosztott az illetékes hatóságokkal, letiltott minden, a támadásban résztvevő fiókot, és új biztonsági funkciókat épített be a rendszerébe. A Claude nem az első AI-alapú szoftver, amely rossz kezekbe került, tavaly az OpenAI eszközeit is felhasználták adathalász levelekhez, illetve potenciális célpontok felkutatásához.
























