Close Menu
    Main Menu
    • Home
    • News
    • Tech
    • Robotics
    • ML & Research
    • AI
    • Digital Transformation
    • AI Ethics & Regulation
    • Thought Leadership in AI

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Steve Yegge Desires You to Cease Taking a look at Your Code – O’Reilly

    March 13, 2026

    Why the gripper is the true interface between AI and the bodily world

    March 13, 2026

    SoulSpark Chatbot Assessment: Key Options & Pricing

    March 13, 2026
    Facebook X (Twitter) Instagram
    UK Tech InsiderUK Tech Insider
    Facebook X (Twitter) Instagram
    UK Tech InsiderUK Tech Insider
    Home»AI Ethics & Regulation»KI als AWS-Angriffsturbo
    AI Ethics & Regulation

    KI als AWS-Angriffsturbo

    Declan MurphyBy Declan MurphyFebruary 6, 2026No Comments3 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Reddit
    KI als AWS-Angriffsturbo
    Share
    Facebook Twitter LinkedIn Pinterest Email Copy Link


    Kriminelle Hacker haben ihre Angriffe auf AWS-Umgebungen mit KI beschleunigt.

    khunkornStudio – shutterstock.com

    Forscher des Sicherheitsanbieters Sysdig haben einen Angriff aufgedeckt, bei dem kriminelle Angreifer eine AWS-Umgebung in weniger als acht Minuten vollständig kompromittieren konnten. Laut den Risk-Spezialisten nutzten die Bedrohungsakteure dabei eine Cloud-Fehlkonfiguration mit der Hilfe von Giant Language Fashions (LLMs) aus, um den gesamten Angriffs-Lebenszyklus zu komprimieren – von Stunden auf wenige Minuten.

    „Sich gegen Angriffe dieser Artwork zu verteidigen, erfordert KI-fokussierte Technologien, die in der Lage sind Schlussfolgerungen zu ziehen und es ermöglichen, auf automatisierte Attacken mit der nötigen Geschwindigkeit zu reagieren“, meint Ram Varadarajan, CEO beim Plattformanbieter Acalvio.

    Vom Public Bucket zur Privilege Escalation

    Preliminary konnten sich die Cyberkriminellen laut den Sicherheitsforschern Zugriff verschaffen, indem sie gültige AWS-Anmeldedaten nutzten, die zuvor in öffentlichen S3Buckets offengelegt wurden. Diese enthielten auch KI-bezogene Daten, etwa Berechtigungen für die Interaktion mit Lambda und eingeschränkten Zugriff auf Amazon Bedrock.

    „Dieser Benutzer wurde wahrscheinlich mit der Intention erstellt, Bedrock-Duties mit Lambda-Funktionen in der gesamten Umgebung zu automatisieren“, erklären die Sysdig-Forscher.

    Mit Lesezugriff auf die gesamte Umgebung hatten die Angreifer dann auch leichtes Spiel damit, sich einen Überblick über alle verfügbaren AWS-Dienste zu verschaffen und ihre Berechtigungen zu erweitern, indem sie eine existierende Lambda-Funktion modifizierten.  

    Wie die Analyse der Sicherheitsforscher zeigt, weist der Lambda-Code Anzeichen auf, die darauf hindeuten, dass er per LLM generiert wurde , darunter ein umfassendes Exception Dealing with iterative Concentrating on-Logik und nicht-englische Kommentare.

    Laterale Bewegung, LLMjacking und GPU-Missbrauch

    Nachdem sich die Angreifer administrativen Zugriff verschafft hatten, bewegten sie sich lateral über 19 verschiedene AWS-Principals und erstellten neue Benutzerkonten, um ihre Aktivitäten auf verschiedene Identitäten zu verteilen. Dieser Ansatz ermöglichte den Angreifern Persistenz und erschwerte parallel die Detection, wie die Forscher in ihrem Bericht festhalten.

    Anschließend verlagerten die Hacker ihren Fokus auf Amazon Bedrock, ermittelten die verfügbaren Modelle und deaktivierten die Protokollierung von Modellaufrufen. Laut den Forschern wurden dann mehrere Basis-Modelle aufgerufen , entsprechend dem Muster von „LLMjacking“. Zudem verwies der Code in Teilen auch auf nicht existierende Repositories und Ressourcen, was Sysdig auf LLM-Halluzinationen zurückführt.

    Im Anschluss missbrauchten die Angreifer schließlich auch noch Ressourcen. Demnach versuchten die Angreifer, Excessive-Finish-GPU-Instanzen für Machine-Studying-Workloads zu starten. Während das bei den meisten Instanzen aufgrund von Kapazitätsbeschränkungen fehlschlug, konnten die Cyberkriminellen allerdings eine besonders kostspielige GPU-Instanz starten – inklusive Skripten, um CUDA zu installieren, Trainings-Frameworks bereitzustellen und ein öffentliches JupyterLab-Interface zu exponieren.

    Experten zufolge ist das Beunruhigendste an diesem Angriff nicht, dass  KI eine neue Angriffstechnik ermöglicht hat.

     „Wenn man diesen Angriff auf das Wesentliche reduziert, ist das bahnbrechende nicht die Technik“, betont etwa Shane Barney, CISO bei Keeper Safety. „Entscheidend ist die geringe Widerstandsfähigkeit der Umgebung, sobald der Angreifer legitimen Zugriff erhalten hat.“ Der Sicherheitsentscheider warnt davor, dass KI Reconnaissance,  Privilege Testing und laterale Bewegungen durch das Netzwerk in einer besonders schnellen Sequenz komprimiert. Hierdurch werde die Pufferzeit, auf die sich die Verteidiger bislang traditionell verlassen hätten, eliminiert.

    Um das Risiko solcher Attacken zu verringern, empfehlen die Sysdig-Forscher, das Least-Privilege-Prinzip konsequent auf sämtliche IAM-Benutzer- und Lambda-Execution-Rollen anzuwenden. Darüber hinaus sollten wise S3-Buckets niemals öffentlich zugänglich sein, warnt Sysdig.

    Die Analysis-Experten legen Unternehmen außerdem ans Herz

    • die Lambda-Versionierung zu nutzen,
    • die Protokollierung der Modellaufrufe in Bedrock zu aktivieren, und
    • verdächtige, großangelegte Enumeration-Aktivitäten kritisch zu überprüfen.

     (jm/fm)

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Declan Murphy
    • Website

    Related Posts

    Why Stryker’s Outage Is a Catastrophe Restoration Wake-Up Name

    March 13, 2026

    Rust-Primarily based VENON Malware Targets 33 Brazilian Banks with Credential-Stealing Overlays

    March 12, 2026

    AI-Pushed Phishing Assaults Bypass E-mail Filters, Land in Inboxes

    March 12, 2026
    Top Posts

    Evaluating the Finest AI Video Mills for Social Media

    April 18, 2025

    Utilizing AI To Repair The Innovation Drawback: The Three Step Resolution

    April 18, 2025

    Midjourney V7: Quicker, smarter, extra reasonable

    April 18, 2025

    Meta resumes AI coaching utilizing EU person knowledge

    April 18, 2025
    Don't Miss

    Steve Yegge Desires You to Cease Taking a look at Your Code – O’Reilly

    By Oliver ChambersMarch 13, 2026

    My “Dwell with Tim” dialog with Steve Yegge this week was a kind of periods…

    Why the gripper is the true interface between AI and the bodily world

    March 13, 2026

    SoulSpark Chatbot Assessment: Key Options & Pricing

    March 13, 2026

    Why Stryker’s Outage Is a Catastrophe Restoration Wake-Up Name

    March 13, 2026
    Stay In Touch
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo

    Subscribe to Updates

    Get the latest creative news from SmartMag about art & design.

    UK Tech Insider
    Facebook X (Twitter) Instagram
    • About Us
    • Contact Us
    • Privacy Policy
    • Terms Of Service
    • Our Authors
    © 2026 UK Tech Insider. All rights reserved by UK Tech Insider.

    Type above and press Enter to search. Press Esc to cancel.