Close Menu
    Main Menu
    • Home
    • News
    • Tech
    • Robotics
    • ML & Research
    • AI
    • Digital Transformation
    • AI Ethics & Regulation
    • Thought Leadership in AI

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Functionality Structure for AI-Native Engineering – O’Reilly

    March 15, 2026

    AI Robotics Unicorn Sharpa and NVIDIA Bridge the Simulation Hole for Dexterous Robotic Coaching

    March 15, 2026

    Iran-Linked Hacktivists Declare Harmful Cyberattack on Medtech Agency Stryker

    March 15, 2026
    Facebook X (Twitter) Instagram
    UK Tech InsiderUK Tech Insider
    Facebook X (Twitter) Instagram
    UK Tech InsiderUK Tech Insider
    Home»AI Ethics & Regulation»Google-Antigravity-Lücke: KI-Coding-Device anfällig für Angriffe
    AI Ethics & Regulation

    Google-Antigravity-Lücke: KI-Coding-Device anfällig für Angriffe

    Declan MurphyBy Declan MurphyNovember 29, 2025No Comments1 Min Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Reddit
    Google-Antigravity-Lücke: KI-Coding-Device anfällig für Angriffe
    Share
    Facebook Twitter LinkedIn Pinterest Email Copy Link


    Eine Sicherheitslücke in Googles KI-Coding-Device Antigravity erlaubt es Angreifern, Schadcode einzuschleusen.

    Koshiro Ok – shutterstock.com

    Anfang November brachte Google sein KI-gestütztes Coding-Device Antigravity an den Begin. Doch bereits nach 24 Stunden sind Forscher des Safety-Anbieters Mindgard auf eine schwerwiegende Schwachstelle gestoßen, über die eine dauerhafte Backdoor und Schadcode installiert werden kann.

    Der kürzlich veröffentlichte Forschungsbericht weist darauf hin, dass sich das Schadprogramm bei jedem Anwendungsstart ausführen lässt – selbst nach dem Schließen des ursprünglichen Projekts.

    Angreifer können bösartige Regeln erstellen

    Demnach verfügt Antigravity zwar über zahlreiche integrierte Schutzmechanismen, die Benutzers vor schädlichen Anweisungen schützen sollen. „Da der KI-Assistent benutzerdefinierte Regeln ausnahmslos befolgen muss, kann ein Angreifer eine bösartige Regel erstellen, die diese Anweisung verstärkt“, erklären die Safety-Spezialisten.

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Declan Murphy
    • Website

    Related Posts

    Iran-Linked Hacktivists Declare Harmful Cyberattack on Medtech Agency Stryker

    March 15, 2026

    INC Ransom Menace Targets Australia And Pacific Networks

    March 15, 2026

    ShinyHunters Claims 1 Petabyte Information Breach at Telus Digital

    March 14, 2026
    Top Posts

    Evaluating the Finest AI Video Mills for Social Media

    April 18, 2025

    Utilizing AI To Repair The Innovation Drawback: The Three Step Resolution

    April 18, 2025

    Midjourney V7: Quicker, smarter, extra reasonable

    April 18, 2025

    Meta resumes AI coaching utilizing EU person knowledge

    April 18, 2025
    Don't Miss

    Functionality Structure for AI-Native Engineering – O’Reilly

    By Oliver ChambersMarch 15, 2026

    A number of years into the AI shift, the hole between engineers just isn’t expertise.…

    AI Robotics Unicorn Sharpa and NVIDIA Bridge the Simulation Hole for Dexterous Robotic Coaching

    March 15, 2026

    Iran-Linked Hacktivists Declare Harmful Cyberattack on Medtech Agency Stryker

    March 15, 2026

    Right this moment’s NYT Mini Crossword Solutions for March 15

    March 15, 2026
    Stay In Touch
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo

    Subscribe to Updates

    Get the latest creative news from SmartMag about art & design.

    UK Tech Insider
    Facebook X (Twitter) Instagram
    • About Us
    • Contact Us
    • Privacy Policy
    • Terms Of Service
    • Our Authors
    © 2026 UK Tech Insider. All rights reserved by UK Tech Insider.

    Type above and press Enter to search. Press Esc to cancel.