Close Menu
    Main Menu
    • Home
    • News
    • Tech
    • Robotics
    • ML & Research
    • AI
    • Digital Transformation
    • AI Ethics & Regulation
    • Thought Leadership in AI

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    ‘Protected’ Photographs Are Simpler, Not Extra Tough, to Steal With AI

    June 9, 2025

    ⚡ Weekly Recap: Chrome 0-Day, Information Wipers, Misused Instruments and Zero-Click on iPhone Assaults

    June 9, 2025

    Google Gemini will allow you to schedule recurring duties now, like ChatGPT – this is how

    June 9, 2025
    Facebook X (Twitter) Instagram
    UK Tech Insider
    Facebook X (Twitter) Instagram Pinterest Vimeo
    UK Tech Insider
    Home»AI Ethics & Regulation»Slopsquatting: Die neue Cyber-Bedrohung dank KI
    AI Ethics & Regulation

    Slopsquatting: Die neue Cyber-Bedrohung dank KI

    Declan MurphyBy Declan MurphyApril 24, 2025No Comments3 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Reddit
    Slopsquatting: Die neue Cyber-Bedrohung dank KI
    Share
    Facebook Twitter LinkedIn Pinterest Email Copy Link


    Halluzinierte Paketnamen sind oft glaubhaft und wiederholen sich – supreme für Angreifer.

    mongmong_Studio- shutterstock.com

    Cybersicherheitsforscher der College of Texas in San Antonio, der Virginia Tech und der College of Oklahama warnen vor einer neuen Bedrohung für die Software program-Lieferkette namens „Slopsquatting“.

    Den Begriff „Slopsquatting“ hat Seth Larson, ein Sicherheitsentwickler der Python Software program Basis (PSF), geprägt, weil es der Technik des Typosquatting ähnelt. Anstatt sich auf den Fehler eines Benutzers zu verlassen, wie es bei Typosquats der Fall ist, verlassen sich Bedrohungsakteure auf den Fehler eines KI-Modells.

    Gefahr durch KI-erfundene Paketnamen

    Dieser entsteht, wenn generative KI-Modelle wie LLMs nicht existierende Softwarepakete, eine sogenannte Paket-Halluzinationen, vorschlagen. Angreifer können diese Lücken ausnutzen, um schädliche Pakete unter den halluzinierten Namen bereitzustellen.

    Halluzinierte Paketnamen in KI-generiertem Code können von Angreifern ausgenutzt werden, indem sie diese Namen registrieren und Schadcode verbreiten. Da viele Entwickler den KI-Empfehlungen ohne gründliche Prüfung folgen, entsteht ein Sicherheitsrisiko.

    Diese Paket-Halluzinationen sind besonders gefährlich, da sie sich als hartnäckig, wiederholend und glaubhaft erwiesen haben.

    Jedes fünfte KI-Paket eine Fälschung

    Dies betrifft insbesondere Sprachen wie Python und JavaScript, die in hohem Maße auf zentrale Paket-Repositories und Open-Supply-Software program angewiesen sind.

    In einer Analyse von 16 Codegenerierungsmodellen wurde festgestellt, dass etwa 20 Prozent der empfohlenen Softwarepakete als Fälschungen identifiziert wurden. Es ist auffällig, dass CodeLlama häufig Halluzinationen hatte, wobei über ein Drittel der Angaben fehlerhaft waren. GPT-4 Turbo erzielte mit lediglich 3,59 Prozent Halluzinationen noch  die beste Leistung.

    In der vorliegenden Untersuchung wurde festgestellt, dass Open-Supply-Modelle wie DeepSeek und WizardCoder im Durchschnitt mit einer höheren Frequenz halluzinieren als kommerzielle Modelle wie GPT 4. Die durchschnittliche Prävalenz der Halluzinationen beträgt bei Open-Supply-Modellen 21,7 Prozent, während sie bei kommerziellen Modellen 5,2 Prozent aufweist.

    Großes Risiko

    Die Studie zeigt, dass viele Pakethalluzinationen von KI-Modellen wiederholbar und nicht zufällig sind, was sie für Angreifer besonders nützlich macht. Etwa 38 Prozent der halluzinierten Paketnamen ähneln echten Paketen, während nur 13 Prozent einfache Tippfehler sind. Das macht viele Namen semantisch überzeugend.

    In der Untersuchung wurden 500 Prompts wiederholt, die zuvor zu halluzinierten Paketen geführt hatten. In 43 Prozent der Fälle traten die Halluzinationen in zehn aufeinander folgenden Durchgängen immer wieder auf.

    In 58 Prozent der Fälle kamen die Halluzinationen sogar in mehr als einem Durchgang vor. Die Forscher kritisieren, dass die Modelle aufgrund unzureichender Sicherheitstests, wie sie etwa bei OpenAI durchgeführt werden, anfälliger sind.

    Obwohl bisher keine belegten Fälle von Slopsquatting-Attacken vorliegen, weisen die Forscher auf die potenzielle Risiken hin.

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Declan Murphy
    • Website

    Related Posts

    ⚡ Weekly Recap: Chrome 0-Day, Information Wipers, Misused Instruments and Zero-Click on iPhone Assaults

    June 9, 2025

    Kettering Well being Confirms Interlock Ransomware Breach and Information Theft

    June 9, 2025

    Unmasking the silent saboteur you didn’t know was operating the present

    June 9, 2025
    Leave A Reply Cancel Reply

    Top Posts

    ‘Protected’ Photographs Are Simpler, Not Extra Tough, to Steal With AI

    June 9, 2025

    How AI is Redrawing the World’s Electrical energy Maps: Insights from the IEA Report

    April 18, 2025

    Evaluating the Finest AI Video Mills for Social Media

    April 18, 2025

    Utilizing AI To Repair The Innovation Drawback: The Three Step Resolution

    April 18, 2025
    Don't Miss

    ‘Protected’ Photographs Are Simpler, Not Extra Tough, to Steal With AI

    By Amelia Harper JonesJune 9, 2025

    New analysis means that watermarking instruments meant to dam AI picture edits might backfire. As…

    ⚡ Weekly Recap: Chrome 0-Day, Information Wipers, Misused Instruments and Zero-Click on iPhone Assaults

    June 9, 2025

    Google Gemini will allow you to schedule recurring duties now, like ChatGPT – this is how

    June 9, 2025

    7 Cool Python Initiatives to Automate the Boring Stuff

    June 9, 2025
    Stay In Touch
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo

    Subscribe to Updates

    Get the latest creative news from SmartMag about art & design.

    UK Tech Insider
    Facebook X (Twitter) Instagram Pinterest
    • About Us
    • Contact Us
    • Privacy Policy
    • Terms Of Service
    • Our Authors
    © 2025 UK Tech Insider. All rights reserved by UK Tech Insider.

    Type above and press Enter to search. Press Esc to cancel.