Close Menu
    Main Menu
    • Home
    • News
    • Tech
    • Robotics
    • ML & Research
    • AI
    • Digital Transformation
    • AI Ethics & Regulation
    • Thought Leadership in AI

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    LUP-Kliniken: Patientendaten nach Cyberangriff im Darknet entdeckt

    July 27, 2025

    Qi2 Wi-fi Charging: All the pieces You Have to Know (2025)

    July 27, 2025

    MIT imaginative and prescient system teaches robots to grasp their our bodies

    July 27, 2025
    Facebook X (Twitter) Instagram
    UK Tech InsiderUK Tech Insider
    Facebook X (Twitter) Instagram
    UK Tech InsiderUK Tech Insider
    Home»AI Ethics & Regulation»Slopsquatting: Die neue Cyber-Bedrohung dank KI
    AI Ethics & Regulation

    Slopsquatting: Die neue Cyber-Bedrohung dank KI

    Declan MurphyBy Declan MurphyApril 24, 2025No Comments3 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Reddit
    Slopsquatting: Die neue Cyber-Bedrohung dank KI
    Share
    Facebook Twitter LinkedIn Pinterest Email Copy Link


    Halluzinierte Paketnamen sind oft glaubhaft und wiederholen sich – supreme für Angreifer.

    mongmong_Studio- shutterstock.com

    Cybersicherheitsforscher der College of Texas in San Antonio, der Virginia Tech und der College of Oklahama warnen vor einer neuen Bedrohung für die Software program-Lieferkette namens „Slopsquatting“.

    Den Begriff „Slopsquatting“ hat Seth Larson, ein Sicherheitsentwickler der Python Software program Basis (PSF), geprägt, weil es der Technik des Typosquatting ähnelt. Anstatt sich auf den Fehler eines Benutzers zu verlassen, wie es bei Typosquats der Fall ist, verlassen sich Bedrohungsakteure auf den Fehler eines KI-Modells.

    Gefahr durch KI-erfundene Paketnamen

    Dieser entsteht, wenn generative KI-Modelle wie LLMs nicht existierende Softwarepakete, eine sogenannte Paket-Halluzinationen, vorschlagen. Angreifer können diese Lücken ausnutzen, um schädliche Pakete unter den halluzinierten Namen bereitzustellen.

    Halluzinierte Paketnamen in KI-generiertem Code können von Angreifern ausgenutzt werden, indem sie diese Namen registrieren und Schadcode verbreiten. Da viele Entwickler den KI-Empfehlungen ohne gründliche Prüfung folgen, entsteht ein Sicherheitsrisiko.

    Diese Paket-Halluzinationen sind besonders gefährlich, da sie sich als hartnäckig, wiederholend und glaubhaft erwiesen haben.

    Jedes fünfte KI-Paket eine Fälschung

    Dies betrifft insbesondere Sprachen wie Python und JavaScript, die in hohem Maße auf zentrale Paket-Repositories und Open-Supply-Software program angewiesen sind.

    In einer Analyse von 16 Codegenerierungsmodellen wurde festgestellt, dass etwa 20 Prozent der empfohlenen Softwarepakete als Fälschungen identifiziert wurden. Es ist auffällig, dass CodeLlama häufig Halluzinationen hatte, wobei über ein Drittel der Angaben fehlerhaft waren. GPT-4 Turbo erzielte mit lediglich 3,59 Prozent Halluzinationen noch  die beste Leistung.

    In der vorliegenden Untersuchung wurde festgestellt, dass Open-Supply-Modelle wie DeepSeek und WizardCoder im Durchschnitt mit einer höheren Frequenz halluzinieren als kommerzielle Modelle wie GPT 4. Die durchschnittliche Prävalenz der Halluzinationen beträgt bei Open-Supply-Modellen 21,7 Prozent, während sie bei kommerziellen Modellen 5,2 Prozent aufweist.

    Großes Risiko

    Die Studie zeigt, dass viele Pakethalluzinationen von KI-Modellen wiederholbar und nicht zufällig sind, was sie für Angreifer besonders nützlich macht. Etwa 38 Prozent der halluzinierten Paketnamen ähneln echten Paketen, während nur 13 Prozent einfache Tippfehler sind. Das macht viele Namen semantisch überzeugend.

    In der Untersuchung wurden 500 Prompts wiederholt, die zuvor zu halluzinierten Paketen geführt hatten. In 43 Prozent der Fälle traten die Halluzinationen in zehn aufeinander folgenden Durchgängen immer wieder auf.

    In 58 Prozent der Fälle kamen die Halluzinationen sogar in mehr als einem Durchgang vor. Die Forscher kritisieren, dass die Modelle aufgrund unzureichender Sicherheitstests, wie sie etwa bei OpenAI durchgeführt werden, anfälliger sind.

    Obwohl bisher keine belegten Fälle von Slopsquatting-Attacken vorliegen, weisen die Forscher auf die potenzielle Risiken hin.

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Declan Murphy
    • Website

    Related Posts

    LUP-Kliniken: Patientendaten nach Cyberangriff im Darknet entdeckt

    July 27, 2025

    Researchers Expose On-line Pretend Foreign money Operation in India

    July 27, 2025

    Patchwork Targets Turkish Protection Companies with Spear-Phishing Utilizing Malicious LNK Recordsdata

    July 27, 2025
    Top Posts

    LUP-Kliniken: Patientendaten nach Cyberangriff im Darknet entdeckt

    July 27, 2025

    How AI is Redrawing the World’s Electrical energy Maps: Insights from the IEA Report

    April 18, 2025

    Evaluating the Finest AI Video Mills for Social Media

    April 18, 2025

    Utilizing AI To Repair The Innovation Drawback: The Three Step Resolution

    April 18, 2025
    Don't Miss

    LUP-Kliniken: Patientendaten nach Cyberangriff im Darknet entdeckt

    By Declan MurphyJuly 27, 2025

    Bei dem Cyberangriff auf die LUP-Kliniken sind auch Patientendaten abgeflossen.khunkornStudio – shutterstock.com Im Februar 2025…

    Qi2 Wi-fi Charging: All the pieces You Have to Know (2025)

    July 27, 2025

    MIT imaginative and prescient system teaches robots to grasp their our bodies

    July 27, 2025

    Researchers Expose On-line Pretend Foreign money Operation in India

    July 27, 2025
    Stay In Touch
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo

    Subscribe to Updates

    Get the latest creative news from SmartMag about art & design.

    UK Tech Insider
    Facebook X (Twitter) Instagram
    • About Us
    • Contact Us
    • Privacy Policy
    • Terms Of Service
    • Our Authors
    © 2025 UK Tech Insider. All rights reserved by UK Tech Insider.

    Type above and press Enter to search. Press Esc to cancel.