Rubrik Kultur auf dem Dreiecksplatz
Dudelsack auf dem Dreiecksplatz
Gänsemarkt auf dem Dreiecksplatz
Koffermarkt auf dem Dreiecksplatz
Kulturgemeinschaft Dreiecksplatz
Kunstautomat auf dem Dreiecksplatz
Langenachtderkunst 2016, »Waffelskulpturen«
Langenachtderkunst 2017, »GToastet«
Langenachtderkunst 2018, »Transpohrter«
Langenachtderkunst 2019, »GTrommelt«
Sponsoren, Freunde und Förderer der Kulturgemeinschaft Dreiecksplatz
Einzelhandel am Dreiecksplatz, Übersicht
Bezirksdirektion Kattenstroth – die Continentale, Kattenstroth seit 1976 GmbH & Co. KG
Rüterbories Sicherheitsfachgeschäft am Dreiecksplatz
Cover: Heise Gruppe GmbH & Co. KG, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber
»iX Magazin«: sichere Integration von KI in Unternehmen – Sprachmodelle anfällig für Manipulationen
#Hannover, 20. Dezember 2024
#Große #Sprachmodelle wie »#ChatGPT« oder »#Claude« sind bei Unternehmen beliebt. Doch ihr Einsatz birgt erhebliche Sicherheitsrisiken und kann zur Preisgabe sensibler Informationen ausgenutzt werden. Das zeigt das IT Profimagazin »iX« in Ausgabe 1/2025. Alle großen Sprachmodelle weisen systembedingte Schwachstellen auf, die sich nicht vollständig beheben lassen. Verantwortliche müssen ihre Sicherheitsmaßnahmen darauf ausrichten.
»Große Sprachmodelle unterscheiden sich von klassischer #Software durch ihre intuitive Bedienung und informelle Sprache. Diese niedrige Einstiegshürde ist gleichzeitig ihre größte Schwäche«, erklärt »iX« Redakteur Philipp Steevens. »Angreifer können die internen Sicherheitsmechanismen von KI Systemen durch geschickte Formulierungen aushebeln.«
Ein besonders gefährlicher Angriff ist die sogenannte #Multi #Shot #Prompt #Injektion. Dabei verfeinern Angreifer ihre Anfragen schrittweise, bis das System schließlich sensible Informationen preisgibt. »Ein erfolgreicher Angriff kann dazu führen, dass Unternehmensdaten in die falschen Hände geraten«, beschreibt Steevens.
Besonders heikel wird es, wenn Unternehmen ihre #KI Systeme mit internen Dokumenten trainieren. »Die Trainingsdaten können später durch raffinierte Angriffstechniken wieder aus dem System extrahiert werden«, gibt der Redakteur zu bedenken. Er empfiehlt Unternehmen dringend, Trainingsdaten zu anonymisieren und sensible Informationen vorher zu entfernen.
Ein weiteres Risiko sind Halluzinationen – Fälle, in denen die Systeme falsche oder erfundene Informationen ausgeben. »Die Modelle haben kein echtes Verständnis davon, ob ihre Antworten sachlich richtig sind«, erklärt Steevens. Das macht sie unzuverlässig für kritische Anwendungen. »Halluzinationen und Voreingenommenheit sind intrinsische Fehler. Sie werden immer auftreten – egal wie ausgereift die Technologie ist.«
Für einen sicheren Einsatz empfiehlt Steevens klare Rahmenbedingungen: »Unternehmen müssen im Vorfeld einen eng definierten Einsatzzweck festlegen, der sich mit klassischer Software nicht erfüllen lässt. Im laufenden Betrieb müssen Unternehmen die Eingaben in die Sprachmodelle bereinigen, die Ausgaben überwachen und den Zugriff auf externe Quellen und Werkzeuge strikt beschränken«, mehr …