Rubrik Kultur auf dem Dreiecksplatz
Dudelsack auf dem Dreiecksplatz
Gänsemarkt auf dem Dreiecksplatz
Koffermarkt auf dem Dreiecksplatz
Kulturgemeinschaft Dreiecksplatz
Kunstautomat auf dem Dreiecksplatz
Langenachtderkunst 2016, »Waffelskulpturen«
Langenachtderkunst 2017, »GToastet«
Langenachtderkunst 2018, »Transpohrter«
Langenachtderkunst 2019, »GTrommelt«
Sponsoren, Freunde und Förderer der Kulturgemeinschaft Dreiecksplatz
Einzelhandel am Dreiecksplatz, Übersicht
Bezirksdirektion Kattenstroth – die Continentale, Kattenstroth seit 1976 GmbH & Co. KG
Rüterbories Sicherheitsfachgeschäft am Dreiecksplatz
LLMs: MIT will toxische Aussagen von Sprachmodellen verhindern. Bild: MIT, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber
#Forscher wollen #KI Sprachmodelle zähmen
Cambridge, San Francisco, PTE, 2. Mai 2024
Forscher des Massachusetts Institute of Technology (#MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie »#ChatGPT«, »Claude 3 Opus« & Co. in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
#Sprachmodelle matchen sich
Die KI generiert tatsächlich umfangreichere und vielfältigere negative Aufforderungen, als dies von menschlichen Red Teams, die sich manuell potenziell schädliche Fragen ausdenken und entsprechend negative Antworten herausfordern, jemals möglich wäre. Darüber hinaus haben die Forscher bestärkendes Lernen eingesetzt, um ein Sprachmodell zu motivieren, verschiedene Prompts zu erstellen, um toxische Reaktionen eines anderen Modells zu provozieren.
Prompts sind kurze Hinweise, zum Beispiel in Form von allgemeinen Fragen oder genauen Ausführungsanleitungen. Durch Belohnungen für die Generierung neuartiger Fragen und Aufforderungen, die schädliche Reaktionen hervorrufen, lernte das System, neue Wörter, Satzstrukturen und Bedeutungen zu erforschen, was zu einer breiteren Palette von toxischen Aufforderungen führte.
Überprüfung vor der Freigabe
»Es gibt bereits eine Flut von Modellen und es ist zu erwarten, dass diese Zahl noch steigen wird. Diese Modelle werden ein integraler Bestandteil unseres Lebens sein, und sie müssen überprüft werden, bevor sie für die Öffentlichkeit freigegeben werden«, fordert Pulkit Agrawal, Direktor des Improbable AI Lab am MIT. Sie sollen toxische Sprache wie abwertende oder obszöne Ausdrücke erkennen und verhindern, dass sie den Nutzern angezeigt werden.
»Das ist ein wichtiger Schritt, um sicherzustellen, dass LLMs nicht die denkbar schlechtesten Inhalte produzieren«, ergänzt Knar Hovakimyan, KI Experte bei Grammarly. Das US #Software Unternehmen bietet einen KI basierten Schreibassistenten an, der Texte in englischer Sprache überprüft und verbessert.