Rubrik Kultur auf dem Dreiecksplatz
Dudelsack auf dem Dreiecksplatz
Gänsemarkt auf dem Dreiecksplatz
Koffermarkt auf dem Dreiecksplatz
Kulturgemeinschaft Dreiecksplatz
Kunstautomat auf dem Dreiecksplatz
Langenachtderkunst 2016, »Waffelskulpturen«
Langenachtderkunst 2017, »GToastet«
Langenachtderkunst 2018, »Transpohrter«
Langenachtderkunst 2019, »GTrommelt«
Sponsoren, Freunde und Förderer der Kulturgemeinschaft Dreiecksplatz
Einzelhandel am Dreiecksplatz, Übersicht
Bezirksdirektion Kattenstroth – die Continentale, Kattenstroth seit 1976 GmbH & Co. KG
Rüterbories Sicherheitsfachgeschäft am Dreiecksplatz
Arzt: ChatGPT kann Fachleuten nicht das Wasser reichen. Foto: Hilary Clark, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber
ChatGPT: gefährliche Tipps zu Krebstherapien
Boston, PTE, 28. August 2023
Die »intelligente« #Recherche und #Texterstellungs #Software ChatGPT von OpenAI wartet mit einer Fülle von Fehlern auf, wenn sie darauf angesetzt wird, Krebsbehandlungspläne zu entwickeln. Das haben Forscher am Brigham and Women’s Hospital der Harvard Medical School in Versuchen festgestellt. Der Chatbot vermischte munter richtige und falsche Informationen, die für Laien und auch für #Ärzte, die nicht auf die Krebsbehandlung spezialisiert sind, schlecht oder gar nicht auseinanderzuhalten sind.
Trefferquote bei nur 62 Prozent
Von 104 Plänen, die der Chatbot erstellte, enthielten 98 Prozent neben falschen Ratschlägen mindestens eine Behandlungsempfehlung, die den Richtlinien des National Comprehensive Cancer Network (NCCN) entspricht, heißt es in dem Bericht. 34 Prozent enthielten jedoch eine oder mehrere Empfehlungen, die nicht mit den Richtlinien übereinstimmen. Eine vollständige Übereinstimmung kam den Forschern zufolge nur in 62 Prozent der Fälle vor, was ihrer Meinung nach auf die Komplexität der NCCN Richtlinien sowie den begrenzten Umfang der ChatGPT Funktionen zurückzuführen ist.
In 12,5 Prozent der Fälle gab ChatGPT Empfehlungen, die an den NCCN Richtlinien völlig vorbeigehen. Dazu gehörten auch Empfehlungen zu angeblich wirksamen Therapien für nicht heilbare Krebsarten. Die Forscher sagen, dass es sich dabei um "Fehlinformationen" handelt, die falsche Erwartungen an die Behandlung eines Patienten weckten und dessen Beziehung zu Ärzten beeinträchtigen könnten. "ChatGPT Antworten können sehr menschlich klingen und sehr überzeugend sein, auch wenn sie falsch oder gar gefährlich sind", so Onkologin Danielle Bitterman.
Chatbot kann dennoch hilfreich sein
Dennoch gibt es Bemühungen, KI in das Gesundheitswesen zu integrieren, vor allem zur Rationalisierung administrativer Aufgaben. Anfang dieses Monats ergab eine große Studie, dass der Einsatz von KI zur Früherkennung von Brustkrebs bevorsteht. Dadurch könne die Arbeitsbelastung von Radiologen fast halbiert werden. Allerdings hat der Chatbot hier nicht das letzte Wort. Er gibt lediglich Hinweise, die von erfahrenen Ärzten überprüft werden sollen.
OpenAI kennt die Schwachstelle seines ChatGPT. Das Unternehmen betont nachdrücklich, dass der Bot nicht für die Bereitstellung medizinischer Informationen konzipiert ist und nicht für #Diagnose und #Therapie bei schweren Erkrankungen verwendet werden sollte.