deutschland-schiebt-witze-ab:-die-drehtuer-dreht-sich-froehlichDeutschland schiebt Witze ab: Die Drehtür dreht sich fröhlich
heating-and-starving-or-feasting-and-freezing?->-waermen-und-hungern-oder-schlemmen-und-frierenHeating and starving or feasting and freezing? -> Wärmen und hungern oder schlemmen und frieren
chatgpt-gibt-falsche-informationen-zu-medizinischen-fragen-weiter

ChatGPT gibt falsche Informationen zu medizinischen Fragen weiter

Published On: 18. Dezember 2023 0:02

Laut einer neuen Studie waren fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten, die von Apothekern überprüft wurden, unvollständig oder falsch. Die Studie wurde von der Long Island University (LIU) in Brooklyn, New York, durchgeführt und ergab, dass ChatGPT, ein KI-Modell, ungenaue Informationen über die Einnahme von Medikamenten weitergegeben hat. Dies könnte die Patientensicherheit gefährden, so die American Society of Health-System Pharmacists (ASHP) in einer Pressemitteilung. Die Studie zeigte auch, dass ChatGPT „gefälschte Zitate“ generierte, wenn es um Referenzen ging, um bestimmte Antworten zu unterstützen.

Ein Beispiel aus der Studie zeigt, dass ChatGPT auf die Frage, ob es eine Wechselwirkung zwischen dem antiviralen Medikament Paxlovid, das zur Behandlung von Covid-19 eingesetzt wird, und dem blutdrucksenkenden Medikament Verapamil gibt, antwortete, dass keine Wechselwirkungen gemeldet wurden. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente, so die Hauptautorin der Studie, Sara Grossman.

Diese Ergebnisse sind besorgniserregend, da sie zeigen, dass generative KI-Chatbots wie ChatGPT ungenaue und potenziell gefährliche Informationen über Medikamente liefern können. Es ist wichtig, dass solche KI-Modelle weiterentwickelt und verbessert werden, um die Genauigkeit und Sicherheit der bereitgestellten Informationen zu gewährleisten.

Quelle: Fox News: ChatGPT found by study to spread inaccuracies when answering medication questions – 14. Dezember 2023

Studie zeigt ungenaue Informationen von generativem KI-Chatbot zu Medikamenten

Eine neue Studie der Long Island University (LIU) in Brooklyn, New York, hat ergeben, dass fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Dies könnte die Sicherheit der Patienten gefährden, so die American Society of Health-System Pharmacists (ASHP). Die Studie ergab auch, dass der Chatbot „gefälschte Zitate“ generierte, wenn er gebeten wurde, Referenzen anzugeben, um bestimmte Antworten zu unterstützen.

Beispiel für ungenaue Informationen des KI-Chatbots

Ein Beispiel aus der Studie zeigt, dass der KI-Chatbot ChatGPT auf die Frage nach einer möglichen Wechselwirkung zwischen dem antiviralen Medikament Paxlovid und dem blutdrucksenkenden Medikament Verapamil antwortete, dass keine Wechselwirkungen gemeldet wurden. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente, wie die Studie zeigt.

Verbesserung der Genauigkeit und Sicherheit von KI-Chatbots

Die Ergebnisse dieser Studie zeigen, dass generative KI-Chatbots wie ChatGPT ungenaue und potenziell gefährliche Informationen über Medikamente liefern können. Es ist von großer Bedeutung, dass solche KI-Modelle weiterentwickelt und verbessert werden, um die Genauigkeit und Sicherheit der bereitgestellten Informationen zu gewährleisten. Nur so können sie eine zuverlässige Quelle für medizinische Ratschläge und Informationen sein

Original Artikel Teaser

ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen

Laut einer neuen Studie waren fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch. Veröffentlicht am 18. Dezember 2023 von WS. ChatGPT hat laut einer neuen Studie ungenaue Informationen über die Einnahme von Medikamenten weitergegeben. In einer von der Long Island University (LIU) in Brooklyn, New York, geleiteten Studie wurde festgestellt, dass fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Darüber berichtet Fox News. In einigen Fällen gab ChatGPT, das von OpenAI in San Francisco entwickelt und Ende 2022 veröffentlicht wurde, «ungenaue Antworten, die Patienten gefährden könnten», so die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, in einer Pressemitteilung. Die Studie ergab

Details zu ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen

deutschland-schiebt-witze-ab:-die-drehtuer-dreht-sich-froehlichDeutschland schiebt Witze ab: Die Drehtür dreht sich fröhlich
heating-and-starving-or-feasting-and-freezing?->-waermen-und-hungern-oder-schlemmen-und-frierenHeating and starving or feasting and freezing? -> Wärmen und hungern oder schlemmen und frieren