deutschland-schiebt-witze-ab:-die-drehtuer-dreht-sich-froehlichDeutschland schiebt Witze ab: Die Drehtür dreht sich fröhlich
heating-and-starving-or-feasting-and-freezing?->-waermen-und-hungern-oder-schlemmen-und-frierenHeating and starving or feasting and freezing? -> Wärmen und hungern oder schlemmen und frieren
chatgpt-verbreitet-unpraezise-informationen-ueber-medizinische-anfragen

ChatGPT verbreitet unpräzise Informationen über medizinische Anfragen

Published On: 18. Dezember 2023 0:02

Laut einer neuen Studie waren fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten, die von Apothekern überprüft wurden, unvollständig oder falsch. Die Studie wurde von der Long Island University (LIU) in Brooklyn, New York, durchgeführt und ergab, dass ChatGPT, ein von OpenAI entwickelter Chatbot, ungenaue Informationen über die Einnahme von Medikamenten weitergegeben hat. Fox News berichtete darüber. Die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, gab in einer Pressemitteilung bekannt, dass ChatGPT in einigen Fällen „ungenaue Antworten, die Patienten gefährden könnten“, gegeben hat. Die Studie ergab auch, dass ChatGPT „gefälschte Zitate“ generierte, wenn es gebeten wurde, Referenzen anzugeben, um bestimmte Antworten zu unterstützen. Ein Beispiel aus der Studie zeigt, dass ChatGPT auf die Frage, ob es eine Wechselwirkung zwischen dem antiviralen Medikament Paxlovid, das zur Behandlung von Covid-19 eingesetzt wird, und dem Blutdrucksenker Verapamil gibt, antwortete, dass keine Wechselwirkungen gemeldet wurden. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente, wie Sara Grossman, Hauptautorin der Studie und außerordentliche Professorin für pharmazeutische Praxis an der LIU, betonte. Die Ergebnisse der Studie werfen Bedenken hinsichtlich der Genauigkeit und Zuverlässigkeit von generativen KI-Chatbots bei medizinischen Fragen auf. Es ist wichtig, dass solche Chatbots korrekte und verlässliche Informationen liefern, um die Sicherheit der Patienten zu gewährleisten. Die Studie zeigt, dass Verbesserungen in der Entwicklung und Überprüfung solcher KI-Modelle notwendig sind, um potenzielle Risiken zu minimieren

Original Artikel Teaser

ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen

Laut einer neuen Studie waren fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch. Veröffentlicht am 18. Dezember 2023 von WS. ChatGPT hat laut einer neuen Studie ungenaue Informationen über die Einnahme von Medikamenten weitergegeben. In einer von der Long Island University (LIU) in Brooklyn, New York, geleiteten Studie wurde festgestellt, dass fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Darüber berichtet Fox News. In einigen Fällen gab ChatGPT, das von OpenAI in San Francisco entwickelt und Ende 2022 veröffentlicht wurde, «ungenaue Antworten, die Patienten gefährden könnten», so die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, in einer Pressemitteilung. Die Studie ergab

Details zu ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen

deutschland-schiebt-witze-ab:-die-drehtuer-dreht-sich-froehlichDeutschland schiebt Witze ab: Die Drehtür dreht sich fröhlich
heating-and-starving-or-feasting-and-freezing?->-waermen-und-hungern-oder-schlemmen-und-frierenHeating and starving or feasting and freezing? -> Wärmen und hungern oder schlemmen und frieren