deutschland-schiebt-witze-ab:-die-drehtuer-dreht-sich-froehlichDeutschland schiebt Witze ab: Die Drehtür dreht sich fröhlich
heating-and-starving-or-feasting-and-freezing?->-waermen-und-hungern-oder-schlemmen-und-frierenHeating and starving or feasting and freezing? -> Wärmen und hungern oder schlemmen und frieren
chatgpt-verbreitet-unpraezise-informationen-bezueglich-medizinischer-fragen

ChatGPT verbreitet unpräzise Informationen bezüglich medizinischer Fragen

Published On: 18. Dezember 2023 0:02

Laut einer neuen Studie waren fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten, die von Apothekern überprüft wurden, unvollständig oder falsch. Die Studie wurde von der Long Island University (LIU) in Brooklyn, New York, durchgeführt und ergab, dass ChatGPT, ein von OpenAI entwickelter Chatbot, ungenaue Informationen über die Einnahme von Medikamenten weitergegeben hat. Fox News berichtet über diese Ergebnisse. Die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, gab in einer Pressemitteilung bekannt, dass ChatGPT in einigen Fällen „ungenaue Antworten, die Patienten gefährden könnten“, gegeben hat. Darüber hinaus hat die Studie gezeigt, dass ChatGPT „gefälschte Zitate“ generiert hat, wenn es gebeten wurde, Referenzen anzugeben, um bestimmte Antworten zu unterstützen. Ein Beispiel aus der Studie zeigt, dass ChatGPT auf die Frage, ob es eine Wechselwirkung zwischen Paxlovid, einem antiviralen Medikament zur Behandlung von Covid-19, und Verapamil, einem Medikament zur Senkung des Blutdrucks, gibt, geantwortet hat, dass keine Wechselwirkungen gemeldet wurden. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente. Diese Ergebnisse werfen Bedenken hinsichtlich der Genauigkeit und Zuverlässigkeit von KI-Chatbots im Gesundheitswesen auf. Es ist wichtig, dass solche Systeme sorgfältig überprüft und verbessert werden, um die Sicherheit der Patienten zu gewährleisten

Original Artikel Teaser

ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen

Laut einer neuen Studie waren fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch. Veröffentlicht am 18. Dezember 2023 von WS. ChatGPT hat laut einer neuen Studie ungenaue Informationen über die Einnahme von Medikamenten weitergegeben. In einer von der Long Island University (LIU) in Brooklyn, New York, geleiteten Studie wurde festgestellt, dass fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Darüber berichtet Fox News. In einigen Fällen gab ChatGPT, das von OpenAI in San Francisco entwickelt und Ende 2022 veröffentlicht wurde, «ungenaue Antworten, die Patienten gefährden könnten», so die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, in einer Pressemitteilung. Die Studie ergab

Details zu ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen

deutschland-schiebt-witze-ab:-die-drehtuer-dreht-sich-froehlichDeutschland schiebt Witze ab: Die Drehtür dreht sich fröhlich
heating-and-starving-or-feasting-and-freezing?->-waermen-und-hungern-oder-schlemmen-und-frierenHeating and starving or feasting and freezing? -> Wärmen und hungern oder schlemmen und frieren