ChatGPT gibt falsche Informationen zu medizinischen Fragen weiter
Laut einer neuen Studie waren fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten, die von Apothekern überprüft wurden, unvollständig oder falsch. Die Studie wurde von der Long Island University (LIU) in Brooklyn, New York, durchgeführt und ergab, dass ChatGPT, ein KI-Modell, ungenaue Informationen über die Einnahme von Medikamenten weitergegeben hat. Dies könnte die Patientensicherheit gefährden, so die American Society of Health-System Pharmacists (ASHP) in einer Pressemitteilung. Die Studie zeigte auch, dass ChatGPT „gefälschte Zitate“ generierte, wenn es um Referenzen ging, um bestimmte Antworten zu unterstützen.
Ein Beispiel aus der Studie zeigt, dass ChatGPT auf die Frage, ob es eine Wechselwirkung zwischen dem antiviralen Medikament Paxlovid, das zur Behandlung von Covid-19 eingesetzt wird, und dem blutdrucksenkenden Medikament Verapamil gibt, antwortete, dass keine Wechselwirkungen gemeldet wurden. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente, so die Hauptautorin der Studie, Sara Grossman.
Diese Ergebnisse sind besorgniserregend, da sie zeigen, dass generative KI-Chatbots wie ChatGPT ungenaue und potenziell gefährliche Informationen über Medikamente liefern können. Es ist wichtig, dass solche KI-Modelle weiterentwickelt und verbessert werden, um die Genauigkeit und Sicherheit der bereitgestellten Informationen zu gewährleisten.
Quelle: Fox News: ChatGPT found by study to spread inaccuracies when answering medication questions – 14. Dezember 2023
Studie zeigt ungenaue Informationen von generativem KI-Chatbot zu Medikamenten
Eine neue Studie der Long Island University (LIU) in Brooklyn, New York, hat ergeben, dass fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Dies könnte die Sicherheit der Patienten gefährden, so die American Society of Health-System Pharmacists (ASHP). Die Studie ergab auch, dass der Chatbot „gefälschte Zitate“ generierte, wenn er gebeten wurde, Referenzen anzugeben, um bestimmte Antworten zu unterstützen.
Beispiel für ungenaue Informationen des KI-Chatbots
Ein Beispiel aus der Studie zeigt, dass der KI-Chatbot ChatGPT auf die Frage nach einer möglichen Wechselwirkung zwischen dem antiviralen Medikament Paxlovid und dem blutdrucksenkenden Medikament Verapamil antwortete, dass keine Wechselwirkungen gemeldet wurden. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente, wie die Studie zeigt.
Verbesserung der Genauigkeit und Sicherheit von KI-Chatbots
Die Ergebnisse dieser Studie zeigen, dass generative KI-Chatbots wie ChatGPT ungenaue und potenziell gefährliche Informationen über Medikamente liefern können. Es ist von großer Bedeutung, dass solche KI-Modelle weiterentwickelt und verbessert werden, um die Genauigkeit und Sicherheit der bereitgestellten Informationen zu gewährleisten. Nur so können sie eine zuverlässige Quelle für medizinische Ratschläge und Informationen sein
Original Artikel Teaser
ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen
Laut einer neuen Studie waren fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch. Veröffentlicht am 18. Dezember 2023 von WS. ChatGPT hat laut einer neuen Studie ungenaue Informationen über die Einnahme von Medikamenten weitergegeben. In einer von der Long Island University (LIU) in Brooklyn, New York, geleiteten Studie wurde festgestellt, dass fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Darüber berichtet Fox News. In einigen Fällen gab ChatGPT, das von OpenAI in San Francisco entwickelt und Ende 2022 veröffentlicht wurde, «ungenaue Antworten, die Patienten gefährden könnten», so die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, in einer Pressemitteilung. Die Studie ergab
Details zu ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen