ChatGPT gibt ungenaue Informationen zu medizinischen Fragen weiter
Laut einer neuen Studie waren fast 75 Prozent der Antworten des generativen KI-Chatbots zu Medikamenten, die von Apothekern überprüft wurden, unvollständig oder falsch. Die Studie wurde von der Long Island University (LIU) in Brooklyn, New York, durchgeführt und ergab, dass ChatGPT, ein von OpenAI entwickelter Chatbot, ungenaue Informationen über die Einnahme von Medikamenten weitergab. Fox News berichtete über diese Ergebnisse. Die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, gab in einer Pressemitteilung bekannt, dass ChatGPT in einigen Fällen „ungenaue Antworten, die Patienten gefährden könnten“, gegeben habe. Darüber hinaus stellte die Studie fest, dass ChatGPT „gefälschte Zitate“ generierte, wenn es gebeten wurde, Referenzen anzugeben, um bestimmte Antworten zu unterstützen. Ein Beispiel aus der Studie zeigte, dass ChatGPT fälschlicherweise angab, dass es keine Wechselwirkungen zwischen Paxlovid, einem antiviralen Medikament zur Behandlung von Covid-19, und Verapamil, einem Medikament zur Senkung des Blutdrucks, gebe. Tatsächlich besteht jedoch die Gefahr einer übermäßigen Senkung des Blutdrucks bei der Kombination dieser beiden Medikamente.
Die Ergebnisse dieser Studie werfen Bedenken hinsichtlich der Genauigkeit und Zuverlässigkeit von generativen KI-Chatbots wie ChatGPT auf. Insbesondere im medizinischen Bereich, wo korrekte Informationen über Medikamente von entscheidender Bedeutung sind, können ungenaue Antworten schwerwiegende Folgen für Patienten haben. Es ist wichtig, dass solche KI-Modelle sorgfältig überprüft und verbessert werden, um sicherzustellen, dass sie genaue und verlässliche Informationen liefern.
Die American Society of Health-System Pharmacists (ASHP) hat auf die Ergebnisse dieser Studie reagiert und betont, dass die Verbreitung ungenauer Informationen durch ChatGPT potenziell gefährlich ist. Sie fordert eine verstärkte Überprüfung und Regulierung von KI-Chatbots im medizinischen Bereich, um die Sicherheit der Patienten zu gewährleisten. Es ist wichtig, dass die Entwickler solcher KI-Modelle die Verantwortung übernehmen und sicherstellen, dass ihre Chatbots zuverlässige und korrekte Informationen liefern.
Insgesamt verdeutlicht diese Studie die Herausforderungen und Risiken im Zusammenhang mit der Nutzung von generativen KI-Chatbots im medizinischen Bereich. Es ist unerlässlich, dass solche KI-Modelle weiterentwickelt und verbessert werden, um die Genauigkeit und Zuverlässigkeit ihrer Antworten zu gewährleisten. Die Sicherheit der Patienten sollte immer oberste Priorität haben, und daher müssen strenge Qualitätskontrollen und Regulierungen für medizinische KI-Chatbots eingeführt werden
Original Artikel Teaser
ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen
Laut einer neuen Studie waren fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch. Veröffentlicht am 18. Dezember 2023 von WS. ChatGPT hat laut einer neuen Studie ungenaue Informationen über die Einnahme von Medikamenten weitergegeben. In einer von der Long Island University (LIU) in Brooklyn, New York, geleiteten Studie wurde festgestellt, dass fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Darüber berichtet Fox News. In einigen Fällen gab ChatGPT, das von OpenAI in San Francisco entwickelt und Ende 2022 veröffentlicht wurde, «ungenaue Antworten, die Patienten gefährden könnten», so die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, in einer Pressemitteilung. Die Studie ergab
Details zu ChatGPT verbreitet ungenaue Informationen zu medizinischen Fragen