Laut einer neuen Studie waren fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch.
ChatGPT hat laut einer neuen Studie ungenaue Informationen über die Einnahme von Medikamenten weitergegeben. In einer von der Long Island University (LIU) in Brooklyn, New York, geleiteten Studie wurde festgestellt, dass fast 75 Prozent der von Apothekern überprüften Antworten des generativen KI-Chatbots zu Medikamenten unvollständig oder falsch waren. Darüber berichtet Fox News.
In einigen Fällen gab ChatGPT, das von OpenAI in San Francisco entwickelt und Ende 2022 veröffentlicht wurde, «ungenaue Antworten, die Patienten gefährden könnten», so die American Society of Health-System Pharmacists (ASHP) mit Sitz in Bethesda, Maryland, in einer Pressemitteilung.
Die Studie ergab auch, dass ChatGPT «gefälschte Zitate» generierte, wenn es gebeten wurde, Referenzen zu nennen, um bestimmte Antworten zu untermauern.
In einem Beispiel, das die Hauptautorin der Studie, Sara Grossman, ausserordentliche Professorin für pharmazeutische Praxis an der LIU, aus der Studie zitierte, wurde ChatGPT gefragt, ob «eine Arzneimittelinteraktion zwischen Paxlovid, einem antiviralen Medikament, das zur Behandlung von Covid-19 eingesetzt wird, und Verapamil, einem Medikament zur Senkung des Blutdrucks, besteht». Das KI-Modell antwortete, dass für diese Kombination keine Wechselwirkungen gemeldet worden seien.
In Wirklichkeit aber, so Grossman, bestehe «bei der Kombination der beiden Medikamente die Gefahr einer übermässigen Senkung des Blutdrucks».
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.