Künstliche Intelligenz
23.04.2023, 14:04 Uhr
Deutscher Gesundheitsminister sieht KI in der Medizin zwiespältig
Der Patient beschreibt seine Symptome und der Chatbot erstellt die korrekte Diagnose - KI könnte in der Medizin grosse Fortschritte einläuten. Der Gesundheitsminister Karl Lauterbach warnt aber auch vor den Tücken.¨
Bundesgesundheitsminister Karl Lauterbach sieht beim Einsatz von künstlich intelligenten Chatbots wie ChatGPT im Gesundheitssystem Chancen, warnt aber auch vor Gefahren wie etwa Fehldiagnosen. «Es wird bald Programme geben, bei denen ein Patient Symptome, Befunde und bisherige Behandlungen mündlich erklärt und dann von der KI eine Einschätzung seiner Krankheit und sogar mögliche Therapievorschläge bekommt», sagte der SPD-Politiker den Zeitungen der Funke Mediengruppe.
ChatGPT gibt solche Auskünfte im schriftlichen Dialog bereits heute. Hohe Aufmerksamkeit erregte im März der Bericht eines Hundehalters via Twitter, wonach angeblich der Nachfolger des Programms, GPT-4, die Krankheit seines Vierbeiners unter anderem auf Basis von Laborwerten korrekt diagnostizierte, die ein Tierarzt zuvor nicht erkannt hatte. Allerdings können Chatbots auch erfundene Informationen verbreiten, ohne dass dies auf den ersten Blick erkennbar ist.
Lauterbach forderte, die Anwendung von KI-Systemen wie ChatGPT im Gesundheitsbereich zu regulieren. «Sie müssen geprüft werden und zuverlässig sein», sagte der Minister den Zeitungen. Zudem müsse sichergestellt sein, dass die Daten nicht missbraucht werden könnten.
Grundsätzlich sehe er den Einsatz von Künstlicher Intelligenz (KI) im Gesundheitssystem aber positiv. Chatbots könnten künftig Therapien theoretisch durchspielen und Fragen nach der Wirksamkeit von Medikamenten für einen konkreten Patienten beantworten. KI könne bereits jetzt manchmal besser sein als ein geübter Facharzt, meint Lauterbach. «Die besten Ergebnisse erzielt aber die Kombination aus künstlicher Intelligenz und einem Arzt.»
ChatGPT gibt solche Auskünfte im schriftlichen Dialog bereits heute. Hohe Aufmerksamkeit erregte im März der Bericht eines Hundehalters via Twitter, wonach angeblich der Nachfolger des Programms, GPT-4, die Krankheit seines Vierbeiners unter anderem auf Basis von Laborwerten korrekt diagnostizierte, die ein Tierarzt zuvor nicht erkannt hatte. Allerdings können Chatbots auch erfundene Informationen verbreiten, ohne dass dies auf den ersten Blick erkennbar ist.
Lauterbach forderte, die Anwendung von KI-Systemen wie ChatGPT im Gesundheitsbereich zu regulieren. «Sie müssen geprüft werden und zuverlässig sein», sagte der Minister den Zeitungen. Zudem müsse sichergestellt sein, dass die Daten nicht missbraucht werden könnten.
Grundsätzlich sehe er den Einsatz von Künstlicher Intelligenz (KI) im Gesundheitssystem aber positiv. Chatbots könnten künftig Therapien theoretisch durchspielen und Fragen nach der Wirksamkeit von Medikamenten für einen konkreten Patienten beantworten. KI könne bereits jetzt manchmal besser sein als ein geübter Facharzt, meint Lauterbach. «Die besten Ergebnisse erzielt aber die Kombination aus künstlicher Intelligenz und einem Arzt.»