Mehr als die Hälfte der Österreicher sucht medizinischen Rat bei KI. Doch OpenAI untersagt nun offiziell medizinische Empfehlungen durch ChatGPT, was die Grenzen und Risiken der digitalen Gesundheitsberatung aufzeigt.
Teilen:
1 2 3 15
09. Jän 2026, epmedia

ChatGPT als Arzt? OpenAI verbietet medizinische Ratschläge

Mehr als die Hälfte der Österreicher sucht medizinischen Rat bei KI. Doch OpenAI untersagt nun offiziell medizinische Empfehlungen durch ChatGPT, was die Grenzen und Risiken der digitalen Gesundheitsberatung aufzeigt.

Angesichts plötzlicher Beschwerden greifen viele Menschen zum Smartphone, um schnelle Antworten auf medizinische Fragen zu erhalten. Was einst “Dr. Google” mühsam lieferte, scheint Large-Language-Modelle wie ChatGPT nun prompt und maßgeschneidert zu beantworten, beinahe wie ein stets präsenter, verständnisvoller Arzt.

Studien zeigen, dass über die Hälfte der Österreicherinnen und Österreicher künstliche Intelligenz für medizinische Anfragen nutzt. Dies könnte angesichts des Ärztemangels als Entlastung des Gesundheitssystems erscheinen. Doch Oliver Kimberger, Oberarzt an der Meduni Wien und Forscher im Bereich KI-Anwendungen in der Medizin, warnt vor dieser Entwicklung. OpenAI, der Entwickler hinter ChatGPT, hat erst kürzlich in seinen Nutzungsbedingungen die Beratung in rechtlichen und medizinischen Belangen untersagt.

Kimberger vermutet dahinter vor allem die Sorge vor Klagen. Eine Zusatzklausel erlaubt zwar Beratungsgespräche mit ChatGPT in Anwesenheit einer qualifizierten Person, was jedoch im Alltag unrealistisch ist. Dennoch werden Large-Language-Modelle voraussichtlich weiterhin Antworten auf medizinische Fragen liefern. Die Empathie und unendliche Geduld der KI können laut Kimberger dazu führen, dass Nutzer Fragen stellen, die sie sich einem menschlichen Arzt gegenüber nicht trauen würden. Eine Studie ergab sogar, dass Patienten KI-Gespräche als empathischer empfanden. Dies könnte dazu beitragen, den Gang zum echten Arzt zu erleichtern, da KIs oft dazu raten, medizinische Hilfe in Anspruch zu nehmen.

Doch die Nachteile überwiegen deutlich. Obwohl KI viele korrekte Informationen liefern kann, sind “Halluzinationen” und inkonsistentes Verhalten ein erhebliches Problem, das Laien nicht erkennen können. ChatGPT und ähnliche Modelle sind keine zertifizierten Medizinprodukte und erfüllen daher nicht die notwendigen Anforderungen. Ein weiteres Risiko besteht darin, dass die KI Ängste verstärken und in eine Gedankenspirale führen kann. Kimberger betont, dass einer KI die echte Empathie und fachliche Kompetenz fehlt, um Krankheitsbilder richtig einzuschätzen und adäquat zu behandeln. Sie kann keine notwendigen Schutzmaßnahmen ergreifen, wie es medizinisches Fachpersonal bei Selbst- oder Fremdgefährdung tun müsste.

Kimberger glaubt nicht, dass Ärzte durch KI ersetzt werden. Während Menschen weiterhin KI für Ratschläge nutzen werden, kann ChatGPT weder körperliche Untersuchungen durchführen noch Rezepte ausstellen.

home of business communication