KI-Modelle können medizinische Online-Texte für Laien verständlicher machen – doch ohne Kontrolle drohen Fehler und Fehlinformationen, so eine neue Studie der Hochschule Heilbronn.
Die Suche nach verständlichen, seriösen Gesundheitsinformationen nimmt für viele Patientinnen und Patienten – und auch für Behandlende– weiter an Bedeutung zu. Gerade bei Volkskrankheiten wie Diabetes werden Online-Texte millionenfach genutzt, sind jedoch für Laien oft schwer verständlich und damit wenig hilfreich. Künstliche Intelligenz (KI) wird zunehmend als Hilfsmittel diskutiert, um diese Barriere zu senken. Eine aktuelle Untersuchung der Hochschule Heilbronn gibt nun erstmals Aufschluss darüber, wie stark KI die Lesbarkeit medizinischer Artikel tatsächlich verbessern kann – und wo ihre Grenzen liegen.
Studien-Design: Vier KI-Modelle im direkten Vergleich
Im Rahmen einer Bachelorarbeit unter Federführung von Amela Miftaroski untersuchte das Forschungsteam an der Hochschule Heilbronn die Lesbarkeit von medizinischen Online-Texten nach automatischer Vereinfachung durch vier große Sprachmodelle, darunter ChatGPT und Microsoft Copilot. Insgesamt wurden 60 Artikel zu gängigen Erkrankungen analysiert. Die KI überarbeitete die Texte, anschließend kamen etablierte Lesbarkeitsmaße zum Einsatz – mit besonderem Blick auf den Nutzen für Menschen ohne medizinisches Vorwissen.
Zentrale Ergebnisse: Lesbarkeit verbessert, Korrektheit oft eingeschränkt
- Verbesserung der Lesbarkeit: Die KI-Modelle waren in der Lage, die Zielgruppe der Laien besser abzuholen. Am weitesten kam Microsoft Copilot, der bei der Hälfte der Artikel das von Fachleuten empfohlene Verständnisniveau (vergleichbar mit Klassenstufe 8) erreichte.
- Modelle im Vergleich: ChatGPT–3.5 schnitt ebenfalls gut ab, während andere Modelle nur geringe Verbesserungen zeigten.
- Fachliche Risiken: Gleichzeitig zeigten sich deutliche Schwächen: Einige durch KI vereinfachte Texte enthielten gravierende Ungenauigkeiten oder verloren essenzielle kontextbezogene Informationen. Das Risiko für Missverständnisse steigt, wenn solche Texte ungeprüft genutzt werden – insbesondere im medizinischen Alltag.
Konsequenzen für den Einsatz in Praxis und ärztlichen Kommunikation
Für Behandelnde bedeutet das:
- KI kann unterstützen, aber ersetzt keine fachliche Prüfung. Automatisierte Entwürfe sollten stets von medizinisch geschultem Personal geprüft und angepasst werden.
- Entlastungspotenzial für Praxisteams: Im klinischen Alltag könnten KI-generierte Erstentwürfe die Erstellung laientauglicher Patienteninformationen beschleunigen – sofern eine anschließende sorgfältige fachliche Kontrolle gesichert ist.
- Grenzen für den Selbstgebrauch: Für Betroffene oder Laien, die Texte selbst mithilfe von KI vereinfachen, ist das Vorgehen aus Gründen der Genauigkeit und Sicherheit nicht empfehlenswert.
Wichtige Implikationen für die Diabetesaufklärung
Gerade im Bereich der Diabetologie können verständliche, sichere Informationen dazu beitragen, Gesundheitskompetenz zu fördern. KI-gestützte Tools könnten langfristig ein Baustein dafür sein – die Ergebnisse der Studie unterstreichen aber, dass die Qualitätssicherung durch Behandler-Teams eine zentrale Voraussetzung bleibt.
Quelle: Pressemitteilung der Hochschule Heilbronn vom 05.02.2026 : KI kann medizinische Online-Texte verständlicher machen – Studie der HHN zeigt Potenzial und Grenzen
Originalpublikation: Miftaroski A, Zowalla R, Wiesner M, Pobiruchin M. Leveraging Large Language Models to Improve the Readability of German Online Medical Texts: Evaluation Study. JMIR AI. 2026 Jan 23;5:e77149. doi: 10.2196/77149. [Paper]



