„Wir sollten uns darüber verständigen, wie wir mit KI bei Gesundheitsinformationen umgehen wollen“

Susanne Melin ist seit über zwanzig Jahren im Gesundheitsbereich tätig. Seit 2022 ist sie Teamleiterin im neu gegründeten Bosch Health Campus der Robert Bosch Stiftung.
Susanne Melin ist seit über zwanzig Jahren im Gesundheitsbereich tätig. Seit 2022 ist sie Teamleiterin im neu gegründeten Bosch Health Campus der Robert Bosch Stiftung. | © Michael Fuchs
28. Oktober 2025

Zunehmend informieren sich Menschen über Gesundheitsthemen mit Hilfe von Chatbots. Welche Chancen und Risiken ergeben sich daraus? Darum geht es in dem Workshop mit Susanne Melin und Kolleg*innen beim Forum Wissenschaftskommunikation. Im Interview erklärt Melin, welche Fragen ein Chatbot nicht beantworten sollte und welche Maßnahmen zur Qualitätssicherung wichtig sind.

von Hanna Strub

Sie haben ein digitales Angebot mitinitiiert, das Menschen zu Gesundheitsthemen informiert und berät. Welche Rolle spielt hierbei Künstliche Intelligenz?

Unser digitales Angebot für Prävention und Gesundheitsförderung richtet sich vor allem an Menschen ab 55 Jahren. Neben Informationen stellen wir auch Motivations- und Entscheidungshilfen zu einem gesunden Lebensstil mithilfe von Künstlicher Intelligenz bereit. Es gibt unter anderem einen Chatbot und ein Selbst-Check-Tool. Ein Tool zur persönlichen Zielsetzung ist gerade im Aufbau. Wir glauben, dass Künstliche Intelligenz im Gesundheitsbereich große Potenziale bietet.

Wie stellen Sie sicher, dass der virtuelle Gesundheitsassistent wissenschaftlich fundierte Antworten gibt?

Dafür haben wir einen ganzen Strauß an Maßnahmen zur Qualitätssicherung. Wir haben ein Team von Wissenschaftler*innen, die alle Texte und die ihnen zugrunde liegenden Quellen prüfen. Ein Team von erfahrenen Wissenschaftsjournalist*innen verfasst die Texte. Wir verwenden zwar ein gängiges Sprachmodell, doch der Chatbot greift nur auf sorgfältig kuratierte Quellen zu.

Ein weiterer wichtiger Bestandteil ist das sorgfältige Prompt Engineering, also die Art und Weise, wie der Chatbot trainiert wird, auf Fragen zu antworten. Das betrifft die Ausführlichkeit, Verständlichkeit und den Tonfall. Er soll freundlich sein, aber gleichzeitig professionell und nicht anbiedernd. Und der Chatbot soll keine Antworten zu medizinischen Diagnosen oder Therapien geben. Auch toxische Fragen, die ethische Standards verletzen, soll er nicht beantworten.

Wo liegen die Chancen und wo die Gefahren von Chatbots zu Gesundheitsthemen?

Die Chancen liegen darin, dass so ein Chatbot sehr individuell und rund um die Uhr in einem anonymen Raum auf die Fragen der Nutzer*innen antworten kann. Jede*r kann zu jeder Zeit niedrigschwellig die Frage stellen, die ihr oder ihm gerade durch den Kopf geht. Man wird dann nicht gleich erschlagen von einer Textmasse, sondern kann mit einer Frage und einem Informationshäppchen anfangen. Es ist ein Riesenvorteil, dass sofort die Themen platziert werden können, die diese individuelle Nutzerin gerade beschäftigen. Ein weiterer Vorteil ist, dass wir mit KI relativ unkompliziert mehrere Sprachen bedienen können. Aktuell antwortet unser Chatbot in 80 Sprachen. Auch die Komplexität der Antworten ist nahezu beliebig anpassbar.

Die Herausforderungen liegen in der Qualitätssicherung. Wir sind überzeugt, dass unser Chatbot aufgrund der genannten Maßnahmen Antworten von sehr hoher Qualität gibt. Trotzdem können wir nicht jede Antwort im Wortlaut antizipieren und freigeben. Die Frage, die uns am meisten beschäftigt, ist, wie wir die Qualität der KI-gestützten Interaktionen sicherstellen, also dass Tipps und Hinweise, auch Verhaltensaufforderungen, wirklich qualitätsgesichert sind. Es stellen sich auch kompliziertere Datenschutzfragen als bei statischen Texten. Aber da lassen sich auch in der strengen Auslegung von Datenschutzgesetzen, wie das in Deutschland üblich ist, gute Lösungen finden.

Wie ist die Idee für den Workshop auf dem Forum Wissenschaftskommunikation entstanden?

Wir möchten den Austausch mit verschiedenen Fachcommunities aus dem Gesundheitsbereich und der Wissenschaftskommunikation vertiefen. Es gibt viele Fragen, die uns beschäftigen: Wie kann KI genutzt werden, um Motivation für gesundheitsförderliches Verhalten zu unterstützen? Wie können psychologische Erkenntnisse einfließen – also das, was sich viele andere Apps und Spiele bereits zunutze machen? Wie verhalten wir uns dazu? Was sind aus unserer Sicht Qualitätsanforderungen, die erfüllt werden müssen? Dazu gibt es bisher keinen Konsens, weil das Thema einfach zu neu ist.

Was erwartet die Teilnehmer*innen bei dem Workshop?

Wir wollen bei dem Workshop das Thema aus drei verschiedenen Perspektiven beleuchten. Ich werde erläutern, warum wir als fördernde Einrichtung dieses Angebot mitaufgebaut haben, welche Chancen und Herausforderungen wir sehen und welche Erfahrungen wir seit dem Start des Angebots im April 2025 gemacht haben. Ein Wissenschaftler von der Charité in Berlin wird das Angebot aus gesundheitspsychologischer Sicht einordnen. Er geht beispielsweise der Frage nach, wie KI-gesteuerte Tools Erkenntnisse aus der Verhaltenspsychologie umsetzen können, um sie nutzbar zu machen. Und dann wird es noch Einblicke aus der technischen Perspektive geben. Wie werden Sprachmodelle auf der Basis von evidenzbasierten Informationen aufgebaut und implementiert? Welche technischen Mittel zur Qualitätssicherung können wir nutzen?

Über diese Fragen, Chancen und Herausforderungen möchten wir mit den Teilnehmer*innen ins Gespräch kommen. Ich finde es wichtig, dass wir uns darüber verständigen, wie wir mit KI umgehen wollen und wie wir dafür sorgen können, dass diese Technologien uns nützen und nicht schaden.

Forum Wissenschaftskommunikation, Donnerstag, 4. Dezember, 11.30–13 Uhr
Workshop: „KI in der Gesundheitskommunikation – Erfahrungen mit www.sundi.eu
Referent*innen:
Dr. Jana Mäcken, Nortal AG
Susanne Melin, Bosch Health Campus
Dr. Jan Zöllick, Charité - Universitätsmedizin Berlin
Jörg Weiss, con gressa (Moderation)