Wie sich die Wissenschaftskommunikation durch Generative KI verändert

Im vierten Lunchtalk der Reihe „Der digitale Wandel der Wissenschaftskommunikation“ beleuchtet Mike Schäfer den disruptiven Einfluss von Künstlicher Intelligenz auf das Wissenschaftssystem. Er erläutert, was AI literacy ausmacht und wer Verantwortung für einen guten Einsatz von KI trägt. Zudem beschreibt er, wie KI den wissenschaftlichen Arbeitsalltag verändert, welche Anwendungsmöglichkeiten er sieht und warum eine Kennzeichnung von KI-generierten Inhalten nicht zwangsläufig Vertrauen fördert.
von Simon Esser
In der vierten Ausgabe unserer Lunchtalk-Serie sprach Mike Schäfer mit unserem Geschäftsführer Benedikt Fecher über Künstliche Intelligenz und über die Frage, ob KI wissenschaftliches Arbeiten und das Verhältnis von Wissenschaft und Öffentlichkeit disruptiv verändert.
KI als Disruption
76 Prozent der Forschenden nutzten mittlerweile generative KI für ihre Arbeit laut einer Umfrage von Oxford University Press. Im Jahr zuvor seien es noch ungefähr 30 Prozent gewesen. “Ich kenne wenige Technologien, die derart schnell Einkehr in die wissenschaftliche Praxis erfahren haben”, sagt Benedikt Fecher zu Beginn der Veranstaltung. Er will wissen: Verändert das den wissenschaftlichen Erkenntnisprozess?
In seiner Antwort weist Schäfer darauf hin, dass sich die Diskussion über die Rolle von KI oft auf deren Einfluss auf die Kommunikation beschränke – insbesondere im Kontext von Wissenschaftskommunikation. Dabei werde übersehen, dass sich auch die Wissenschaft selbst wandle. Der Einsatz KI-gestützter Tools sei heute in vielen Phasen des wissenschaftlichen Arbeitens präsent, so Schäfer. Während Anwendungen wie Literaturrecherche mittlerweile selbstverständlich seien, werde KI mittlerweile auch in komplexeren Bereichen eingesetzt: Dazu zählten die Entwicklung von Forschungsideen und Hypothesen, die Datenerhebung und -analyse, die Programmierung und Fehlerkontrolle sowie zunehmend die Simulation von Daten.
Zwar böten sich durch KI hier neue methodische Möglichkeiten, doch befinde sich vieles noch in einer explorativen Phase: Forschende testeten, „wozu taugt das eigentlich?“, untersuchten Validität und Robustheit der erzeugten Ergebnisse und verglichen sie mit realen Messdaten. Ein Beispiel liefere eine US-amerikanische Studie, in der mithilfe von KI eine bekannte klimabezogene Umfrage – die „Global Warming's Six Americas“ – simuliert wurde. Die Ergebnisse zeigten eine beachtliche Genauigkeit von bis zu 91 Prozent, jedoch auch systematische Verzerrungen, etwa bei der Repräsentation schwarzer Amerikaner*innen. Diese systemischen Verzerrungen betreffen marginalisierte Bevölkerungsgruppen, bestimmte Weltregionen, Sprachen oder auch wissenschaftliche Disziplinen, die in den Trainingsdaten unterrepräsentiert sind. Solange Vergleichsmöglichkeiten mit realen Messdaten bestehen, könne man den Einsatz methodologisch absichern. Ohne sie werde es gefährlich.
Schäfer verweist auch auf strukturelle Effekte innerhalb des Wissenschaftssystems. Der erleichterte Zugang zu Textgenerierung könne zu einer Zunahme der wissenschaftlichen Publikationen führen – in einem System, das bereits heute unter dem Druck hoher Publikationsdynamiken steht. Diese Entwicklung berge die Gefahr, dass Qualität durch Quantität verdrängt wird. Noch mehr Veröffentlichungen könnten die Sichtbarkeit herausragender Forschung zusätzlich erschweren und den Druck auf Forschende weiter erhöhen, in immer kürzeren Zyklen Ergebnisse zu produzieren.
Auf lange Sicht, davon ist Schäfer überzeugt, wird KI disruptive Entwicklungen fördern. Zwar sei die Aufnahme der Technologie in die Wissenschaft bemerkenswert schnell erfolgt. Es handle sich jedoch nicht um eine plötzliche, revolutionäre Umwälzung, sondern eher um eine tiefgreifende Evolution, die kontinuierlich an Bedeutung gewinne. Der Einfluss der KI werde sich weiter verfestigen und ausdifferenzieren – sowohl innerhalb des Forschungsprozesses als auch in der Interaktion mit der Gesellschaft.
Verantwortung und AI Literacy
Mike Schäfer unterstreicht die hohe Verantwortung, die Forschende im Umgang mit KI-Technologien tragen. Angesichts der intransparenten Funktionsweise vieler Systeme – Stichwort „Blackbox“ – sei es unerlässlich, dass Menschen weiterhin als „Human in the Loop“ in alle entscheidenden Schritte eingebunden bleiben. Vor diesem Hintergrund hebt Schäfer die Bedeutung von AI Literacy für die wissenschaftliche Praxis hervor. Sie beinhalte technologisches Verständnis, praktische Anwendungskompetenz, kritische Auswahl und Bewertung von Tools sowie ein Bewusstsein für gesellschaftliche, soziale und ethische Implikationen der KI-Nutzung. AI Literacy sei daher nicht nur eine technische Qualifikation, sondern zunehmend eine ethische und epistemologische Kompetenz. Aktuell gebe es etwa 40 verschiedene Ansätze zur Erhebung von KI-Kompetenz.
Für die Forschung bedeute dies: KI-Kompetenzen müssen systematisch in die Aus- und Weiterbildung integriert werden. Dabei sollte der Fokus weniger auf modellkonkretem Wissen liegen, sondern vielmehr auf übergeordneten, übertragbaren Fähigkeiten, die einen flexiblen und verantwortungsvollen Umgang mit sich schnell entwickelnden Technologien ermöglichen. Dazu bedarf es auch der Unterstützung durch Institutionen – Universitäten, Forschungseinrichtungen und andere Organisationen müssten geeignete Rahmenbedingungen schaffen, um Forschende in ihrer Weiterentwicklung zu unterstützen. Zugleich müsse eine Diskussion über ethische Leitplanken („Guardrails“) geführt werden, sagt Schäfer.
Schäfer sieht auch die Verlage in der Pflicht. Ein aktuelles Beispiel – in einem Buch von Nature Springer heißt es “It is important to note, that as an AI language model” – offenbare Defizite in der Systematik redaktioneller Kontrollprozesse. Auch die Vielzahl zweifelhafter Journale, die Forschende unter Zeitdruck zu Beiträgen auffordern, untergrabe wissenschaftliche Qualitätssicherung. Die Folge sei eine Fragmentierung des Publikationssystems, die durch KI-gestützte Produktion noch verstärkt werden könne.
Vor diesem Hintergrund betont Schäfer, dass eine klare Trennung zwischen innerwissenschaftlicher und öffentlicher Kommunikation im Kontext der KI nicht mehr zu ziehen sei. Die strukturellen Veränderungen in der Kommunikationsinfrastruktur wirkten sich auf beide Bereiche aus und erforderten integrative, disziplinübergreifende Antworten.
Anwendung von generativer KI in der Wisskomm-Praxis
Eine Stärke der KI liegt aus Schäfers Sicht bei der Erklärung komplexer Sachverhalte. Modelle wie ChatGPT zeichneten sich dadurch aus, wissenschaftlich komplexe Inhalte für unterschiedliche Zielgruppen verständlich und anschlussfähig darzustellen – in Textform, aber zunehmend auch in anderen Formaten wie Audio oder Bild.
Dies gelte vor allem bei Themen mit stabilem wissenschaftlichem Konsens, etwa den Grundlagen des menschengemachten Klimawandels. Eigene Studien zeigten, dass bei etablierten Themen die Antworten der Modelle sachlich korrekt, zugänglich und differenziert seien. Auch im Gesundheitsbereich bestätigen verschiedene Forschungsarbeiten die Eignung generativer KI zur faktenbasierten Informationsvermittlung – etwa bei Aufklärung zu Alzheimer, zu Impfungen oder Krebs. Problematisch werde es bei neuen oder kontroversen Forschungsthemen, bei denen oft unklare oder fehlerhafte Informationen generiert würden.
Besonders hervorzuheben sei laut Schäfer das dialogische Potenzial der Tools: “Man kann nachfragen. [...] Ich kann sagen: ‘Gib mir mal ein Beispiel.' Oder: ‘Habe ich noch nicht verstanden – erklär’s mir noch mal anders.' Und ich kann all das machen, ohne dass mir eine Person gegenübersitzt, bei der ich vermuten muss, dass sie denkt: ‘Der Schäfer ist ein bisschen dämlich’.” Dies könne Menschen erreichen, die keinen direkten Zugang zur Wissenschaft haben oder sich nicht zutrauen, an öffentlichen Veranstaltungen wie einem Tag der offenen Tür teilzunehmen. Generative KI könne hier niedrigschwellige, personalisierte Kommunikationsräume eröffnen und damit zur Inklusion beitragen.
Schäfer sieht eine Chance, mit KI das Skalierungsproblem partizipativer Formate zu lösen. Formate wie Bürgerdialoge gelten als Ideal, sind aber schwer großflächig umsetzbar. Generative KI könne hier punktuell Abhilfe schaffen, indem sie einzelne Elemente dialogischer Kommunikation skaliert, simuliert oder personalisiert, sagt Schäfer. Zwar könne sie den echten Dialog nicht ersetzen, wohl aber ergänzen – etwa als Einstieg, zur Vorbereitung oder zur Nachbereitung partizipativer Prozesse. Dies erfordere interdisziplinäre Zusammenarbeit: Informatik, Sozialwissenschaften, Kommunikationsforschung, Design und Ethik müssten gemeinsam Lösungen entwickeln, wie solche KI-basierten Dialogsysteme sinnvoll, fair und wirksam gestaltet werden können.
Wie der Einsatz generativer KI die Arbeit verändert
Kommunikation sei eines der Tätigkeitsfelder mit dem höchsten Automatisierungspotenzial, so Studien von OpenAI oder wirtschaftlichen Prognosen. Schäfer erwartet, dass sich das Berufsbild der Wissenschaftskommunikator*innen verändern wird: weg von der klassischen Content-Produktion, hin zur Content-Kuratierung, also zu Aufgaben der Auswahl, Bewertung, Koordination und redaktionellen Bearbeitung.
Ein wesentliches Indiz dafür sei die Diversifizierung der Nutzung von KI-Tools, wie sie u. a. in Arbeiten von Justus Henke belegt sei. Seien sie anfangs vor allem zur Textproduktion und für Übersetzungen eingesetzt worden, dienten sie mittlerweile auch zur Generierung von Visualisierungen, zur Ideenentwicklung für Formate und Kampagnen, zur Planung, Organisation und Evaluation. Dabei gehe es weniger um qualitative Optimierung als vielmehr um Effizienzgewinne. Mit dieser Entwicklung stelle sich die Frage: Wird die gewonnene Zeit tatsächlich für kreative, kollaborative und strategische Aufgaben genutzt – oder lediglich für die Steigerung von Produktionsvolumen?
Darüber hinaus betont Schäfer die institutionellen Disparitäten, die sich aus dem Zugang zu technologischer Infrastruktur ergeben. Diese „KI Divides“ zeigten sich nicht nur zwischen Individuen, sondern zunehmend auch zwischen Organisationen, Hochschulen und Ländern. Einrichtungen, die über Ressourcen, Kompetenzen und experimentierfreundliche Umgebungen verfügen, seien deutlich besser in der Lage, die Potenziale generativer KI zu erschließen und in ihre Arbeitsprozesse zu integrieren. Auch innerhalb der Wissenschaftskommunikation könne sich die Spreizung zwischen gut ausgestatteten Zentren mit KI-Expertise und ressourcenschwächeren Einrichtungen weiter vergrößern – mit Auswirkungen auf Reichweite, Qualität und Innovationskraft.
Transparenz misstrauen
Transparenz im Umgang mit KI-generierten Inhalten sei eine zentrale gesellschaftliche Erwartung, so Mike Schäfer – auch wenn konkrete Studien zur Wissenschaftskommunikation noch fehlten, zeigten Befragungen aus angrenzenden Bereichen wie Journalismus und Gesundheitskommunikation eine klare Tendenz: Bürger*innen möchten wissen, wie Inhalte entstanden sind und ob Künstliche Intelligenz dabei eine Rolle gespielt hat.
Doch mit dieser Erwartung sei ein komplexes Spannungsfeld verbunden: Was bedeutet Transparenz überhaupt? Reicht es, pauschal auf die Nutzung von KI hinzuweisen oder bedarf es einer detaillierten Offenlegung – etwa der verwendeten Tools, Modelle, Trainingsdaten oder sogar Konfigurationen? Und: Wo zieht man die Grenze? Gilt die Pflicht zur Offenlegung auch für unterstützende Tools wie etwa Übersetzungsprogramme (z. B. DeepL) oder Autokorrektur-Software?
Diese Fragen führten laut Schäfer zu einer Ambivalenz: Transparenz werde zwar eingefordert, könne aber paradoxerweise das Vertrauen in die Inhalte schwächen. Mehrere Studien zeigten, dass Leser*innen Texte, von denen sie wissen, dass sie (teilweise) von KI erstellt wurden, kritischer bewerten – selbst wenn diese inhaltlich mit menschlich verfassten Texten identisch sind. Transparenz sei also nicht automatisch vertrauensfördernd – sie könne sogar kontraproduktiv wirken, wenn sie vorwiegend als Warnsignal interpretiert wird.
Schäfer fordert deshalb intelligentere Kennzeichnungsstrategien: mehrstufige, kontextabhängige oder sogar interaktive Modelle, die nicht nur deklarieren, sondern auch erklären. Nur Transparenz, die auch verstehbar und interpretierbar ist, trage zur Vertrauensbildung bei. Im Bereich der Wissenschaftskommunikation – wo Glaubwürdigkeit essenziell ist – müsse daher besonders sorgfältig abgewogen werden, wie, wo und mit welchem Ziel KI-Einsatz gekennzeichnet wird. Es gehe um mehr als Informationspflicht – es gehe um den Aufbau eines neuen, reflektierten Verständnisses für maschinell unterstützte Wissensproduktion.
Professor Dr. Mike S. Schäfer ist Professor für Wissenschaftskommunikation und Direktor des Zentrums für Hochschul- und Wissenschaftsforschung (CHESS) an der Universität Zürich. Er leitet das Institut für Kommunikationswissenschaft und Medienforschung (IKMZ) und ist Co-Leiter des „Wissenschaftsbarometer Schweiz“. Zudem ist er gewähltes Mitglied der acatech – Deutsche Akademie der Technikwissenschaften und Associate Fellow am Collegium Helveticum. Seit 2017 ist Mike Schäfer Mitglied im wissenschaftlichen Beirat des Wissenschaftsbarometers.
Weitere im Lunchtalk angesprochene Literatur und Calls:
Essay von Mike Schäfer: The Notorious GPT: science communication in the age of artificial intelligence im Journal of Science Communication
Literature review von Benedikt Fecher et al.: Friend or foe? Exploring the implications of large language models on the science system
KI und Verschwörungsglaube (Costello et al.): Durably reducing conspiracy beliefs through dialogues with AI
Das WiD-Perspektiven-Papier: Wissenschaftskommunikation mit generativer KI: Perspektiven für Einsatz und Governance
Special Issue JCOM Journal of Science Communication: Science Communication in the Age of Artificial Intelligence
Call for Proposals für das Forum Wissenschaftskommunikation 2025: Algorithmen, Plattformen und KI: Wissenschaftskommunikation im digitalen Wandel