Campus Citizen Science 2025: KI zwischen Metaphern, Praxis und Partizipation

© Simon Esser / Wissenschaft im Dialog
07. Oktober 2025

Am 6. Oktober 2025 fand der erste Campus Citizen Science von mit:forschen! Gemeinsam Wissen schaffen statt.

von Simon Esser


Der Campus Citizen Science 2025 eröffnete einen konzentrierten Lern- und Austauschraum für Praktiker*innen: interdisziplinär und praxisnah. Im Fokus stand in diesem Jahr die Frage, wie Künstliche Intelligenz (KI) die Citizen Science verändert – von der Skalierung von Angeboten zum Mitforschen über den Abbau von Barrieren und den Ausbau von Zugänglichkeit bis zu neuen Formen der Beteiligung an Forschung.

Mit ihrer Keynote „Das Problem mit der Intelligenz“ setzte Anna Henschel den Ton für die weitere Diskussion. In ihrer Keynote zeigt sie, wie sehr die gängige Metapher „Künstliche Intelligenz“ verzerrt, warum sie dennoch so hartnäckig bleibt und wie eine präzisere Sprache Missverständnisse, Hype und falsche Erwartungen dämpfen kann.

© Simon Esser / Wissenschaft im Dialog

Warum die „KI“-Metapher in die Irre führt

Bereits menschliche Intelligenz ist komplex und ihre Definition in der Neurowissenschaft umstritten. Wer nun auch noch die Leistung von Maschinen daran spiegelt, suggeriert Vergleichbarkeit, wo keine existiert. Neurowissenschaftliche Prozesse seien weder eins zu eins abbildbar noch eine geeignete Folie für algorithmische Verfahren. Aus dieser schiefen Passung erwachsen Fehlannahmen. So erscheinen Systeme als handelnde Akteure, als unvermeidliche Entwicklung oder als Wissensquelle, obwohl sie dies letztlich nicht seien. Im Rahmen eines Journalist-in-Residence-Programms hat Anna Henschel mit KI-Forschenden gesprochen. Das Stimmungsbild: Die Vermenschlichung in den Medien wird überwiegend als unangebracht und eher negativ bewertet.

Metaphern strukturieren Wirklichkeit

„Metaphern sind nicht nur Ausdruck des Verständnisses, sondern beeinflussen auch unsere Wahrnehmung“, sagt Anna Henschel. Sie seien keine harmlosen Schmuckmittel. Sie strukturierten das Denken, lenkten die Aufmerksamkeit und würden Handlungen legitimieren. Das Alltagsbild „Zeit ist Geld“ illustriere das: Wenn wir von Zeitersparnis oder -verschwendung sprächen, beeinflusse die Geld-Metapher real unser Konzept von „Zeit“. Übertragen auf KI könne eine menschenähnliche Rahmung rechtliche Argumente, politische Bewertungen und gesellschaftliche Erwartungen verzerren. Wenn maschinelles Lernen als „kreativ“ beschrieben wird, habe das weitreichende Auswirkungen: Verantwortlichkeiten verschwimmen, Fähigkeiten werden überschätzt, Risiken fehlgedeutet, sagt Anna Henschel. Das wirke bis in Rechtsprechung und Regulierung.

Warum wir an der Metapher festhalten

Trotz ihrer Schwächen bestehe die „KI“-Metapher aus drei Gründen. Erstens biete sie kognitive Entlastung: Das Feld sei komplex; die Metapher vermittle epistemischen Komfort. Zweitens wirke sie emotional: Faszination und Furcht, beides starke Aufmerksamkeitsmotoren. Drittens habe sie rhetorische Wucht: „KI“ klinge groß und zukunftsgewaltig – und passe ins Marketingnarrativ vieler Techkonzerne. Der Preis sei Übervereinfachung: Bestimmte Aspekte (Intentionalität) werden überbetont, andere (Datenabhängigkeit) bleiben verdeckt.

Bessere Bilder statt nichtssagender Wörter

Henschels Schluss: Die Kommunikation solle sich auf ihre Stärke besinnen – Sprache. Sie fordert präzise Begriffe: Statt „KI“ solle man sagen, worum es geht und Technologie möglichst genau benennen und lieber konkret von Chatbots, Klassifikationsmodellen und automatisierten Verfahren sprechen. Anstatt ganz auf Metaphern zu verzichten, empfiehlt sie, eigene Metaphern zu entwickeln. Sie schlägt vor, Chatbots lieber als einen „ahnungslosen Praktikanten am ersten Tag“ und nicht als “künstliche Superintelligenz" zu erklären. Dieses sprachliche Bild signalisiere, dass das Programm kein umfassendes Wissen, Urteilsvermögen oder Verantwortlichkeit habe.

Eine Checkliste für Redaktionen und Kommunikator*innen

Daraus folgt eine einfache Faustregel: Wenn der Begriff „KI“ unvermeidlich scheint, helfe es, zu präzisieren, einzugrenzen, zu kontextualisieren – und die Grenzen der Metapher sichtbar zu machen. Metaphern sollten als solche kenntlich gemacht werden, Nebenwirkungen benannt und – wo möglich – Alternativen getestet werden.

Die Wissenschaftskommunikation solle Faszination zulassen, aber die Grenzen der Erklärleistung einer Metapher mitliefern. Henschel schlägt einen Fragenkatalog vor, den Kommunikator*innen in ihrem Alltag nutzen können:

  1. Welche Gefühle ruft die Metapher hervor?
  2. Wo hilft sie uns, die Technologie zu verstehen?
  3. Welche Perspektive vermittelt sie, um sich die Technologie vorzustellen?
  4. Wo ist die Metapher hilfreich und wo schädlich?
  5. Ist die Sicht auf die Technologie eher positiv oder negativ?
  6. Inwiefern verdeutlicht die Metapher Aspekte der Zugänglichkeit oder Gleichberechtigung?
  7. Wie stellt die Metapher die Beziehung zwischen Menschen und Technologie dar?

Weniger „KI“, mehr Verstehen

Henschels Appell ist klar: Gute Wissenschaftskommunikation wählt Metaphern, die das Verständnis fördern statt Illusionen zu nähren. Wer präzise benennt, welche Systeme im Einsatz sind und welche Grenzen gelten, stärkt Urteilsfähigkeit – in Redaktionen, in der Politik und in der Öffentlichkeit.

Direkt im Anschluss an die Keynote diente das World-Café dem gegenseitigen Kennenlernen und der gemeinsamen Standortbestimmung. An Thementischen wurde sich über Erfahrungen mit KI in Citizen-Science-Kontexten ausgetauscht, Möglichkeiten, Grenzen und notwendige Rahmenbedingungen ausgelotet sowie offene Bedarfe und nötige Kompetenzen zusammengetragen.

Vom Sprechen ins Tun

Am Nachmittag wechselten die Teilnehmer*innen in die Think & Try Labs: Hands-on, projektnah und bedarfsorientiert. In kompakten Einheiten ging es um:

  • Prompts und Interaktion: Grundlagen wirksamer Zusammenarbeit mit Modellen
  • Integration von Sensorik: KI-basierte Erfassung von Daten
  • Transkription: Automatisierte Erkennung historischer Handschriften
  • Datenerfassung mit KI-basierten Systemen: Von der technischen Implementierung über Analyseverfahren bis zur Qualitätssicherung
  • Storytelling: Strategien zur besseren Kommunikation über KI

Die Teilnehmer*innen lernten Möglichkeiten für den Einsatz von KI in Citizen-Science-Projekten kennen, konnten die passenden Tools gleich praktisch erproben und erhielten wertvolle Tipps für die Praxis. Das Think and Try Lab zum Thema Storytelling knüpfte an die Keynote von Anna Henschel an und lud die Teilnehmenden ein, das Kommunizieren über KI-gestützte Projekte in einem Pitch-Spiel zu üben.

Das war der erste Campus Citizen Science

Zum Ausklang des Tages fassten die Referent*innen im Sauriersaal noch einmal für alle zusammen, was in ihren Labs diskutiert und erarbeitet wurde. Beim Campus Citizen Science wurde deutlich: Es gibt in der Community bereits einiges an praktischer Erfahrung und gelungene Beispiele für die sinnvolle Integration von KI-Technologien in partizipative Forschungsprojekte. Gleichzeitig bedürfen offene Fragen wie die nach Rahmenbedingungen und Standards weiterer gemeinsamer Auseinandersetzung. Die Veranstaltung stand ganz im Zeichen dieser Entwicklungen und kann ein Auftakt und Anstoß für mehr Austausch und Kooperation zu KI und Citizen Science sein.