"Wir sind Schüler, wir wissen, was Schüler wollen"

Schüler*innen des Emmy-Noether-Gymnasiums in Berlin haben selbstständig ein Wissenschaftscafé über KI veranstaltet: Ein Veranstaltungsformat, das Jugendlichen ermöglicht, in den direkten Austausch mit Wissenschaftler*innen zu treten. Dabei ging es darum, warum generative KI manipulativ ist und was sie für beruflichen Perspektiven der Schüler*innen bedeutet.
Von Simon Esser, Leya Safian, Kerstin Grundhöffer
Ein letzter Biss ins Pausenbrot. Stimmengewirr. Der Klassenraum füllt sich. Rund 60 Schüler*innen der zehnten Klassen des Emmy-Noether-Gymnasiums in Berlin kommen zum Junior Science Café KI. Von Schüler*innen für Schüler*innen – und mit Wissenschaftler*innen: Ein Veranstaltungsformat, das Jugendlichen ermöglicht, in den direkten Austausch mit Wissenschaftler*innen zu treten und sich auf Augenhöhe mit aktuellen Forschungsthemen auseinanderzusetzen. Der Titel des Tages: „Fake it till you make it oder die Tücken der KI“ – ein provokanter Einstieg in eine ebenso kritische wie konstruktive Auseinandersetzung mit den Chancen und Risiken von Künstlicher Intelligenz (KI).
Schüler*innen übernehmen Verantwortung – von der Idee bis zur Umsetzung
Im Mittelpunkt des Formats stehen jedoch nicht nur die eingeladenen Expert*innen, sondern ganz bewusst die Jugendlichen selbst. Die Schüler*innen des Politik-Leistungskurses übernehmen als Veranstalter*innen und inhaltliche Gestalter*innen die zentrale Rolle im gesamten Ablauf. Von der Themenfindung über die Einladung der Expert*innen bis hin zur Moderation der Veranstaltung – alle wesentlichen Schritte liegen in den Händen der Jugendlichen.
Theresa und Jonas führen als Moderator*innen durch das Gespräch und sorgen für eine strukturierte und zugleich offene Diskussion. Unterstützt werden sie von ihren Mitschüler*innen, die im Vorfeld Fragen vorbereitet, sich intensiv mit den aktuellen Entwicklungen im Bereich KI auseinandergesetzt und die passenden Forscher*innen für die Veranstaltung angefragt haben.
„Wir hatten zuerst das Gefühl, dass noch einmal sehr viele Nachfragen kommen”, sagt Theresa. Die Wissenschaftler*innen wollten sich zunächst absichern, ob es sich um eine seriöse Veranstaltung handle. Die Schüler*innen wiederum mussten herauskriegen: „Passen die Forscher*innen zu uns und passen unsere Schwerpunkte zu deren Expertise?”, so Theresa. „Die Meisten haben sehr interessiert reagiert”, sagt Jonas und zeigt sich sehr zufrieden mit der finalen Auswahl:
Als Expert*innen sind Dr.-Ing. Leonhard Hennig, Senior Researcher am Speech and Language Technology Lab des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), und Prof. Dr. Christina Kratsch von der Hochschule für Technik und Wirtschaft Berlin geladen. Die zentrale Leitfrage des Cafés lautet: „Die Verbreitung von Falschinformationen durch KI – akzeptable Nebenwirkung oder manipulative Gefahr?“ Entlang dieser Frage entwickelt sich eine Diskussion über technische Grundlagen, gesellschaftliche Auswirkungen und ethische Herausforderungen.

Ganz subjektiv: Diskussion über Künstliche Intelligenz und Manipulation
Christina Kratsch erklärt, dass KI-Systeme – insbesondere Large Language Models (LLM) wie ChatGPT – im Kern lediglich Wahrscheinlichkeiten berechnen. „Wer reitet so spät durch Nacht und … Rechtsschutzversicherung”. ChatGPT mache Wort für Wort Vorhersagen und biege dabei im Wahrscheinlichkeitsraum hin und wieder falsch ab. Der Eindruck von „Intelligenz“ sei das Ergebnis programmierter Vorhersagen.
Ob diese Vorhersagen objektiv sein können, wollen die Schüler*innen wissen. Kratsch betont, dass jede KI ein Produkt menschlicher Entscheidungen sei und somit nicht objektiv oder neutral sein könne: „KI ist keine objektive Beobachterin, sondern ein Produkt mit einer Agenda – sei es durch Programmierung, Geschäftsmodell oder Anwendungskontext.“ Die Verantwortung liege bei den Entwickler*innen. ChatGPT sei eine Software, die durch Daten „bewusst gefüttert” werde: Die US-amerikanische Wikipedia werde berücksichtigt, die deutsche oder afrikanische nicht. „Es ist nur einigermaßen linksliberal, weil es zufällig von Leuten in San Francisco programmiert wurde, die so drauf waren. Eine KI von Elon Musk würde natürlich nicht so sein“, sagt Kratsch.
„Als Programmierer*in von KI wähle ich aus, wie höflich gesprochen wird, welche Fragen und Wörter verstanden werden. [...] KI ist das Produkt meiner Entscheidung”, so Kratsch. „Das kann man als Manipulation sehen oder aber auch als Inkompetenz.” Oftmals würden die Modelle erstmal gebaut, „weil man es kann”. Ohne böse oder gute Absicht dahinter. Ethische Fragen spielten dabei meist keine Rolle, meint Kratsch, das Motto sei vielmehr „Move fast and break things”.

Leonhard Hennig ergänzt, dass KI-Systeme in ihrer Entwicklung stark westlich geprägt seien und gesellschaftliche Narrative oft unreflektiert reproduzierten. Ein weiteres Problem sei die Degeneration von KI-Modellen: „Alle Daten, die de facto zur Verfügung stehen, sind bereits abgegrast. Was passiert, wenn ein Kreislauf entsteht, aus generierten Texten und Bildern, aus denen wiederum KI generiert?”
Er kritisiert, dass LLMs als Echokammern fungierten: Er habe eine Studie durchgeführt, in der er dem LLM aufgetragen habe, die Rolle einer Wähler*in der Grünen oder einer Politiker*in der AfD einzunehmen, und dann Fragen gestellt habe. „Sie reden dir nach dem Mund und versuchen dir zu gefallen. Man muss sie durch Prompts aktiv dahin bringen, dass sie das nicht machen”, so Leonhard Hennig.
Wenn von KI die Rede sei, so Christina Kratsch, werde oft nur an das geöffnete Fenster von Microsoft Copilot gedacht. Dabei sei KI längst überall integriert. „Erst letztens habe ich gelesen, dass 80 Prozent der Nutzer*innen von Instagram Bots sind. Nachrichten, Likes, Unternehmensmeldungen an der Börse, der Typ, mit dem man im Callcenter spricht, um den Router einzurichten” – all das könne KI-generiert sein.
KI als Katalysator für Rationalisierung und Leistungsdruck
Besonders spannend wird es immer dann, wenn Theresa und Jonas die Perspektive der Schüler*innen aufgreifen und deutlich machen: Jugendliche sind längst Expert*innen im Umgang mit KI – als Nutzer*innen im Alltag, als Lernende im Klassenzimmer und als kritisch Denkende im gesellschaftlichen Diskurs. Und sie fragen sich, wie KI die Arbeit verändert. Jonas möchte wissen: „Inwiefern verstärkt KI bestehende Prozesse wie Outsourcing oder Rationalisierung?”
Der Mainstream-Diskurs, demzufolge KI jetzt „die Hausaufgaben erledige“ und „Aufgaben vereinfache“, greife viel zu kurz, sagt Christina Kratsch. Vielmehr erhöhe der Einsatz solcher Systeme den Leistungsdruck: Aufgaben werden nicht reduziert, sondern vervielfacht – in der stillschweigenden Annahme, dass Tools wie ChatGPT oder Übersetzungs-KI ohnehin genutzt werden. „Meine ausländischen Studierenden nutzen KI, um zum Beispiel Vorlesungen in ihre Muttersprache zu übersetzen. Ich sage ihnen immer: Nutzt KI, wo immer ihr könnt. Ich gehe dann davon aus, dass ihr sie nutzt, und erwarte, dass ihr dann entsprechend hervorragende Ergebnisse liefert.“ Jonas bringt es auf den Punkt: KI sei wie der Taschenrechner im Mathematikunterricht – eine Erleichterung, die aber sofort wieder zu komplexeren Aufgaben führe.
Der Maßstab verschiebe sich – nicht nur in der Schule, sondern auch im Wettbewerb um Studienplätze und Jobs, so Christina Kratsch, „KI ist ein krasses Mittel, um Kosten zu sparen". Automatisierung sei früher für manuelle, also körperliche Tätigkeiten eingesetzt worden. Bis vor Kurzem habe sie eher die Fließbandarbeiter*in ersetzt, die ein Bauteil sortieren. Plötzlich gehe es aber auch den Akademiker*innen und Knowledge Workern an den Kragen. „Alle wollen gut bezahlte Softwareentwickler*innen werden.” Heute antworte sie auf die Frage, wie viel man zukünftig als Informatiker*in verdiene: „Nicht fünfstellig, sondern 30 Euro im Monat. Denn so viel kostet ein Copilot im Monatsabo”.

Medienbildung und ethische Reflexion
Zuletzt geht es um die Skills, die Bürger*innen brauchen, um gut mit KI umzugehen. Theresa betont, dass in der Politikwissenschaft Beweise eine große Rolle spielen. Sie fragt: „Wie kann man Falschinformationen verhindern und gute Informationen verifizieren?“
„Weil es so viele Informationen gibt, ist man latent überfordert”, sagt Leonard Hennig. Von mündigen Bürger*innen werde erwartet, dass sie sich informieren. Das werde aber durch die Informationsflut erschwert, schließlich habe man nur begrenzte Zeit. Früher sei die Idee gewesen, dass Journalist*innen und Fachleute Informationen filtern und aufbereiten. Diese Gatekeeper-Funktion sei aber nicht mehr gegeben und der Journalismus leide unter knappen Ressourcen. Zudem sei der Zeitaufwand für die Verifizierung um ein Vielfaches höher als für die Produktion von Inhalten. Dies werde auch bewusst ausgenutzt. Stichwort „Flood the zone“: Der US-Präsident und die Republikaner nutzten diese Methode seit Jahren.
Christina Kratsch warnt davor, sich hauptsächlich auf ChatGPT zu konzentrieren, wenn es um die Risiken im tagtäglichen Umgang mit KI geht: „Wenn man das öffnet, versteht man zumindest, dass man mit einer KI spricht. Die Gefahr ist aber, wenn meine Mama Facebook aufmacht und Fake News liest. Meine Mama versteht nicht einmal, was ChatGPT ist. Das ist die Gefahr.” Christina Kratsch plädiert für die gezielte Vermittlung von „Verifikationskompetenz“ als neue Kulturtechnik – vergleichbar mit Lesen, Schreiben oder Rechnen. Medien- und KI-Kompetenz müsse integraler Bestandteil der schulischen Bildung werden. Mit Blick auf die Gefahren von Manipulation und Überforderung sagt sie: „Wir dürfen die Menschen nicht alleine lassen“.
Selbst gemacht
Im Anschluss an die Podiumsdiskussion teilen Theresa und Jonas Tipps für die Organisation eines Science Cafés: „Geht es auf keinen Fall zu strikt an”, sagt Theresa, „es soll locker sein, es soll entspannt sein.” Sie rät, frühzeitig eine gute Konstellation in der Gruppe zu organisieren: „Zu wem passt was? Wer mag sich mit den Expert*innen auseinandersetzen, wer interessiert sich für welche Fragestellung?” Das mache es für alle leichter. „Es ist wichtig, dass man eine gewisse Struktur hat in den Teams, aber ansonsten läuft das dann ganz von alleine”, sagt Jonas. „Man muss sich einfach darauf einlassen und das Beste daraus machen.” „Am Ende haben wir uns gar nicht richtig ans Skript gehalten, sondern sind eher so in diesen direkten Austausch gegangen, weil wir einfach dachten: Hey, zur Atmosphäre passt das viel besser, wenn wir das alle zusammen machen, entspannt machen und eben so eine Café-Atmosphäre aufbauen”, sagt Theresa. „So konnten wir viel direkter auf die Dinge eingehen, die uns auch interessieren. Weil, wir sind Schüler, wir wissen, was Schüler wollen und das macht’s viel persönlicher.”

Das Junior Science Café KI ist ein Projekt von Wissenschaft im Dialog in Kooperation mit RHET AI Center for Rhetorical Science Communication Research on Artificial Intelligence und startete 2023 mit dem Ziel, Schüler*innen ab Klasse 8 für das Thema Künstliche Intelligenz zu sensibilisieren und eine intensive Auseinandersetzung mit dem Thema anzuregen. Bereits von 2014 - 2018 organisierte WiD gemeinsam mit der Deutsche Telekom Stiftung das Junior Science Café: Denk digital!. Bei der Planung und Umsetzung einer Caféveranstaltung an der eigenen Schule stehen Selbstorganisation, Eigenverantwortung und ein reflektierter Umgang mit Wissenschaft im Fokus. Am Emmy-Noether-Gymnasium übernahmen die Schüler*innen diese Verantwortung mit beeindruckender Souveränität. Das Junior Science Café KI wird gefördert von der VolkswagenStiftung.