· ki und gerechtigkeit · Die Entwicklung einer naturwissenschaftlichen Identität, also die positive Selbsteinschätzung hinsichtlich der Aussage „Naturwissenschaft- ler*in – das bin ich“, hängt maßgeblich von Aner- kennung ab. Dabei spielt vor allem die Anerken- nung durch Personen eine Rolle, die als fachlich kompetent wahrgenommen werden – bei Schü- ler*innen etwa ihre Physiklehrkräfte. Im Physikunterricht wird KI unter anderem dazu verwendet, Antworten von Schüler*innen automatisiert auszuwerten. Diese Auswertungen führen oft direkt zu Rückmeldungen an die Schü- ler*innen oder dienen den Lehrkräften als Grund- lage für Feedback, das entscheidend zur Anerken- nung beiträgt. Deswegen ist Bias bei KI identitätsrelevant Was ist ein Bias? Von Bias in KI sprechen wir, wenn KI beispielsweise systematisch besser für Schüler funktioniert als für Schülerinnen. Dies kann passieren, weil die KI mit historischen Daten trainiert wird. Wenn diese Daten bereits einen Bias enthalten, übernimmt die KI diesen, sodass sie am Ende ebenfalls voreingenommene Ergeb- nisse liefert. Wenn KI für bestimmte Gruppen wie weib- liche oder nicht-binäre Schüler*innen weniger zuverlässig funktioniert, kann das zu unbegrün- deten negativen Rückmeldungen führen. Die be- troffenen Schüler*innen haben dann weniger Gelegenheit, eine starke naturwissenschaftliche Identität zu entwickeln. Dies wiederum kann die Ungleichheiten verstärken, die heute be- reits sichtbar sind: Entlang von Geschlechtsiden- tität zeigt sich ein großes Gefälle, wenn es um Berufe geht, in denen Physik eine zentrale Rol- le spielt, beispielsweise Elektrotechniker*in oder Ingenieur*in. Auf dem Weg zu einer gerechten KI Wie das Training von KI funktioniert, hat Andreas Mühling in seinem Beitrag im IPN-Journal Nr. 11 bildhaft und, für Einsteiger*innen geeignet, er- läutert. Für Praktiker*innen im Bereich der KI existieren viele Codes of Conduct, die Diskrimi- nierung verbieten. Gleichzeitig belegen zahlreiche Forschungsarbeiten, dass Bias in KI kein Einzel- fall sind, sondern systematisch vorkommen, und dass es eine große Lücke gibt zwischen Diskrimi- nierungsverbot auf dem Papier und dem, was in der KI-Praxis geschieht. In einer Fallstudie konn- ten wir für ein Beispiel im Physikunterricht auf- zeigen, warum es diese Lücke gibt: Vorgaben zum Diskriminierungsverbot sind häufig nicht ausrei- chend spezifiziert. Deswegen müssen wir uns als KI-Community folgende Fragen ganz bewusst stellen: Gegen welche konkreten Bias braucht es präventive Maßnahmen? Spezifischer für den Physikunterricht: Welche Bias sind im Physikunterricht besonders relevant und wie können wir ihnen effektiv und effizient mit politischer Regulierung begegnen? Ein Spannungsfeld: Politische Vorgaben Ausgangspunkt ist die Frage: Beantworten Schü- ler*innen je nach Geschlechtsidentität, Migrati- onsgeschichte und Behinderung Physikaufgaben unterschiedlich? Es könnte ja sein, dass Schü- ler*innen der siebten und achten Klasse Aufgaben zu Energie genau gleich beantworten, wir also keine Unterschiede finden. In diesem Fall wäre es eine Überregulierung, wenn politisch vorge- schrieben wird, wie Trainingsdaten in Bezug auf Geschlechtsidentität zusammengesetzt sein müs- sen und damit eine unnötige bürokratische Hür- de. Oder gibt es einen Unterschied in den Ant- worten? Dann kann Regulierung notwendig sein, um keine Schüler*innen mit KI zu diskriminieren. Unsere bisher unveröffentlichten ersten Ergeb- nisse deuten darauf hin, dass es Bias in KI für Physikunterricht gibt, wenn nicht aktiv gegen- gesteuert wird. Durch unsere Forschung kann identifiziert werden, an welchen Stellschrauben diesem Bias besonders effektiv und effizient ent- gegengewirkt werden kann. Grimm, A., Steegh, A., Colakoglu, J., Kubsch, M., & Neumann, K. (2023). Positioning responsible learning analytics in the context of STEM identities of under-served students. Frontiers in Education, 7, Article 1082748. https://doi.org/10.3389/fe- duc.2022.1082748 Grimm, A., Steegh, A., Kubsch, M., & Neumann, K. (2023). Lear- ning analytics in physics education: Equity-focused decision-making lacks gui- dance! Journal of Learning Analytics, 10(1), 71-84. https://doi.org/10.18608/ jla.2023.7793 Mühling, A. (2024). Die Lernumgebungen des KI- Labors. IPN Journal, 2024(11), 18–20. ipn journal no 12 18