Looking for Something Causal?
Die versteckten Beziehungen der Daten
Kevin Baum, DFKI im Gespräch mit Milena Milivojevic, IM+io

(Titelbild: © Adobe Stock | 1216348240 | AiAbstract )
Kurz und Bündig
KI-Systeme bieten Chancen, bergen aber auch Risiken wie algorithmische Diskriminierung. Verzerrungen in Daten sind unvermeidlich – entscheidend ist der Umgang damit. Unternehmen sollten die Herkunft ihrer Modelle kennen, Daten prüfen lassen, Design- und Einsatzentscheidungen für KI explizit treffen und dokumentieren sowie klare Handlungsanweisungen festhalten. EU-Vorgaben wie der AI Act, ein AI-Safety-Institut und KI-Reallabore sollen künftig Standards setzen und Hochrisiko-Anwendungen vorab testen.
Manche Daten verbergen mehr, als sie preisgeben. Zwischen Zahlen und Variablen entstehen Beziehungen, die nicht sofort sichtbar sind – und manchmal falsche Schlüsse nahelegen. Wer verstehen will, was wirklich Ursache und Wirkung ist, muss tiefer schauen. Wie lassen sich diese verborgenen Muster erkennen und sinnvoll nutzen, ohne ihnen blind zu vertrauen?
IM+io: Bevor wir in die inhaltlichen Themen einsteigen – stellen Sie sich bitte einmal kurz vor und, woran Sie gerade arbeiten.
KB: Ich bin stellvertretender Forschungsbereichsleiter und Team Lead am Deutschen Forschungszentrum für Künstliche Intelligenz, kurz DFKI, und beschäftige mich dort vor allem mit interdisziplinären Fragen im Schnittfeld von Informatik und ethisch-gesellschaftlichen Fragen rund um KI-Systeme. Das heißt, ich schaue nicht nur auf die Technik, sondern auf die Folgen, die ihr Einsatz für Menschen, Organisationen und die Gesellschaft haben kann. Ich forsche vor allem daran, wie wir KI-Systeme verantwortungsvoll gestalten und einsetzen können, um Fairness und Vertrauenswürdigkeit zu fördern und effektive Kontrolle zu gewährleisten.
Neben meiner Tätigkeit am DFKI engagiere ich mich ehrenamtlich im gemeinnützigen Verein Algoright. Wir sind eine Gruppe von Menschen aus Wissenschaft, Zivilgesellschaft und Praxis, die sich gemeinsam für eine verantwortungsvolle Digitalisierung einsetzt. Wir fördern den öffentlichen Diskurs über digitale Technologien – und damit natürlich auch über KI – auf eine Weise, die sowohl fachlich fundiert als auch für alle verständlich ist.
IM+io: Erzählen Sie uns mehr über Algoright e.V. – was macht Ihr Verein konkret?
KB: Algoright e.V. ist entstanden aus der Überzeugung, dass wir die Entwicklung und den Einsatz digitaler Technologien nicht nur den Unternehmen oder der Politik überlassen sollten. Digitalisierung betrifft uns alle – und deshalb sollten auch möglichst viele Menschen mitreden können. Wir organisieren deshalb Workshops, Vorträge und Diskussionsrunden, bei denen wir komplexe technische Themen in eine Sprache übersetzen, die für Nicht-Expertinnen und -Experten verständlich ist. Wir beleuchten sowohl Chancen als auch Risiken, versuchen Mythen aufzuklären und zeigen, wo es tatsächlich Handlungsbedarf gibt. Dabei geht es uns nicht darum, Digitalisierung schlechtzureden, sondern sie im besten Sinne gut zu gestalten – fair, transparent, menschenzentriert.
Ein Beispiel: Wir haben Veranstaltungen zu algorithmischer Diskriminierung gemacht, zu Desinformation und Deepfakes oder auch zur Frage, wie man KI in Bildungskontexten einsetzen kann. Wir bringen dafür Expertinnen und Experten aus verschiedenen Bereichen zusammen – Technik, Ethik, Recht – und schaffen Räume für offene Diskussionen mit der ganzen Gesellschaft.
IM+io: Sie haben gerade gesagt, es gehe Ihnen nicht darum, Digitalisierung schlechtzureden, sondern „gut“ zu gestalten. Was bedeutet für Sie eine „gute Digitalisierung“?
KB: Für mich heißt „gute Digitalisierung“, dass wir digitale Technologien so einsetzen, dass sie den Menschen dienen – und nicht umgekehrt. Es geht nicht nur um Effizienzsteigerung oder Kostensenkung, sondern um echten Mehrwert für die Gesellschaft. Gute Digitalisierung ist inklusiv, sie bezieht unterschiedliche Perspektiven ein und achtet darauf, dass niemand systematisch benachteiligt wird.
Das bedeutet auch: Wir dürfen nicht blind jedem technischen Trend hinterherlaufen. Nur weil etwas möglich ist, heißt das nicht, dass wir es auch tun sollten. Wir müssen fragen: Welche Probleme lösen wir wirklich? Welche neuen Probleme schaffen wir vielleicht? Und wie können wir diese möglichst früh vermeiden? Nur so kann man eine ausgewogene Balance finden zwischen Risiko und Chance.
IM+io: Das bringt uns zu den aktuellen Debatten um Künstliche Intelligenz. Welche Trends und Mythen beobachten Sie in der öffentlichen Diskussion?
KB: Es gibt eine ganze Reihe von Narrativen, die sich um KI ranken. Manche Risiken werden dabei stark betont, andere werden fast gar nicht thematisiert. Ein Beispiel: In vielen Medienberichten geht es um Science-Fiction-Szenarien – von „KI übernimmt die Weltherrschaft“ bis hin zu Maschinen, die uns angeblich alle arbeitslos machen. Das mag Aufmerksamkeit bringen, hilft aber wenig, wenn es um spezifische drängende Fragen geht.
Was oft untergeht, sind sehr konkrete, aktuelle Risiken – etwa algorithmische Diskriminierung. KI-Systeme können bestehende Vorurteile und Ungleichheiten aus den Daten übernehmen oder sogar verstärken. Das passi
Gleichzeitig wird manchmal so getan, als könnten wir mit ein paar technischen Anpassungen jede Form von Diskriminierung einfach „herausrechnen“. Das ist ein Mythos. Die Realität ist komplexer – und wir müssen darüber reden, wie wir diese Systeme gestalten, überwachen und auch begrenzen.
IM+io: Sie haben algorithmische Diskriminierung angesprochen. Können Sie ein paar Beispiele nennen, um zu verdeutlichen, wie so etwas in der Praxis aussieht?
KB: Nehmen wir den Bereich Bewerbenden-Screening. Viele Unternehmen setzen inzwischen Software ein, um Bewerbungen vorzusortieren. Diese Systeme lernen aus historischen Daten – und wenn in der Vergangenheit bestimmte Gruppen seltener eingestellt wurden, spiegelt sich das in den Trainingsdaten wider. Das kann schnell dazu führen, dass das System Bewerbungen aus diesen Gruppen schlechter bewertet – auch wenn die Qualifikation gleich ist.
Ein anderes Beispiel sind polizeiliche Prognosesysteme. Diese sollen vorhersagen, wo oder von wem künftig Straftaten zu erwarten sind. Aber auch hier: Wenn die historischen Daten Verzerrungen enthalten – zum Beispiel weil in bestimmten Stadtteilen mehr Delikte festgestellt wurden, vielleicht weil häufiger kontrolliert wurde –, dann lernt das System genau diese Verzerrung. Es schlägt dann wieder vermehrt diese Stadtteile vor, was den Effekt noch verstärken kann.
IM+io: In beiden Beispielen stellt sich die Frage, ob rein statistische Zusammenhänge nicht mit echter Kausalität verwechselt werden. Warum ist diese Unterscheidung wichtig?
KB: Ja, das ist richtig. Oft zeigen sich in Daten nur die Folgen bestimmter kausaler Mechanismen. Beispielsweise zeigt sich nicht, wer in der Vergangenheit den besten Job gemacht hat, sondern wer ihn bekam. Und warum in bestimmten Stadtteilen mehr Delikte gefunden wurden, mag andere Gründe haben als dass es dort mehr Kriminalität gibt. Wenn aus Daten gelernt wird, ziehen die Systeme daher schnell Rückschlüsse, die nicht viel mit den tatsächlichen Strukturen und eigentlichen Zusammenhängen zu tun haben. Es gibt einen Mangel an Verständnis.
Bei polizeilichen Prognosen kann das bedeuten: Das System „weiß“ nicht wirklich, warum es einen bestimmten Stadtteil als riskant einstuft, sondern erkennt nur, dass dort im Lichte historischer Daten viel „zu holen“ sein dürfte. Das ist problematisch, weil so Entscheidungen auf scheinbar objektiven Mustern beruhen, die in Wirklichkeit nur ein Nebeneffekt der Datenerhebung sind.
IM+io: Im Zusammenhang mit solchen Verzerrungen fällt oft der Begriff „Fine-Tuning“. Was genau ist das?
KB: Fine-Tuning bedeutet im Grunde, dass ein bereits vortrainiertes KI-Modell auf eine spezifische Aufgabe angepasst wird, oft durch systematisiertes menschliches Feedback oder mithilfe spezialisierter Datensätze. Man kann sich das vorstellen wie ein vortrainiertes „Grundwissen“, das dann auf einen Spezialbereich zugeschnitten wird. Das ist technisch clever und kann Verzerrungen entgegenwirken, aber auch neue einführen – was ethisch durchaus heikel sein kann. Wenn der Spezialdatensatz verzerrt ist, übernimmt das Modell diese Verzerrungen – selbst wenn das ursprüngliche Modell relativ neutral war. Beim Bewerber-Screening bedeutet das: Wenn das Fine-Tuning mit historischen Firmendaten gemacht wird, übernimmt das System die dort enthaltenen Vorurteile. In der Praxis heißt das, dass wir nicht nur das Grundmodell, sondern auch das feinjustierte Modell testen müssten – was wiederum bedeutet, dass deutlich mehr Modelle geprüft werden müssen.
IM+io: Heißt das, wir müssen Verzerrungen in Daten einfach hinnehmen
KB: Ja und nein. Verzerrungen und Biases, also Voreingenommenheiten, wird es in Daten immer geben, weil sie immer in einem bestimmten Kontext erhoben werden. Es gibt (schon aus mathematischen Gründen) keine „perfekten“ oder vollständig neutralen Datensätze oder Modelle. Aber das heißt nicht, dass wir KI-Systemen hilflos ausgeliefert sind. Entscheidend ist, wie wir mit diesen Verzerrungen umgehen.
Man kann versuchen, sie zu messen und zu reduzieren, aber noch wichtiger ist, dass Entscheidungen nicht blind den Systemen überlassen werden. Es braucht effektive menschliche Aufsicht. Das heißt, Menschen müssen verstehen, wie die Systeme zu ihren Ergebnissen kommen, und in der Lage sein, einzugreifen, wenn diese Ergebnisse problematisch sind. Kurzum: Wir dürfen den Blick nicht allein auf die KI-Systeme und ihre Eigenschaften verengen. Wichtig ist, Entscheidungsprozesse als Ganzes zu betrachten – also das sozio-technische Gesamtsystem. Dabei sollten technische, normative und empirische Fragen zwar unterschieden, aber dennoch gemeinsam behandelt werden. Denn die zugrunde liegenden Herausforderungen sind nicht unabhängig voneinander.
IM+io: Was bedeutet das konkret für Unternehmen, die heute schon mit KI arbeiten – obwohl es noch keine vollständig klaren gesetzlichen Vorgaben gibt?
KB: Diese legale und allgemein normative Unsicherheit ist genau die Herausforderung. In vielen Bereichen fehlen noch standardisierte Regulierungen, aber die Praxis nutzt KI längst. Unternehmen müssen also selbst Verantwortung übernehmen, um sicherzustellen, dass ihre Systeme fair, transparent und verlässlich sind.
Das beginnt mit einer Bestandsaufnahme: Woher kommen die Modelle, die wir einsetzen? Welche Daten stecken dahinter? Welche Annahmen sind in den Modellen eingebaut? Ohne diese Fragen zu klären, kann man weder Risiken noch Chancen seriös einschätzen – und auch nicht, wer genau die Verantwortung für was trägt.
Gleichzeitig sollten Unternehmen Strukturen schaffen, um die Systeme kontinuierlich zu überwachen – nicht nur einmalig bei der Einführung, sondern auch, um die eigenen Annahmen und Entscheidungen stetig zu überprüfen.
IM+io: Was sind aus Ihrer Sicht die wichtigsten Schritte, die Unternehmen jetzt schon unternehmen können?
KB: Es fängt alles damit an, wo man seine Modelle bezieht. Viele Unternehmen nutzen fertige KI-Modelle von großen Anbietern, ohne genau zu wissen, wie diese trainiert wurden. Das ist ein Risiko. Für KI-Systeme im Hochrisikokontext empfehle ich, ausschließlich Modelle einzusetzen, deren Herkunft und Trainingsdaten transparent nachvollziehbar sind.
Dann gibt es Start-ups, die sich darauf spezialisiert haben, Datensätze und Modelle auf Verzerrungen, Sicherheitslücken und ethische Risiken zu prüfen. Unternehmen können hier externe Expertise einkaufen, um nicht selbst alle Prüfmechanismen entwickeln zu müssen.
Ein weiterer Punkt ist die Dokumentation, auch in Hinblick auf Selbstverständnis und getroffene Entscheidungen: Es lohnt sich, für jeden Unternehmensbereich eigene Responsible-AI-Guidelines zu erstellen, in denen genau steht, wie KI-Systeme dort eingesetzt werden dürfen, welche Prüfungen notwendig sind und wer die Verantwortung für was trägt.Das muss durch Schulungen ergänzt werden – Mitarbeitende sollten verstehen, wie KI funktioniert und welche Herausforderungen es gibt. Tatsächlich drehen sich viele Anfragen an unsere Forschungsgruppe gerade um diese Fragen.
IM+io: In diesen Zusammenhängen ist in letzter Zeit auch häufig von der Rolle eines sogenannten ‚AI Safety Institute‘ die Rede. Der EU AI Act erwähnt außerdem ‚KI-Reallabore‘. Können Sie erklären, welche Rolle diese Institutionen spielen und wie sie dazu beitragen sollen, den Einsatz von Künstlicher Intelligenz sicher und verantwortungsvoll zu gestalten?
KB: Der AI Act ist ein neues EU-Gesetz, das den Einsatz von Künstlicher Intelligenz regulieren soll. Vorgesehen sind verschiedene Organisationstypen: Marktüberwachungsbehörden in den Mitgliedstaaten, die für die Kontrolle zuständig sind, sowie ‚Benannte Stellen‘ (Notified Bodies), die unabhängige Konformitätsbewertungen durchführen. Ergänzt werden sie durch das EU AI Office, das die Koordination und Weiterentwicklung des Rahmens übernimmt.
Eine weitere Säule sind KI-Reallabore – geschützte Testumgebungen, in denen KI-Systeme unter realen Bedingungen geprüft werden. So lassen sich Chancen und Risiken frühzeitig einschätzen. Ab August 2026 sind die Mitgliedstaaten verpflichtet, solche Reallabore einzurichten.
AI Safety Institutes (AISIs) gibt es bereits in vielen Ländern, in Deutschland jedoch noch nicht. Meist sind es staatliche oder halbstaatliche Einrichtungen, die Risiken fortgeschrittener KI untersuchen, Standards entwickeln und Behörden beraten. Sie können als zentrale Anlaufstelle dienen, damit Unternehmen nicht allein entscheiden müssen, was ‚sicher‘ oder ‚ethisch vertretbar‘ ist. Deutschland braucht dringend ein solches Institut – im Interesse von Sicherheit und Innovation, die sich dabei nicht widersprechen.
IM+io: Bis dahin stehen viele Unternehmen vor der Herausforderung, dass ihnen das Know-how fehlt, um KI-Systeme so tiefgehend zu prüfen – was raten Sie in solchen Fällen?
KB: Dann sollte man nicht zögern, externe Expertinnen und Experten ins Boot zu holen. Es gibt mittlerweile spezialisierte Beratungen und Forschungsinstitute (darunter auch das DFKI und Algoright), die genau diese Lücke füllen – sie analysieren die Systeme, decken Risiken auf und helfen bei der Implementierung sicherer Prozesse. Das ist keine Schwäche, sondern eine Form von Qualitätsmanagement.
Beispielsweise gibt es European Digital Innovation Hubs (EDIHs) als regionale Anlaufstellen, sogenannte „One Stop Shops“. Diese bieten Unternehmen Unterstützung bei der digitalen Transformation, auch in Bezug auf Künstliche Intelligenz. Dort kann man nicht nur Beratung, sondern auch Testmöglichkeiten und Schulungen in Anspruch nehmen.
IM+io: Welche Rolle spielt in diesem Zusammenhang das Center for European Research in Trusted AI, CERTAIN?
KB: CERTAIN versteht sich als Schnittstelle zwischen Forschung, Anwendung und Zivilgesellschaft, inklusive Regulierung. Unser Ansatz ist es, sowohl die technischen als auch die ethischen und rechtlichen Aspekte von KI-Systemen im Blick zu haben, dabei aber von der Grundlagenforschung zur Anwendung Brücken zu bauen. Wir sind kein reines Prüfhaus, sondern ein forschender Partner, der zusammen mit Unternehmen Modelle und Methoden entwickelt und Strategien schafft, die den nachhaltigen, verantwortungsvollen und vertrauenswürdigen Einsatz von KI-Systemen ermöglichen. Wer Unterstützung sucht oder gemeinsam neue Lösungen entwickeln möchte, kann sich bei uns einbringen –CERTAIN ist eine Kooperationsplattform.
IM+io: Was sind noch die größten Herausforderungen für eine „gute Digitalisierung“?
KB: Ich finde, wir brauchen nicht noch mehr neue Institutionen, Netzwerke und Plattformen – davon gibt es bereits genug (ein deutsches AISI einmal ausgenommen). Wichtiger ist, dass Vorhaben eine nachhaltige Finanzierung bekommen und bestehende Expertise ausgebaut wird. Dazu gehört auch ein besserer Transfer aus der interdisziplinären Forschung in konkrete Ausgründungen, gerade im Bereich der vertrauenswürdigen KI. Hier liegt viel Potenzial für Innovation und Wachstum, und das Saarland zeigt derzeit einige gute Entwicklungen. Förderprogramme, Steuererleichterungen oder öffentliche Aufträge können helfen, die richtigen Anreize zu setzen.