Das metrische Wir
Im Gespräch mit Steffen Mau, Humboldt-Universität zu Berlin
Kurz & Bündig
Einwilligung und Transparenz – dies sollten die Bedingungen sein, unter denen Daten von Personen erhoben werden dürfen, fordert der Sozialwissenschaftler Prof. Dr. Steffen Mau. Maschinelle, rein datenbasierte Entscheidungen erschweren die Prüfung eines Einzelfalles, das zeigen bereits jetzt Beispiele aus den USA. Die Konsequenz daraus sei, so Mau, eine flächendeckende Revidierbarkeit datenbasierter Entscheidungen. Kommt es zu Scorings und Rankings, entstehe eine Marktkonzentration auf die ersten Plätze. Die Lösung hier: mehr Bürgerbeteiligung. Die Datenschutzgrundverordnung sei ein erster guter Schritt.
Sich selbst permanent zu vermessen, verändert die Gesellschaft. In seinem Buch “Das Metrische Wir” hat der Soziologie Steffen Mau vor drei Jahren bereits vorweggenommen, welche Effekte das Aggregieren und Auswerten vieler Daten, vom Individuum bis zur Organisation, auf das soziale Gefüge hat. Heute sieht er sich in seinen Forderungen nach mehr Offenheit der Algorithmen bestätigt.
IM+io: Herr Prof. Mau, besitzen Sie eine Smartwatch?
SM: Nein, die besitze ich nicht.
IM+io: Aus Überzeugung?
SM: Die habe ich bislang nicht gebraucht. Die Geräte, mit denen ich sonst umgehe, sind ausreichend für meine Bedürfnisse.
IM+io: Lassen Sie sich anderweitig vermessen?
SM: Es ist mein wissenschaftliches Alibi, zu sagen, ich tue das für meine Recherche aus wissenschaftlicher Neugier. Ich nutze einen Schrittzähler und schaue hin und wieder auf meine Gesundheitsdaten. Nicht exzessiv, aber im Alltag spielt es eben manchmal eine Rolle. Im Sinne eines Selbstversuches ist es außerdem gut, sich auf diese Zahlenspiele einzulassen und zu sehen, wie diese Tools funktionieren. Zu sehen, wie sie die eigene Subjektivität und das Alltagshandeln verändern können. Einige Tools habe ich danach wieder gelöscht, bei anderen habe ich gesehen, dass es durchaus Sinn macht. Man erhält dabei Rückmeldungen, die man ansonsten nicht so ohne weiteres erhalten würde.
IM+io: Zahlen machen unsere Welt greifbar, empirisch erfassbar. 2017 haben Sie das “Metrische Wir” geschrieben und darin gesagt, das ständige Vermessen unseres Alltags verschiebt unser Wertesystem. Wie und wohin?
SM: Ich gehe davon aus, dass, wenn man gewisse Phänomene quantitativ darstellt, es zu einer grundlegenden Transformation kommt: ein bislang qualitativ verstandenes Phänomen erhält ein quantitatives Maß. So kommt es automatisch zu einer Vergleichs- und auch Steigerungslogik, fünf ist eben größer als eins. Wenn wir Zahlen nutzen, erhalten wir ein Panoptikum an Vergleichsmöglichkeiten, die wir zuvor nicht hatten, sie sind kommensurabel. Zugleich bringt es uns in einen sozialen Wettbewerb. Dies können wir anhand von Beispielen wie Gesundheitsdaten auch sehen: Vor zehn Jahren war der breiten Masse kaum bekannt, dass 10.000 Schritte am Tag eine einigermaßen gesunde Größe ist, die man schaffen sollte. Heute ist sie zum täglichen Leitstern vieler Menschen geworden. Und wenn man auf 5.000 Schritte zurückfällt, hat man wiederum einen Ansporn, wieder 10.000 Schritte zu erreichen. Daher entsteht eine gewisse gesellschaftliche Steuerungslogik, die durch solche Zahlen hervorgebracht wird. Noch stärker wird dies deutlich, wenn man andere Phänomene vergleicht, etwa Institutionen, Organisationen, Arbeitnehmer oder Arbeitseinheiten.
IM+io: Wo stehen wir denn heute im Jahr 2020 im Vergleich von vor drei Jahren?
SM: Es gab damals einige Kritiker, die sagten, ich sehe dies zu kulturkritisch. Aber ich schrieb das Buch noch vor den großen Datenskandalen, zum Beispiel rund um Cambridge Analytica und die Manipulation von Wahlverhalten. Dabei zeigte sich, dass unsere Daten extrahiert, aggregiert und weiterverkauft werden, also zur Kommerzialisierung unseres Alltags verwendet werden und unser Verhalten beeinflusst werden soll. Hier hat die Digitalisierung schon einen großen Schritt nach vorn gemacht. Heute gibt es deutlich mehr Ratings, Scorings im Konsumbereich, im Gesundheitsbereich, im Bildungsbereich, auf dem Arbeitsmarkt. Staaten nutzen algorithmische Scoring-Verfahren, um den Zugang zu öffentlichen Dienstleistungen zu steuern oder bei der Visumvergabe. Ehemals menschliche Entscheidungen werden zu automatisierten, algorithmischen Entscheidungen. Wir können noch nicht sagen, welche Auswirkungen das haben wird. Prinzipiell ist heute alles algorithmisch erfassbar und bewertbar. Damit könnte man mehr und mehr menschliche Entscheidungen aus sozialen Prozessen herausziehen, wenn man wollte.
IM+io: Aber wird eine automatisierte Entscheidung aufgrund von breiter Datenbasis nicht automatisch gerechter?
SM: Es gibt Menschen, die sagen, automatisierte Entscheidungen sind gerechter. Zum Beispiel bei richterlichen Entscheidungen: Wir wissen, Sympathie spielt eine Rolle bei der Urteilsfindung. Aber es gibt gleichzeitig Untersuchungen, die zeigen, dass letztendlich algorithmische Entscheidungen einen diskriminierenden Bias besitzen. Richter in den USA nutzen ein System namens “Compas”. Dort zeigte sich, dass Schwarze tendenziell mehr Kaution zu bezahlen haben als Weiße. Hier spielt die Kriminalitäts-Rückfallwahrscheinlichkeit eine Rolle, das System berechnete sie höher als sie in empirischen Überprüfungen tatsächlich war. Die These, die etliche Mathematiker und Informatiker vertreten ist, dass algorithmische Bewertungen häufig die Realität an die Modelle anpassen und nicht umgekehrt. Es gibt toxische Feedbackloops, die aus dem Wechselspiel von Realität und algorithmischen Bewertungen entstehen, wenn die Systeme zu dominant werden. Ein Beispiel: In den USA werden beim E-Recruiting solche automatisierten Verfahren eingesetzt. Wenn alle Unternehmen die gleiche Software verwenden, kann ein Bewerber, der in einer Kategorie als unzureichend oder negativ bewertet wird, niemals einen Job bei einer dieser Firmen bekommen. Er wird niemals beweisen können, dass er trotz dieses Charakteristikums ein wertvoller Arbeitnehmer geworden wäre. Diese systematischen Exklusionen sind nicht so ohne weiteres korrigierbar oder anzweifelbar.
Eine weitere Gefahr entsteht dadurch, dass Daten, die in einem bestimmten sozialen Kontext erhoben wurden, in einen anderen gesellschaftlichen Bereich übertragen werden. In den USA ist dies beim “Credit Score” der Fall. Wenn ich ein Auto kaufen, eine Wohnung mieten oder einen neuen Job annehmen möchte, wird dieser häufig abgefragt. Mittlerweile nutzen dies 60 Prozent der US-amerikanischen Arbeitgeber. Wenn ich also in einem sozialen Bereich ein schlechtes Rating habe, gibt es Rückkopplungen in andere Bereiche, die zuvor getrennt waren. Dadurch kommt es zu sozialen Benachteiligungen.
IM+io: Daten werden ungeachtet dessen immer mehr und immer tiefergehend erhoben. Wie können diese unerwünschten Nebeneffekte ausgeklammert werden?
SM: Das große Thema der Datafizierung ist die Frage der Transparenz, der Zugänglichkeit, der Revidierbarkeit von Entscheidungen. In Deutschland beispielsweise haben wir ein vergleichbares Scoring wie in den USA, die Schufa. Diese Institution entwickelt Scores zur Kredit- würdigkeit von Personen, wir wissen aber bis heute nicht genau, wie. Welche Daten fließen ein, wie werden sie gewichtet? Es ist nicht transparent, über welche Daten die Schufa als Grundlage dieses Scorings verfügt, das darüber entscheidet, ob Sie einen Kredit bekommen oder nicht. Die Schufa muss sich nicht gegenüber der Öffentlichkeit oder den Kreditnehmern rechtfertigen. Ihre Daten sind nicht transparent, weil nicht zugänglich. Revidierbarkeit heißt, dass automatisierte Entscheidungen im Zweifelsfall auch wieder von Menschen geprüft werden. Aus der Prüfung des Einzelfal- les lassen sich meist andere Schlüsse ziehen als aus der Bewertung eines Falles aufgrund von Hintergrunddaten. In den USA können Menschen Sozialleistungen nicht erhalten, weil sie zum Beispiel die Meldepflichten und -zeiten nicht eingehalten haben. Hier macht es also einen Unterschied, ob eine Maschine ohne Kenntnis des Einzelfall-Kontextes entscheidet oder ob ein Sozialarbeiter daran arbeitet, der weitere, spezifische Fallaspekte in die Entscheidung mit einbringen kann.
IM+io: Was wäre die Konsequenz daraus?
SM: Diese Transparenz und Revidierbarkeit bräuchte es flächendeckend. Dennoch bleiben viele Algorithmen das Betriebsgeheimnis des jeweiligen Konzerns, obwohl sie große Relevanz für das Leben von Menschen haben. Damit bleiben sie nicht kritisierbar. Ein Negativ-Beispiel ist mir persönlich in den USA begegnet: Es wurde eine Babysitterin gesucht, auch übers Internet. Auf einer Seite, die mittlerweile abgeschaltet ist, konnte man die Namen jedweder Person in den USA eingeben und erhielt alle verfügbaren Informationen: Profile der sozialen Medien, Immobilienbesitz, Schulden, Lizenzen und Genehmigungen, Waffenbesitz, Straftaten. Daraus hat das System einen Reputations-Score von null bis fünf errechnet, von grün bis rot. Natürlich hat eine Babysitterin, die hier einen niedrigen Score erreicht, weniger Chancen und damit Zugang zu Aufträgen. Bei Bewertungsportalen, die zum Beispiel mit dem Sternchensystem arbeiten wie etwa bei Hotels und Restaurants, spielen oftmals nur die ersten zehn, zwölf Plätze eine Rolle. Es entstehen so enorme Konzentrationseffekte der Aufmerksamkeit, und damit letztlich Märkte die wir als Winner- takes-all-Märkte beschrieben können.
IM+io: Wie aber kann die Gesellschaft sicherstellen, diese Transparenz effektiv zu gewährleisten?
SM: Nun, zum Beispiel durch Bürgerbeteiligungen an den Datenraffinerien und Transparenzpflichten. Es gibt NGOs wie Algorithm Watch, die diese Aufgabe wahrnehmen können, zumindest in den Fällen, in denen Lebenschancen von Menschen unmittelbar betroffen sind, mitzureden. Der Code sollte offenliegen, insbesondere dann, wenn es starke Zuteilungseffekte gibt.
IM+io: Auch Unternehmenschefs klagen über eine zunehmende Datenflut, die sie in den Griff bekommen müssen. Unterscheiden Sie hierbei zwischen datengestützten Entscheidungen im Unternehmenskontext und privaten Daten?
SM: Ich würde eine Grenze zwischen privat-wirtschaftlichem und öffentlichem Bereich ziehen. In der Privatwirtschaft gibt es gleichfalls Überschneidungen zu Bereichen, die Lebens- oder Arbeitschancen von Menschen betreffen, denken Sie an Uber, an Amazon. Technisch ist es möglich, Arbeitnehmer permanent zu überwachen und ihren Standort oder gar ihre Gesundheit festzustellen. In Deutschland ist dies nicht so weit vorangeschritten, aber in den USA bieten viele Betriebskrankenkassen digitale Gesundheits-Vermessungstools an. Hier ergeben sich Überwachungsmöglichkeiten, die sich auch in die Freizeit erstrecken. Gesundheit ist zwar Privatangelegenheit, aber für US-Unternehmen interessant, weil sich damit die Entwicklung des Humankapitals feststellen lässt. Wenn nun in einem Startup ein Algorithmus zum Kern des Geschäftsmodells gehört, sollten hier nur Daten erhoben und genutzt werden, die zum Betrieb einer spezifischen Anwendung notwendig sind. Auch sollten Daten nicht weiterverkauft werden dürfen. Einwilligung und Transparenz sind für mich die entscheidenden Vorbedingungen jedweder Datennutzung sowie die Möglichkeit, von dieser Einwilligung wieder zurücktreten zu können.
IM+io: Sehen Sie Tendenzen in Europa, diese lebenschancerelevanten Algorithmen offenzulegen und damit diskussionswürdig zu machen?
SM: Ein erster guter Schritt war die Datenschutzgrundverordnung. Im Einzelfall ist es sicher ein bürokratisches Monster, aber mit hohem symbolischen Wert, denn nicht alles kann erlaubt sein, was technisch möglich ist.