Dein Leben als Zahl

Während Sie Ihren Tag antreten - SMS an Freunde senden, Uber-Fahrer bewerten, Wikipedia durchsuchen -, erstellen Sie eine immense Datenspur. Jedes Mal, wenn Sie bei Amazon bestellen, ein Airbnb reservieren oder Quantenphysik erforschen, hinterlassen Sie digitale Spuren, auf die die von Ihnen unterstützten Unternehmen zugreifen können, um Ihr zukünftiges Verhalten oder zumindest das Verhalten von Personen vorherzusagen, die Ihre demografischen Indikatoren teilen. Die meisten von uns sind sich dieses Nachteils in Bezug auf den Datenschutz bewusst: Es sind die Kosten für die Geschäftstätigkeit im digitalen Zeitalter, und es werden kostenlose Lieferungen und Rabatte für Vielnutzer garantiert. Gleichzeitig sind einige weitaus weniger transparente Datenbroker bemüht, Ihre persönlichen Daten zu analysieren und Ihre Tendenzen in eindeutige Ergebnisse umzuwandeln, die ohne Ihr Wissen den Unternehmen - und möglicherweise den Regierungsbehörden - signalisieren, was für eine Art von Person Sie sind. wie viel du wert bist und wie gut du es verdienst, behandelt zu werden.

Seit dem Beginn des digitalen Zeitalters warnen politische Kommentatoren, Science-Fiction-Autoren und Befürworter der Verbraucher davor, dass wir mit der Verbesserung der Datenerfassung und -analyse unweigerlich auf eine Zahl reduziert würden - auf unsere Vergangenheit, Macken und Persönlichkeit destilliert zu einer einzigen ganzen Zahl, die von einer Maschine ausgespuckt wurde, an die wir uns nicht wenden konnten. Möglicherweise ist dieser Tag endlich da, und die Auswirkungen dieser neuen Ära zeichnen sich gerade ab. Eines von vielen Anliegen: Mithilfe der sozialen Medien können künstliche Intelligenzsysteme unsere persönlichen Verbindungen auf unsere Bewertungen aufteilen. Mit anderen Worten, ein Freund oder Verwandter mit schlechten sozialen Krediten kann zur Haftung werden, was zu unangenehmen Entscheidungen darüber führt, mit wem er in Verbindung gebracht werden soll.

Datenbroker sammeln die Informationen, die wir wissentlich und unwissentlich über uns preisgegeben haben, und erstellen Profile von uns auf der Grundlage demografischer Indikatoren, die sie dann an andere Organisationen verkaufen können. Sie beteiligen sich an dem, was die Professorin der Harvard Business School, Shoshana Zuboff, als "Überwachungskapitalismus" bezeichnet, in dem Unternehmen Systeme einsetzen, die Verbraucher im Austausch gegen Dienstleistungen ausspionieren. Facebook bietet beispielsweise ein Netzwerk für die Verbindung mit Familie und Freunden, um Zugang zu persönlichen Informationen zu erhalten, die für Marketingzwecke verwendet werden können.

"Eine Überwachungsgesellschaft ist unvermeidlich, irreversibel, aber interessanterweise unwiderstehlich", sagt Jeff Jonas, Datenwissenschaftler und Vorstandsmitglied des Electronic Privacy Information Center (EPIC), eines Forschungszentrums von öffentlichem Interesse in Washington, DC. „Du machst es. Wenn Sie sich für eine kostenlose E-Mail anmelden, besagen die Nutzungsbedingungen, die Sie nicht lesen, dass alle E-Mail-Daten ihnen gehören. Selbst wenn Sie Ihr Konto löschen, kann es zwei Jahre lang aufbewahrt werden. Dies sind Daten, die sie für maschinelles Lernen verwenden können. “

Sie sehen niemals die Ergebnisse des Lernens der Datenbroker, und ihre Kunden, die Entscheidungen auf der Grundlage ihrer Produkte treffen, werden Sie möglicherweise nie sehen. "Es sind nicht wir Menschen, auf deren Grundlage die Regierung oder Institution Entscheidungen trifft", sagt Sarah Brayne, Soziologin an der University of Texas in Austin. "Es sind unsere Daten, die sich verdoppeln."

CLV (Customer Lifetime Value) ist eine der Zahlen, die uns beigefügt wurden. Diese Punktzahl bewertet den potenziellen langfristigen finanziellen Wert eines Verbrauchers für ein Unternehmen. Es ist wahrscheinlich, dass Sie bereits mehr als eine haben. Daten, die aus Transaktionen, Website-Interaktionen, Kundenserviceaustauschen und Social-Media-Profilen erfasst werden, beeinflussen einen CLV-Score. Sobald die Anzahl bestimmt ist, ist die Anwendung recht einfach: Hochwertige Kunden erhalten bessere Angebote und einen schnelleren Kundenservice, während andere in der Warteschleife bleiben.

Derzeit gibt es keine Möglichkeit, Ihren CLV-Wert zu ermitteln. Dies unterscheidet es von einer traditionellen Bonitätseinstufung. Und obwohl Sie die letztgenannte Zahl überprüfen, Tipps zur Verbesserung und sogar zur Behebung von Fehlern befolgen können, werden die Unternehmen, die Ihre Bonität berechnen, Ihnen nicht genau sagen, wie sie darauf gekommen sind, unter Berufung auf proprietäre Algorithmen und wettbewerbsfähig Bedenken. Für all die peppigen Werbespots, in denen es darum geht, Ihre Punktzahl zu verfolgen, ist es letztendlich von Grund auf undurchsichtig.

Je mehr Institutionen in die Repräsentation von Gönnern in streng numerischer Form investiert werden, desto eingeschränkter ist die Fähigkeit der Menschen, ihr bestes Gesicht zu zeigen, und dies kann mit psychischen Kosten verbunden sein. "Jedes Mal, wenn man einen Menschen weniger menschlich aussehen lässt - stimmlos, gesichtslos, weniger auf seine mentalen Zustände fokussierend -, ist das grundlegend entmenschlich", sagt Adam Waytz, ein Sozialpsychologe an der Kellogg School of Management der Northwestern University.

China zählt seine Milliarde

Dieses fortlaufende Experiment zur unpersönlichen Darstellung des Menschen begann in den USA, wo in den 1950er Jahren die erste Bonitätseinstufung, die heute allgemein als FICO bekannt ist, entwickelt wurde. Aber die Bewegung erreicht heute in China ihre volle Inkarnation, wo die Regierung und der Privatsektor mit dem bisher durchdringendsten Bewertungssystem vorankommen - eine Rangliste aller Bürger in der bevölkerungsreichsten Nation der Welt, die nicht nur auf wirtschaftlichen Faktoren beruht, sondern auch auf einer Vielzahl von Verhaltens- und sozialen Kriterien. Im Plan der chinesischen Nationalregierung, der bis 2020 konkretisiert werden soll, erhalten alle Personen eine Identitätsnummer, die mit ihren Sozialkreditunterlagen verknüpft ist. Ihre Aufzeichnungen enthalten Informationen aus ihrer Transaktionshistorie, Internetrecherchen, sozialen Kontakten und Verhaltensaufzeichnungen, zum Beispiel, ob sie jemals beim Gehen erwischt wurden. Unternehmen erhalten außerdem einen „einheitlichen Sozialkreditcode“. Die Aufzeichnungen werden schließlich in einer zentralisierten Datenbank zusammengefasst, obwohl die Implementierung eines Systems in diesem Umfang noch die Bewältigung erheblicher technologischer Herausforderungen erfordert.

Der Sozialkreditplan wurde erstmals in einem Grundsatzdokument enthüllt und als Ansatz zur Förderung eines größeren Vertrauens in die chinesische Gesellschaft vorgestellt. Als Reaktion auf die weit verbreitete Besorgnis über Korruption, Finanzbetrug und Unternehmensskandale - einschließlich eines Vorfalls mit verdorbener Babynahrung - schlug die Kommunistische Partei ein System vor, das es „den Vertrauenswürdigen erlaubt, sich frei im Himmel zu bewegen, während es den Diskreditierten schwerfällt, eine zu nehmen Einzelschritt. “Das erklärte Ziel ist es, gutes Benehmen zu belohnen und schlechte Taten zu bestrafen. Zu den Belohnungen für hohe Sozialkredite - mit anderen Worten, die als vertrauenswürdig eingestuft werden - gehören Vorteile wie der freie Zugang zu Fitnesseinrichtungen, Ermäßigungen für öffentliche Verkehrsmittel und kürzere Wartezeiten in Krankenhäusern. Zu den Strafen für niedrige Sozialkredite könnten Einschränkungen in Bezug auf die Anmietung einer Wohnung, den Kauf eines Eigenheims oder die Einschreibung eines Kindes in die bevorzugte Schule gehören.

In mehreren chinesischen Städten führen die lokalen Regierungen Testimplementierungen für das soziale Rating ein. In Rongcheng beginnt jeder Einwohner mit einer Grundbewertung von 1.000 und kann zusätzliche Punkte für „gutes“ Verhalten wie Spenden für wohltätige Zwecke verdienen oder Punkte für „schlechtes“ Verhalten wie Verkehrsverstöße andocken lassen. Private Unternehmen wie die Alibaba-Tochter Ant Financial starten ebenfalls ihre eigenen Scoring-Programme. Die Zhima Credit-App von Ant verwendet Daten von über 400 Millionen Kunden, um Scores für die teilnehmenden Kommunen zu generieren. Der Algorithmus berücksichtigt die üblichen Kreditinformationen sowie das Verhalten der Benutzer, Merkmale wie das, welches Auto sie fahren und wo sie arbeiten, und insbesondere ihre sozialen Netzwerkverbindungen. Die Punktzahl eines Individuums könnte also nicht nur aufgrund seiner eigenen Handlungen, sondern auch aufgrund der seiner Freunde schwanken - ein Schwager, der zum Spielen online geht, könnte beispielsweise die Punktzahl senken. Diese Programme sind derzeit freiwillig, obwohl die Beamten die Bürger auffordern, sich anzumelden.

Vertrauen aufdecken

Auf einer tieferen Ebene sind Kredit-Scores und soziale Ratings Referenden darüber, wem vertraut werden sollte. Als solche sind sie High-Tech-Stellvertreter für ein Urteil, das wir in Tausenden von Jahren entwickelt haben, um es von Angesicht zu Angesicht zu machen. Trotz all unserer Erfahrung ist es keine leichte Aufgabe, zu beurteilen, ob man jemandem vertraut. Wir sind uns jedoch bewusst, dass wir in den meisten Situationen durch Zusammenarbeit mehr Vorteile erzielen können als allein, was einen starken Anreiz für gegenseitiges Vertrauen darstellt.

Während es zu unserem Vorteil ist, feststellen zu können, ob Menschen signalisieren, dass sie vertrauenswürdig sind, haben sich diese genauen Vertrauenssignale Forschern entzogen, sagt David DeSteno, Psychologe an der Northeastern University, weil die meisten nach bestimmten physischen Hinweisen gesucht haben - einem bestimmten Blitz Ein Lächeln oder ein Augenzwinkern - wenn es darum geht, Vertrauen aufzubauen, müssen sich komplexere Signale wiederholen. In Wirtschaftsspielen, die er in seinem Labor studierte, stellte er fest, dass die Leute beim persönlichen Spielen besser vorhersagen konnten, ob ein Partner nicht vertrauenswürdig sein würde, als wenn sie online spielten und solche Hinweise nicht beobachten konnten. "Der Großteil unserer Online-Kommunikation ist informationsarm", sagt er. "Alle Signale, die wir seit Tausenden von Jahren nutzen, um eine bessere Wahrscheinlichkeit für die Vorhersage von Vertrauen zu erhalten, sind verschwunden."

Ein Social-Credit-Rating, das sich in erster Linie auf die Online-Aktivitäten eines Einzelnen stützt, erreicht möglicherweise nicht den wahren Charakter eines Einzelnen, insbesondere wenn Daten, die in einer Arena gesammelt wurden, in anderen angewendet werden. Ein hoher Kredit-Score kann einem Kreditgeber signalisieren, dass Sie wahrscheinlich Ihre Schulden zurückzahlen werden, aber es folgt nicht unbedingt, dass Sie darauf vertrauen sollten, dass Sie die Kinder von jemandem beobachten oder der Ehe treu bleiben. „Wenn sich die Bewertungen von Personen auf dieselbe Art von Interaktion beziehen, werden sie wahrscheinlich einen anständigen Vorhersagewert haben.“ Der Kontext ist stabil und Beurteilungen können zuverlässig angewendet werden. In einem System wie dem von Zhima, das darauf abzielt, Bewertungen in einer Reihe von Bereichen anzuwenden, einschließlich der Baihe-Dating-Site, könnte Ihre finanzielle Vergangenheit Ihre Chancen beeinträchtigen, einen Ehepartner zu finden oder andere sinnvolle Beziehungen aufzubauen.

Es gibt ein Problem, sich auf die Reputation zu verlassen, die durch eine externe Nummer behoben wurde. Wenn es positiv ist, "gibt es uns das Gefühl, dass jemand in der Tiefe immer vertrauenswürdig ist, während wir wissen, dass die moralische Vertrauenswürdigkeit der meisten Menschen ein gewisses Maß an Flexibilität aufweist", sagt er. „Wenn sich die Kosten, Risiken oder Vorteile der Interaktion mit jemandem nicht ändern, ist die Reputation ein guter Indikator. Aber wenn sich plötzlich etwas dramatisch ändert, kann es sein, dass es nicht so ist. “

Sind Sie das?

Wenn wir glauben, dass ein Algorithmus falsch ist, fühlt er sich ungerecht an. Auf der anderen Seite bedeutet eine Bewertung, die genau widerspiegelt, wer wir sind, Warzen und alles, dass wir alle möglichen sozialen, rechtlichen und finanziellen Konsequenzen besser akzeptieren sollten? Was ist, wenn wir daran arbeiten, uns zu verändern? Was ist, wenn wir uns wie die meisten Menschen in unterschiedlichen Kontexten unterschiedlich verhalten?

DeSteno ist der Ansicht, dass die Menschen mit Sicherheit versuchen werden, das System der sozialen Kredite zu nutzen, da es wichtig ist, Tugend in Gemeinschaften zu signalisieren: „Wir alle versuchen zu signalisieren, dass wir gut sind, dass wir ehrliche Menschen sind. Und als wir online sind, stellt sich die Frage, wie wir das machen sollen. “Er zitiert Dienste wie den ReputationManager, die gegen eine Gebühr versprechen, Ihre virtuelle Aufzeichnung zu bereinigen und das beste Gesicht darauf zu legen. "Die Leute werden versuchen, Wege zu finden, um ihre Punktzahl zu ändern."

Aber wenn es keine Möglichkeit gibt, die eigene soziale Bewertung unabhängig zu beeinflussen, kann es sein, dass sich herausstellt, dass ein Instrument so stumpf ist, wie es ist, wie Brayne sagt, dass es einfach zu einer Tatsache wird, die wir nicht ändern können. Die Algorithmen sind proprietär und ihre Daten außerhalb unserer Reichweite. Die neue Realität: Unsere Punktzahl ist ein Index unseres Charakters, und wir können seine Zirkulation nicht aufhalten.

"Wir müssen glauben, dass andere immer Rückschlüsse auf uns ziehen werden, basierend auf der Idee, dass unsere Datenverdopplungen korrekt sind", sagt Brayne und dass diese Rückschlüsse auch richtig sein müssen. "Sie gehen davon aus, dass diese Daten ein reines Spiegelbild der Welt sind." Das Leben im Schatten unserer Partitur könnte uns zu einem neuen Bewusstsein dafür zwingen, wie wir uns präsentieren, und verstehen, dass unsichtbare Tabulatoren uns jederzeit aufspüren können. Welcher unserer Mitarbeiter senkt unsere Punktzahl? Sehen unsere Einkäufe verantwortungsbewusst genug aus? Können wir jemals unsere Haare hängen lassen und in der Öffentlichkeit sein?

Sich selbst zu sein könnte weniger attraktiv werden, wenn Sie wissen, dass Punktesysteme Sie ständig in Bezug auf alle, die Sie kennen, beurteilen. Die Einführung des chinesischen Systems wird Sozialpsychologen viel zu bedenken geben. Weitreichende Rückschlüsse auf Netzwerkeffekte können gezogen werden, wenn Algorithmen die Eigenschaften der Freunde einer Person auch dieser Person zuschreiben. Die Menschen könnten sich derer, mit denen sie sich umgeben, bewusster und vorsichtiger werden, wenn sie wissen, dass diese Menschen einen negativen Einfluss auf ihr soziales Ranking haben könnten. Nach einigen Berichten können Ergebnisse verwendet werden, um festzustellen, ob jemand eine Beförderung erhalten, ein Haustier halten und sogar eine Hochgeschwindigkeits-Internetverbindung erhalten kann. Die Konsequenzen sind nicht schwer vorstellbar: Menschen, deren Zukunft an die Punktzahl gebunden ist, können kalte Berechnungen über die wahrscheinlichen Zahlen ihrer Freunde anstellen, um sicherzustellen, dass niemand die Aussichten ihrer oder ihrer Familie in Mitleidenschaft zieht. Und sie mögen sich dagegen entscheiden, einzelne oder ganze Gruppen von Menschen zu befreunden.

„Wenn ich der Meinung bin, dass die Banken anhand dieser Informationen entscheiden, ob sie mir Kredite gewähren oder nicht“, stellt Brayne sich vor, „dann möchte ich nicht, dass eine Bank weiß, dass ich eine Reihe von Freunden habe, die ihre Kredite nicht erfüllen können Hypothek oder einkommensschwache Personen, weil sie möglicherweise eine Art Netzwerkeigentum übernehmen, bei dem ich mit größerer Wahrscheinlichkeit auch arm bin oder mein Darlehen nicht in Anspruch nehme. “

Sobald bekannt wird, dass eine Person eine niedrige Punktzahl hat, könnte ihr soziales Leben darunter leiden. "Die Meinungen könnten extrem werden, wie dies häufig bei Gerüchten und Gerüchten der Fall ist", sagt Nicholas DiFonzo, Psychologe am Rochester Institute of Technology. Er und seine Kollegen zitieren den „Matthew-Genauigkeitseffekt“, ein Phänomen, bei dem Gerüchte über negative oder positive Personen mit der Zeit immer extremer werden. Es ist in der Regel sozial inakzeptabel, ein Gerücht, das Sie über jemanden hören, ins Gesicht zu bringen, besonders wenn Sie sie nicht gut kennen, so dass die Menschen informativ voneinander getrennt werden. Ein soziales Kreditsystem könnte ein System von Echokammern erzeugen, die spontan entstehen, wenn Meinungen und Vermutungen über Menschen durch Netzwerke zirkulieren. „Was daraus entstehen könnte“, erklärt DiFonzo, „ist eine Dynamik, in der ich mich beispielsweise nicht mit Ihnen verbinde und meine Meinung zu Ihnen in einem sozialen Netzwerk gefestigt wird, in dem über Sie, aber über Sie geredet wird bekomme nicht zu hören, was sie sagen. "

In einem solchen System wird die Veränderung des eigenen Schicksals zu einer gewaltigen Herausforderung. „Man ist in der Regel permanent in eine Kategorie eingeordnet und hat keine Chance, neue Beziehungen und neue Möglichkeiten zu verbessern oder sich zu verbessern“, sagt DiFonzo. "Das System ist möglicherweise nicht verzeihend, wenn Sie ändern möchten."

Der Matthew-Genauigkeitseffekt basiert auf dem Matthew-Effekt in der Wissenschaft, der 1968 vom Soziologen der Columbia University, Robert Merton, geprägt wurde. Dieser Effekt beschreibt, wie Menschen, denen eine gewisse Verantwortung übertragen wurde - oder in dem akademischen Kontext, in dem Merton dies vorschlug, auf Forschungsfinanzierung vertraute - neigen dazu, mit der Zeit noch mehr gegeben zu werden, zu Recht oder nicht. Im Gegensatz dazu erhalten Personen, denen zunächst weniger Verantwortung übertragen wurde, im Laufe der Zeit noch weniger Verantwortung. Die Wirkung leitet ihren Namen von der Stelle im Matthäusevangelium ab, in der Jesus sagt: „Für jeden, der mehr hat, wird mehr gegeben, und er wird eine Fülle haben. Wer nicht hat, auch was er hat, wird von ihm genommen. "

Der Matthew-Effekt könnte durch algorithmisches Feedback deutlich verstärkt werden. Einige Menschen, die in Chinas Pilotprogrammen als „nicht vertrauenswürdig“ eingestuft wurden, sind bereits in eine Abwärtsspirale geraten, in der ihnen systematisch immer mehr Privilegien verweigert werden, bis sie Bürger zweiter Klasse werden. Dies geschah mit Liu Hu, einer 42-jährigen Journalistin, die effektiv auf die schwarze Liste gesetzt wurde, nachdem sie einen Diffamierungsfall verloren hatte. Unter anderem konnte er sich nicht in Reise-Apps einloggen, um Zug- oder Flugtickets zu kaufen. Seine Social-Media-Accounts, auf denen er einen Großteil seines investigativen Journalismus veröffentlichte, wurden zensiert und geschlossen, und er wurde unter Hausarrest gestellt. Trotz der Veröffentlichung einer Entschuldigung und der Zahlung einer Geldstrafe hat sich sein Status nicht geändert. Auf der anderen Seite könnten, wie der Matthew-Effekt vorschlägt, hochrangige Personen im Laufe der Zeit immer mehr Privilegien erhalten und ihre Leistungen an ihre Kinder weitergeben, so dass ihre Nachkommen das Leben mit Zugang zu bester Bildung, medizinischer Behandlung und Unterkunft beginnen , und mehr.

Der Rückgriff ist auf diejenigen beschränkt, die ihren Ruf bei der Regierung oder bei Nachbarn, die sehen, dass sie wegen ihrer geringen Punktzahl wegen einer Vergünstigung abgelehnt werden, wiederherstellen möchten. "Es gibt wichtige Auswirkungen auf die Kommunikationsstruktur", sagt DiFonzo, "weil ich von der Kommunikation mit Leuten abgeschnitten bin, die dies über mich hören."

Menschen können erwarten, dass ihre Bewertungen und Bewertungen ihre Interaktionen mit Institutionen auf ähnliche Weise beeinflussen. CLV-Scores bestimmen bereits, wie Unternehmen Einzelpersonen behandeln und welche Produkte und Angebote für sie beworben werden, basierend darauf, ob sie als Mitglieder von Kohorten mit hohem oder niedrigem Gewinn eingestuft werden. Dies ist nicht der einzige Kontext, in dem persönliche Bewertungen eine Rolle spielen: Im Gesundheitswesen werden die Menschen routinemäßig nach ihrer Häufigkeit der Pflegesuche in Kategorien mit hohen und niedrigen Nutzern eingeteilt. Im strafrechtlichen Kontext kann die zunehmende Verwendung von Datenanalysen dazu führen, dass Personen in Kategorien mit hohem oder niedrigem Risiko eingeteilt werden, in denen festgelegt wird, wie sie künftig von den Strafverfolgungsbehörden behandelt werden. „Wenn wir Daten über Personen sammeln, um ihnen bessere Musikempfehlungen für Spotify oder Filmempfehlungen für Netflix anzubieten, ist das in Ordnung. Das ist ein Level von Einsätzen “, sagt Brayne. "Aber wenn die Interventionen so stark sind, wie die Polizei Sie aufhalten wird, dann haben diese wirklich direkte und offensichtliche Auswirkungen auf die soziale Ungleichheit."

An diesem Punkt könnte Systemvermeidung ins Spiel kommen, sagt sie. Sobald Menschen mit dem Strafrechtssystem in Kontakt kommen und dies dokumentieren, neigen sie dazu, Institutionen wie Krankenhäuser und Banken sowie formelle Beschäftigung und Bildung auf diese wirklich strukturierte Weise zu meiden. Diese Art der Überwachung beeinflusst, wie Sie mit anderen wichtigen Institutionen interagieren. “

Verhaltensintervention

Social Scores und Rankings können auch als moralische Urteile angesehen werden, die sich auf das Selbstwertgefühl der Menschen auswirken können. "Wenn Sie eine niedrigere Punktzahl für soziale Kredite erhalten", sagt Waytz, "können Sie sich auf einen Prozess der Selbstwahrnehmung einlassen, in dem Sie sich als weniger moralisch als andere und als weniger menschlich ansehen." Menschen, die sich selbst dehumanisieren, fühlen sich möglicherweise weniger in der Lage, grundlegende mentale Prozesse auszuführen, beispielsweise die Fähigkeit, Dinge zu planen oder sich daran zu erinnern, oder die Fähigkeit, Schmerz und Vergnügen zu empfinden. In scharfem Gegensatz zu dem erklärten Ziel eines sozialen Bewertungssystems, moralisches Verhalten durchzusetzen, gibt es Hinweise darauf, dass Gefühle der Entmenschlichung die Menschen zu unethischem Verhalten veranlassen könnten.

Waytz und seine Kollegen führten ein Experiment durch, in dem sie den Teilnehmern eine moralische Wahl stellten. Sie wurden gebeten, das Ergebnis eines virtuellen Münzwurfs vorherzusagen. Wenn ihre Vorhersage richtig war, verdienten sie zwei Dollar. Im neutralen Zustand wurden die virtuellen Münzwürfe so manipuliert, dass sie immer den Vermutungen der Teilnehmer entsprachen. Unter anderen Umständen wurde das Programm jedoch so manipuliert, dass die Vermutungen der Teilnehmer durchweg falsch waren. Sie würden dann auf einen Fehler auf dem Bildschirm stoßen, der ihnen mitteilt, dass ihre Vorhersage korrekt war, obwohl dies tatsächlich nicht der Fall war. Sie konnten entweder auf einem Fragebogen mitteilen, dass ein Problem aufgetreten war, oder Geld beanspruchen, das sie nicht verdient hatten. Fast die Hälfte der Teilnehmer entschied sich dafür, das Geld zu nehmen - und bei einer späteren Aufgabe betrogen diese Personen mit deutlich höherer Wahrscheinlichkeit erneut als diejenigen, die das offensichtliche Problem gemeldet hatten. Kritischerweise berichteten die Teilnehmer mit „hoher Unehrlichkeit“ in einer Umfrage auch über geringere menschliche Fähigkeiten als diejenigen, denen keine Möglichkeit zum Betrügen geboten wurde. "Wenn sich Menschen unethisch verhalten", sagt Waytz, "ist die Wahrscheinlichkeit größer, dass sie sich entmenschlichen, und wenn sich Menschen entmenschlichen, ist es auch wahrscheinlich, dass sie sich unethisch verhalten." der Bevölkerung entdeckt, dass sie als weniger positiv eingestuft wurden.

Ergebnisse wie Waytz und die von DeSteno zitierten weisen auf die reale Möglichkeit hin, dass Sozialkreditsysteme mehr schaden als nützen könnten. "Wenn Menschen quantitativ leben, fühlen sie sich weniger menschlich", sagt Waytz, "und die Menschen behandeln sie eher als Wertspeicher als als etwas, das eine echte Würde hat."

Eine hohe Punktzahl für soziale Kredite könnte sich aber auch zumindest moralisch nachteilig auf den Einzelnen auswirken. "Es gibt Arbeiten, die zeigen, dass Menschen mit zunehmendem Status weniger ethisch eingestellt sind", sagt DeSteno. „Sie werden ihre Angestellten mehr anlügen oder sie nicht gleich behandeln - und sie werden in ihren Urteilen heuchlerisch sein. Das heißt, sie werden bestimmte Arten von Übertretungen als moralisch nicht verwerflich ansehen, wenn sie sich selbst auf sie einlassen, aber dennoch andere Menschen dafür verurteilen, dass sie diese Dinge getan haben. “

Andererseits könnten hohe Punktzahlen die Aufmerksamkeit der Menschen theoretisch auf ein Verhalten lenken, das ein Gefühl des Stolzes hervorruft. Dies zeigt sich bereits im Verhalten sogenannter Credit-Score-Fanatiker, die den Anspruch haben, im „800-Club“ zu sein, was einen Standard-Highscore bei den traditionellen Ratings von Finanzkrediten widerspiegelt. Diese Männer und Frauen empfinden eine 800 als wichtiges Statussymbol. Da der FICO-Algorithmus jedoch nicht öffentlich ist, teilen sie offensichtliche Erfolgsgeheimnisse miteinander, um anderen Enthusiasten beim Versuch zu helfen, das System zu spielen.

Da Verhalten zu einem Element des sozialen Rankings wird, könnte das Erreichen eines Highscores für einige zu einem starken Motivator werden. Wenn Einzelpersonen die praktischen Vorteile nutzen und stolz auf eine hohe Punktzahl sind, können sie daran arbeiten, ihr Verhalten zu verbessern. "Wenn die Menschen keinen Stolz haben - wenn sie sich nicht so gut fühlen -, motiviert dies sie, ihr Verhalten zu ändern, um es besser zu machen", sagt Jessica Tracy, Psychologin an der Universität von British Columbia. In ihrer Forschung hat sie herausgefunden, dass ein niedriges Maß an Stolz ein treibender Faktor für Verhaltensänderungen ist. Läufer, die sich in Bezug auf ihre Fortschritte weniger sicher fühlen, sind stolz darauf, einen Plan zur Leistungssteigerung auszuarbeiten, und Studenten, die weniger stolz auf ihre Prüfungsergebnisse sind, sind bestrebt, härter zu lernen. "Wir können ihre gesteigerte Leistung während der Prüfungen auf den Mangel an Stolz zurückführen, den sie anfangs verspürten", sagt Tracy.

Während es eine positive Beziehung zwischen Stolz und Motivation geben kann, „muss es die richtige Art von Stolz sein“, sagt Tracy, weil es eine zweiseitige Emotion ist. Authentischer Stolz ist mit dem Gefühl des Vertrauens, der Leistung und des Selbstwertgefühls verbunden, während hubristischer Stolz mit Arroganz, Grandiosität und Einbildung verbunden ist. Indem die Aufmerksamkeit der Menschen auf ihre Punktzahl und ihren sozialen Status gelenkt wird, im Gegensatz zu ihrem inhärenten Selbstwertgefühl, könnte das soziale Ranking das Gefühl von hubristischem Stolz fördern, insbesondere wenn Einzelpersonen ihre Bewertung in Bezug auf andere ständig bewerten und nach externer Befriedigung für ihre Leistungen suchen.

Untersuchungen zeigen, dass Menschen aus intrinsischen Gründen stärker motiviert sind, sich zu verbessern - sich besser zu fühlen. Tracy ist bestrebt, sich durch explizite Ziele wie die Erhöhung der Kreditwürdigkeit zu verbessern: „Die Leistung und der Erfolg der Mitarbeiter sind tatsächlich geringer. Externe Verstärkung für gutes Verhalten wird wahrscheinlich nicht so effektiv sein, um die Art von Verhalten zu erzeugen, nach der sie suchen, wie ein System, in dem die Menschen gut sein wollen, weil sie sich intern gut fühlen. “

Das Navigieren durch die Sozialkreditsysteme wird den Einzelnen vor neue Herausforderungen stellen. Sogar die relativ transparente FICO-Kreditwürdigkeitsprüfung hatte soziale und verhaltensbezogene Auswirkungen. Während die Leute ihre Daten anfechten und ihr Verhalten ändern können, um ihre Punktzahl zu ändern, müssen sie sich immer noch an die proprietären Regeln des Systems halten und hätten Schwierigkeiten, im Finanzsystem zu navigieren, ohne daran teilzunehmen. Anspruchsvollere Bewertungsalgorithmen, die Aspekte des Lebens berücksichtigen, die über das Finanzielle hinausgehen, stellen eine noch größere Herausforderung dar und schaffen eine neue Dimension, durch die institutionelle Akteure, Regierungsbehörden und sogar enge Freunde zwischen den Menschen diskriminieren können.

Sozialkreditsysteme drohen, bestehende soziale Schichten fortzusetzen, indem sie kodifiziert und wiederum validiert werden. Sie erwecken auch die Aussicht, dass Menschen ihre Ergebnisse besser schützen als ihre Beziehungen. Wenn wir nicht bereit sind, an einem solchen sozialen Experiment teilzunehmen, müssen wir unbedingt skeptisch bleiben, was Systeme angeht, die uns enger mit der Autorität verbinden und uns gleichzeitig aus dem Kontakt mit anderen Menschen drängen. "Es wird immer schwieriger, Geheimnisse zu haben", sagt Jonas. „Und wenn Sie wissen, dass es schwierig sein wird, Geheimnisse zu haben, dann stelle ich mir zwei Arten von Zukünften vor: Eine könnte sein, jeder versucht,‚ normal 'zu sein. Oder die Menschen werden sein, wer sie sein wollen, und die Welt wird Vielfalt annehmen. Das ist die Zukunft, die ich wirklich will. “

Jayne Williamson-Lee ist freiberufliche Wissenschaftsjournalistin und lebt in Denver.