Sachverhalte
wie Satellitenüberwachung,
enorme
Rechnerkapazitäten
auf Silizium Chips,
Sensoren, Netzwerke
und Predictive-Analytics
sind
die Bestandteile von
digitalen
Systemen
(des
Überwachungskapitals),
die
das
Leben
und
Verhalten der
Bevölkerungen
gegenwärtig
umfassend
tracken,
analysieren
und kapitalisieren.
Dabei
sieht
sich beispielsweise
Google
unter dem Druck der Finanzmärkte
gezwungen,
die Effektivität
seines Data-Trackings
und
seiner durch Maschinenintelligenz erzeugten Analysen ständig
zu
erhöhen und gerade
deswegen
jeden
Anspruch
der
Nutzer auf
den
Schutz der eigenen Privatsphäre
mit
den vielfältigsten Mitteln
zu bekämpfen. Dank
einer
Reihe von Geräten wie Laptops
und
Smartphones, Kameras und Sensoren sind heute Computer im
kapitalisierten
Alltag
allgegenwärtig, es
sind zeichenlesende
Maschinen, die Algorithmen
(unbedingt
berechenbare, formal-eindeutige
Verfahrensanweisungen) ausführen und ihre volle Kraft erst
im
Kontext digitaler Medien der Vernetzung entfalten, wofür die
programmgesteuerte Gestaltung, Transformation und Reproduktion
sämtlicher Medienformate Voraussetzung ist. Insbesondere
die sozialen
Netzwerke ermöglichen
in
diesem Spiel eine
Art
von Ökonomie, die aufgrund
die
Extraktion von persönlichen
Daten,
die
zur
Konstruktion
von
Metadaten, Cookies, Tags und anderen Tracking-Technologien führt,
eine eigenartig
neue
algorithmische Governance etabliert hat.
Diese
Entwicklung ist vor
allem als
»Big Data« bekannt geworden, ein
System, das
auf Vernetzung, Datenbanken
und hohen
Computerleistungen und -kapazitäten aufbaut. Die darin involvierten
Prozesse sind laut Stiegler solche
der »Grammatization«. Im
digitalen Stadium führen
diese
dazu, dass die Individuen durch eine
Welt geführt werden, in
der ihr
Verhalten grammatikalisiert
ist,
indem sie mit Computersystemen interagieren, die in Real Time
operieren.
Die
Grammatization
beginnt für
Stiegler
allerdings
schon
mit
den Höhlenmalereien und führt über die Medien
Keilschrift,
Fotografie, Film und Fernsehen schließlich
zum
Computer, zum Internet und zum Smartphone. Ergebnis
all dessen ist, dass die
Datenpfade
und -spuren, die mit den heutigen Technologien der Computerisierung
erzeugt werden, ternäre, aufmerksamkeitsreduzierende Retentionen
bzw. Mnemotechniken konstituieren,
die spezifische Zeitverfahren und Individuationsprozesse inkludieren,
das
heißt
«Industrialisierungsprozesse des Gedächtnisses» bzw. eine
»politische und industrielle Ökonomie, die auf der industriellen
Ausbeutung von Bewusstseinszeiten beruht«. Mit der Digitalisierung
der Datenwege und -prozesse, die heute mittels
Sensoren,
Interfaces und anderen
Mitteln
aufdringlich
dringlich funktionieren
und grundsätzlich
als
binäre Zahlen und kalkulierbare Daten generiert werden, wird
Stiegler zufolge ein automatisierter Gesellschaftskörper geschaffen,
in dem
selbst
noch das
Leben
in
einen Agenten der hyper-industriellen Ökonomie des Kapitals
transformiert wird. Deleuze hat diese Entwicklung in seinem berühmten
Essay zu den Kontrollgesellschaften schon vorausgesehen, aber zur
vollen Tragkraft kommen die Kontrollformen erst, wenn die digitale
Kalkulation die von Deleuze festgestellten Modulationen der
Kontrolltechniken
in eine algorithmische Governance integriert, die zudem
die
Automatisierung sämtlicher Existenzen, Lebensweisen und Kognitionen
inkludiert.
Die dem Internet zugrunde liegenden Machttechnologien der Protokolle sind a-normativ, da sie selten breit in der Öffentlichkeit debattiert werden, vielmehr scheinen sie der algorithmischen Governance immanent zu sein. Zur Debatte steht nun: Erzeugen Daten digitale Protokolle oder digitale Protokolle Daten? Oder noch enger: Sind Daten digitale Protokolle? Auf jeden Fall haben schon deren Setzungen strukturierenden Charakter, nicht erst die Resultate. Wie jede Governance, wenn wir sie im Sinne von Foucault denken, implementiert auch die algorithmische Governance spezifische Technologien der Macht, die heute aber auf keiner Statistik mehr basieren, die sich auf den Durchschnitt und die Norm bezieht, stattdessen haben wir es mit einer automatisierten, einer atomaren und auf Wahrscheinlichkeit beruhenden Maschinenintelligenz zu tun, die die Spurensicherung und das Datamining unabhängig vom Medium betreibt – ein automatisches Computing sammelt, erfasst und mobilisiert mit den Methoden der künstlichen Maschinenintelligenz Daten über das Verhalten der Marktteilnehmer, die mittels der Extraktion ihrer Daten durch Überwachungskonzerne kontrolliert werden und deren Verhalten kapitalisiert wird.1 Die kontinuierlich Daten sammelnden und Datenspuren lesenden und auswertenden digitalen Maschinen mobilisieren also eine a-normative und eine a-politische Rationalität, die auf der automatischen Analyse und der monetären Valorisierung von enormen Datenmengen besteht, indem die Verhaltensweisen der Bevölkerung modelliert, antizipiert und beeinflusst werden. Man nennt dies heute verharmlosend ubiquitäres Computing, bei dem, und darauf ist immer wieder hinzuweisen, das Überwachungskapital die Extraktion des Verhaltens der Nutzer und die darauf aufbauenden Vorhersageprodukte, die durch die Algorithmen des Überwachungskapitals entstehen, längst nicht mehr nur im Internet, sondern in der realen Welt betreibt, um dann die Vorhersageprodukte durch spezielle Verfahren ständig zu diversifizieren und tiefer zu legen. Alles, ob belebt oder unbelebt, lässt sich verdaten, verbinden, kommunizieren und berechnen. Und aus den Automobilen, Kühlschränken, Häusern und Körpern usw. fließen über die Vermittlung von digitalen Geräten ständig Signale , beruhend also auf Aktivitäten humaner und non-humaner Akteure, die in der realen Welt stattfinden, als Daten in die digitalen Netze und dienen dort der Umwandlung in Vorhersageprodukte, die an solche Werbekunden verkauft werden, die zielgenaue Werbung betreiben. (Zuboff 2018: 225).
Um
es genauer
zu sagen: Das
Überwachungskapital
der
Unternehmen
Google oder
Facebook automatisiert
damit
das
Kaufverhalten
der
Konsumenten,
kanalisiert
es mittels der
berühmten Feedback-Loops
ihrer
KI-Maschinen
und
bindet
es
zielgerichtet an Unternehmen,
die
wiederum
Werbekunden
des
Überwachungskapitals sind.
Die
verkaufsfördernden
Verhaltensmodifikationen,
die bei
den Nutzern
erzielt
werden sollen, beruhen auf maschinellen
Prozessen
und Techniken
wie dem
tuning
(Adaption
an ein System),
herding (Zurichtung
der Masse) und
der
Konditionierung
(das
Trainieren von Reiz-Reaktionsmustern),
die
das
Verhalten
der
Nutzer derart
lenken,
dass die maschinell
konstruierten
Vorhersageprodukte das
Verhalten
der
Nutzer
tatsächlich
in
Richtung der
von Google garantierten
Intentionen
treiben.
(Ebd.)
Die
maximale Vorhersagbarkeit des Verhaltens der Nutzer ist nun
eine
genuine Profitquelle: Der
Konsument, der
eine
Fitness-App benutzt,
soll am
besten im
Augenblick
maximaler Empfänglichkeit, beispielsweise
nach dem Jogging,
ein gesundes Getränkeprodukt kaufen,
das
ihm vorher
durch
zielgerichtete Werbung schmackhaft gemacht wurde.
Der Sportartikelhersteller Nike
hat die
Datenanalyse-Firma Zodiac gekauft und
nutzt sie in seinen Filialen in New York.
Betritt ein Kunde mit Nike-App auf dem Smartphone eine
Filiale,
so
wird
er sofort
von
der Geofencing-Software erkannt und kategorisiert. Sofort
verändert sich auch
die
Startseite der App
und anstelle von Online-Angeboten erscheinen auf dem Bildschirm
Neuheiten, das
heißt natürlich
auf
den Kunden zugeschnittene
Sonderangebote und Empfehlungen, die in
der Filiale gerade
angeboten werden. Besonders treue Kunden erhalten gleich im Laden
kleine Geschenke und können sich sämtliche Waren per Smartphone in
die Umkleidekabine liefern lassen.
Das Überwachungskapital ist längst nicht mehr nur auf die Werbung bezogen, es bekam sejhr schnelle ein Modell für die Kapitalakkumulation in Silicon Valley, das von nahezu jedem Startup übernommen wurde. Aber heute ist es nicht nur auf einzelne Unternehmen oder den Internetsektor beschränkt, sondern hat sich auf eine große Anzahl von Produkten, Serviceleistungen und den ökonomischen Sektor verteilt, eingeschlossen Versicherungen, Gesundheitsvorsorge, Finanzen, Kulturindustrie, Transportwesen etc. Nahezu jedes Produkt oder jede Dienstleistung, die mit dem Wort »smart« oder »personalisiert« beginnt, jedes internetanschlussfähige Gerät, jeder »digitale Assistent« ist in der Angebotskette der Unternehmen ein Interface für den unsichtbaren Fluss von Verhaltensdaten auf dem Weg zur Vorhersage der Zukunft der Bevölkerung in einer Überwachungsökonomie. Als Investor gab Google schnell die erklärte Antipathie gegen die Werbung auf, stattdessen entschied man die Revenuen zu erhöhen, indem man den exklusiven Zugang zu dem Datenabfall der User data logs (once known as “data exhaust”) in Kombination mit substantial analytischen Kapazitäten und maximale Computerpower nutzte, um Vorhersagen der Klickraten der User, die als Signal für die Relevanz einer Werbung angesehen werden, zu generieren. Operational bedeutet dies, dass Google seinen wachsenden Datenbestand umfunktionierte, um in als Verhaltensdatenüberschuss »arbeiten« zu lassen, und gleichzeitige neue Methoden zu entwickeln, um aggressiv nach Quellen der Surplusproduktion zu suchen. Das Unternehmen entwickelte neue Methoden zur Vereinnahmung des geheimen Surplus, indem man Daten, welche die User für privat hielten, aufdeckte und extensiv persönlich Informationen der User kapitalisierte. Und dieser Datensurplus wurde insgeheim auf die Bedeutung hin analysiert, die er für die Vorhersage des Klickverhaltens der User hatte. Dieser Datenüberschuss wurde die Basis für neue Vorhersagen, die »targeted advertising« genant wurden. Hier war der Ursprung des Übrewachungskapitals, Verhaltensüberschuss, materielle Infrastrukturen, Computerpower, algorithmische Systeme und automatisierte Plattformen. Als die Klickraten durch die Decke schossen wurde die Werbung für Google so wichtig wie die Suchmaschine, vielleicht war sie der Einstiegspunkt einer neuen Art des E-Commerce, der von einer breiten Online-Überwachung abhängig war. Der Erfolg dieser neuen Mechanismen wurde sichtbar als Google damit 2004 in die Öffentlichkeit ging.
Die ersten Überwachungskapitalisten setzten sich zuerst durch Deklarationen in Szene, indem sie ganz einfach die privaten Erfahrungen der Nutzer als etwas betrachteten, dass man nehmen kann, um sie in Daten zu übersetzen und diese als Privateigentum anzueignen und für den privaten Wissensgewinn auszunutzen. Überspielt wurde dies mit einer rhetorischen Camouflage und geheimen Erklärungen, von denen niemand als sie selbst Bescheid wussten.Google begann einseitig zu postulieren, dass das Internet lediglich eine Ressource für ihre Suchmaschine war. Mit einer zweiten Deklaration behaupteten sie, dass die private Erfahrung der User ihren Revenuen diente, indem man die persönlichen Schicksale anderen Unternehmen verkaufte. Der nächste Schritt sah vor, dass die Surplusoperationen über das Online-Milieu hinaus in die reale Welt vordringen sollten, wo Daten über das persönliche Verhalten als frei gelten, um einfach von Google gestohlen zu werden. Dies war ein normale Geschichte im Kapitalismus, Dinge, die außerhalb der Marktsphäre liegen aufzuspüren und sie als waren zu generieren. Einmal suchten wir nach Google, nun sucht Google nach uns. Einmal dachten wir, die digitalen Serviceleistungen seinen frei, nun denken die Überwachungskapitalisten wir seien Freiwild.Das Überwachungskapital bedarf der Bevölkerung nicht mehr in ihrer Funktion als Konsumenten, sondern das Angebot und die Nachfrage orientieren die Überwachungsfirmen an Geschäften, die auf die Antizipation des Verhaltens der Bevölkerungen, Gruppen und Individuen ausgerichtet sind. Die Überwachungsfirmen haben in Relation zu ihrer Computerpower (und im Gegensatz zu den frühen industriellen Unternehmen) wenig Mitarbeiter. Das Überwachungskapital ist von der Aushöhlung der individuellen Selbstbestimmung und der Autonomie sowie dem Recht zur freien Entscheidung abhängig, um einen unbeobachteten Strom von Verhaltensdaten zu generieren und die Märkte, die nicht für, sondern gegen die Bevölkerung sind, damit zu füttern. Es genügt nicht länger, die Informationsströme, welche die Bevölkerung ausleuchten, zu automatisieren, vielmehr besteht das Ziel nun darin, die das verhalten der Bevölkerung selbst zu automatisieren. Dies Prozesse werden ständig neu designt, um die Ignoranz, welche die individuelle Beobachtungsfähigkeit betrifft, zu erhöhen und jede Möglichkeit zur Selbstbestimmung zu eliminieren. Das Überwachungskapital legt den Fokus weg von den individuellen Nutzern hinauf Bevölkerungen wie etwa Städten oder eben auf die Ökonomie eines Landes, was nicht unerheblich für die Kapitalmärkte ist, wenn die Vorhersagen über das Verhalten von Bevölkerungen sich nach und nach der Gewissheit ihres Eintreffens annähern. Im Konkurrenzkampf um die effizientesten Vorhersageprodukte haben die Überwachungskapitalisten gelernt, dass, je mehr Verhaltenssurplus sie sich aneignen, desto besser auch die Vorhersagen sind, was die Kapitalisierung im Zuge der economies of scale zu immer neuen Anstrengungen ermuntert. Und je mehr der Überschuss variiert werden kann, desto höher ist der Vorhersagewert. Dieser neue Drive der Ökonomie führt von den Desktops über die Smartphones in die reale Welt - man fährt, läuft, shoppt, sucht einen Parkplatz, das Blut zirkuliert und man zeigt ein Gesicht. Alles soll aufgezeichnet, lokalisiert und vermarktet werden. Und die effizientesten Vorhersagedaten werden mittels der Ökonomie der Aktion gewonnen, wenn es denn gelingt, Systeme zu designen, um in den Status des Verhaltens und der Modifizierung des Verhaltens von Akteuren einzugreifen, um es in Richtung des gewünschten kommerziellen Outputs zu treiben.
Es gibt eine Dualität in der Informationstechnologie zu vermelden, ihre Kapazität zu automatisieren, aber auch zu informatisieren, das heißt Dinge, Prozesse und Verhalten in Information zu übersetzen, i.e. es werden neue Territorien des Wissens aufgrund der informatorischen Kapazität produziert, die auch zum Gegenstand politischer Konflikte werden können; dies betrifft die Verteilung des Wissens, die Entscheidung über das Wissens und die Macht des Wissens. Zuboff schreibt, dass die Überwachungskapitalisten das Recht zu wissen, zu entscheiden, wer weiß und zu entscheiden, wer entscheidet, ganz allein für sich einfordern würden. Sie dominieren die Automatisierung des Wissens und seine spezifische Arbeitsteilung. Zuboff schreibt weiter, dass man das Überwachungskapital nicht ohne das Digitale begreifen könne, wobei das Digitale aber auch auch ohne das Überwachungskapital bestehen könne: Das Überwachungskapital sei, keine reine Technologie, vielmehr könnten digitale Technologien vielfältige Formen annehmen Das Überwachungskapital basiere zwar auf Algorithmen und Sensoren, künstlichen Maschinen und Plattformen, aber es sei eben nicht dasselbe wie diese diese Komponenten.
Ein
Unternehmen wie Google
muss
schon
bei der Sammlung von Daten,
die das Verhalten der
Nutzer spiegeln
und die
zudem
dem
Tracken von Verhaltensüberschüssen (die
Datenabgase
bei Google) dienen, bestimmte
Dimensionen
von
Größen-
und Diversifikationsressourcen
erreichen,
um die
Daten
dann mittels seiner
Maschinenintelligenzen
in Vorhersageprodukte des Nutzerverhaltens umwandeln und
zielgerichtet an Werbekunden verkaufen zu
können,
Produkte, die wie Wärmesuchraketen auf den Nutzer losgehen, um ihm
beispielsweise bei einem Puls von 78 genau das richtige
Fitnessprodukt via eingeblendeter Werbung vorzuschlagen. So
muss mit der
Diversifikation,
die dazu dient, die Qualität der Vorhersageprodukte zu steigern, zum
einen eine
breite
Auffächerung
von überwachbaren
Themen
in der virtuellen Welt erzielt,
zum
anderen
müssen
die
Extraktionsoperationen aus
dem Netz
in die reale Welt verlagert
werden.
Darüber
hinaus
müssen die algorithmischen
Operationen
an Tiefe gewinnen, das heißt, sie
müssen auf
die Intimität
der Nutzer zielen,
um aktuierend und steuernd, ja formierend in
deren
Verhalten
einzugreifen,
indem die
Unternehmen beispielsweise
zeit-
und zielgerecht
Pay-Buttons auf dem Smartphone einblenden
oder
einen
Wagen
automatisch
sperren,
wenn der
Betroffene Versicherungsbeträge
nicht rechtzeitig
bezahlt
hat.
Der Daten-Fundus, aus dem die Analytiker mittlerweile schöpfen können, ist beinahe unendlich groß. Sie wissen genau, wer wie oft Waren reklamiert, bei Hotlines anruft oder in Online-Portalen über ein Unternehmen herzieht. Sie kennen die Lieblingsgeschäfte, die Lieblingsrestaurants und -kneipen vieler Verbraucher, die Zahl ihrer »Freunde« bei Facebook, den Urheber von Anzeigen, die Social-Media-Nutzer angeklickt haben. Sie wissen, wer in den vergangenen Tagen die Webseite eines Konkurrenten des Auftraggebers einer Anzeige besucht oder bestimmte Waren gegoogelt hat. Sie kennen die Hautfarbe, das Geschlecht, die finanzielle Lage eines Menschen, seine körperlichen Erkrankungen und seelischen Beschwerden. Sie wissen das Alter, den Beruf, die Zahl der Kinder, die Wohngegend, die Größe der Wohnung - schließlich ist es etwa für ein Unternehmen, das Matratzen herstellt, durchaus interessant zu erfahren, ob ein Kunde Single ist oder im Fall der Fälle wohl gleich fünf Schaumstoffmatten für die gesamte Familie ordert.
Heute ist die Gruppe in Facebook materialisiert, in ihren unsichtbare Algorithmen und hat eine weitgehend imaginäre Gruppensucht unvorstellbaren Ausmaßes hervorgerufen. Und hier liegt die Theorie der Simulation falsch, denn es ist nichts Falsches an den digitalen Netzwerken, sie sind ganz real und erzeugen für diejenigen, die an die Netzwerke angeschlossen sind, eine Stabilität, indem die Dinge einfach expandieren, mehr Anfragen, mehr Freunde and so on. Mit der Schließung der Fabriken kam die Öffnung der Daten-Minen. Und die damit einhergehende Verletzung der Privatsphäre ist das systematische Ergebnis einer pathologischen Wissensteilung, bei der der Überwachungskapital weiß, entscheidet und entscheidet, wer entscheidet. Marcuse hat geschrieben, dass es eines der kühnsten Vorhaben des Nationalsozialismus gewesen sei, den Kampf gegen die Tabuisierung des Privaten zu führen. Und gerade Privatheit ist heute so befreit von jedweder Kuriosität oder jedwedem Geheimnis, sodass man ohne jede Bedenken oder geradezu begierig alles auf seine Timewall schreibt, damit jeder es lesen kann. Wir sind so froh, wenn ein Freund irgendetwas kommentiert. Und man ist andauernd damit beschäftigt, all Daten-Feeds und Updates zu managen, zumindest muss man ein bisschen Zeit von seinen täglichen Routinen abzweigen. Der Geschmack, die Präferenzen und die Meinungen sind der Marktpreis, den man zahlt. Aber das Business-Modell der sozialen Medien wird an seine Grenze stoßen und beendet werden, obgleich es immer noch vom Wachstum des Konsumismus gepusht wird. Diese Businessmodell wiederholt immer nach des Dotcom Booms der 1990er Jahre. Wenn das Wachstum stagniert, dann muss das Projekt abgeschlossen werden. Übergangsloses Wachstum des auf den Kunden bezogenen dezentralisierten Marketings ist der Treibstoff, begleitet von mental Verschmutzung der digitalen Umgebungen, die derjenigen der natürlichen Umgebungen entspricht.
Bei einer Suchanfrage wiederum zählen Faktoren wie Suchbegriffe, Verweildauer, die Formulierung der Anfrage, Buchstaben und Interpunktion zu den Anhaltspunkten, mit denen man das Verhalten der Nutzer ausspioniert, und so sind selbst noch diese sogenannten Datenabgase einsammelnswert,um auch diesen Verhaltensüberschuss des Users für zielgerichtete Werbung zu nutzen, wobei Google den durch algorithmische Wahrscheinlichkeit eruierten meist bezahlenden Werbekunden auch die besten Werbeplätze zuweist, deren Preise sich aus dem Preis pro Klick multipliziert mit der Wahrscheinlichkeit, mit der die Werbung tatsächlich dann auch angeklickt wird, errechnen. In diesen Verfahren findet man letztendlich auch heraus, was ein bestimmte Individuum an einem bestimmten Ort und zu einem bestimmten Zeitpunkt denkt. Singularität indeed. Jeder Klick auf ein bei Google geschaltetes Werbebanner ist ein Signal für dessen Relevanz und gilt damit als ein Maß für erfolgreiches Targeting. Dabei ist derzeit bei Google ein Anstieg der bezahlten Klicks und zugleich ein Fall der durchschnittlichen Kosten per Click zu registrieren, was einer Steigerung der Produktivität gleich kommt, da eben das Volumen des Outputs bei gleichzeitigem Fall der Kosten gestiegen ist.
1 So wie die Protokolle überall sind, so sind es auch die Standards. Man kann von ökologischen Standards sprechen, von Sicherheits- und Gesundheitsstandards, Gebäudestandards und digitalen und industriellen Standards, deren inter-institutioneller und technischer Status durch die Funktionsweisen der Protokolle möglich wird. Die Kapazität der Standards, hängt von der Kontrolle durch Protokolle ab, einem System der Governance, dessen Organisationstechniken gestalten, wie Wert extrahiert von denen wird, die in die verschiedenen Modi der Produktion integriert sind. Aber es gibt auch die Standards der Protokolle selbst. Das TCP/IP Model des Internets ist ein Protokoll, das ein technischer Standard für die Internet-Kommunikation geworden ist. Es gibt eine spezifische Beziehung zwischen Protokoll, Implementierung und Standard, die den digitalen Prozesse betrifft: Protokolle sind Beschreibungen der präzisen Terme, durch die zwei Computer miteinander kommunizieren können (i.e., a dictionary and a handbook for communicating). Die Implementierung impliziert die Kreation von Software, die das Protokoll benutzt, i.e. die Kommunikation abwickelt (zwei Implementationen, die dasselbe Protokoll benutzen, sollten Daten miteinander austauschen können). Ein Standard definiert, welches Protokoll bei bestimmten Computern für bestimmte Zwecke benutzt werden soll. Er definiert zwar nicht das Protokoll selbst, aber setzt Grenzen für die Veränderung des Protokolls.
Der Beitrag Algorithmische Governance/ Das Überwachungskapital (1) erschien zuerst auf non.copyriot.com.