Ganz allgemein ist der Prävention ein spezifisches Zeitschema immanent. Wenn die gegenwärtige Zukunft, die sich auf das bezieht, was man von der Zukunft erwartet, und die künftige Gegenwart, die jene Zukunft bezeichnet, die tatsächlich eintreten wird, nicht deckungsgleich sind, dann wird, wenn man es zunächst ökonomisch betrachtet, durch den Einsatz von performativen mathematischen Kalkulationsverfahren und Derivaten (gegenwärtige Zukunft) immer eine künftige Gegenwart real, mit der sich der Unterschied zu jener Zukunft aktualisiert, die man erwartet und gewissermaßen fixiert und deren Potenziale unter Umständen auch genutzt werden. Das heißt auch, dass die Zukunft keine von der Gegenwart abgetrennte und kontingente Möglichkeit ist, die eintreten kann oder nicht, sondern immer schon im Hier und Jetzt präsent ist. Prävention baut auf dieses Zeitschema auf und modifiziert es: Es soll etwas getan werden, noch bevor ein negativ bewertetes, also unerwünschtes Ereignis eintritt, wobei hier vorausgesetzt wird, dass sich aus der Analyse der Indikatoren eines gegenwärtigen Zustands künftige unerwünschte Zustände und Ereignisse prognostizieren lassen. Auf die Annahme, dass sich künftige Entwicklungen ohne präventive Interventionen auch jeden Fall verschlimmern werden, folgt, dass definitiv eine Art der Risikominimierung ins Spiel gebracht werden muss. (Ebd.: 85ff.) Vorausgesetzt wird also, dass die prognostizierten Fehlentwicklungen ohne zuvorkommende Gegenmaßnahmen wahrscheinlich auch eintreten werden und folglich möglichst frühzeitige Eingriffe die größtmögliche Risikominimierung versprechen. Prävention will also nicht nur schaffen, sie will insbesondere vorbeugen und verhindern. Im Grunde bedeutet Prävention eine Arbeit am Virtuellen: Sie zielt darauf ab, das Werden in seiner angeblich chaotischen Ereignishaftigkeit zu steuern (Kybernetik), um allen möglichen drohenden Gefahren auszuweichen oder zuvorzukommen. Zukünftige, noch nicht geschehene Ereignisse erlangen so eine nicht zu leugnende Präsenz in der Gegenwart.
Um präventive Maßnahmen auch durchsetzen zu können, müssen zunächst ausgewählte und negativ bewertete Phänomen aus der Wirklichkeit herausgeschnitten und isoliert werden, um zwischen diesen und den prognostizierten Ereignissen positive Relationen herzustellen, die oft wahrscheinlichkeitstheoretischer Art sind, worauf schließlich ein Aktionsfeld, das der Verhinderung künftiger Zustände dient, entworfen wird. Dabei kann alles Mögliche als Bedrohung imaginiert und heraus kristallisiert werden. Seien es physische oder psychische Krankheiten, Drogenkonsum, soziale Auffälligkeit, Terroranschläge oder Aufstände, überall lauern Risiken, drohen Ungleichgewichte und Krisen und gerade deshalb bedarf es der Prävention. Diese folgt dem Prinzip der Aufrechterhaltung der Latenz, wobei sie ganz auf die Eliminierung des Negativen abzielt, das von überall und nirgendwo her zu drohen scheint. Die Präventionsmaßnahmen selbst können dabei Momente sowohl der Repression als auch des Produktiven besitzen: Prävention bestraft und belohnt zugleich, sie droht und reizt, sie soll abschrecken und aufklären, sie akkumuliert und eliminiert; sie installiert technische Kontrollsysteme und nutzt soziale Netzwerke.
Wichtige
Begriffe zur weiteren Klärung des Terms »Prävention« sind
Risiko und Unsicherheit.
Kontingent ist das, was unsicher und zugleich veränderbar erscheint,
d. h.
das, was
sein wird, könnte immer auch anders sein. Der Clou dieser
Erkenntnis, den
die
Prävention anwendet,
besteht aber genau darin, dass jeder kommende Zustand durch
vorbeugendes Handeln auch beeinflussbar ist, wobei vorausgesetzt
wird, dass das Kontingente immer auch das Bedrohliche einschließt
und gerade deswegen präventives Handeln notwendig sei.
Dabei darf das Kontingente keineswegs absolut gesetzt,
sondern muss in ein durch Machtverhältnisse konstituiertes
Möglichkeitsfeld integriert
werden.
Weiterhin
ist der Begriff des Risikos zu erklären, das sich gegenüber der
nicht kalkulierbaren Unsicherheit, als kalkulierbar erweisen soll.
Gerade das Risiko ist dann etwas, wogegen sich Maßnahmen der
Prävention treffen lassen, die hier auf ein spezifisches Muster der
Rationalität zurückgreifen bzw. auf die Art, wie man bestimmte
Objekte und ihre Relationen ordnet, um diese zu kalkulieren, zu
vergleichen und zu bewerten und um dann mittels spezifischer
Risiko-Technologien
im Rahmen des Risiko-Managements
auf sie einzuwirken. Zunächst lassen sich zwei Strategien der
Bearbeitung von Risiken vorstellen, nämlich zum Ersten
die des Verbots- bzw.
der Kontrolle,
mit der das Risiko durch ein Arsenal von präventiven Regeln
eingeschränkt werden soll (Vermeidung
von Risiken),
und zum Zweiten
das Management der Risiken, durch das ein Möglichkeitsfeld
konstruiert, rationalisiert und ökonomisiert wird
(Risiko-Management).
Prävention und
Verbote verhalten sich also komplementär zueinander.
Beide Strategien können sich überlappen und gegenseitig ergänzen,
sodass sie in vielfachen Kombinationen auftreten.1
Es
waren die Systemtheoretiker Baecker und
Luhmann,
die Anfang
der 1990er Jahre vorgeschlagen haben, dass die Banken bezüglich
ihres Risikomanagements in Zukunft nicht mit der Unterscheidung
Risiko/Sicherheit, sondern mit der Unterscheidung Risiko/Gefahr
arbeiten sollten. Während bei
der
Unterscheidung von Risiko/Sicherheit der Term Risiko negativ und der
Term Sicherheit positiv bewertet wird, um in Folge
dessen mit Hilfe von spezifischen Risikovermeidungsstrategien
Sicherheit zu erlangen, induziert die Unterscheidung Risiko/Gefahr
das Risiko als den positiven und die Gefahr als den negativen Term.
(Vgl.
Baecker 2011: 20) Damit können sich die Geschäfte der Hedgefonds
und Banken getrost der Produktion, dem Management und der Kalkulation
von Risiken und deren Strukturierung zuwenden.
Die Produktion der Risiken entspricht deren Kalkulation, wie die
soziale Steuerung von
Kontingenz selbst als Teil des Risikoproblems gilt. Die
Selbstbeobachtung des Systems aus der Sichtweise des Risikos, die als
Adaption der Finanzmärkte an das Risiko ganz real auftritt, ist
unbedingt notwendig, um die Finanzialisierung der verschiedenen Typen
von Anlagen vornehmen und einschätzen zu können. Damit wird
der Begriff
des Risikos von dem der Gefahr auch wieder unabhängig, insofern ein
Risiko
nicht durch das Vorhandensein einer festgelegten Gefahr, die von
einem Individuum oder einer konkreten Gruppe ausgehen kann, bestimmt
wird, sondern als das Ergebnis einer Kombination von abstrakten
Formeln, die das Auftreten von unerwünschten oder erwünschten
Ereignissen als wahrscheinlich wiedergeben.
Veranschaulichen
wir das Problem der Risikobestimmung weiter am Phänomen der
Kapitalisierung. Um diese
Kapitalisierung
in Gang zu setzen, muss die in jeder Investition oder
Spekulation
involvierte Unsicherheit, die
prinzipielle
Unvorhersehbarkeit
in der
Kalkulation eines Risikos, das in gewisser Weise vorhersehbar ist,
überführt
werden. Praktisch erscheint diese Bewegung als ein je schon volatiler
Spread zwischen prinzipieller Unsicherheit und kalkulierbarem Risiko,
ein Spread, der einen ausgedehnten Zeithorizont besitzt und es auch
ermöglichen soll, seine Volatilität zu glätten. Die von den
Unternehmen erwarteten zukünftigen Renditen müssen, da sie ja
unbekannt sind, mit spezifischen Risikofaktoren, die wiederum eines
Risikoprofils und eines speziellen Risikomanagements bedürfen,
zumindest gewichtet und eruiert werden. Heute ist es für das
Finanzsystem essenziell, die Unsicherheit, da
die
Zukunft nicht vorausgesagt werden kann,
in
eine komplexe Risikokalkulation zu transformieren, und dies heißt,
dass die Preise für volatile Zahlungsversprechen (wie
Wertpapiere
und
Derivate)
nur eruiert werden können, wenn zukünftig erwartete Gewinn- und
Einkommensströme für
diese Papiere mit speziellen Risikofaktoren gewichtet und einem
Risikomanagement (Portfoliotheorie) unterstellt werden,
die Risiken folglich
quantifiziert
und in Zahlen fixiert werden, um entsprechende Diskontierungen
vornehmen zu können.
Die Erstellung von Risikoprofilen lässt sich mit Foucault als ein Prozess der Normalisierung interpretieren. Durch die Erstellung von Profilen werden die Marktteilnehmer einerseits voneinander unterschieden und damit individualisiert und andererseits miteinander verglichen und damit homogenisiert. Wir haben es heute mit äußerst flexiblen Prozessen der Normalisierung an den Finanzmärkten zu tun, wobei jeder Marktteilnehmer ausnahmslos als ein Risikofaktor gedacht wird, den es statistisch zu erfassen und permanent zu bewerten gilt. Allerdings geschieht der Prozess der Risikozuteilung und -bewertung keineswegs auf der Basis einer invarianten Norm, sondern die Normalisierung ist hier als ein variabler Prozess innerhalb eines stark verflochtenen Netzwerks zu verstehen, das von Konstellationen geprägt ist, die sich durch Diversität, flexible Regeln der Modulation, Feedback, Macht und exklusive Hierarchien auszeichnen, wobei ständig neue »Differenzial-Normalitäten« (Foucault) hergestellt werden. Das betrifft beispielsweise das Schuldensystem, dessen Zeitlogik von der Logik der fixierten Rückzahlungen auf die Logik variabler Zahlungen, vom Wahrscheinlichen auf das Mögliche umgestellt wird, auf eine spekulative Zeit, in der Vergangenheit, Gegenwart und Zukunft einer permanenten Revision unterworfen werden können (und dies betrifft selbst noch die privaten Schulden der Haushalte). Die Diversitäten werden mittels spezifischer Quantifizierungen auf einige wenige Indikatoren reduziert, um daraufhin neue Homogenisierungen, Einheiten und Adaptionen zu erzielen. Es lasst sich an dieser Stelle von einer Versität (Gleichmachung) sprechen, was aber keineswegs die Eliminierung der Differenz impliziert, ganz im Gegenteil benutzt die Versität die Differenz als ihr reales Substrat, um daraufhin andauernd standardisierte Organisationssysteme, statistische Systeme und Machttechnologien zu generieren, welche die Differenzen modulieren oder gar absorbieren. Diese spezifischen Formen der Normalisierung beziehen sich auf Marktpopulationen, die zum einen hierarchisch (nicht jeder besitzt Zugang) und zum anderen heterogen sind und gerade deshalb über flexible Verfahren, die mittels Technologien vereinheitlichen und zugleich die Differenz benutzen (Ranking, Rating, Scoring etc.), integriert werden müssen. Es handelt sich bei dieser Art der Risikoverteilung bzw. -zuordnung an bestimmte Risikosubjekte und Risikogruppen um streng quantifizierende Phänomene, die mittels a-signifikanter Zeichen, Zahlen, Tabellen, Modelle, Statistiken, Charts etc. dargestellt werden.
Derivate
kapitalisieren eine Volatilität, die sie selbst kreieren. Sämtliche
Prozesse der Preisgestaltung der Derivate benötigen die
Dimensionierung und die Konstruktion von konkreten und abstrakten
Risiken, wobei erstere durch
letztere
verglichen werden können. Die Finanzmaschinen ermöglichen die
Konstruktion, die Verteilung und die Streuung verschiedener
konkreter
Risiken auf die Marktteilnehmer (die sich in heterogenen
Marktpopulationen aufhalten und in Konkurrenzbeziehungen zueinander
stehen) sowie die Bündelung der konkreten Risiken, die dann als ein
singuläres Risiko einen einzigen Preis und einen einzigen Cashflow
erhalten, d. h.
ein abstraktes Risiko inkludieren, das als Derivat gehandelt und
gegen Geld getauscht wird. Das abstrakte Risiko subsumiert die
konkreten Formen des Risikos und vermittelt die Produktion von
Konnektivität und Liquidität, die beide für die Derivatmärkte
unbedingt notwendig sind. Dabei sind Zeit und Volatilität für die
Form des abstrakten Risikos konstitutiv, insofern das Derivat zu
einem bestimmten Zeitpunkt geschrieben wird und eine Laufzeit
besitzt, in der sein Preis sich verändern
kann.
Kapitalisierung
erfordert einen bestimmten Modus der Identifizierung, der Kalkulation
und der Ordnung von ökonomischen Entitäten, von sozio-ökonomischen
Ereignissen, die zuerst einmal unterschieden und dann als
Risiko-Ereignisse objektiviert werden müssen. Da
jeder zukünftige Renditestrom unbekannt ist, kann ohne die
Kalkulation, wie das jeweilige konkrete Risiko hinsichtlich einer
zukünftigen Generierung von Renditen zu bewerten ist, keine
finanzielle Kapitalisierung stattfinden.
Letztendlich
kann unabhängig von den Finanzmärkten, aber durchaus der Logik der
Kapitalisierung folgend, so ziemlich alles zum Risikosignal werden,
was innerhalb eines kybernetischen Feedback-Systems von vorgegebenen
Sollwerten abweicht oder, um es genauer zu sagen, was sich als
Vorzeichen solcher Abweichungen überhaupt identifizieren lässt. Das
können soziale Normen, Subjekte oder Handlungen sein, worauf mittels
Statistik Normalverteilungen konstruiert und statistische Mittelwerte
erhoben werden, die
die Verläufe
einschätzen,
auf welche die Präventivmaßnahmen sich
dann beziehen.
Und Prognosen konstruieren die Zukunft heute gerade auch als das
Management der Subjekte, die selbst wiederum in Risikokategorien
eingeteilt werden, um ihnen Risikoprofile zuzuteilen. An dieser
Stelle überlappen sich das Finanzsystem und die präventive
Verpolizeilichung sozialer
Situationen,
die hier
weniger die Bevölkerung, sondern das Subjekt
markiert.
Gerade
indem die Subjekte als potenzielle Risiken erfasst werden, werden
in
der Gegenwart auch
ständig
neue Risikosubjekte produziert,
an denen die Grenzziehungen des zukünftigen Risiko-Daseins
in Gewinner einerseits
und
Verlierer andererseits
vorgenommen
werden können. Insbesondere
Personen und Haushalte,
die von Krediten abhängig sind, um ihre Subsistenz zu sichern, und
damit finanziellen Risiken ausgesetzt sind, werden
von den Fluktuationen und
Zyklen an
den globalen Finanzmärkten mit voller Härte getroffen.
Gegenwärtig
reichen heute
individualisierte Präventionspolitiken
aufgrund der gentechnologischen Möglichkeiten tief
in
die medizinische Prävention,
Nanotechnologie und positive Merkmalsplanung bzw. Optimierung der
einzelnen
Subjekte
hinein.
Diese Form einer neoliberalen Eugenik arbeitet weniger mit
disziplinären Techniken, sondern wird von neoliberalen
Ausleseverfahren, neuen Technologien und der Logik der
Selbststeigerung gefüttert, um ihr Programm der sanften
Menschenzüchtung durchzusetzen.
Wir haben es, wenn man jetzt darauf folgend das politische Feld und den Staat beobachtet, mit einer Art der permanenten Verpolizeilichung und Versicherheitlichung von Unsicherheit zu tun, wobei die diesbezüglichen Procedere voraussetzen, dass ständig neue Bedrohungslagen, Gefahren und Risikofaktoren aufspürbar sind, die erst die Notwendigkeit und Legitimation präventiven staatlichen Handelns ermöglichen. Solche Präventionspolitik wird dann auch umgesetzt und kann gerade im Falle staatlichen Handelns bis hin zur Liquidierung vermeintlicher Klassenfeinde oder »Volksschädlinge«reichen. Dieser Hyperrationalismus antizipierender Vernunft ist zugleich ein totalitärer Pragmatismus. Er gibt vor, ein Risiko auszurotten, als ob man Ungeziefer vernichten oder Unkraut ausreißen würde. Um heute Verdacht zu erregen, braucht es keine konkreten Symptome des Abnormen, es reicht schlichtweg aus, eine Eigenschaften aufzuweisen, welche von den Experten und Technokraten, die für die Definitionen und Modi der präventiven Politik verantwortlich sind, als Risikofaktor eingestuft wird. Dabei sollen nicht nur einzelne unerwünschte Handlungen antizipiert, sondern die objektiven Bedingungen des Entstehens von Gefahren konstruiert und analysiert werden, um daraufhin neue Interventionsstrategien zu entwerfen. Es entsteht geradezu ein Labor der Risikofaktoren, das eine potenziell unendliche Vervielfachung der Möglichkeiten für Interventionen unter der Voraussetzung schafft, dass die Prävention den Verdacht in den wissenschaftlichen Rang und Modus eines Kalküls von Wahrscheinlichkeiten erhebt. Auf jeden Fall benötigt diese Art der Prävention eine umfassende staatliche Datenerhebung und -verarbeitung (Statistik und Wahrscheinlichkeitsrechnung), um die Bevölkerung zu konstituieren und zugleich zu kontrollieren, und Unsicherheiten jeglicher Art in kalkulierbare wahrscheinliche Risiken zu übersetzen, sodass sich darauf spezifische Apparate des Sicherheitsstaates errichten lassen. Damit erfordern die präventiven Politiken geradezu eine neue Art der Überwachung, nämlich die der systematisierten Ermittlung im Vorfeld, wobei es das intendierte Ziel ist, das Auftreten irgendwelcher unerwünschter Ereignisse wie abweichendes Verhalten oder Widerstand zu antizipieren und zu verhindern. Und diese Überwachung kann ohne jeden Kontakt mit dem zu analysierenden Gefahrenherd und ohne jede unmittelbare Repräsentation von ihm vonstatten gehen. So pumpen die staatlichen Codes ständig Kontingenz in die eigenen Systeme, aber nur um sie einzudämmen. Das Regime der Prävention kreist weiter um das Problem des staatlichen Ausnahmezustands, der aktiv hergestellt und natürlich auch auf Dauer gestellt werden soll. Schließlich kann die Logik der staatlichen Prävention in die antizipierte Säuberung und deren Durchsetzung münden.2
Entsprechend
wird das rechtserhaltende Recht ständig
umgeschrieben zumindest
partiell suspendiert, um auch hier angeblich gefährliche politische
Ereignisse
abzuwenden, welche die bestehende Rechtsordnung bedrohen oder gar
zerstören könnten. Im Namen eines unhinterfragten und angeblich
alternativlosen Exzeptionalismus beansprucht der Sicherheitsstaat die
Herrschaft über Leben und Tod und radikalisiert die Mechanismen
disziplinarischer Zurichtung und postdisziplinärer Kontrolle. Die
Diskurse imaginierter Katastrophen (die
Terrorismusgefahr und
heute insbesondere auch
die
»Flüchtlingskrise«), die der Staat pausenlos in den medialen Raum
pumpt, bedienen heute nahtlos die eigenen protofaschistischen
Sicherheitspolitiken, worauf sie in den rechtspopulistischen
Bewegungen weiter wuchern, die wiederum die staatlichen Diskurse
anheizen und die staatlichen Sicherheitspolitiken vor sich her
treiben. Dabei wird diese Art der Präventionspolitik zum Motor eines
repressiven Normalismus, der versucht, nicht nur auszuschließen,
sondern jedwede Art von Abweichung und Anomalität zu
pathologisieren. Normalistische Steuerungsmechanismen, die mittels
Datenerhebung, Statistik und Stochastik
operieren, um zukünftige instabile Situationen heraus zu
präparieren, zu prognostizieren und zu kontrollieren, fangen an, die
Gesetze und die bestehenden normativen Reglementierungen zu
überlagern. Dafür
werden
heute
spezielle Softwareanwendungen, Algorithmen,
Big
Data und weitere Technologien benötigt, welche die Granularisierung
der Normalitätsfelder und Normwerte beschleunigen, die, wir gesehen
haben, sich je schon ändern könnten. Wer vorbeugen will, darf also
niemals aufhören zu
überwachen, zu
prognostizieren und zu kontrollieren. Somit geht es bei der
Prävention längst nicht nur um Risikovermeidung, sondern um ein
detailliertes aktives Risikomanagement, das einerseits
katastrophisch,
andererseits
wahrscheinlichkeitstheoretisch angelegt ist.
Aber
es finden noch weitere Transformationen statt, denn analog der
Versicherung bzw. der
Verbriefung
der Schulden im Finanzsystem wird die statistische Kalkulation des
Wahrscheinlichen auf die algorithmische Erfassung
des
Möglichen, das
heißt der
möglichen Zukünfte umgestellt. Risikomanagement, biometrisches
Engineering und Digitalisierung sind Techniken, die einen neuen
Modus der Governance und der Modalität der Macht aktivieren, die auf
mögliche, projektierte Zukünfte ausgerichtet sind und es erlauben,
immer stärker auf präemptive Maßnahmen zu setzen, um in Zukunft
vor allem mögliche Schäden zu verhindern.
Da unentwegt neue politische Risiken und soziale Gefährdungslagen auftauchen könnten, muss der aktuelle Sicherheitsstaat zwangsläufig eine paranoide Form annehmen, mit der das Sicherheitsempfinden permanent verunsichert wird, um es politisch erneut zu versichern. Dabei muss die bedrohliche Zukunft in alle möglichen politischen Entscheidungsprozesse eingebunden werden, und so gelangt man schnell vom kriminellen Fall zur kriminogenen Situation, vom pathologischen Fall zur pathogenen Situation, und solche Situationen müssen ständig kontrolliert und überwacht werden. Poulantzas resümiert: »In gewisser Weise wird jeder Bürger a priori verdächtig, denn er ist potentiell kriminell« (Poulantzas 1978: 172). Im Zuge dieser Art der präventiven Kriminalisierung werden die Bürger zudem selbst zur gegenseitigen Denunziation aufgefordert, der sie ja auch, wo ihre autoritäre Formierung gelingt, liebend gerne nachgehen. Solche Mechanismen der präventiven Kriminalisierung gründen an dieser Stelle prinzipiell auf der Konstruktion eines abstrakten und zugleich virtuellen Feindes, der in der Figur des universellen Terroristen, welcher im sozialen Raum omnipräsent und zugleich nicht-individuell ist, sondern etwas konkretisiert wurde. Man stelle sich einen Raum vor, der jetzt ein glatter Raum ist, sodass der Terrorist an jedem beliebigen Ort auftauchen kann, um damit sozusagen zum totalen Feind zu werden, der aber nicht durch eine exklusive Feindschaft übercodiert ist, sondern als eine univoke Figur gilt, die in zahllose Multiplizitäten von möglichen, gleich feindlichen Figuren molekularisiert, geteilt und gestreut werden kann. Diese von uns hier vorgestellte Art der Präventions-Governance, welche schließlich ganz auf die Kontrolle der Bevölkerungen abzielt, wird über Mechanismen der Teilung der Bevölkerung ausgeübt. Das Objekt des Klassenkrieges betrifft nun die Reproduktion von Klasse, Geschlecht, »Rasse« und Subjektivität. Der Krieg gegen die Bevölkerungen wird durch ein virtuell-reales Kontinuum zwischen ökonomisch-finanziellen Operationen und einem neuen Typus der politischen-militärischen Operation erzeugt, das längst nicht mehr auf die Peripherien allein beschränkt ist. Um es zusammenzufassen, der Krieg gegen die Bevölkerungen adressiert nicht nur Terroristen, sondern in seiner pluralen Form ist er längst ein Instrument der Kontrolle, der Normalisierung und der Disziplinierung einer fragmentierten, globalisierten Arbeitskraft.
Die
auf die Bevölkerungen abzielende technologisch konfigurierte
staatliche Counter Insurgency
ist das Synonym für einen sehr spezifischen Krieg, der von der
unendlichen Pazifizierung der Konflikte nicht zu trennen ist. So gibt
es heute bei militärischen Einsätzen, die durch Algorithmen
gesteuert und überwacht werden, auch
keine
Zielperson
mehr, die, direkt
durch menschliche Entscheidungen eruiert
wird,
sondern das militärische »Target« setzt sich infolge einer
computergesteuerten Operation aus einer Summe von Metadaten zusammen,
aus deren Muster ein Feind errechnet wird. Algorithmen stellen im
Dunst der Datenwolken
(Clouds) bestimmte
Verbindungen und Muster her, und wer diese Muster trägt und
reproduziert, der gilt als gefährlich und kann zum Beispiel durch
Drohnen liquidiert werden. Suchmaschinen, wie Google
oder die
chinesische Baidu, operieren mit Algorithmen, die in Folge von
Sucheingaben drei Stunden im Voraus prognostizieren können, wo sich
eine Menschenansammlung (»kritische Masse«) bilden wird. Und der
Programmcode besitzt nun die präemptive Funktion, alle möglichen
Konflikte und Störungen aufzufinden.
Auch
Poulantzas spricht in seinen Analysen die Prävention an,
insbesondere die präventive Überwachung der Bevölkerung durch
polizeilich-administrative Prozeduren. Dabei,
und das ist für ihn
entscheidend, findet
ein
Übergang statt,
von
der Bestrafung von Handlungen, die deshalb strafbar sind, weil sie
gegen bestehende Gesetze verstoßen, hin zur Konstruktion eines
suspekten Falls, »der durch eine flexible, dehnbare und
partikularistische administrative Regelung erfasst wird« (Poulantzas
1978: 202).
So
ist es auch wenig überraschend, dass gegen sogenannte Gefährder,
wie im bayrischen Polizeiaufgabengesetz
(PAG)
festgeschrieben,
künftig Aufenthaltsgebote oder -verbote ausgesprochen,
sie
mit einer elektronischen Fußfessel überwacht oder lange in
Präventivgewahrsam genommen werden können. Auch ihr
Vermögen kann die Polizei ihnen vorübergehend entziehen und
natürlich darf ihre Kommunikation lückenlos überwacht werden.
Gleichzeitig kommt es zu einer Aussortierung meist der linken Szene
zugehöriger
Staatsfeinde, die bereits abgehört, ausspioniert und künftig
daraufhin
verhaftet und eingesperrt werden.
Man
schaue sich einige der aktuellen Polizeistrategien an. Mit dem
Einsatz spezifischer Software lassen sich heute dauerhafte
Risikoprognosen
erstellen, wobei die Präventionsmaßnahmen im Rahmen der
Polizeiarbeit durch die Digitalisierung immer weiter perfektioniert
werden. Aber
es ist auch die Politik der Sicherheitsbehörden, die diese Maßnahmen
aktiv vorantreiben. Es geht nun weniger um die Aufklärung bereits
begangener Verbrechen durch die Polizei, sondern diese soll vor allem
zukünftige Verbrechen verhindern, wofür sie
zum einen den
entsprechenden technologischen Apparat und zum anderen immer mehr
Eingriffsrechte bekommt.
Schon seit den 1980er Jahren werden polizeiliche Befugnisse, die in
der Strafprozessordnung fixiert sind, in die Polizeigesetze hinein
verlagert, was seinen Grund im Zuge der neuen Präventionspolitiken
darin findet, dass die Strafprozessordnung die begangene Straftat
behandelt und die Polizeigesetze die (die
drohenden, aber bevorstehenden Gefahren).
Entsprechend soll die Polizei, ganz der Präventivlogik folgend,
immer mehr Maßnahmen selbst ergreifen und Techniken wie
beispielsweise die biometrische Gesichtserkennung einsetzen, um
drohende
Gefahren abzuwehren, ja sie soll, gerade wenn man mit dem Wort
»drohend« eine negativ bewertete Zukunft imaginiert, unbedingt
aktiv werden, bevor eine
als
Verbrechen gelabelte
Handlung überhaupt
begangen wird. Dabei gleicht
sich
die Arbeit der
Polizei
immer mehr der Praxis des Inlandsgeheimdienstes an, das heißt, das
organisatorische Gefüge der staatlichen Sicherheitsbehörden bzw.
die Sicherheitsarchitektur selbst wird umgebaut, indem die Trennung
von Nachrichtendienst und Polizei nach und nach aufgehoben wird. Die
Konstruktion des präventiven Verdachts sowie seine Materialisierung
in der Polizei inkludiert eine Art der Rechtswillkür (vgl.
Autonomie Magazin 2018),
das heißt, dass hier der Aktivismus der Prävention genau das
generiert, was er vorgeblich
bekämpfen
will; er
folgt der Logik der Politik im Konjunktiv und geht meistens vom
Schlimmstmöglichen aus. Und wenn es dann eben gilt, das Schlimmste
zu vermeiden, dann erscheint fast alles erlaubt.
Es
verwundert auch nicht, dass beispielsweise das US-Militär schon im
Jahr 2009 das System »Gorgon Stare« entwickelt hat, das mittels
Drohnen Städte und insbesondere deren gefährliche Bezirke aus der
Luft überwacht. Wenn irgendwo in diesen Bezirken eine Autobombe
detoniert, so ist das auf Videoaufnahmen festgehalten und man braucht
nur zurückzuspulen, um Annäherungen an das Auto beobachten und
Bewegungsmuster ausmachen zu können, um dann auf den Täter zu
schließen. Manche dieser neuen Überwachungstechnologien für den
urbanen Raum wurden zuerst im Sport entwickelt, wie etwa die
Analyse-Software des Unternehmens Harris Corporation, die als
»Full-Motion Video Asset Management Engine« bezeichnet wird und
Metadaten analysiert, um spezielle Details wie Zeit, Datum und
Kameraposition in jedem Videoframe zu decodieren. Die aufwändige
manuelle Sichtung von Videomaterial wird durch Algorithmen ersetzt,
die jenes
in Metadaten aufteilen und es an einen Server senden, wo diese
wiederum
von einem maschinell lernenden Algorithmus analysiert und in
gestückelte und damit leichter analysierbare Informationen zerlegt
werden. Gibt man einen Begriff ein, dann durchsucht die Software
automatisch das Videomaterial und identifiziert per Objekterkennung
den gesuchten Gegenstand. Fahndungsfotos lassen sich ohne Weiteres in
eine biometrische Datenbank hochladen und Algorithmen suchen dann im
Stream nach dem gewünschten Videomaterial. Akustische
Überwachungssysteme, sogenannte ShotSpotter, lokalisieren Schüsse
und alarmieren automatisch die Polizei, wobei nicht immer klar ist,
ob nur akustisches Material zur Kriminalitätsbekämpfung aufgenommen
wird. Das Data Mining, das Informationen aus verschiedenen Quellen
zusammenführt, soll derzeit mit Hilfe der Verfahren der Künstlichen
Intelligenz (KI)
weiter
vorangetrieben werden. Erwähnenswert ist der Zugriff der staatlichen
Behörden auf Bilder, die
via Sattelit
aus dem Weltall stammen.
All
diese politischen Narrative des Präventivstaates operieren auch über
die mediale Konstruktion von inneren und äußeren Feinden: Russland
und China werden beispielsweise von den privaten Medien sowie den
Staatsmedien als besonders autoritäre Staaten eingestuft, die den
»Westen« bedrohen, inzwischen auch durch ihre Kapitalmacht
bedrohen, während ihr Autoritarismus nach wie vor durch
ihren
(Ex-)Sozialismus begründet wird. Der daraus resultierende mögliche
Krieg ist ein irregulärer Krieg, der keine Fronten mehr kennt und
letztendlich dann doch wieder die Bevölkerung einkreisen und treffen
muss.
Diese
Ausrichtung der sozialen Polizei auf Präventionspolitik setzte schon
vor dem 11. September 2011 ein, aber sie beschleunigte sich nach 9/11
mit dem »Krieg gegen den Terror« zunehmend. Gerade im Zuge des
Terrorbekämpfung, der Produktion des inneren und äußeren Feindes,
wurden »Precautionary Principles« eingeführt, die von
Worst-Case-Scenarien ausgehen und verschiedene Bedrohungen
imaginieren, um diese dann auszuforschen, weiter zu projektieren und
schließlich zu bekämpfen. Im Namen der Terrorismusbekämpfung
werden Lager für die »Orientalen« errichtet und die Frage des
Islam wird mit der der Geflüchteten kurzgeschlossen. Der Feind ist
hier weniger ein fremder Staat, sondern es geht um die Einkreisung
eines unspezifischen und nicht sichtbaren Feindes, eines nicht
beschreibbaren Feindes, der inmitten der Bevölkerung agiert. Oder,
um es anders zu sagen, es geht um Interventionen gegen einen
irregulären Gegner, der insbesondere in den Milieus und Umgebungen
globalisierter Armut vermutet wird, im bedrohlichen Terrain der
Ghettos, Banlieues und Vorstädte der Surplus-Bevölkerung.3
1Weil
auch eine weitreichende Prävention keine absolute Sicherheit
garantieren kann, müssen die Risiken zumindest im ökonomischen
Bereich durch Versicherungen gemildert werden, die darauf achten,
die Zahl und das Ausmaß der Schadensfälle durch vorbeugende
Prävention, die ein
wahrscheinlichkeitstheoretisches
Kalkül beinhaltet, einzugrenzen. Heute
werden
exakt
diese Risiken auch selbstreferenziell an den Finanzmärkten
gehandelt und damit breit gestreut und kapitalisiert. Mit dem
konservativen Typus der Versicherung will die Prävention schon im
Vorfeld unbedingt verhindern, dass ein Schaden überhaupt eintritt,
während sie mit dem zweiten Typus des hypermodernen Handels der
Risiken die Perspektive der zukünftigen rationalen Kalkulation
teilt.
2Die
Ökonomisierung des sozialen und politischen Körpers hat den
Sozial-
oder »Vorsorgestaat« (Ewald 1993) längst in einen »aktivierenden
Präventions-Staat« transformiert, der die Bürger nicht nur
überwacht, sondern zudem zur Aktivierung ihrer Selbstsorge
ermuntert und ihnen zumutet, ihre Leben als ein effektiv zu
bewältigendes Risiko zu begreifen und dieses eigenverantwortlich zu
managen. Die
Prävention wird zunehmend auch den Individuen aufgetragen, die man
auffordert, sich selbst ökonomisch zu gestalten, zu regieren und zu
erweitern. Die
Selbstregulation und Steigerung des kleinen Kapitals x
soll
Risikominimierung und Maximierung der Selbstpotenziale in einem
sein.
3Die Definition eines diffusen, zerstreuten und ausschwärmenden Feindes taucht in der militärischen Literatur schon kurz nach den Ereignissen des Jahres 1968 auf.
read here
buy here
Foto: Bernhard Weber
Der Beitrag Die Logik und die Politik der Prävention erschien zuerst auf non.copyriot.com.