Computermodelle zur Aufstandsbekämpfung – eine Aktualisierung


von Gernot Ernst, Autor von Komplexität.  «Chaostheorie» und die Linke

In dem Kapitel ”Revolution in der Komplexitätstheorie” erwähnte ich anhand eines Beispieles der Universität von Maryland („SOMA Terror Organization Portal (STOP)“. SOMA steht für „Stochastic Opponent Modeling Agents“ und beschreibt eine Modelltechnik mit der das Verhalten von „terroristischen Gruppen“ vorhergesagt werden soll. In der letzten Märzausgabe der wichtigsten naturwissenschaftlichen Zeitschrift Nature wird dieses Thema aufgegriffen (Sharon Weinberger: Web of War. Nature 2011 (March 31), 471: 566-568) In ihm werden die Hoffnungen, aber auch die Rückschläge der vom Verteidigungsministerium der USA geförderten computerbasierten Sozialforschung beschrieben.

Zur Geschichte des Irakkrieges gehört faktisch, dass Saddam Hussein mit Hilfe einer Netzwerkanalyse gefasst wurde. Ursprüngliche Suchstrategien schlugen feil, so dass ein Soziogramm seiner sozialen Umgebung erstellt wurde – allerdings statisch und per Hand. Diese Techniken sind in der Soziologie bereits seit den 70ern im Einsatz. 2011 will aber das Verteidigungsministerium 28 Millionen Dollar für Forschung mit Computermodellen ausgeben. Vermutlich handelt es sich um weit höhere Beträge, da ebenfalls verschiedene Armeeforschungsinstitute und DARPA (Defence Advanced Research Projects Agency; ja, dass sind die, die das erste Internet in Gang gesetzt haben) sich in diesem Bereich engagieren.

Der Artikel zitiert unter anderem die Untersuchungen von Kathleen Carley, die ein Modell Namens Organizational Risk Analyser (ORA) entworfen hat. Kurz beschrieben betreibt das Modell eine automatische Datenanalyse, deren Ergebnisse dazu benutzt werden, um wichtige Menschen und Gruppen innerhalb der sozialen Dynamik zu identifizieren um sie dann laut Carley „mit diplomatischen Verhandlungen oder militärischen Aktionen anzugreifen“. In der Praxis  auf den Sudan angewandt ergab das Programm kaum mehr als das, was Experten bereits wussten. Zudem zeigte sich die Gefahr von automatisierten Prozessen, als ein gewisser Mohammed, Gründer des Islams korrekt als Schlüsselperson identifiziert wurde. Verhandlungen oder militärische Aktionen dürften allerdings zu spät sein, da er im Jahre 632 verstarb.

Diese Entwicklung birgt mehre Gefahren in sich. Unkritische Benutzung von Modellen kann buchstäblich Menschenleben kosten. Ein Computermodell ist nie besser als das Konzept, was dahinter steht. Ist das Konzept schlecht, so sind die Vorhersagen nichts wert. Schlimmer noch, wenn man auf Grund eines Modells Schlüsselgruppen oder Personen „diplomatisch oder militärisch angreift“ und danach kein Aufstand stattfindet, ist das natürlich nicht der Beweis des Modells. Vielleicht waren die Personen gar nicht wichtig und es hätte sowieso kein Aufstand statt gefunden. Solche militärisch unterstützte Forschung kann auch den ganzen Forschungszweig in Misskredit bringen. Einer der Pioniere des Feldes, Robert Axtell wird in dem Artikel sehr skeptisch zitiert, laut ihm benötigt die modellbasierte Sozialforschung noch 20, vielleicht 100 Jahre um überhaupt menschliches Verhalten besser verstehen zu können. Allerdings ist dennoch nicht zu unterschätzen, dass kleinere Modelle (beispielsweise zum Kommunikationsverhalten von Widerstandsgruppen) schon bald wirkliche Polizeiaktionen auslösen können. Wie groß das Interesse für diese Modelle ist, habe ich auf Kongressen erfahren, als ich sie warnend als Beispiel zitierte. Wissenschaftler aus Staaten mit ausgeprägter Repression wie Kolumbien waren sehr interessiert. Nicht an den Warnungen, sondern an den Modellen.


Beitrag veröffentlicht

in

,

von

Schlagwörter:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kommentare