Facebooks Algorithmus formt unser Leben. Dieser Hacker will herausfinden wie.

31-05-19 04:24:00,

Claudio Agosti lacht. Eben hat er beim Kunstfestival Transmediale in Berlin auf der Bühne erzählt, wie Facebook funktioniert. Er hat darüber gesprochen, wie das soziale Medium seine Algorithmen webt, um Menschen wie Fliegen in sein Netzwerk zu ziehen. In seinem melodischen italienischen Akzent hat Agosti in den Saal hineingefragt, wer hier eine Wette abschließen wolle, ob Facebook fair mit seinen User:innen umgehe?

Agosti wartet nicht ab, er gibt gleich selbst die Antwort: „Die Wahrheit ist: Dabei würde niemand gewinnen. In einem System der Unterdrückung ist man der Entscheidung anderer unterworfen.“ Er grinst verstohlen. Das unberechenbare Spiel der Algorithmen, ihre Macht über die Psyche ihrer Milliarden Nutzer – für Agosti ist das ein köstlicher Scherz.

Die Frage, welche Macht Technik über uns hat, beschäftigt Claudio Agosti, 39 Jahre alt, Glatze und breites Kreuz, sein halbes Leben. Er stammt aus der Nähe von Mailand und lebt in Berlin. Welche Bezeichnung man für Agosti wählt, ob man ihn einen Hacker nennt, einen Datenschutz-Aktivisten oder kritischen Forscher, das ist eigentlich egal. Agosti weiß vermutlich mehr über die Wirkungsweise des Facebook-Algorithmus als irgendjemand sonst, der nicht daran mitprogrammiert hat.

Claudio Agosti bei der Transmediale CC-BY-SA 4.0 Laura Fiorio, transmediale

Vor zehn Jahren fragte Agosti sich erstmals, wie Algorithmen uns beeinflussen. Damals habe er bemerkt, dass Google seine Suchergebnisse immer stärker personalisiere. Aus einem Standard an Ergebnissen, der für alle gleich ist, wird eine Filterblase, die uns immer enger in ihre Welt einschließt, fürchtet er.

„Algorithmen entscheiden für dich, was wichtig ist“, sagt Agosti. Das stört ihn, der sich selbst das programmieren beigebracht hat, der es gewohnt ist, Technik zu beherrschen. „Um frei zu sein, sollte ein Individuum volle Kontrolle über diese Logik haben.“ Ein einfacher, aber radikaler Gedanke.

Seit 2016, dem Jahr des Wahlsiegs von Donald Trump, arbeitet Agosti an seinem wohl ambitioniertesten Hack: Er möchte den Facebook-Algorithmus knacken.

Facebook steuert die Nachrichtenauswahl im Newsfeed. Der Algorithmus entscheidet, welche Posts Nutzer:innen sehen und welche nicht. Seine Priorität ist dabei, Menschen möglichst lange auf Facebook zu halten – und ihnen dabei Werbung zeigen zu können. Facebook verdient mit dem Newsfeed Milliarden. Wie der Konzern das genau macht, ist sein bestgehütetes Geschäftsgeheimnis.

Agosti will verstehen, wie das soziale Netzwerk seine Nutzer:innen mit Inhalten füttert.

 » Lees verder

Telematik-Versicherung: Ein Algorithmus entscheidet, wer sicher fährt

25-04-19 08:24:00,

Immer mehr KfZ-Versicherungen werben mit so genannten Telematikverträgen. Dabei wird im Auto eine mit Sensoren ausgestattete Box angebracht, welche Daten zum Fahrverhalten aufzeichnet und später an die Versicherung weiterleitet. Wer vorausschauend fährt, soll dann weniger zahlen, so das Versprechen.

Aber was heißt eigentlich sicheres Fahren? Auch die HUK Coburg bietet einen Telematik-Vertrag an. In den Tarif-Bedingungen wird nur grob umrissen, was einen schlechten Einfluss auf den Score hat. Dazu gehören offensichtliche Faktoren wie Geschwindigkeitsübertretungen oder schnelle Beschleunigung, heftiges Abbremsen und starke Kurvenfahrt. Aber auch welche Strecken gefahren werden sowie die Länge der Fahrt wirken sich aus. Außerdem überwacht die App, ob mit dem Smartphone während der Fahrt ohne Freisprecheinrichtung telefoniert wird.

Wie der „Gesamtfahrwert“ errechnet wird, bleibt geheim

In der App der Versicherung erhält der Kunde dann Hinweise und einen Score. Wie dieser entsteht, bleibt allerdings Geheimnis der Versicherung. Als Versicherungsnehmer kann ich mich also nur an groben Angaben orientieren, außerdem könnte sich der Algorithmus jederzeit ändern.

Screenshots der Telematik-AppAusschnitte aus der App. Alle Rechte vorbehalten Screenshot / HUK Coburg

Die HUK-COBURG Datenservice- und Dienstleistungen GmbH bewerte das Fahrverhalten auf der Grundlage wissenschaftlich anerkannter mathematisch-analytischer Modelle und Verfahren unter Berücksichtigung der verschiedenen Kriterien, heißt es auf dem Twitter-Kanal des Unternehmens.

Als eine Person auf Twitter mehr Details forderte, reagierte das Unternehmen so:

Bitte haben Sie Verständnis, dass wir keine detaillierte Auskunft geben können, welche Kriterien wie gewertet werden. Die Berechnung unterliegt der unternehmerischen Freiheit.

Gegenüber netzpolitik.org sagt der Pressesprecher der HUK Coburg, dass die Bedingungen der Versicherung ganz bewusst keine konkreten Grenzwerte enthalten würden. Diese könnten Fahrer zu riskanten Fahrmanövern verleiten. Darüber hinaus würde die konkrete Information dem Fahrer in der konkreten Situation ohnehin nicht weiterhelfen.

Datenforscher Wolfie Christl sieht das anders. Gegenüber netzpolitik.org sagt er: „Wenn ökonomisch relevante Entscheidungen über Menschen auf Basis von detaillierten Daten über Alltagsverhalten getroffen werden, ist das mehr als heikel. Größtmögliche Transparenz ist hier die absolute Minimalforderung.“ Der Hinweis auf „geschäftspolitische Gründe“ oder „unternehmerische Freiheit“ sei völlig deplaziert.

Mit Daten beweisen, dass man kein Risiko ist

Während das Fahrverhalten wie Geschwindigkeitsübertretungen oder schnelles Beschleunigen tatsächlich in der Hand des Fahrers liegen, kann nicht jeder entscheiden, ob er nachts fährt oder häufig in Innenstädten. Hier können die Telematik-Tarife das Solidarprinzip von Versicherungen gefährden.

 » Lees verder

Algorithmus zur Vorhersage der Rückfälligkeit von Straftätern: Blendwerk an Komplexität

19-01-18 11:10:00,

Bild: Gerd Altmann/CC0

Das Big-Data-Programm ist nicht besser als eine Zufallsgruppe von Menschen, die aus dem Bauch heraus entscheiden

Eine Studie stellt Programme bzw. Algorithmen in Frage, die Vorhersagen über künftiges Verhalten von Menschen machen (predictive analytics). In den USA wird das Programm Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), das mittlerweile equivant heißt, vielfach auch von Gerichten eingesetzt, um das Risiko abzuschätzen, ob Straftäter wieder rückfällig werden. Solche Beurteilungen haben Folgen für die Betroffenen und können beispielsweise das Strafmaß beeinflussen. Aber das Programm, das angeblich neutral viele Parameter in die Vorhersage einbezieht, arbeitet nicht besser als Menschen, die keine Ahnung von der Rechtsprechung haben.

Predictive Analytics oder Vorhersageprogramme, die mit großen Datenmengen (Big Data) und Maschinenlernen arbeiten, werden für viele Zwecke eingesetzt oder entwickelt. So will man damit das Risiko von Erkrankungen oder die Wahrscheinlichkeit des Begehens von Straftaten in der Zukunft berechnen, um präventiv handeln zu können. Sagt das Programm, dass etwa in einem Stadtviertel zu einer bestimmten Zeit vermehrt Einbrüche oder Gewaltverbrechen zu erwarten sind, werden dort verstärkt Polizeikontrollen durchgeführt. Mit Prädiktiven Algorithmen kann auch die Kreditfähigkeit, die Jobeignung oder die beste Möglichkeit errechnet werden, wann und wo Werbung geschaltet oder Angebote gemacht werden sollen.

Die Wissenschaftler des Dartmouth College haben mit COMPAS bzw. equivant eines der Programme untersucht, die Entscheidungen mit nachhaltigen Folgen beeinflussen. Das Programm kam 1998 auf den Markt, seit 2000 wurden eine Million Angeklagte beurteilt, mit welcher Wahrscheinlichkeit sie innerhalb von zwei Jahren wieder rückfällig werden können. Dafür werden 137 Eigenschaften der geprüften Person ausgewertet. Untersuchungen stellten bereits heraus, dass das Programm nicht zuverlässig ist und rassistische Vorurteile pflegt. Es bezieht zwar nicht direkt die ethnische Herkunft der Personen ein, die aber durch verschiedene Merkmale einfließt. Zwar ist die Genauigkeit der Vorhersage bei Weißen und Schwarzen in etwa gleich hoch, aber es werden doppelt so viele Schwarze falsch beurteilt als Weiße. Rückfälligkeit wird danach beurteilt, ob Menschen erneut in Haft kommen. Allein das verzerrt bereits das Bild, weil Schwarze beispielsweise wegen Drogen viermal so häufig wie Weiße inhaftiert werden.

Es ist also die Frage nicht nur, wie gut solche Vorhersageprogramme sind, sondern auch wie fair oder vorurteilslos. Die Wissenschaftler zeigen, wie sie in ihrer in Sciences Advances veröffentlichten Studie schreiben,

 » Lees verder