Big Data nutzen – ohne Reue

0
Teilen.

Über den Autor/ die Autorin

Andreas Brandenberg

Prof. Dr. Andreas Brandenberg ist Leiter des Instituts für Kommunikation und Marketing IKM und des Masters (MSc) in Applied Information and Data Science.

Spätestens mit den Enthüllungen von Edward Snowden sind auch der breiten Öffentlichkeit die Möglichkeiten und Gefahren von Big Data klar geworden. Sechs Fragen und Antworten zur Ethik von Big Data.

Klar ist – Sicherheit ist immer mehr ein Produkt intelligenter Datenverarbeitung und insofern unverzichtbar. Gleichzeitig ermöglichen Technologien wie RIOT (Rapid Information Overlay Technology) einen Einblick in unser Leben wie es viele nicht geahnt und – ich vermute mal – die wenigsten in diesem Ausmass wünschen.

Big Data ist wie jede Technologie ethisch neutral. Es gibt an Big Data nichts, was von sich aus gut oder schlecht, richtig oder falsch ist. Wir als Individuen und Organisationen haben aber Werte. Und es wichtig, dass wir unsere Werte einsetzen und an Big Data die richtigen Fragen stellen. Und solche Fragen gibt es viele…

Frage: Ist es richtig, dass wir alles und jedes «datafizieren»?

Alles, was digitalisierbar ist, wird irgendwann datafiziert. Und alles was datafiziert ist, wird irgendwann «ökonomisiert». Ein gutes Beispiel dafür ist Google Books. Zuerst ging es um die digitale Verfügbarkeit von Büchern. Dann um die autonomisierte Auswertung der Inhalte. Und schliesslich um Produkte wie Google Translater.

Man kann zur «Datafizierung von allem und jedem» JA sagen, weil «Personal Data das neue Öl des Internets und die neue Währung der digitalen Welt sind» (Meglena Kuneva, European Consumer Commissioner, 2009)

Man kann NEIN sagen, weil uns durch die Ökonomisierung die Kontrolle über unsere digitale Identität entgleitet. Niemand von uns hat einen Überblick darüber, bei wem welche Art von Information abgelegt und wie diese Information – jetzt und in Zukunft – genutzt wird.

Frage: Gibt es noch so etwas wie das Recht «alleine gelassen zu werden»?

Wir haben es mit einer regelrechten Invasion von Sensortechnologien zu tun. Smartphones können bereits heute über ein Dutzend physikalische Parameter messen. Die wenigsten sind sich bewusst, wie viele Sensoren sie alleine schon in ihrem Smartphones herumtragen – ganz abgesehen von den «Wearables», die sich rasend schnell ausbreiten.

Sie würden staunen, wieviel ihr Smartphone misst. Wenn Sie mehr darüber wissen möchten, dann laden Sie Apps wie z.B. Sensor Box, Sensor Readout (beide Android) oder Sensor Monitor (iOS) runter oder machen mit dem Code *#*#4636#*#* (Android) die Sensoren sichtbar.

Man kann die Invasion der Sensortechnologie entspannt sehen, weil viele «kleine Helfer» uns den Alltag und die Lebensführung erleichtern. Wer würde heute schon gerne auf Ortsbestimmung und Navigationshilfe verzichten?

Man kann dies aber kritisch sehen, weil Sensordaten sehr rasch sehr intime Informationen über uns und unsere Lebensführung offenlegen.

Frage: Darf man eigentlich alles auswerten, wozu man technisch in der Lage ist?

Die Fähigkeit aus Bildern, Texten und Audiodaten Informationen zu erschliessen, hat gewaltig zugenommen. Zugenommen hat auch die Intimität der Daten:
– Aus Facebooks-Likes lassen sich mit über 85% Wahrscheinlichkeit politische Einstellung, sexuelle Orientierung, Geschlecht und ethnischer Hintergrund bestimmen.
– Aus CDR-Daten lassen sich emotionale Stabilität, Extraversion, Offenheit für Neues, soziale Verträglichkeit oder Gewissenhaftigkeit beschreiben.
– Aus Uber Daten lassen sich Seitenspringer identifzieren.
– Aus genetischen Daten die Prädisposition für Krankheiten usw.

Man kann zur Auswertung von Allem JA sagen, weil Big-Data-Analysen oftmals der einzige Weg sind, ernsthafte Probleme zu entdecken. Beispiel von SUVA: Entdeckung von Medikamentenmissbrauch.

Man kann NEIN sagen, weil Nutzer häufig keinen Einfluss darauf haben, in welchem Kontext solche Daten weiterverwertet werden. Wenn man sich bspw. anschaut, welche Daten man über Personen auf dem Markt für Personal Data kaufen kann…

Frage: Darf man eigentlich auf der Grundlage von prognostiziertem Verhalten Entscheidungen treffen?

Big Data Analysen werden immer proaktiver.

Beispiel der harmloseren Sorte: Kreditkartengesellschaften prognostizieren auf Basis von Umsatz-Kombinationen z.B. das wahrscheinliche Trennungsrisiko ihrer Kunden (wg. Kreditausfallrisiko). So erscheint der Kauf von «Unterwäsche» in Kombination mit «Bier» und «Flugbuchungen bei American Airlines» als Risikoposition.

Was ist aber, wenn Big Data Analysen prognostizieren, dass alleinerziehende Männer in einer bestimmten Nachbarschaft, arbeitslos, mit Auto, ohne feste Beziehung mit 95% Wahrscheinlichkeit in Fälle von häuslicher Gewalt involviert sind? Kann eine Vormundschaftsbehörde solche Fakten einfach ausblenden?

Man kann zu proaktiver Analytik JA sagen, weil sich gezeigt hat, dass diese in vielen Bereichen z.B. «preemptive policing» tatsächlich zu einer Verringerung der Kriminalitätsrate führt.

Man kann NEIN sagen, weil mit proaktiver Analytik die Gefahr der Diskriminierung von Einzelnen und Gruppen dramatisch zunimmt.

Frage: Wo darf man menschliche Expertise durch Robotik- und Expertensysteme ersetzen?

Es gibt eine rasch wachsende Anzahl von Bereichen, in denen Algorithmen menschliche Expertise ablösen: «Robo-Advisory», «Diagnostic Robot», «Automatic Storytelling», «Automated Analysts» und viele mehr.

In einzelnen Bereichen übernehmen sie gar soziale Funktionen und werden zu Gesprächspartnern. Man mag letzteres eigenartig finden. Es gibt aber bereits zahlreiche Studien, die zeigen, dass Menschen ihren digitalen Freunden mehr anvertrauen als menschlichen Gesprächspartnern (vor allem auch im Gesundheitsbereich).

Man kann JA sagen, weil Algorithmen in vielen Bereichen menschliche Expertise bereits überflügeln und sogar soziale Verhaltensweisen erfolgreich imitieren.

Man kann NEIN sagen, weil sich Menschen durch diese Entwicklung «selbst vom Eis» nehmen, weil menschliches Verstehen letztlich durch Datenverarbeitung abgelöst wird.

Frage: Ist das Konzept der Anonymität überhaupt noch zeitgemäss?

Sehr viele Business Modelle basieren auf der Unterscheidung zwischen «unpersönlicher Information» und «persönlich identifizierbarer Information» (PII) – ganz einfach deshalb, weil für persönlich identifizierbare Information sehr viel strengere Regeln gelten.

Das Problem ist nur, dass Anonymisierung schwieriger zu bewerkstelligen ist als man denkt. Noch wichtiger ist aber, dass die Anonymität des Einzelnen die Privatheit von Gruppen nicht schützt. Wenn Datensätze z.B. Alterskategorie, Geschlecht und Wohnort enthalten, so werte ich für diese Segmente aus. Dies hat aber einen bedauerlichen Effekt. Ich kann durch Kategorisierung vielleicht die Anonymität des Einzelnen schützen, erhöhe auf der anderen Seite aber die Gefahr der Diskriminierung.

Lösen kann man das Problem nur, indem man auf alle Gruppenmerkmale verzichtet, was den Wert der Daten für uns alle aber stark vermindert. Auch hier stellt sich wieder die Frage, wo die feine Trennlinie ist zwischen dem Schutz der Anonymität und dem Wert der Daten für Wirtschaft und Gesellschaft.


Kommentar hinterlassen