Kategorien
Allgemein

Laura Kalbag: Die “Kostenlos”-Illusion

Trauben

Unsere Daten sind außerhalb unserer Kontrolle. Wir scheinen (egal ob klug oder dämlich) selbst zu entscheiden, unsere Status, persönliche Informationen, Medien, Aufenthaltsorte öffentlich preiszugeben oder nur mit unseren Freunden zu teilen. Aber es ist nur eine Illusion der Entscheidung — egal wie wir die Informationen teilen, wir geben uns einem großen Publikum preis. Wir müssen noch viel mehr befürchten als zukünftige Arbeitgeber, die Fotos von uns in betrunkenem Zustand sehen.

Unternehmen sammeln viele Informationen über uns. Sie speichern die Dinge, die wir auf ihren Seiten und in ihren Apps teilen, sie stellen uns Speicher für unsere E-Mails, Dateien und alles mögliche zur Verfügung. Wenn wir über ihre Angebote Dinge mit unseren Freunden teilen, egal ob öffentlich oder privat, dann können intelligente Algorithmen sehr viel detailliertes Wissen aus einer kleinen Menge an Informationen ableiten. Wussten Sie, dass Sie schwanger sind? Wussten Sie, dass man Sie für nicht intelligent hält? Wussten Sie schon, dass ihre Beziehung kurz vor dem Aus steht? Die Algorithmen kennen uns besser als unsere Familien und brauchen nur 10 unserer Facebook-Likes um uns besser zu kennen als ein durchschnittlicher Arbeitkollege.

Eine Kombination aus Analysen und Big Data kann für viele Anwendungszwecke genutzt werden. Viele Websites nutzen unsere Daten nur, um uns die Seite in unserer Muttersprache auszuliefern. Unternehmen wie Netflix nutzen Empfehlungs-Systeme, um fantastische, personalisierte Erfahrungen zu ermöglichen. Google erstellt Profile von uns, um zu verstehen was uns anspricht und uns die richtigen Produkte zu verkaufen. 23andme untersucht unsere DNS auf genetische Risikofaktoren und verkauft diese Daten an Pharmaunternehmen. E-Commerce-Seiten wie Amazon wissen, wie sie auf uns als Individuum einwirken können und ob jemand eher durch einen “social proof”, wenn Freunde auch dieses Produkt kaufen, oder durch eine Empfehlung eines Experten zum Kauf überzeugt werden kann. Facebook kann die Wahrscheinlichkeit vorhersagen, mit der wir Alkohol oder Drogen konsumieren oder bestimmen, ob jemand physisch oder psychisch gesund ist. Ebenso experimentiert Facebook mit uns und beeinflusst unsere Gefühle. Was also mit allen diesen Daten angefangen werden kann, deckt ein weites Feld ab, von allgemein anerkannten praktischen bis hin zu völlig beängstigenden Anwendungen.

Diese Daten haben einen großen Wert für Menschen, die nicht ihre besten Interessen im Sinn haben. Was passiert, wenn diese Informationen an ihren Vorgesetzten verkauft würden? Oder an ihre Versicherung? Ihre potentiellen Partner?

Wie Tim Cook gesagt hat: “einige Firmen gehen nicht sehr transparent damit um dass die Verknüpfung dieser Datenpunkte fünf andere erzeugt, von denen Ihnen gar nicht bewusst war, dass Sie sie preisgeben. Das ergibt eine ganze Schatztruhe voller Daten”. Diese Daten sind so wertvoll, das Kognitionswissenschaftler beim Gedanken an die Größe der Studien, die sie dank Facebook durchführen können, vor Aufregung schwindlig wird. Für Neurowissenschaften galt ein Stichprobenumfang von 20 weißen Studenten bisher als ausreichend, um Schlüsse über die Funktionsweise des Gehirns zu ziehen. Facebook arbeitet aktuell mit Wissenschaftlern auf Stichprobenumfängen von Hunderttausenden bis Millionen. Der Unterschied zwischen den traditionellen Studien und Facebooks Studien ist, dass Facebook-Nutzer nicht wissen, dass sie möglicherweise jederzeit an zehn “Experimenten” teilnehmen. (Natürlich geben sie dazu die Einverständnis, wenn sie die AGBs akzeptieren. Aber nur wenige Menschen lesen jemals die AGBs, oder auch die Datenschutzbestimmungen. Sie sind auch gar nicht dafür gedacht, gelesen oder verstanden zu werden.)

Natürlich gibt es Potential, dass Big Data für sinnvolle Zwecke genutzt wird. Apples “ReseachKit” wird von einem Open Source Framework unterstützt, dass es für Forscher und Entwickler einfach macht, Apps zu entwickeln, die die Gesundheitsdaten von iPhone-Nutzern im großen Stil zu sammeln. Apple gibt an, bei der Entwicklung von ResearchKit die Privatsphäre der Nutzer berücksichtigt zu haben: “sie können bestimmen an welchen Studien sie teilnehmen, sie haben die Kontrolle darüber, welche Informationen sie in welchen Apps freigeben und sie können die Daten sehen, die sie teilen.”

Aber die Verlockung, große, wertvolle Mengen von Daten zu sammlen, kann Entwickler ermutigen, ohne ethische Grundsätze zu entwicklen. Eine App kann Nutzer unter Druck setzen, schnell eine Einwilligung dazu zu geben, wenn die App das erste Mal gestartet wird, ohne über die möglichen Konsequenzen zu bedenken. Auf dem gleichen Weg werden wir ermuntert, schnell auf “Ich stimme zu” zu drücken, wenn wir mit AGBs konfrontiert werden. Oder Apps sagen uns, dass sie ständigen Zugang zu den Positionsdaten brauchen, damit die App – so behaupten sie – uns die beste Nutzer-Erfahrung bieten kann.

Die Absicht der Entwickler, ihrer Vorgesetzten und der Firmen als ganzes ist der Schlüssel. Sie haben nicht einfach nur entschieden, diese Daten zu erheben, weil sie sie gebrauchen könnten. Sie können es sich nicht leisten, kostenlose Dienste komplett ohne Gegenleistung anzubieten und es war auch nie ihre Absicht. Es ist ein lukratives Geschäft. Das Geschäftsmodell dieser Firmen ist es, unsere Daten auszubeuten, unsere privatwirtschaftlichen Überwacher zu sein. Es ist ihr Glück, dass wir unsere Daten preisgeben wie – wie Mark Zuckerberg es gesagt hat – Vollidioten (“dumb fucks”).

Zu sagen, dass das ein Datenschutzproblem ist, wäre beschönigend. Der Begriff “Datenschutz” wird missbraucht um zu suggerieren, dass es darum geht, Dinge zu verheimlichen, für die man sich schämt. Das ist der Grund, warum Eric Schmidt von Google sagte: “wenn Sie etwas verschweigen wollen, sollten Sie es einfach gar nicht erst tun”. (Diese Aussage wurde in dem Lied “Sergey Says” verewigt) Aber Datenschutz ist unser Recht, zu entscheiden, was wir mitteilen, und was nicht. Es ist in der Universellen Erklärung der Menschenrechte verankert.

Wenn wir also entscheiden, welche coolen neuen Werkzeuge und Dienste wir nutzen, wie sollen wir da die richtige Entscheidung treffen? Diejenigen von uns, die die Technologie ungefähr verstehen, leben in einer Technik-Blase, in der wir Bequemlichkeit und eine gute Nutzungserfahrung so sehr schätzen, dass wir bereit sind, unsere Informationen, Privatsphäre und zukünftige Sicherheit dafür opfern. Dieses Argument höre ich wieder und wieder von Menschen, die sich entscheiden, Gmail zu nutzen. Aber wird uns das Tracking und die algorithmus-gestützte Analyse unserer Daten wirklich eine verbesserte user experience bringen? Wir wissen einfach nicht genug darüber, was die Firmen mit unsern Daten anfagen, um beurteilen zu können, ob es das Risiko wirklich wert ist. Was wir wissen ist oft beängstend genug. Und was auch immer die Unternehmen jetzt mit unseren Daten anfangen, wer weiß, was Sie in Zukunft damit tun werden?

Und was ist mit den Menschen außerhalb der Blase, die nicht so gut informiert sind, wenn es um die Folgen davon geht, Dienste zu nutzen, die unsere Daten ausbeuten? Normale Nutzer werden ein kostenloses Angebot mit einer guten Bedienbarkeit bevorzugt nutzen. Sie wissen nichts über die Kosten, ein solches Angebot zu betreiben und wieviele Daten man braucht, damit ein solches Angebot am Leben erhalten werden kann.

Wir müssen uns vor Augen halten, das die Wahl unserer Kommunikations-Werkzeuge, sei es Gmail oder Facebook, nicht nur uns beeinflussen, sondern auch die, die mit uns kommunizieren wollen.

Wir brauchen Werkzeuge und Dienste, die es uns ermöglichen, unsere Daten zu besitzen und die Möglichkeit, zu enscheiden, mit wem wir Sie teilen wollen, ohne weitere Bedingungen daran zu knüpfen. Ich bin kein Apple fangirl, aber Tim Cook redet zumindest angemessen über Datenschutz:

Niemand von uns sollte akzeptieren, dass eine Regierung oder eine Firma oder sonstjemand Zugang zu allen unseren privaten Daten hat. Das ist grundlegendes Menschenrecht. Wir haben alle ein Recht auf Privatspäre. Wir sollten das nicht aufgeben.

“Apple hat ein sehr gradliniges Geschäftsmodell”, sagte er. “Wir verdienen Geld, wenn Sie ein eines von diesen [deutet auf ein iPhone] kaufen. Das ist unser Produkt. Wir designen unsere Produkte so, das wir nur ein Minimum an Daten über Kunden speichern.”

Aber Apple ist auch nur eine potentielle Alternative zur Überwachung durch Firmen. Ihre Angebote mögen Vorteile haben, wenn die Daten darauf verschlüsselt sind und auch nicht von Apple gelesen werden können, aber unser Daten sind trotzdem in ihrem proprietären System einschgeschlossen. Wir brauchen mehr *echte* Alternativen.

Was können wir tun?

Es ist ein großes, beängstigendes Problem. Darum denke ich, sprechen die Menschen nicht darüber. Wenn man keine Lösung hat, will man nicht über das Problem sprechen. Wir sind so eingefahren darin, Googles Werkzeuge zu nutzen, über Facebook zu kommunizieren und von vielen anderen Diensten zu profitieren, die durch unsere Daten gefüttert werden, dass es sich anfühlt, als hätten wir die Kontrolle größtenteils verloren. Wenn es sich so anfühlt, als hätten wir die Kontrolle verloren, wollen wir nicht zugeben, dass es unser Fehler war. Wir verteidigen in einem natürlichen Reflex die Entscheidung unseres früheren Selbst.

Der erste Schritt ist, zu verstehen und zuzugeben, dass es ein Problem gibt. Es gibt eine Menge Forschung, Artikel und Informationen da draußen, wenn Sie lernen wollen, wie man die Kontrolle zurückgewinnt.

Der zweite Schritt ist, die Unternehmen und ihre Motive in Frage zu stellen. Traut euch und verlangt von Firmen, transparent mit den Daten, die sie sammeln und wie sie sie nutzen, umzugehen. Ermutigt Regierungen, Aufsicht und Regulierungen zum Datenschutz einzurichten. Fasst euch ein Herz, gegen ein Modell auf zustehen, von dem ihr denkt, dass es Gift für eure Privatsphäre und Menschenrechte ist.

Der dritte und schwerste Schritt ist es, etwas dagegen zu tun. Wir müssen die Kontrolle über unsere Daten übernehmen und von den Diensten und Werkzeugen abwandern, die unsere Menscherechte nicht beachten. Wir müssen Alternativen fördern, finden und finanzieren, bei denen wir zusammen sein können, ohne Futter für einen geldscheffelnden Algorithmus zu sein. Wir müssen eine funktionierende Umgebung für diese Alternativen schaffen. Das ist der einzige Weg, mit dem wir beweisen können, dass uns unsere Daten wichtig sind.


Dieser Artikel ist eine Übersetzung von Laura Kalbags Artikel “The Illusion of Free”, erschienen bei A List Apart. Die Übersetzung wurde nach bestem Wissen und Gewissen angefertigt und versucht, möglichst nah am Original zu bleiben.

Translated with the permission of A List Apart and the author[s].

Von Chris Jung

Ich bin Entwickler bei basecom und erstelle nebenberuflich kleine Websites für kleine Unternehmen und Privatpersonen. Ich bin Open Source Fan und Blogger.

Portfolio . twitter . github

Eine Antwort auf „Laura Kalbag: Die “Kostenlos”-Illusion“

Wer der Meinung ist, dass die Übersetzung noch Nacharbeit benötigt, zu ungenau oder eventuell unpassend übersetzt ist, darf sich gerne mit Verbesserungsvorschlägen in den Kommentaren breitmachen. 😉

Kommentare sind geschlossen.