Big Brother

Advertisements

Twitter-Archiv wird vermarktet

Twitter versilbert alle der mehr als 200 Milliarden Kurznachrichten seiner Nutzer. Jede einzelne davon mit emotionaler Tendenz, Ort und Zeit des Versands. Dieses Archiv erlaubt Trendvorhersagen und Manipulation – von unheimlichem Ausmaß.

Zu welchem Zweck wird ein digitales Archiv dieser Kurznachrichten dienen? Die schiere Menge macht eine Analyse der gedruckten Twitternachrichten unmöglich – hier eine Installation bei der eine Auswahl der aktuellen Tweets gedruckt wurde
Kaum dass am 1. März die neuen Datennutzungsregeln bei Google in Kraft getreten sind und ein geharnischter Beschwerdebrief europäischer Datenschutzbeauftragter in Mountain View eintraf, schickt sich nun das dritte große soziale Netzwerk an, seine Schätze zu versilbern. Twitter hat durchblicken lassen, wie das Unternehmen sich die Zukunft der Monetarisierung seiner Datenbestände vorstellt.

Normalerweise können Twitter-Nutzer die „Tweets“ genannten Kurznachrichten nur für den Zeitraum von einer Woche durchsuchen. Die britische Firma Datasift darf nun nicht nur wie bisher den aktuellen Datenstrom aus allen Tweets, sondern auch gegen eine monatliche Gebühr den Zugriff auf das gesamte Twitter-Archiv seit Januar 2010 vermarkten. Neben einer Stichwortsuche über den Bestand an Tweets können Filtertechniken eingesetzt werden, etwa um Inhalte nur von weiblichen Nutzern oder solchen in bestimmten Altersgruppen zu durchforsten.
Erstmals in der Geschichte der Menschheit

Das amerikanische Unternehmen Gnip bietet schon länger Zugriff und Werkzeuge für die Überwachung und Filterung der Datenströme aus einer Vielzahl von Internet-Diensten an. Diese waren jedoch in der Regel nur zeitlich beschränkt für die Vergangenheit verfügbar, nicht zuletzt bedingt durch die gigantischen Datenmengen, die zugreifbar gehalten werden müssen. Gnip und Datasift sind Exklusivpartner von Twitter, sie sind die Türsteher und Kassierer am Datenbergwerk. Datasift bietet zudem in einem weiteren Paket an, Twitter-Daten mit Informationen aus Google+ und Facebook zu verknüpfen.

Derzeit werden mehr als 250 Millionen Tweets pro Tag abgesetzt. Jeder einzelne dieser Tweets hat eine eindeutige Identifikationsnummer. Zusätzlich werden auch die Beziehungen zwischen den Tweets aufgezeichnet: Wer leitet die Kurznachricht eines anderen an die eigene Gruppe, wer gibt einen Link weiter, wer kommentiert, wer antwortet? Das weltweite Geschnatter eignet sich für mannigfaltige Analysen von Linguisten, Ethnographen, Soziologen oder Politologen. Niemals zuvor in der Geschichte der Menschheit wurde das ganz private oder das kollektive Denken und Fühlen, aber auch Kommunikationsmuster des Alltäglichen, Banalen so umfangreich aufgezeichnet, nie war es in dieser Weise zugänglich, sortier- und analysierbar.
Testmaterial für bewusste Manipulation

Doch nicht wissenschaftlicher Erkenntnisdrang treibt die Datenschürfer. Sie heben einen Schatz firmen-, marken- oder marktrelevanter Mitteilungen. Anhand der Stimmungen, die sich durch einfache Betrachtung von Merkmalen wie positiver oder negativer Wort-Konnotationen und Emoticons erschließen, lassen sich selbst ungefähre Vorhersagen zur Entwicklung wesentlicher Börsenindizes einige Tage im Voraus ableiten.
Das Entscheidende an der Verfügbarkeit der Twitter-Archive ist, dass sich nunmehr Algorithmen an historischen Daten testen lassen. Während man zuvor ein Vorhersageprogramm auf der Basis von Twitter-Stimmungen nur anhand aktuell verfügbarer Daten testen konnte, lassen sich nun Korrelationen von Ereignissen und Twitter-Trends retroaktiv prüfen, um die Algorithmen zu optimieren. Es ist wie bei automatischen Trading-Systemen, die in den Archiven nach vergleichbaren Trends und Situationen suchen, um daraus Vorhersagen für das Jetzt abzuleiten: Ihr Nutzen hängt von der digitalen Verfügbarkeit historischer Börsendaten in hoher Auflösung ab.

Eine ähnliche Entwicklung ist durch die Vermarktung der Twitter-Daten auch für andere Branchen zu erwarten. Unternehmen und Politiker werden versuchen, ihre PR und Werbung gezielt anhand aufgezeichneter Reaktionen zu optimieren und anzupassen. Bewusste Manipulationen der öffentlichen Meinung werden deutlich vereinfacht, es gibt nun genügend Testmaterial.
Macht ohne Kontrolle

Oft erinnert die Kommunikation über Twitter eher an ein Kneipengespräch mit lockerem Umgangston, das am nächsten Morgen vergessen ist. Dass alle Äußerungen durch ihren öffentlichen Charakter archivierbar und später verwendbar sind, ist den meisten Nutzern zwar abstrakt klar, schließlich kann man auch gezielt die Tweets einzelner Nutzer aufrufen. In der Praxis spielt dieses Wissen jedoch kaum eine Rolle.

Das Angebot von Twitter ist in gewisser Weise ein Novum. Sofern sie nicht von Dritten gespeichert werden, mutieren die zunächst öffentlichen Daten: Nach einer gewissen Zeit werden sie reprivatisiert und sind nur noch gegen nicht ganz geringe Geldbeträge zugänglich.

Es stellen sich daher grundsätzliche Fragen: Wer soll und darf die daraus erschließbaren Erkenntnisse erlangen und verwerten können? Die Gemeinschaft der Nutzer produziert die Daten, digitalisiert ihr Leben. Wer erntet die Früchte dieser digitalen Gemeinschaftsleistung – wieder nur wenige, die es sich leisten können? Die aus den Datensammlungen resultierende Macht durch die möglichen Einblicke ist de facto unreguliert, unbeobachtet und derzeit unkontrollierbar. Wer soll sie in Zukunft ausüben dürfen?

Twitters Datenvermarktungsstrategie passt nahtlos in den übergreifenden Trend im Social-Media-Gewerbe: Man bietet einen hinreichend nützlichen Dienst an, so dass er von vielen Menschen gern genutzt wird. Der Dienst an sich ist jedoch nicht das eigentliche Geschäft. Das Geld wird mit der direkten oder indirekten Vermarktung der dabei anfallenden digitalisierten Lebensäußerungen gemacht.

Den Datensammelunternehmen und ihren Türstehern stünde es gut an, die Resultate der Analysen aus den Daten, die wir ihnen überlassen, auch uns zugutekommen zu lassen. Die Gesamtheit dieser digitalen Lebensäußerungen könnte so quasi zur natürlichen Ressource aller werden.

Doch allein zu fordern, dass die Daten jedem zugänglich sein müssen, verbessert die Lage noch nicht entscheidend. Twitter hat eine Vereinbarung mit der größten Bibliothek der Welt, der Library of Congress in Washington, die alle öffentlichen Tweets seit 2006 erhält. Damit lässt sich jedoch praktisch wenig anfangen: Die Verarbeitungs- und Speicherkapazitäten, um aus den enormen Datenmengen Wissen zu extrahieren, das Macht bedeutet, sind derzeit nur Unternehmen und Staaten zugänglich. Erst aus der Kombination der Datenströme mit großer Verarbeitungskapazität und dem Wissen und der Software zu ihrer Analyse entstehen die Machtmittel, die den Informationsrohstofflieferanten gehören sollten: uns allen.

Quelle: F.A.Z.

NFC – Near Field Communication – Chips

 Smartphone wird zum Schlüssel der Zukunft

Türen öffnen, im Supermarkt bezahlen, Fahrkarten kaufen oder einen Parkschein lösen: Ein kleiner Chip verwandelt das Smartphone zum Alleskönner.

Sie breiten sich aus, ohne dass wir es merken. Sie verstecken sich im Geldbeutel und in der Kleidung. Schon bald werden sie unseren Alltag begleiten und überall sein; im neuen Personalausweis, in EC- und Kreditkarten, in den Schlössern von Autotüren. Oder in den Produktpackungen im Supermarkt. Funkchips, die sogenannten NFC-Chips, können Informationen speichern und über kurze Strecken beispielsweise an ein Smartphone verschicken. Dafür steht auch die Abkürzung NFC – Near Field Communication.

Der Einkauf der Zukunft könnte so aussehen: Der Kunde hält sein NFC-fähiges Smartphone auf den Zucker, die Nudeln oder das Müsli, und schon wird alles auf die Rechnung gesetzt. Wer etwa allergisch gegen Gluten ist, wird zudem gewarnt, falls er zum falschen Lebensmittel greift. Am Ausgang hält man dann das Smartphone einfach an einen Punkt an der Kasse, um zu bezahlen.

Im Vergleich zu Auszeichnungen wie QR-Code oder Strichcode, die auf Produkte gedruckt sind, scannt man die Information von NFC-Chips nicht nur, sondern kann auch eine solche hinzufügen. Dass zum Beispiel das Produkt nun gekauft oder reserviert ist. Diese Funktechnologie für kurze Strecken gibt es schon seit einigen Jahren, die NFC-Chips verbreiten sich allmählich auch auf mobilen Geräten, doch es müssen vor allen Dingen noch Anwendungen gefunden werden.

Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) zeigt – wie im Video zu sehen ist – mit einem Test-Supermarkt auf der Cebit, dass seine Anwendung bereits reibungslos funktioniert. Jedoch wurde dieses Forschungsprojekt wie viele andere in diesem Bereich noch nicht in die Praxis umgesetzt. Im April wollen Banken und Sparkassen ein Pilotprojekt starten, das das kontaktlose Bezahlen mit der EC-Karte ermöglicht. Nur wenige Betriebe wie die Deutsche Bahn und der Verkehrsverbund in Frankfurt (RMV) haben ihre NFC-Anwendungen so weit vorangetrieben, dass Kunden die Technik bereits heute anwenden können. Momentan dürfte sich Zahl der Nutzer überschaubar sein, denn Voraussetzung für die Nutzung der „Touchpoints“ der Bahn ist ein Smartphone, das mit einem NFC-Chip ausgestattet ist.

Der Kreis könnte sich in diesem Jahr zügig erweitern. Kürzlich stellten Hersteller wie LG und HTC auf dem Mobile World Congress in Barcelona neue Handymodelle mit NFC vor. Blackberry, Nokia und Sony bieten ebenfalls entsprechende Modelle an. Auch das Google-Handy Galaxy Nexus von Samsung kann mit dieser Funktechnik umgehen. Zurzeit gibt es weltweit fünfzig verschiedene Smartphones und Tablet-PCs mit NFC-Technik. Laut einer Marktanalyse von IMS Research gab es 2011 bereits 35 Millionen Smartphones mit Funktechnologie (Etwa jedes zwölfte verkaufte Smartphone hätte somit NFC-Technik) und nach deren Prognose sollen es in diesem Jahr 80 Millionen werden. ABI Research schätzt, dass in vier Jahren 552 Millionen mobile Gerät mit dieser Technik auf dem Markt sein werden.

Auf der Messe in Barcelona stellte NXP Semiconductors, die zusammen mit Sony die NFC-Technologie vor etwa zehn Jahren auf den Weg gebracht haben, weitere Anwendungen vor: Bezahlen am Parkautomat, Eintritt zur Firma, Bestellen eines Getränks im Café. Alles läuft dabei über das Smartphone. Wie die Technik richtig ausgereizt wird, zeigen Anwendungen, bei denen beide Chips aktiv werden. So speichert die Packung Zucker im Supermarkt, dass sie gekauft wurde und merkt sich ihren neuen Besitzer.

NFC hat alle Voraussetzungen sich in verschiedensten Lebensbereichen zu verbreiten. Bisher blieb der Durchbruch aus, weil mehrere Firmen beteiligt sein müssen, damit eine Anwendung umsetzbar ist. Selbst wenn ein Supermarkt auf die NFC-Technologie setzt und der Kunde dort mit NFC-Smartphone einkaufen könnte, bleibt zu klären, welches Unternehmen den Bezahlvorgang abwickelt. Google Wallet versucht sich gerade in den Vereinigten Staaten zu etablieren, der Einsatz in Deutschland ist aber noch nicht in Sicht. Es scheitert häufig auch am Ende des Einsatzweges: Firmen müssten ihre Mitarbeiterausweise umstellen. Cafés brauchen ein Menükarte mit NFC-Chip. Kommunen müssten ihre Parkuhren erneuern. Das alles braucht Zeit. FAZ.NET

Digitale Rasterfahndung

Auf den Spuren von Google

Das Ganze ist allerdings noch mit vielen Herausforderungen verbunden“, warnt Nigel Collier, Computerlinguist am Nationalen Institut für Informatik in Japan. Statt nach Terroristen sucht er im Web nach Krankheiten, genauer gesagt nach deren Ausbreitung. Er begibt sich dabei auf die Spuren von Google: Der Suchmaschinenanbieter registriert bereits seit einigen Jahren, in welchen Ländern beispielsweise oft nach Begriffen wie „Grippe“ und den damit verbundenen Symptomen gegoogelt wird. Mit Hilfe dieser Daten erstellt das Unternehmen automatisch eine Karte möglicher Epidemie-Herde.

Eine Reihe von Forschergruppen versucht, diesen Ansatz nun auf eine breitere Datenbasis zu stellen – darunter auch Collier, mit einem Projekt namens Biocaster. „Eines der großen Probleme ist die Menge an Daten, die wir in Echtzeit bearbeiten müssen“, sagt der Informatiker. Allein die von Collier beobachteten Webseiten und Newsletter bringen es an einem durchschnittlichen Tag auf etwa 27 000 Dokumente. Hinzu kommt der beinahe unüberschaubare Datenfluss aus den sozialen Netzwerken.

Aus diesem Wust ermittelt das Programm zunächst die Dokumente, in denen es tatsächlich um Krankheiten geht. Es sortiert doppelt gemeldete Fälle aus und erkennt die ernstzunehmenden Bedrohungen. Am Ende sollen nicht mehr als vier oder fünf Warnungen pro Tag aufkommen. Im Gegensatz zu den Terrorismusforschern aus Arizona setzt Collier dabei auf ein System, das Linguisten eine Ontologie nennen: Im Zentrum von Biocaster steht eine Begriffswelt, in der die Bezeichnungen, Symptome, Pathogene und sprachlichen Zusammenhänge für 300 unterschiedliche Krankheiten verzeichnet sind – ausgearbeitet in zwölf verschiedenen Sprachen.

Da wir es oft mit neuen Krankheiten zu tun bekommen, muss dieses System allerdings lernfähig sein und sich an aktuelle Entwicklungen anpassen“, sagt Collier. Es darf auch nicht zu wahllos vorgehen: Wenn der kanadische Teenie-Star Justin Bieber mal wieder Schlagzeilen macht und bei Twitter das „Bieber Fever“ grassiert, darf der Alarm-Algorithmus den Starkult nicht mit einem Virenausbruch verwechseln. „Wir wollen schließlich niemand nachts um zwei wegen dieser neuen Krankheit aus dem Bett holen“, sagt Collier und schmunzelt.

Schwierigkeiten machen auch noch Krankheiten, die sich wie die Schweinegrippe langsam von Land zu Land ausbreiten. Sie generieren zwar eine große Menge an Nachrichten, es fehlen aber die charakteristischen Aufmerksamkeitsspitzen einer lokalen Epidemie. Und manchmal weist die Biocaster-Software in die Irre, so wie kürzlich bei den jüngsten Krankenhauskeimen in Bremen. Dazu hatten sich viele Bundespolitiker und Behörden geäußert, daher verortete die Software den Ausbruch in Berlin. Dennoch ist Collier ganz zufrieden: Ein Vergleich berechneter Warnungen mit Daten der US-Seuchenbehörde habe ermutigende Ergebnisse geliefert.

Sein Kollege Filippo Menczer von der Indiana University setzt dagegen lieber auf Kontakte statt auf Inhalte. Menczer will wissen, wie sich Ideen in sozialen Netzwerken breitmachen – allen voran in Twitter. Dazu ermittelt er, wie oft einzelne Tweets von anderen Menschen weiterverbreitet oder kommentiert werden, Twitter-Nutzer sprechen dabei in der Regel von „Retweets“ beziehungsweise „Mentions“.

Ob jemand Demokrat oder Republikaner ist, lässt sich zum Beispiel allein daran erkennen, wessen Nachrichten er retweetet“, sagt Menczer. Das amerikanische Zwei-Parteien-System führe dazu, dass Nachrichten aus dem einen Lager auch vorwiegend innerhalb dieser Gruppe weiterverbreitet werden; zu Tweets der gegnerischen Seite gibt es dagegen allenfalls spöttische Kommentare. Das reicht, um die parteipolitische Präferenz eines Nutzers mit einer Sicherheit von 95 Prozent vorherzusagen. Die Analyse des Inhalts von Tweets erreicht nur eine Trefferwahrscheinlichkeit von 91 Prozent.

„Truthy“, wie Menczer sein Programm nennt, kann auch ermitteln, ob Trends in sozialen Netzwerken eine breite Basis haben oder ob sie bewusst von Parteien gestartet wurden, zum Beispiel, um den politischen Gegner mit Schmutz zu bewerfen. Da die Aufmerksamkeit für solch eine Verleumdungskampagne nur mit Twitter-Konten erreicht werden kann, die sich ständig gegenseitig retweeten, fällt die Konstellation in der „Truthy“-Analyse sofort auf. „Wir können solche Fälschungen mit einer Sicherheit von mehr als 95 Prozent ermitteln“, sagt Menczer.

Gerade erst hat ihm die Forschungsabteilung des Pentagons dafür zwei Millionen Dollar zur Verfügung gestellt. Die staatlichen Schnüffler interessiert allerdings nicht nur, welche politischen Ansichten die Bürger haben und welche aufrührerischen Ideen echt sind. Die Ausschreibungen von Pentagon und FBI zeigen noch ein weiteres Ziel: Die beiden Organisationen wollen auch wissen, wie sie im Web gezielt Stimmung machen können – und zwar, ohne dabei selbst enttarnt zu werden.

09.03.2012, Süddeutsche Zeitung