Bilderberg 2015 Location

http://www.infowars.com/report-bilderberg-2015-location-discovered/

Twitter-Archiv wird vermarktet

Twitter versilbert alle der mehr als 200 Milliarden Kurznachrichten seiner Nutzer. Jede einzelne davon mit emotionaler Tendenz, Ort und Zeit des Versands. Dieses Archiv erlaubt Trendvorhersagen und Manipulation – von unheimlichem Ausmaß.

Zu welchem Zweck wird ein digitales Archiv dieser Kurznachrichten dienen? Die schiere Menge macht eine Analyse der gedruckten Twitternachrichten unmöglich – hier eine Installation bei der eine Auswahl der aktuellen Tweets gedruckt wurde
Kaum dass am 1. März die neuen Datennutzungsregeln bei Google in Kraft getreten sind und ein geharnischter Beschwerdebrief europäischer Datenschutzbeauftragter in Mountain View eintraf, schickt sich nun das dritte große soziale Netzwerk an, seine Schätze zu versilbern. Twitter hat durchblicken lassen, wie das Unternehmen sich die Zukunft der Monetarisierung seiner Datenbestände vorstellt.

Normalerweise können Twitter-Nutzer die „Tweets“ genannten Kurznachrichten nur für den Zeitraum von einer Woche durchsuchen. Die britische Firma Datasift darf nun nicht nur wie bisher den aktuellen Datenstrom aus allen Tweets, sondern auch gegen eine monatliche Gebühr den Zugriff auf das gesamte Twitter-Archiv seit Januar 2010 vermarkten. Neben einer Stichwortsuche über den Bestand an Tweets können Filtertechniken eingesetzt werden, etwa um Inhalte nur von weiblichen Nutzern oder solchen in bestimmten Altersgruppen zu durchforsten.
Erstmals in der Geschichte der Menschheit

Das amerikanische Unternehmen Gnip bietet schon länger Zugriff und Werkzeuge für die Überwachung und Filterung der Datenströme aus einer Vielzahl von Internet-Diensten an. Diese waren jedoch in der Regel nur zeitlich beschränkt für die Vergangenheit verfügbar, nicht zuletzt bedingt durch die gigantischen Datenmengen, die zugreifbar gehalten werden müssen. Gnip und Datasift sind Exklusivpartner von Twitter, sie sind die Türsteher und Kassierer am Datenbergwerk. Datasift bietet zudem in einem weiteren Paket an, Twitter-Daten mit Informationen aus Google+ und Facebook zu verknüpfen.

Derzeit werden mehr als 250 Millionen Tweets pro Tag abgesetzt. Jeder einzelne dieser Tweets hat eine eindeutige Identifikationsnummer. Zusätzlich werden auch die Beziehungen zwischen den Tweets aufgezeichnet: Wer leitet die Kurznachricht eines anderen an die eigene Gruppe, wer gibt einen Link weiter, wer kommentiert, wer antwortet? Das weltweite Geschnatter eignet sich für mannigfaltige Analysen von Linguisten, Ethnographen, Soziologen oder Politologen. Niemals zuvor in der Geschichte der Menschheit wurde das ganz private oder das kollektive Denken und Fühlen, aber auch Kommunikationsmuster des Alltäglichen, Banalen so umfangreich aufgezeichnet, nie war es in dieser Weise zugänglich, sortier- und analysierbar.
Testmaterial für bewusste Manipulation

Doch nicht wissenschaftlicher Erkenntnisdrang treibt die Datenschürfer. Sie heben einen Schatz firmen-, marken- oder marktrelevanter Mitteilungen. Anhand der Stimmungen, die sich durch einfache Betrachtung von Merkmalen wie positiver oder negativer Wort-Konnotationen und Emoticons erschließen, lassen sich selbst ungefähre Vorhersagen zur Entwicklung wesentlicher Börsenindizes einige Tage im Voraus ableiten.
Das Entscheidende an der Verfügbarkeit der Twitter-Archive ist, dass sich nunmehr Algorithmen an historischen Daten testen lassen. Während man zuvor ein Vorhersageprogramm auf der Basis von Twitter-Stimmungen nur anhand aktuell verfügbarer Daten testen konnte, lassen sich nun Korrelationen von Ereignissen und Twitter-Trends retroaktiv prüfen, um die Algorithmen zu optimieren. Es ist wie bei automatischen Trading-Systemen, die in den Archiven nach vergleichbaren Trends und Situationen suchen, um daraus Vorhersagen für das Jetzt abzuleiten: Ihr Nutzen hängt von der digitalen Verfügbarkeit historischer Börsendaten in hoher Auflösung ab.

Eine ähnliche Entwicklung ist durch die Vermarktung der Twitter-Daten auch für andere Branchen zu erwarten. Unternehmen und Politiker werden versuchen, ihre PR und Werbung gezielt anhand aufgezeichneter Reaktionen zu optimieren und anzupassen. Bewusste Manipulationen der öffentlichen Meinung werden deutlich vereinfacht, es gibt nun genügend Testmaterial.
Macht ohne Kontrolle

Oft erinnert die Kommunikation über Twitter eher an ein Kneipengespräch mit lockerem Umgangston, das am nächsten Morgen vergessen ist. Dass alle Äußerungen durch ihren öffentlichen Charakter archivierbar und später verwendbar sind, ist den meisten Nutzern zwar abstrakt klar, schließlich kann man auch gezielt die Tweets einzelner Nutzer aufrufen. In der Praxis spielt dieses Wissen jedoch kaum eine Rolle.

Das Angebot von Twitter ist in gewisser Weise ein Novum. Sofern sie nicht von Dritten gespeichert werden, mutieren die zunächst öffentlichen Daten: Nach einer gewissen Zeit werden sie reprivatisiert und sind nur noch gegen nicht ganz geringe Geldbeträge zugänglich.

Es stellen sich daher grundsätzliche Fragen: Wer soll und darf die daraus erschließbaren Erkenntnisse erlangen und verwerten können? Die Gemeinschaft der Nutzer produziert die Daten, digitalisiert ihr Leben. Wer erntet die Früchte dieser digitalen Gemeinschaftsleistung – wieder nur wenige, die es sich leisten können? Die aus den Datensammlungen resultierende Macht durch die möglichen Einblicke ist de facto unreguliert, unbeobachtet und derzeit unkontrollierbar. Wer soll sie in Zukunft ausüben dürfen?

Twitters Datenvermarktungsstrategie passt nahtlos in den übergreifenden Trend im Social-Media-Gewerbe: Man bietet einen hinreichend nützlichen Dienst an, so dass er von vielen Menschen gern genutzt wird. Der Dienst an sich ist jedoch nicht das eigentliche Geschäft. Das Geld wird mit der direkten oder indirekten Vermarktung der dabei anfallenden digitalisierten Lebensäußerungen gemacht.

Den Datensammelunternehmen und ihren Türstehern stünde es gut an, die Resultate der Analysen aus den Daten, die wir ihnen überlassen, auch uns zugutekommen zu lassen. Die Gesamtheit dieser digitalen Lebensäußerungen könnte so quasi zur natürlichen Ressource aller werden.

Doch allein zu fordern, dass die Daten jedem zugänglich sein müssen, verbessert die Lage noch nicht entscheidend. Twitter hat eine Vereinbarung mit der größten Bibliothek der Welt, der Library of Congress in Washington, die alle öffentlichen Tweets seit 2006 erhält. Damit lässt sich jedoch praktisch wenig anfangen: Die Verarbeitungs- und Speicherkapazitäten, um aus den enormen Datenmengen Wissen zu extrahieren, das Macht bedeutet, sind derzeit nur Unternehmen und Staaten zugänglich. Erst aus der Kombination der Datenströme mit großer Verarbeitungskapazität und dem Wissen und der Software zu ihrer Analyse entstehen die Machtmittel, die den Informationsrohstofflieferanten gehören sollten: uns allen.

Quelle: F.A.Z.

Facebook führt neue Nutzungsbedingungen ein

Abstimmung gescheitert

Für Facebook gelten ab sofort neue Nutzungsbedingungen. Nur wenige Stunden, nachdem eine Befragung der Nutzer über die neuen Datenschutzrichtlinien an der hohen Beteiligungshürde gescheitert war, führte das Netzwerk die Regeln ein. Die Abstimmung war im Vorfeld als Farce kritisiert worden.

Facebook will nun sein Mitbestimmungsverfahren überarbeiten

Facebook hat die geplanten Änderungen der Regeln für Nutzung und Datenschutz in Kraft gesetzt, nachdem eine Abstimmung der Mitglieder an der hohen Beteiligungshürde gescheitert ist. Facebook-Kommunikationsschef Elliot Schrage verteidigte die Entscheidung unter anderem damit, dass die neuen Richtlinien für mehr Transparenz sorgten.

Zu der Abstimmung war es gekommen, weil mehr als 7000 Nutzer Kommentare zu den Mitte Mai veröffentlichten Änderungsvorschlägen an der Richtlinie zur Datenverwendung abgegeben hatten. Für diesen Fall sehen die Facebook-Regeln vor, dass alle Mitglieder über einen Entwurf abstimmen können. Damit das Abstimmungsergebnis für das Online-Netzwerk bindend gewesen wäre, hätten daran allerdings 30 Prozent der aktiven Nutzer teilnehmen müssen. Das wären nach jüngsten Mitgliederzahlen rund 270 Millionen.

Nur 0,04 Prozent stimmten ab

Bis Ablauf der Wochenfrist am Freitagabend hatten aber nur 342.632 Mitglieder ihre Stimme abgegeben – weniger als 0,04 Prozent. Unter den Teilnehmern der Abstimmung gab es eine überwältigende Ablehnung der neuen Richtlinien: Lediglich 44.749 stimmten dafür, 297.883 dagegen.

Angesichts der niedrigen Beteiligung kündigte Facebook an, das Verfahren zur Beteiligung der Nutzer erneuern zu wollen. Die 30-Prozent-Regelung stammt noch aus einer Zeit, da das Netzwerk deutlich weniger Mitglieder hatte. Deutsche Datenschützer hatten die Abstimmung unter anderem angesichts der hohen Beteiligungshürde als Farce kritisiert.

Facebooks Entwurf für die Datenschutz-Richtlinie sieht neben zahlreichen Erläuterungen und Präzisierungen unter anderem auch vor, dass einige Informationen länger als bisher aufgehoben werden können. „Wir werden Daten so lange einbehalten, wie dies erforderlich ist, um den Nutzern und anderen Dienstleistungen zur Verfügung zu stellen. Diese umfassendere Verpflichtung gilt für alle Daten, die wir über Dich sammeln und erhalten, einschließlich Informationen von Werbetreibenden“, heißt es an einer Stelle. Zugleich betont Facebook, dass Daten zu sogenannten Social Plugins wie dem „Gefällt mir“-Button maximal 90 Tage gespeichert würden. FAZ.net

Das PNR – Passenger Name Record – Gesetz, jetzt auch in Europa

Die EU-Staaten wollen künftig die Daten von Flugpassagieren speichern. Das Europaparlament muss dem noch zustimmen. Deutschland wendet sich indes gegen eine lange Speicherdauer.

Die Mitgliedstaaten der EU haben sich im Grundsatz darauf geeinigt, in Europa ein System zur polizeilichen Auswertung von Fluggastdaten einzuführen. Auf einer Sitzung der Innenminister in Luxemburg verabschiedeten sie dazu eine gemeinsame Verhandlungsposition mit dem Europäischen Parlament. Ohne dessen Zustimmung kann ein solches System nicht gebaut werden. Da im Parlament in allen Fraktionen viel Skepsis herrscht, werden schwierige Verhandlungen erwartet. Sie sollen im Juni beginnen.

Die Analyse der persönlichen Daten von Flugpassagieren hat auf der ganzen Welt nach den Anschlägen vom 11. September 2011 an Bedeutung gewonnen. Sie werden von den Strafverfolgungsbehörden genutzt, um Terrorismus oder schwere Straftaten zu bekämpfen. Die EU hat in den vergangenen Jahren bereits Abkommen mit den Vereinigten Staaten, Kanada und Australien geschlossen, damit bei Flügen aus Europa in diese Länder Fluggastdaten ausgewertet werden können. In der EU gab es bisher kein solches System, nur Großbritannien hat eine nationale Auswertung aufgebaut.

Nach einem Vorschlag der EU-Kommission sollen in Europa künftig 19 Datensätze von jedem Passagier erhoben werden, wozu Name, Adresse, Reiseroute, Zahlungsdetails oder Sitznummer gehören. Uneins sind sich die Mitgliedstaaten allerdings noch über zwei Punkte: Die Kommission wollte ursprünglich nur Flüge von und nach Europa erfassen, was etwa ein Viertel der europäischen Flugbewegungen umfassen würde. Viele Mitgliedstaaten, darunter vor allem Frankreich, Großbritannien und Spanien, verlangten aber eine Einbeziehung der innereuropäischen Flüge. Angenommen wurde am Donnerstag ein dänischer Kompromissvorschlag, der besagt, dass jedes Land ausgewählte innereuropäische Flüge erfassen könne.

Bedenken gegen langen Zeitraum

Zum anderen ist vielen Regierungen die geplante Speicherdauer zu lange. Die Kommission hatte 30 Tage vorgeschlagen, danach sollen die Daten für fünf Jahre in anonymisierter Form aufbewahrt werden. In den Beratungen des Ministerrats wurde die 30-Tage-Frist auf zwei Jahre erhöht, um den Bedürfnissen der Sicherheitsbehörden entgegenzukommen. Am Donnerstag äußerten zahlreiche Regierungen Bedenken gegen einen so langen Zeitraum. Es herrschte aber allgemein die Erwartung vor, dass er in den Verhandlungen mit dem Parlament ohnehin verkürzt wird.

Bundesinnenminister Friedrich, der Deutschland auf der Sitzung vertrat, war einer der ganz wenigen Teilnehmer, die sich nicht zu Wort meldeten. Er wollte sein Schweigen als Enthaltung verstanden wissen, was die übliche Meinungsunterschiede zwischen Innen- und Justizministerium in Berlin zum Ausdruck bringen dürfte. Der Bundesregierung ist nach Auskunft von Diplomaten ebenfalls die Speicherdauer zu lang, außerdem ist sie gegen die Auswertung innereuropäischer Flüge. Als einziges Mitgliedsland stimmte Österreich gegen den Beschluss, die Niederlande enthielten sich. Etliche EU-Länder, vor allem kleinere, baten um finanzielle Hilfe der EU beim Aufbau des Systems. Die Kommission schätzt die Kosten auf 500 Millionen Euro.

Während in der EU noch über die Speicherung von Fluggastdaten debattiert wird, ist sie in den USA bereits seit Jahren Realität. Wer in die USA fliegt, dessen Daten landen schon heute direkt bei den amerikanischen Sicherheitsbehörden, wie zum Beispiel der CIA. Das kürzlich beschlossene Abkommen „Passenger Name Record PNR“ stellt die gängige Praxis nun auf eine rechtliche Grundlage. 26.04.2012, faz.net

Hier finden Sie einen Überblick, wie die USA bereits Daten von Passagieren aus Europa sammeln – im Vergleich mit der geplanten Erhebung der EU (im Text kursiv):

Um welche Daten geht es eigentlich?

Für europäische Reisende in die USA fordern dortige Sicherheitsbehörden Daten von den Fluglinien. Dazu gehören Name, Adresse, Sitzplatz- und Kreditkartennummer jedes EU-Passagiers – diese Daten wollen künftig auch die EU-Innenminister sammeln lassen. Dies geschieht automatisch, der Fluggast bekommt davon nichts mit. Die CIA fordert aber zusätzlich noch Informationen über die Nutzung von Vielfliegerprogrammen oder Serviceleistungen an Bord, etwa besondere Menüwünsche, sowie über Buchungen für Hotels und Mietwagen.

In der EU hingegen sollen Daten, die Rückschlüsse auf politische Haltungen, die Religion oder „ethnische Herkunft“ erlauben, nicht ermittelt werden.

Was soll das Datenhorten bringen?

Seit den Terroranschlägen am 11. September 2001 horten die Amerikaner massenhaft Daten, um Verdächtige aufzuspüren und Anschläge zu vereiteln. Fahnder der CIA können die Angaben bei der Jagd nach Terroristen oder Schwerverbrechern auswerten. Die europäischen Ermittlungen wollen mit den Daten vor allem die Reisebewegungen bereits verdächtiger Personen verfolgen.

Wieso ist das PNR-Abkommen so umstritten?

Weil die Daten der Passagiere ohne Verdacht und Anlass für die USA gesammelt werden. „Wir stellen alle Bürger unter Generalverdacht und liefern sie dem Rechtssystem der USA aus, anstatt unsere Werte zu verteidigen“, sagt die SPD-Europaabgeordnete Birgit Sippel. Von einer „Rasterfahndung“ und einem „Schritt zum Überwachsungsstaat“ spricht der Grünen-Europaabgeordnete Jan Philipp Albrecht. Die FDP warnt vor dem „gläsernen Passagier“. 27.04.2012, sueddeutsche.de

Weitere interessante Artikel hier:

Facebook, nein Danke!

Doch wie lange halte ich das noch aus?

Ich finde die Idee sozialer Netzwerke sehr gut. Sie erlauben es einem, mit Freunden und entfernten Bekannten in Kontakt zu bleiben und alte Freunde wieder zu finden. All das ist super! Es macht auch Spaß und viele Gruppenaktivitäten lassen sich über diese Hilfsmittel viel effizienter planen und umsetzen. Besonders praktisch ist auch, daß man quasi mit wenigen Klicks eine persönliche Repräsentanz im Internet besitzt. Ich denke, daß macht den Kern des Reizes für viele Menschen aus. Der Vorteil liegt auf der Hand. Man braucht am Abend auf der Party oft nur den Namen der Person, die einen interessiert, aufgeschnappt zu haben, und schon stehen einem die Möglichkeiten der erneuten Kontaktaufnahme offen.

Dennoch, irgendwie sträubt sich etwas in mir, mich in diese Netze hineinzubegeben. Das war am Anfang mit dem StudiVZ so. Da habe ich mich lange geziert und es am Ende dann doch einfach ausprobiert. Und woosh, es war toll! Ja, das hat richtig Spaß gemacht, sich dort ein Netz aufzubauen.

Was also stört mich?

Es ist der Herdentrieb, den ich beobachte. Denn die Herde zog es und die Herde zieht es noch immer nach Facebook…. (weiterlesen auf Tinyentropy’s Blog)

Digitale Rasterfahndung

Auf den Spuren von Google

Das Ganze ist allerdings noch mit vielen Herausforderungen verbunden“, warnt Nigel Collier, Computerlinguist am Nationalen Institut für Informatik in Japan. Statt nach Terroristen sucht er im Web nach Krankheiten, genauer gesagt nach deren Ausbreitung. Er begibt sich dabei auf die Spuren von Google: Der Suchmaschinenanbieter registriert bereits seit einigen Jahren, in welchen Ländern beispielsweise oft nach Begriffen wie „Grippe“ und den damit verbundenen Symptomen gegoogelt wird. Mit Hilfe dieser Daten erstellt das Unternehmen automatisch eine Karte möglicher Epidemie-Herde.

Eine Reihe von Forschergruppen versucht, diesen Ansatz nun auf eine breitere Datenbasis zu stellen – darunter auch Collier, mit einem Projekt namens Biocaster. „Eines der großen Probleme ist die Menge an Daten, die wir in Echtzeit bearbeiten müssen“, sagt der Informatiker. Allein die von Collier beobachteten Webseiten und Newsletter bringen es an einem durchschnittlichen Tag auf etwa 27 000 Dokumente. Hinzu kommt der beinahe unüberschaubare Datenfluss aus den sozialen Netzwerken.

Aus diesem Wust ermittelt das Programm zunächst die Dokumente, in denen es tatsächlich um Krankheiten geht. Es sortiert doppelt gemeldete Fälle aus und erkennt die ernstzunehmenden Bedrohungen. Am Ende sollen nicht mehr als vier oder fünf Warnungen pro Tag aufkommen. Im Gegensatz zu den Terrorismusforschern aus Arizona setzt Collier dabei auf ein System, das Linguisten eine Ontologie nennen: Im Zentrum von Biocaster steht eine Begriffswelt, in der die Bezeichnungen, Symptome, Pathogene und sprachlichen Zusammenhänge für 300 unterschiedliche Krankheiten verzeichnet sind – ausgearbeitet in zwölf verschiedenen Sprachen.

Da wir es oft mit neuen Krankheiten zu tun bekommen, muss dieses System allerdings lernfähig sein und sich an aktuelle Entwicklungen anpassen“, sagt Collier. Es darf auch nicht zu wahllos vorgehen: Wenn der kanadische Teenie-Star Justin Bieber mal wieder Schlagzeilen macht und bei Twitter das „Bieber Fever“ grassiert, darf der Alarm-Algorithmus den Starkult nicht mit einem Virenausbruch verwechseln. „Wir wollen schließlich niemand nachts um zwei wegen dieser neuen Krankheit aus dem Bett holen“, sagt Collier und schmunzelt.

Schwierigkeiten machen auch noch Krankheiten, die sich wie die Schweinegrippe langsam von Land zu Land ausbreiten. Sie generieren zwar eine große Menge an Nachrichten, es fehlen aber die charakteristischen Aufmerksamkeitsspitzen einer lokalen Epidemie. Und manchmal weist die Biocaster-Software in die Irre, so wie kürzlich bei den jüngsten Krankenhauskeimen in Bremen. Dazu hatten sich viele Bundespolitiker und Behörden geäußert, daher verortete die Software den Ausbruch in Berlin. Dennoch ist Collier ganz zufrieden: Ein Vergleich berechneter Warnungen mit Daten der US-Seuchenbehörde habe ermutigende Ergebnisse geliefert.

Sein Kollege Filippo Menczer von der Indiana University setzt dagegen lieber auf Kontakte statt auf Inhalte. Menczer will wissen, wie sich Ideen in sozialen Netzwerken breitmachen – allen voran in Twitter. Dazu ermittelt er, wie oft einzelne Tweets von anderen Menschen weiterverbreitet oder kommentiert werden, Twitter-Nutzer sprechen dabei in der Regel von „Retweets“ beziehungsweise „Mentions“.

Ob jemand Demokrat oder Republikaner ist, lässt sich zum Beispiel allein daran erkennen, wessen Nachrichten er retweetet“, sagt Menczer. Das amerikanische Zwei-Parteien-System führe dazu, dass Nachrichten aus dem einen Lager auch vorwiegend innerhalb dieser Gruppe weiterverbreitet werden; zu Tweets der gegnerischen Seite gibt es dagegen allenfalls spöttische Kommentare. Das reicht, um die parteipolitische Präferenz eines Nutzers mit einer Sicherheit von 95 Prozent vorherzusagen. Die Analyse des Inhalts von Tweets erreicht nur eine Trefferwahrscheinlichkeit von 91 Prozent.

„Truthy“, wie Menczer sein Programm nennt, kann auch ermitteln, ob Trends in sozialen Netzwerken eine breite Basis haben oder ob sie bewusst von Parteien gestartet wurden, zum Beispiel, um den politischen Gegner mit Schmutz zu bewerfen. Da die Aufmerksamkeit für solch eine Verleumdungskampagne nur mit Twitter-Konten erreicht werden kann, die sich ständig gegenseitig retweeten, fällt die Konstellation in der „Truthy“-Analyse sofort auf. „Wir können solche Fälschungen mit einer Sicherheit von mehr als 95 Prozent ermitteln“, sagt Menczer.

Gerade erst hat ihm die Forschungsabteilung des Pentagons dafür zwei Millionen Dollar zur Verfügung gestellt. Die staatlichen Schnüffler interessiert allerdings nicht nur, welche politischen Ansichten die Bürger haben und welche aufrührerischen Ideen echt sind. Die Ausschreibungen von Pentagon und FBI zeigen noch ein weiteres Ziel: Die beiden Organisationen wollen auch wissen, wie sie im Web gezielt Stimmung machen können – und zwar, ohne dabei selbst enttarnt zu werden.

09.03.2012, Süddeutsche Zeitung