Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

03 Juni 2014

Die Begierde des BND nach Daten aus dem Internet und die Reaktion der Piraten ...

Genau wie die NSA möchte der BND die Bilder und Blogposts aus dem Internet in Echtzeit abschöpfen. Wie es verlautete: In Echtzeit noch während des Erstellens der Nachrichten. So etwas kann man nur Pauschal ablehnen, denn dies erfordert einen Eingriff in das Computer System des Internetnutzer oder in die Verbindung zu dem social Media Service. Zum Beispiel durch eine "Man in the Middle" Attacke auf die Verbindung.

Aber wie sieht es mit "publizierten" Inhalten aus. Wer etwas publiziert, der gibt jedem ein Recht auf Kenntnisnahme des Inhalts. Demzufolge kann ich mich nicht darüber Beschwerden, wenn eine Behörde meine Publikationen nach bestimmten Kriterien auswertet. Wenn also die NSA nur publizierte Bilder nach zufälligen Aufzeichnungen von Straftätern untersucht, dann ist das ein Fall von polizeilicher Ermittlung, gegen die erst mal so nichts zu sagen ist. Wir wissen es dank Snowden heute aber besser, die NSA wird sich nicht mit den publizierten Bildern zufrieden geben, und auch alle auf Sonstigen Wegen akquirierten Bilder durch das System gejagt.

Es gibt da aber ein kleines technisches Problem. Wenn ich eine neue http Seite in das Netz stelle, also zum Beispiel dieser Post, dann erfährt davon erst mal keiner etwas davon. Eine Applikation - und sei es nur eine Suchmaschine wie Google - muss also immer wieder nachfragen, ob sich die Seiten verändert haben. Und das ist sehr Aufwändig. Nicht nur für den Suchmaschine sondern auch für den Betreiber des Angebots. Ja nach dem wie Zeitnah neue Publikationen erfasst werden sollen muss häufiger Nachgefragt werden. Bei einer Webseite mit vielen Content Seiten kann das bei mehreren Interessenten eine ganz erheblich Zahl von Zugriffen werden. Dies kann Webseitenbetreiber veranlassen, bestimmte Crowler zu sperren, wenn er für sich keinen Nutzen in den Zugriffen für sich sieht.

Würden Webserver neue Dateien durch eine Multicast Announced, dann könnten sich neue Suchdienste - egal ob kommerzieller oder staatlicher Art wesentlich leichter etablieren. Google wird es natürlich nicht gefallen, wenn Bing, Yandex, Baidu & Co sehr einfach auch die Aktualität ihres Dienstes verbessern können. Jetzt erzeugen diese Services sehr viel weniger Spidertraffic als Google. Insofern ist eine technische Norm der Richtige weg, sowohl das Übergewicht von Google anzugehen, als auch die Ermittlungsbehörden auf einen Rechten Weg zu bringen. Mit diesem Announcen wird es eine Art Henne & Ei Problemen geben: Je mehr Server das Annonce benutzen, desto uninteressant wird es für Google & Co trotzdem zu Spidern, weil es nur Kosten ohne relevanten Mehrwert zu liefern.

Jetzt könnte man einwende, damit kann man Schattenseiten realisieren, die nicht Announced werden. Das ist aber nichts prinzipiell neues, weil das auch heute schon mit Tricks möglich ist. So kann z.B mit "robots.txt" ein Spidern untersagt werden. Außer dem gibt es noch andere Optionen, um an die Adressen neuer Seiten zu kommen. Alle "Toolbars" mit denen irgendwelche Eigenschaften einer Webseite angezeigt werden, ist so eine Strategie. Die Toolbar frägt den Status einer Seite ab, und verrät damit aber auch den Betreiber im Wege der Abfrage welche Seite ein Nutzer gerade Surft. Auch ein Frage kann ein Informationstransport darstellen.

Da sich nicht automatisch entscheiden lässt, ob eine Publikation von einer in Deutschland lebenden Person stammt, sollte diese Aktivitäten von einer gesonderten Behörde gemacht werden, deren Auftrag vom Bundestag eingesetzt wird und Ausnahmsweise sowohl Polizeiaufgaben als auch nachrichtendienstliche Aufgaben wahrnimmt. Dabei hat sich der Spielraum der Behörde an dem Rechtlichen Rahmen in Inland zu Orientieren. Nichts desto trotz wird es ein extrem mächtiges Werkzeug sein, bedenkt man die Unmenge an Daten Material das publiziert wird.

Noch besser wäre es wenn so etwas auf Ebene der Eu ebene zu machen, weil eine solche Behörde ansonsten im jedem Land das gleiche machen würde an Datenaquisition. Das setzt natürlich immer voraus, das die Briten von ihrem Orwell Tripp runter kommen, was aber kaum gelingen dürfte. Aber da Sie sowieso immer mit Austritt Drohen, Rabatte beim Beitrag erpresst, sonst irgendwelche Rumzicken ... Sollen sie doch austreten und die Schotten dann wiederum aus Great Briten austreten und Mitglied der EU werden.

Zum Schluß möchte ich mich noch kurz mit der Politischen Reaktion der Piratenpartei befassen. Zum einen wird dort nicht die legale Kenntnisnahme publizierten Materials diskutiert wird. Ich habe in der Kommunikation mit den verschiedenen Bürgerbewegungen des arabischen Frühlings immer wieder erlebt, das die Menschen dort froh sind, wenn Menschen aus der Ferne sich ihrer annehmen und ihren Publikationen folgen. Hätte ich den Mut aufgebracht aus Nazi-Deutschland über die Unhaltbaren Zustände dort zu twittern, hätte ich Unbedingt gewollt, das ausländische Behörden das Material zur Kenntnis nehmen.

Zum anderen: Die Reaktion kam erst Tage nach dem das Thema durch die Presse ging. Das ist entschieden zu Langsam um noch Wahrgenommen zu werden. Die Piraten haben es versäumt, Politik taugliche Tools zu entwickeln. Außerdem ist nicht zu verstehen, warum dies nicht auf der Haupseite, sondern nur im Presseportal verlinkt ist. Das Thema ist ein Kernthema der Partei und gehört auf die Hauptseite.

Keine Kommentare: