Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

18 August 2014

Möglichkeiten und Grenzen von Funk- und Meshnetzen

Was ist ein Meshnetz

Heutige Kommunikationsnetze haben ein sehr stark zentralisierte Struktur. Es wird von einer sternförmigen leitungsgebundenen Infrastruktur ausgegangen, an deren Enden sich die Endgeräte befinden. Das gilt auch für die Drahtlosen Netze, bei denen nur die letzte Verbindung durch eine Funkverbindung ersetzt wurde. Diese Netze unterscheiden sich neben den technischen Details der Übertragung nur in der Zellen. In Absteigender größe sind das GPRS, UMTS, LTE, WLAN.

In den Anfängen des Internets war das Internet ein Meshnetz aus Festverbindungen. Die Verbindungsleitungen der Knoten waren wie ein richtiges Netz angeordnet. Wenn eine Leitung ausgefallen ist, dann hat die Software der Router - den Knotenrechnern - automatisch eine Umleitung gefunden, so das der Ausfall nicht aufgefallen ist. Die war Entwicklungsvorgabe, weil man das Internet benutzen wollte, einen atomaren Gegenschlag zu Organisieren. Da Internet ist auch heute noch so aufgebaut, allerdings nur noch im internationalen Maßstab. Der Grund dafür ist in der überragenden Transportkapazität von Glasfasern zu suchen. Es ist oftmals billiger ein Signal durch die halbe Republik oder noch weiter zu scheuchen, als eine neuen Leitung von 5km Länge zu bauen. Kein Wunder, 100-2000€ pro Meter kommt eine ganze Menge zusammen.

Durch die Vielzahl von Geräten welche Senden und Empfangen können stellt sich die Frage, ob auch ein Internet ohne Kabel existieren kann und was es Leisten kann. Ich selbst stelle, weil ich verhindern wollte das die Bürger meines Stadtteils mir bei den Frequenzen ins Gehege kommen, unter anderem auch Internetzugänge zur Verfügung, die auf die Aneinanderreihung von WLAN Zellen beruhen, und kann in soweit einiges dazu aus erster Hand berichten.

Solche Netze wären sehr Nützlich, weil sie durch eine Vielzahl von Wegen wesentlich robuster gegen die Einwirkung von Kriegen und Naturkatastrophen sind. Es müssen "nur" genügend Knoten aktiv bleiben, um Verbindung zu halten weil die Daten wie in einer Eimer-kette von Gerät zu Gerät weitergegeben werden. Die zentralisierten Netze sind dagegen hochgradig Gefährdet durch politische Intervention abgeschaltet zu werden. Beispielsweise war Syrien im Bürgerkrieg tagelang Offline. Wie sich kurioserweisse Raustellte war es aber weder Assat noch die ISIS die eines Ihrer Massaker unter Ausschlus der Öffentlichkeit durchziechen wollten, sondern die grössenwahsinnige und stehts omnineugierige Neue Stasi Ameriks, die NSA, die bei einem Hack einen zentralen Router in Syrien mit ihren Trojanern lahmgelegt hat.


Was können Meshnetze Leisten

Ein Meshnetz bekommt Probleme, wenn es um Fernverkehr geht. Nehmen wir zum Beispiel an, ein Knoten kann 1 Megabyte pro Sekunde Senden, ohne damit Radiointerferenzen mit den Aussendungen der anderen Knoten zu Produzieren. Nehmen wir des Weiteren an, das das Netz von den Teilnehmern heftig genutzt wird und die Ressourcen fair aufgeteilt werden. Dann kann jeder im Mittel nur so viele Aussendungen veranlassen wie er selbst zum Netzwerk beiträgt. Ich kann also 1.000.000 Byte/s direkt von meinen Nachbarn beziehen, 500.000 Byte/s von dem übernächsten Nachbarn, 333.333 Bytes pro Sekunden wenn drei Links gebraucht werden und so weiter. Mann erkennt, dass wenn ganze Landstriche auf ein Meshnetz angewiesen sind, man sehr schnell auf Chat Nivau ankommt.

Erschwerend kommt hinzu, das die aktuelle Entwicklung gerade voll gegen das Internet als Meshnetz läuft. Es gibt sehr gute Software welche die Inhalte von Webseiten zwischenspeichert und diese dann weiter verteilt. So kann diese Software per Multicast - eine Nachricht die sich wie eine Rundfunkansage an jeden wendet der Zuhört - bei den Nachbarinstanzen nachfragen ob ein bestimmter Inhalt vorliegt, und diesen dann von dort beziehen. Das Problem ist nur, das immer mehr Inhalte so angeboten werden, das es nicht mehr möglich ist zu erkennen das der selbe Inhalt vorliegt.

Das fängt mit Google an, das jetzt beschlossen hat, Webseite zu fördern die per https erreichbar sind. Sie bekommen Extrapunkte für das Ranking im Verzeichnis, tauchen also vermehrt vorne auf und werden dann auch per https verlinkt. Eine solche Verbindung kann nicht mehr Lokal gecachet werden. Microsoft hat httpi vorgeschlagen, welches nur die Authentizität sicherstellt, aber Caching zulässt.

Zuvor haben schon die Video Anbieter massiv an der Wirtschaftlichkeit von Cacheinfrastrukturen gesägt. Alle legalen Anbieter von Videofilmen verwenden individuell verschlüsselte Verbindungen zu ihren Abonnenten und sorgen dafür, das diese Inhalte dort nicht zwischengespeichert werden. Ich vermute mal, das dies eine Lizenzbedingung seitens wichtiger Filmstudios ist. Wenn man für 3€ einen HD Film übers Wochenende auf iTunes leiht und sich mehrere Familienmitglieder den Film zu unterschiedlichen Zeiten ansehen, dann wird der Film jedes mal in epischer HD Breite durch das Internet gezerrt. Das zwingt selbst die Telekom in die Knie und veranlasst Sie die echte Flatrate aus den Verkehr zu ziehen.


Technische Probleme

Ein weiteres Problem das man nicht unterschätzen darf, ist das Routing in einem Meshnetz. Dafür gibt es verschiedene Ansätze. Um Kompatibilität mit einem Normalen Netz zu erreichen und dem notorischen Ärger mit dem Zusammenwirken von WLAN Bridges unterschiedlicher Hersteller aus dem Weg zu gehen, habe ich mein Netz beginnend seit 2001 immer so aufgebaut, das ich die einzelnen Funkbrücken per LAN Switches und Router verknüpft habe. Dabei wurden die alten Verbindungen als Reserve der neueren, schnelleren Verbindungen konfiguriert. Damit ist das eigentliche Zugangs Netz ein normales WLAN Netz in dem die Accespoints eben über "WLAN-Kabel" angebunden sind und ich kann Clients aller Hersteller ohne Umstellung einbinden. Durch die vollständige Abschaltung vieler Verbindungen wird das Arbitrationsproblem - also die Funkdisziplin wer wann Senden darf - erheblich entschärft. Dazu muss man wissen, das Frequenztrennung der WLAN Chips sehr bescheiden ist. Da etliche Accesspoints über "Airview" verfügen, mit denen eine Spektrogramm des gesamten Bands angezeigt wird, gehe ich davon aus, das weite Teile des Empfanges und des Sendens per Software gemacht werden. Das führt dazu, das ein Sender der Zeitgleich im benachbarten Kanal sendet eine erhebliche Mindestentfernung haben muss, damit er nicht mehr stört, weil die Dynamik der Wandler recht begrenzt ist. Wie groß oder kein diese Nachbarkanaldämpfung ist, das haben die Hersteller trotz Support Anfrage über meinen Händler nie raus gerückt.

Mit dieser Nachbarkanaldämpfung kann es aber nicht weit her sein. So bietet der Netzwerkausrüster Ubiquity beispielsweise Spezielle Geräte welche unter Zuhilfenahme von GPS Synchronisation dafür sorgen, das sich verschiedene Zellen nicht gegenseitig Stören, wenn mehrere Geräte an einem Mast montiert sind. Viele Smartphones verfügen auch über GPS ... ob mit der physikalischen API der Chip auch eine zeitliche Synchronisation im µs Bereich möglich ist, vermag ich aber nicht zu sagen. Die Tendenz der WLAN Sendeverfahren geht in jedem Fall aber zu einer Trennung der Stationen durch die Zeit. Bei 802.11n mit seinen 40MHz Kanälen gibt es im 2,4GHz Band nur noch einen Kanal. Mit der Nachfolgenorm 802.11ac mit seinen 160MHz breiten Kanälen ist das ebenfalls schon so, das die gesamte Breite des Internationalen Indoor bereichs ausgeschöpft ist. Benutzt man die nationalen speziefischen Erweiterungen so gibt es 2 Indoor und 3 Outdoor uns einen weiteren Kanal für ISP.

Auch bei den Normen für den Mobilfunk lässt sich diese Tendenz beobachten. Zwar steigt auch dort durch neuartige Verfahren auch die Pro Hertz Bandbreite übertragene Datenmenge an, aber längst nicht so stark wie das der Fortschritt in der ausgewiesenen Übertragungskapazität vermuten lässt. Vielmehr sind die neuesten LTE Evolutionsstufen welche mehr als 1Gbit verspricht in der Lage, unterschiedliche Frequenzressourcen des Providers zu bündeln, so das ein einzelnes Telephon gleichzeitig Daten aus verschiedenen Sendeanlagen beziehen kann.

Die Verwaltung von Verbindungen durch degradieren zum Standbeibetrieb mit Hilfe von zum Beispiel STP ist aber nur bei einem fest Eingerichteten und Verwalteten Meshnetz sinnvoll, bei der es durch den Ausbau auch klare Präferenzen für den optimalen Transportweg gibt. Außerdem ist dieses Verfahren nur in der Lage Totalausfälle wie Stromausfall oder Blitzschlag gut zu behandeln. Sollen diese Netz dynamisch zu Stande kommen und verwaltet werden, dann werden Verfahren gebraucht, welche unter Ausnutzung der funktechnischen Messwerte wie Störspannungsabstand und Störungswahrscheinlichkeit beim Empfang die optimale Route berechnen. 802.11s sollte eine Offizielle Norm für diese Form eines Netz innerhalb des MAC Layers werden, was aber wegen technischer Probleme und Streit über die zu erreichenden Ziele immer wieder vertagt wurde. Bis zur Verabschiedung von etwas Konkreten hat es rund ein Jahrzehnt bis 2011 gedauert. Eine andere Alternative ist B.A.T.M.A.N., bei der die Parameter abgefragt werden und in einer höheren Ebene behandelt werden.

Für die Applikationen wirken auch bei diesen Verfahren das gesamte Mesh Netz wie eine einziges großes LAN und es wird für jedes einzelne Gerät wichtige MAC Routen vorgehalten. Es ist augenscheinlich klar, das bei großen Netzen mit einer zunehmenden Zahl von Teilnehmer entweder der Leerlaufverwaltungsaufwand immer größer wird oder aber die Zeit die für einen Verbindungsaufbau für das erstellen der nötigen Routen immer länger wird.

Neueste technische Entwicklungen können hier einen Ausweg aus der Sackgasse aufzeigen. Mit MPTCP ist es möglich, transparent von einem IP Netz in ein ganz anderes zu migrieren ohne das dies von der Applikation zur Kenntnis genommen weden muss und einen Neuaufbau einer TCP Verbindung erfordern würde. So kann zum Beispiel ein Stream in der Bahn über LTE begonnen werden und mit Ankunft im eigenem Heim auf das heimische WLAN umsteigen. Damit wird es also für ein Gerät möglich die IP unabhängig von den Applikationen zu wechseln. Da in einem IPv6 Netz eine einfaches LAN bereits einen 64 Bit großen Adressraum hat und 2 32 Bit Nummern für Geo Koordinaten mehr als Ausreichend sind, kann in Zukunft die IP die Geografische Position sein. Damit kann dann in einem Meshnetz der optimale nächste Knoten für ein beliebiges Ziel analytisch aus lokal zugänglichen Größen berechnet werden. Das wäre ein gewaltiger Fortschritt zu den jetzigen Ansätzen, weil der Verwaltungsaufwand weitestgehend flach fällt. Stellt ein Smartphone über das GPS eine Veränderung der Position fest, so wird eine neue IPv6 Adresse mit der veränderten Position erstellt, neue sup TCP's initiiert, so das die alte IPv6 Adresse wenn sie nicht mehr zu erreichen ist problemlos aufgegeben werden kann.

Ein weiterer Punkt der Bedacht werden will, speziell bei Mobilen Mesh Netzen, ist der Energieverbrauch. Die Hersteller setzen Himmel und Hölle in Bewegung, um mit der Software immer so viel Hardware wie möglich auszuschalten damit die Akkulaufzeit verbessert wird. Das geht zum Beispiel bei WLAN unter anderem so weit, das sich die Geräte mit der Basisstation einigen, wann sie wieder nach neuen Paketen lauschen, damit sie sogar den Empfänger ausschalten können. Laptops schalten beim Schliessen des Lids einfach gleich komplett in den Standby. Wenn eine Mobiles Gerät jetzt Hintergrundprozesse hat, die andauernde oder zumindest eine sehr häufige Präsens erfordern, dann wird dies die Batterie des Gerätes im erheblichen Ausmaß zusätzlich belasten so das die Laufzeit deutlich leidet. Das kann jeder an seinem Smartphone selber beobachten, wenn man irgendwelche dauerpräsenten Apps installiert, wie ein Messgerät der Sportlichkeit, das die Täglich absolvierte Bewegung ermittelt und statistisch auswertet. Und so eine App muss nicht Senden, also elektromagnetische Energie in die Umwelt abgeben. Das wird insbesondere dann zum relevanten Problem, wenn man Meshnetze als Katastrophenhelfer einsetzen will, weil dann eine neue Ladung für den Akku mitunter schwer zu bekommen sein kann. Verfahren wie 802.11s die im MAC Layer arbeiten sind hier im Vorteil, weil sie eine Gesamtstragie zur Ersparnis von Strom fahren können. Das Grundproblem bleibt aber.


Meshnetze in Konkurrenz zu herkömmlichen Internetanschlüssen

Solange die herkömmlichen Anschlüsse in Ihrer Leistung begrenzt sind, so das Sie nicht in der Lage sind einen WLAN Kanal vollständig zu fluten, sind sie Unkritisch. Das ändert sich aber schlagartig, wenn der Engpass für eine Datenübertragung nicht mehr der Zugang ist sondern das konventionelle WLAN ist. In dem Moment kann bei einem Download der Funkraum vollständig in Benutzung sein, und Routen müssen sich im Meshnetz verändern. Da die Konventionellen Funkzellen kleiner sind, typischerweise nach außen auch noch durch Wände partiell abgeschirmt, werden ihre Übertragungen immer Vorrang vor dem Mesh haben, dessen Restsignale im inneren der Wohnung mit dem konkurrierenden Zugang mitunter gar nicht mehr wahrgenommen werden. Das gilt in verschärfter Form dann, wenn für das Mesh Antennen mit Gewinn eingesetzt werden.

Hier kann gesagt werden, das gerade bei größeren Netzen der daraus resultierende Aufwand jeden vernünftigen Rahmen sprengen kann. Eine Software die in einem Areal wie dem australischen Outback eine brauchbares Internet erzeugt, muss daher in einer Stadt noch lange nicht gut funktionieren. Ein Teil der Bürger welcher schlicht die Ausgaben begrenzen muss kann das dort nicht durch den Rückgriff auf ein Meshnetz machen, insoweit das nicht alle in einer Region machen.


Welche Normen werden gebraucht, damit Meshnetze Prosperieren können

In den Anfängen des Internets wurde dieses von dem Telephonetz getragen. Es gab Verbindungen, die sehr schwach waren. Aus dieser Zeit stammen noch die technischen Grundkonzepte des Internets mit seinen lokalen Caches. Das fängt bei den DNS Namen an, geht über die Http Caches bis hin zu den Caches für die Realtimeprotokolle.

Es gibt 2 Arten von Internetprovider. Da sind zum einen jene, die über eine eigenständige physikalische Leitung jedem ihrer Kunden haben wie das beim DSL System der Telekom der Fall ist. Dank der Konkurrenzangebote hat die Bundesnetzagentur der Telekom in vielen Orten erlaubt, ihre Netze wieder exklusiv zu betreiben. Das hat für die Kunden der Telekom den Vorteil, das die Elektronik die Störungen der anderen Anschlüsse beim Senden berücksichtigen kann, diese Kompensieren kann und damit mehr Frequenz nutzen kann. So wird es möglich, über alte Kupferkabel die für 300-3300 Hz ausgelegt sind 100 MBit pro Sekunde an Daten zu übertragen. Ab den Anschaltpukten liegt das sternförmige Glasfasernetz vor, das was Performance angeht, kaum wünsche offen lässt. Das ist allenfalls eine Kostenfrage, und die Telekom wird im Wege der Drosselflat die Diensteanbieter in die Zange nehmen, mit ihr so zusammenzuarbeiten das die Kosten vertretbar sind. Sie sind eben genötigt, über die Telekomeingene Plattform Entertain ihre Werke anzubieten, welche vermutlich über eine Verteilte Serverarchitektur verfügen dürfte. Auch der Modem Dail up als die erste Version des Massen tauglichen Internet und die Anbindung über eine Standleitung gehört in diese Kategorie der Anbindung über eine einzelne Leitung.

Alle andere Angebote sind allesamt die Ausnutzung von Rundfunktechnologie zur individuellen Versorgung mit Internet. Das gilt für Satelliten, Googel Drohnen basiertes Funknetz, WLAN und Mobilfunkinternet, aber auch für die Angebote im Fernsehkabel. Diese Angebote zeichnen sich nur dadurch aus, das sie über ihren eigenen abgeschotteten Funkraum im inneren der Kabel verfügen, sind aber ansonsten von der Funktion her so aufgebaut wie der Funk in der Atmosphäre. Diesen Übertragungskanälen ist allesamt gemeinsam, das sie eigendlich dafür prädestiniert sind, Inhalte ein einem Vorgang parallel an viele Stationen zu senden. Diese Eigenschaft wird, bis auf bei wenigen life Anwendungen, von den im Internet eingesetzten Anwendungen aber nicht ausgenutzt.

Wenn wir nicht langfristig wieder in eine Monopolabhängigkeit von der Telekom hineinschlittern wollen, dann werden für das Internet neue Protokolle gebraucht, welche die rundfunkartige Verteilung von Content auf Vorrat ermöglichen. Meine Vorschlag: bhttp und mhttp als broadcast hyper text transport protokoll respektive multicast hyper text transport protokoll. Heutige Festplatten speichern 4TB für 125€. Das ist viel mehr als viele Nutzer je brauchen werden. Mit 1TB kann man einen Datenstrom von 50 MBit 44 Stunden lang aufzeichnen. Es gibt also jede Menge Raum für eine Vorratscontentspeicherung, und damit kann zum Beispiel vermieden werden das jede einzelne Windowsmühle ihre immer größer werdenden Service Pack für sich durch das Medium zerrt und damit die Netzwerke verstopft.

Technisch würde das so aussehen, das ein jedes cachefähige Device auf per Multicast oder Broadcast verbreitete Anouncemect von "Sendefächigen" Proxiserver lauscht. Würde es so einen finden, würde das Gerät den angezeigten Proxy Autoconfig File herunterladen und seine Anfragen dann an die verzeichneten Proxys richten. Diese haben dann die Möglichkeit, anhand von statistischen Kriterien zu ermitteln, welche Inhalte für viele Kunden von Interesse sind. Diese Inhalte werden von dem Server zu einem Bucket zusammengestellt das eine vordefinierte, von den Eigenschaften des Funknetz abhängige, Maximalbandbreite ausfüllt. Diese würden dann im Wege eines mit Forward Error Correction versehenen UDP Streams per Broadcast oder Multicast versendet, so das bei einer Aussendung der Inhalt via Stream Decoder in jedem Cache landet der Online ist. Wird bei einem erstmaligen Aufruf gleich festgestellt, das ein Inhalt an alle gehen soll, so müsste ein neuer HTTP Status darauf hinweisen, damit der Server im stream sucht.

Auch sinnvoll ist, das Hintergrundaktivität wie das Abfragen und Laden von Betriebsystemupdates von der Software mittels eines neuen HTTP Headers mit einem zumutbaren Zeithorizont versehen wird, der es gestattet wichtigeres, auf das ein Nutzer am Bildschirm wartet, vorzuziehen. Durch das aussenden von häufig gebrauchten Inhalten würde es auch in Zukunft möglich sein mit Funknetzen gutes Internet zu bekommen. Bedingt durch moderne Mimo Übertragungen ist die One to All Kommunikation zwar um ein mehrfaches langsamer als Punkt zu Punkt Kommunikation, aber all das, was mehr als zehn mal in einer Funkzelle abgerufen wird, das ist im Rundfunkmodus definitiv effektiver verteilt. Das wären dann so Dinge wie Betriebssystemupdates, aber auch aktuelle Medieninhalte wie Nachrichten aller Art oder eben aktuelle Filme.

Die Zukunftsfähigkeit von Meshnetzen im Speziellen und Funknetzen im Allgemeinen steht und fällt damit, das Große Objekte vernünftig cachebar und verteilbar sind. Ein solcher großer Inhalt darf nur an einer Stelle publiziert werden und muss dann von überall her her gleich verlinkt sein, damit er von der Software als Identisch erkannt werden kann. Es dürfen auch keine Trakingparameter übergeben werden, wie das seit der idiotischen Cookie Verordnung der EU immer mehr in Mode kommt, um ohne Cookie tracen zu können. Eine url http://www.monster.org/monsterobjekt?session=2354983924 wird von einem cache nicht als identisch zu http://www.monster.org/monsterobjekt?session=2354983925 erkannt, und in epischer Breite wieder durch das Netz gezogen. Ein cache kann solche Parameter aber auch nicht ignorieren, weil diese auch durch die Eingaben eines GET FORM entstehen, und in diesem Zusammenhang auch unterschiedlichen Content abrufen.

Ein billiges effektives Internet steht aber in Diametralen Gegensatz zu den Interessen der Unterhaltungsindustrie. Das muss man so sehen. Je teurer ein Medium ist, desto teurer können auch die Inhalte sein. Mit dem Preisverfall für die Verteilung von Content begannen auch die Probleme den Preis für Content zu rechtfertigen. In diesem Kontext muss man die in Spanien eingeführte Linksteuer sehen, die ein offensichtlicher Versuch ist das Internet als kostenfreie Quelle für Wissen zu torpedieren. Schon 2007 gab es darum einen Disput in Grossbritanien zwischen der BBC und den Internetprovidern um die Form der Zugänglichmachung von Videomatherial. Ohne eine Regulation wie Videos schonend im Internet zu publizieren sind sowie Ausnahmen bei der Netzneutralität welche es gestatten, das man spezielle Inhalte auf ein verträgliches Nivau drosselt um zum Beispiel als Provider die Auflösung von Videos zu begrenzen werden Mesh und Mobilfunknetze langfristig nicht richtig nutzbar bleiben und hoffnungslos verstopfen. Es werden jetzt schon die ersten Filme in Super HD - also 3640 punkte statt der jetzt bei HD üblichen 1820 Punkte. Das ergibt 4 mal so viele Daten! Und das, so die Vorstellung der Anbiehter, wie bisher bei jedem Betrachten. Unangenehme Nebenwirkung dieser Technik: Staatliche stellen können in erfahrung bringen, wer welche Sendungen gesehen hat.

Eine solche Vorratsverteilung von Videodaten müsste im Übrigen nicht notwendigerweise das Geschäftsmodell der Contentindustrie der Geltendmachung einer Gebühr für die reine Kenntnisnahme von einem Inhalt betreffen, auch wenn es theoretische Argumente gibt, die gegen dieses Sprechen. Wenn das Massive Objekt verschlüsselt ist, unter der Zugriffscode dann sicher verteilt wird so wie das bei der Blue Ray Disk der Fall ist, dann wäre der Verstopfung der Netze auch wirksam entgegengwirkt.

Ein weiteres Problem für die Leitungskapazität stellen Backuplösungen zu zentralisierten Cloudspeichern dar. Diese sind in der gegenwärtigen state of the Art Form des Verschlüsselten Hinterlegens so konstruiert, das wieder eine sehr großer Datenstrom zu einem sehr weit entfernten Ziel transportiert werden muss. Selbst wenn das Backup in der Nachbarschaft erfolgt, ist die schiere Masse der Daten aber dennoch verheerend. Ich biete meinen Kunden einen Backupserver kostenfrei und unlimitiert lokal an. Das ist billiger als der Traffic ins Internet. Als einer meiner Kunden mit großem Datenbestand die Seine Festplatte wegen Verschleiß wechseln musste, hat die Applikation des Backup neu synchronisiert und damit Wochenlang den Funkraum wüst belastet. Hier könnte ein Medium wie Freenet für Abhilfe sorgen, welches so konstruiert ist, das die Daten verteilt in der Umgebung hinterlegt werden. Besonders clever daran ist, das der gleiche Datensatz immer gleich, mit seinem eigenen Hashwert verschlüsselt unter dem Hashwert des Verschlüsselten Files als Zugriffscode abgelegt wird, so das die Vielen GB zum Beispiel des Betriebssystem oder beliebter Medien eben nicht jedes mal mitgeschleppt werden müssten, private Dateien auf der anderen Seite aber Privat bleiben. Nur wer beiden Schlüssel kennt, kann den Inhalt wiederbekommen. Die Sache mit Remotebackups hat generell den Hacken, das sich viele Kunden nicht darüber im klaren sind, wie lange es Dauert, bis ihre Daten wieder da sind und sie dann Weiterarbeiten können. Richtig rund wird die Sache mit den Remotebackups überhaupt erst wenn so etwas wie ein Welt File System implementiert wird, in dem so etwas was wir wie Freenet aufgebaut ist als Backup eines lokalen Dateisystem eingeblendet wird, welches es dann erlauben würde, zwar deutlich langsamer als gewohnt aber dafür sofort, los zulegen. Langsamer weil die Inhalte eben erst zusammengetragen werden müssten. Dafür müsste man nicht Warten, bis die Platte wiederhergestellt ist, so wie das bei einer klassischen Backupanwendung immer der Fall ist. Nur um Offline Arbeiten zu können muss man Warten bis die Wiederherstellung komplett ist.


09 August 2014

Piratenpartei stellt politischen Insolvenzantrag ... Mitgliederbefragung per Post

Als ich heute Morgen in meinen Ticker geblickt habe, habe ich nicht schlecht gestaunt. Die Piratenpartei will nun den Basisentscheid per Post machen. Das ist aus den verschiedensten Gründen verheerend. Zum einen ist es sehr Teuer. Hin und Rückporto kosten 1,2€ jeweils als Standartbrief, das macht bei 28000 Mitgliedern mal eben 33600€ Porto. Dazu kommen dann noch Papier, Umschläge, Eintüten, Austüten, ... es wird die Piraten - also die Partei und ihre Mitglieder - rund 70000€ oder mehr Kosten ... Geld das man auch anderweitig für politische Aktivitäten einsetzen könnte.

Viele Schlimmer als das ist aber die Tatsache, das es so was wie eine Politische Insolvenzerklärung ist. Die Nachricht ist so Wichtig, das sie es nach langer Zeit mal wieder in die Hauptnachrichtensendung der News Kanäle geschafft hat. Und das mit einem Piraten, der demonstrativ auf dem Parteitag ein Brett vor dem Kopf trägt. Nichts desto trotz hat die Parteiführung recht, wenn sie sagt das es zur Zeit keine Software gibt, die das zu Leisten vermag. Insofern ist dieser Offenbarungseid nötig um die Fehler der Vergangenheit zu heilen.

Am Anfang war die Piratenpartei eine Ansammlung von sehr EDV erfahrenen Subjekten, die sich im wesentlichen darüber geärgert haben, das angestammte Rechte der Menschen veräussert werden um es bestimmten Politik- und Wirtschaftsinteressen leichter zu machen mit den Folgen des digitalen Wandels klar zu kommen. Das reicht von absurden rechtlichen Interpretationen über Zensurwünsche bis hin zur Besteuerung des Internets mit einer Linksteuer in Spanien, das Kostenfreie Angebote unmöglich machen soll.

Dieser anfangs sehr kleine Haufen von Menschen hatte keinerlei direkte politische Relevanz. Insofern brauchte man auch keinerlei wirksame subversiven Einflüsse fürchten ... wenn man mal von den bei jeder Parteigründung auftauchenden üblichen widerlichen "Blut und Boden" Subjekten mal absieht. Man traf informelle Votings in Web basieren Tools irgendwelcher Anbieter wo immer man sie fand, wie zum Beispiel Doodel. Bestätigt wurden die Beschlüsse dann aber immer ganz konventionell auf einem Mitglieder Parteitag. Das Agendasettig erfolgte per Sozialen Netzwerken und basisdemokratisch in überschaubaren Treffen. Heute ist dies so nicht mehr möglich, weil die Nachrichtendienste gelernt haben, diesen Informelle Community zu unterwandern. Snowden hat dies der Öffentlichkeit mit Dokumenten aus dem Innenleben der Geheimdienste vor Augen geführt.

Es gibt da in der EDV ein Problem. Die Anwendung sind Komplex, das Verhalten von Software ist gelinde gesagt mit unter recht überraschend. Aus diesem Grund passiert es sehr leicht wenn sich Menschen mit EDV Hintergrund treffen, das sie über EDV Werkzeuge diskutieren und Erfahrungen Austauschen. Das entspricht dem natürlichen Kommunikationsbedürfnis der Protagonisten auch und gerade weil sie dadurch einen unmittelbaren Nutzen in ihrem Leben ziehen können. Um trotzdem eine vernünftiges, vollständiges Parteiprogramm zu bekommen, gab es denn Konsens "Keine Tooldikusionen" mehr. Mit dem Achtungserfolg bei der Europawahl 2009 bis zur Bundestagswahl 2009 kamen dann aber reichlich neue Mitglieder in die Partei, so das die Sache mit der Basisdemokratie schwierig wurde. Klar zu erkennen an Problemen, wie Redezeiten von 30 Sekunden auf Bundesparteitagen. Sehr viel mehr als in einem 140 Zeichen tweet kann man da auch nicht sagen, und das ist für differenzierte Betrachtungen definitiv zu kurz.

Bildquelle: Piraten Wiki
Die Piraten haben sich zwar Gedanken über die digitale Demokratie gemacht ... nur wurde die Umsetzung von einer externen Gruppe umgesetzt. Dann wurde eine "Probebetrieb" des externen entstandenen Tool Liquid Feedback (LQFB) beschlossen, mit einem Parteitagsvorbehalt der Beschlüsse. Ich habe in dem LQFB etliche Beschlüsse durchgekommen. Diese verfielen nach dem Parteitag zunächst, haben es dann aber über Umwege doch noch in das Parteiprogramm geschafft.

Was aber keine Umsetzung fand, waren Anträge zum Tool selber. Und das war der Kardinalfehler, der zur heutigen politischen Insolvenz der Piratenpartei geführt hat. Richtig wäre es gewesen, das der Parteitag nicht nur den Probebetrieb beschließt, sondern auch einen finanziellen Etatrahmen für die Entwicklung von Software. Damit wäre dann das Tool eine Art von Autonomie vom Parteitag zugestanden worden, um sich schneller Weiterzuentwickeln als maximal 2 mal im Jahr. Denn die Tools waren alles anderes als Fertig, auch wenn die Darstellung in der Presse 2010 diesen Eindruck vermittelt hat. Mit dem Erfolg bei der Landtagswahl in Berlin und den folgenden 3 Landtagswahlen kamen dann viele neue Mitglieder in die Partei. Mehrheitlich waren das solche die von EDV, Mathematik und Digitaltechnik so gut wie nichts an Erfahrung mitbringen. Und damit hat sich das Zeitfenster geschlossen für die demokratisch gesteuerte und kontrollierte Entwicklung eines Betriebssystem für die Demokratie 2.0. Meines Erachtens ist die Tatsache das der Suverän begriffen hat, das die Piraten ihr Demokratieupdate eben nicht fertig haben, auch Zentral für ihren Abstieg in die Wahlergebnis basierte Bedeutungslosigkeit.

Bildquelle: Piraten Wiki
Wie kann es weitergehen mit der Piratenpartei? Die Mitglieder der Partei habe heute nicht mehr in der nötigen Breite den Backgrund, der Ausreicht direkt die Entwicklung der nötigen Software demokratisch zu führen. Dazu ist die ansonsten politisch Nötige "entnerdung" der Piratenpartei zu weit fortgeschritten. Es bedarf also entweder eine Untermenge von Parteimitglieder, die den nötigen programmiertechnischen und mathematischen Background haben. Insoweit ist eine neue Organisationsform nötig. Entweder so etwas wie eine geschlossene Arbeitsgruppe eine Stiftung an einen zu gründenden eingetragenen Verein oder eine neue Partei, deren Voraussetzung die Mitgliedschaft in der Piratenpartei ist. Gewissermaßen so was wie eine Sub Partei, die ihr übriges Programm von der Mutterpartei übernimmt aber die eigene Satzung weiterentwickelt.

Alternativ könnte man einen Versuch damit machen, wie Software in unserem Staat Üblicherweise entsteht. Es wird ein Katalog von Forderungen aufgestellt, ein sogenanntes Lastenheft. Dann macht man eine Ausschreibung und vergibt einen Auftrag. Aber dieses Vorgehensweise ist Problematisch. Dazu kann man sich Softwareprojekte des Staates ansehen. Wie bei einem Projekt der Grundstücksverwaltung in Baden Württemberg. Das Lastenheft hatte haufenweise Widersprüche und war unvollständig, entsprechend günstig war das Preiswerteste Angebot. Endlose viele spätere Releases mit viele "Extrastunden" hatte der Anbieter einen satten Reibach gemacht mit der Option auf noch mehr. Oder man denke nur an das Fiasko mit dem digitalen Ausweis, den unsere Aktivisten in der ersten Nacht durch die Hintertür gehackt haben. Und es dauerte ewig und kostete die Mitarbeiter endlos Nerven, bis die Software einigermaßen einsetzbar ist. Dieser weg ist also sicherlich weniger Empfehlenswert.

In jedem Fall aber muss die Partei dafür sorge tragen, das ein Schutzpreis hinterlegt wird, welche Menschen erhalten, die Schwachstellen des neu zu errichtenden Systeme aufdecken. So, und nur so, kann unwissenden ohne Mathematik Studium klar gemacht werden, das es Mittel und Wege gibt, die versprochene Sicherheit auch umzusetzen. Denn mathematisch ist es möglich, eine solche Software zu erstellen die nicht Manipulierbar ist. Mit Mathematik kann man Sicherstellen, das jeder nachvollziehen kann

  • Wer hat an der Abstimmung Teilgenommen
  • Ist meine Stimme in dem Ergebnis vertreten
  • Wurde korrekt Ausgezählt und Ausgewertet
  • Das die Stimmen während der Wahlphase abgegeben wurden, also in Unkenntnis des Votums anderer


Allerdings ist es nicht Möglich, herauszubekommen wer welchen digitalen Stimmzettel abgegeben hat. Was das Verfahren nicht leistet, es ist möglich einem anderen zu Belegen wie man gewählt hat. Wenn man aber ehrlich ist muss man zugeben: Das ist bei der Papierwahl auch möglich! Zum Beispiel mit den immer kleiner werdenden und allgegenwärtigen Kameras. Oder per DNA ... . Und bei der Briefwahl ... wie sie jetzt für alle Piraten angedacht ist ... ist es sowieso trivial möglich, weil der viel zitierte "Stimmenkäufer" ja nur bei der Abgabe dabei sein muss. Insoweit hoffe ich, das der der jetzt geplante postalische Wahlgang eine einmalige Maßnahme einer Konkursverwaltung ist.

Und wenn die Partei sich nun endlich Aufrafft das Politik 2.0 Betriebssystem auch zu erstellen und nicht nur darüber zu reden, dann sollte sie es parallel angehen, dafür zu sorgen das so etwas wie eine Basis demokratische Politik Awarness und ein System zur Agenda setting entsteht. Für beides wird zur Zeit Twitter missbraucht, mit den bekannten Folgen für die Außenwirkung. Mit einem klassischen Abstimmungstool wie man es z.B. für Personalfragen braucht wird man das Problem des Agenda Setting mit nur verwaltend tätigen Vorständen nicht in den Griff bekommen, weil einfach nicht jeder alle Äußerungen aller anderen Piraten lesen kann. Wir sind da bei dem digitalen Analogon 30 Sekunden Redezeitproblem auf den Parteitagen. Entsprechnde Lösungsvorschläge habe ich schon vor Langer Zeit gemacht, sowohl zum Agenda setting als auch zum Awarness Problem. Passiert ist nichts - leider - keine Diskussion, keine besseren Vorschläge, keine ... einfach nichts voll digitales. Dabei hätte man mit den 70000€ die jetzt zur Verschwendung anstehen, auf dem Gebiet schon so viel erreichen können. Es ist also wie immer in der Politik: "Falsche Verteilung der zur Verfügung stehenden Finanzmittel".













08 August 2014

Was vordergründig ein Streit um das Urheberhecht ist, ist in Wirklichkeit einer um die Rechtsstellung eines Tiers

Sachlage

Ein Tierfotograf war unterwegs um Bilder von Tieren zu erstellen, um diese anschließend unter dem Schutz des Urheberrecht zu Verkaufen. Dabei bemächtigte sich ein Affenweibchen seiner Digitalkamera. Das Affenweibchen fand heraus, wie man Bilder erstellt, und spielte damit herum. Unter anderem entstanden so auch Selbstportraits. Es ist eine Bewiesene Tatsache, das Affen sich selbst Beispielsweise in einem Spiegelbild selber erkennen. Man fand das Heraus, indem man die Tiere ohne ihr Wissen mit Farbe markiert hat, und beobachtet hat, wie die Tiere selbst gezielt die betroffen Stellen des Fells zu säubern versuchten.

Wikimedia Argumentiert nun, das der Affe kein Träger des Urheberhechts sein, und sein Werk insoweit gemeinfrei ist. Der Fotograf proklamiert, er sei Inhaber des Urheberrechts, weil die Kamera die Seine ist.

Bildquelle: Wikimedia

Was spricht für den Fotografen

Man braucht nicht selber auf den Auslöser einer Kamera zu drücken, um das Urheberrecht an einer Aufnahme zu haben. Es ist Unstrittig, das andere Formen der Auslösung einer Aufnahme ebenso ein Urheberrecht begründen. Beispielsweise mit einem in der Kamera eingebautem Zeitgeber. Oder aber mit einem Sensor. Bei Tierfilmer sind sogenannte Fotofallen weit verbreitet. Das sind Apparaturen, die an einem Wildwechsel oder einer vergleichbar geeigneten Stelle aufgebaut werden, und die dann mit einer Lichtschranke oder einem Bewegungsmelder ausgelöst werden. Im ersten Fall wird die Abschattung einer Lichtquelle um zweiten Fall das Auftreten von Infrarot Emissionen gemessen, um das erstellen eines Bildes auszulösen.

Der Auslöseknopf an der Kamera ist nichts weiter als ein Drucksensor, der bei der Feststellung eines punktuellen Druck auf einen bestimmten Bereich der Oberfläche der Kamera die Erstellung eines Bildes veranlasst. Wenn man also das Tier streng als Sache betrachtet, muss man dem Fotografen recht geben. Die Rechtsauffassung ein Tier nur wie eine Sache aus toter Materie zu behandeln wird aber zum Beispiel im deutschen Raum so nicht mehr vertreten.

Was spricht für Wikimedia

Um die Rechtsposition von Wikimedia zu vertreten, muss man dem Affen eine Bewusste Handlung zubilligen. Das kann man wie Dargelegt aus wissenschaftlich Sicht der Dinge so vertreten. Dann hat der Fotograf die Bilder eben nicht erstellt, er ist somit Genauso wenig Inhaber eines Urheberrechts wie der Eigentümer eines Fotoapparats wenn ein anderer Mensch ein Foto damit macht.

Im Fall des Affenweibchens war der zeitweise Erwerb des Besitzes vermutlich aber ohne Einwilligung des Eigentümer erfolgt - nach Menschlichen Maßstäben also Unrechtmäßig.

Um die Rechtsauffassung von Wikimedia zu Vertreten bedarf es also einer gewissen begrenzten bewussten Rechtsfähigkeit, die aber ihre Grenzen in der Einsicht was Falsch und Richtig ist und in der Fähigkeit Träger des Urheberhechts zu sein.

Alternativ zeigt die Qualität des Bildes, das man heute wirklich keine Ahnung haben muss, um gute Bilder zu machen. Die Tatsache, das die Erstellung eines fotografischen Bildes ein Urheberrecht begründet stammt aus einer Zeit, als Fotografieren eine Mischung aus Kunst und Wissenschaft war. Damals lehnte sich das Urheberrecht der Fotografie an das Urheberrecht der Malerei an. Man könnte sich Fragen, ob überhaupt jedes Bild ein Urheberrecht begründen soll ohne das nicht weitere Faktoren der Werkschöpfung hinzukommen.

Was spricht für den Affen

Es gibt aber noch eine Dritte Form der Betrachtung. In Indien sind Delfine als nicht menschliche Personen, die zum Beispiel nicht gefangen genommen werden dürfen, anerkannt.

Aus wissenschaftlicher Sicht spricht vieles Dafür, Primaten einen solchen Status zuzubilligen. Eine taubstumme Tierpflegerin in einem amerikanischen Zoo hat einem Schimpansen Elemente der Taubstummensprache beigebracht, und konnte sich so mit den Tieren verständigen. Es zeigte sich, das die Tiere diese Fertigkeit auch an ihren Nachwuchs weitergegeben haben.

Wäre das Bild durch ein geistig schwer behinderten Menschen entstanden, wäre der Fall klar. Ein Anwalt könnte sich mit dem Versprechen nach einem für diesen Menschen verständlichen Vorteil wie zum Beispiel jeden Tag einen leckeren Schokoladenkuchen ein Mandat besorgen, und die Urheberrechte geltend machen. Er müsste sich dann zwar mit dem Eigentümer wegen der Kameranutzung einigen, aber die Tantiemen aus dem Urheberrecht stünden definitiv ihm primär zu. Eventuell muss auch erst eine Vormundschaft durch Verwandte oder Rechtspfleger errichtet werden, damit jemand bereitsteht, der die Interessen der zu vertretenen Person erst mal in fürsorglicher Art und Weiße rechtlich genau definiert.

Wenn ein Affe auf die in Taubstummensprache - Affen können aus anatomischen Gründen keine Laute einer Sprache artikulieren - gestellte Frage wie "Willst du lieber Banane oder einen Apfel haben" beantworten kann, dann stellt sich auch die Frage, ob ein Affe eine Mandat erteilen könnte, seine potentiellen Rechte geltend zu machen. Beispielsweise mit der positiven Antwort auf die Frage "Wenn ich die vertrete kann du jeden Tag 2 leckere Bananen bekommen. Soll ich das machen?" Der Affe wird zwar natürlich nicht im Detail die rechtlichen Transaktion überblicken - aber das kann man vermutlich auch von einem nicht unbedeutenden Teil der Menschheit behaupten. Eine Vormundschaft durch Verwandte scheidet zwar in dem Fall aus, aber durch einen Rechtspfleger, das ist durchaus denkbar.

02 August 2014

Ein Friedensplan für den Nahen Osten, der wie Sciencefiction klingt aber funktionieren könnte: Die Halbinsel Israel

Es ist, gemessen an der Existenzzeit des Problems, das anspruchsvollste Problem, dem sich Politik stellen kann. Das Problem Entstand von seinen Ursprüngen her schon zu Zeiten des römischen Imperiums in der Zeit von 66 bis 74 nach Christus. Damals entsandte der Imperator Nero nach einer schlappe des Römischen Imperium Vespasian - der nach Nero Kaiser wurde - und Titus - sein Sohn und übernächster Kaiser des Imperium Romanum - in die Region, die nach dem Motto "keine Gefangenen" Krieg gegen die jüdischen Stämme führten.

Am Ende der Auseinandersetzungen waren 1,1 Millionen Menschen jüdischen Glaubens tot, weitere 97.000 wurden in die Sklaverei verschleppt, der Rest der freien Menschen fand sich in der Diaspora auf viele Länder verteilt wieder. Rund 1800 später kam man nach der Zerschlagung des Osmanischen Reichs der Türken auf die Idee, eine Basis für die Einwanderung von zukünftigen Israeli in ihre Seit 18 Jahrhunderten von anderen Völkern bewohnten Areale zu schaffen. Dazu wurde dem Völkerbund Großbritannien ein Mandat übertragen, das die Gebiete des heutigen Jordaniens, die Westbank, Israels und Gaza umfasste. Den schwarzen Peter der Ausarbeitung einer Regelung für das Zusammenleben der alten und der neuen Einwohner hat man vornehm an Großbritannien delegiert.

Um Kosten und potentielle Schadenersatzforderungen zu verhindern, hat man die Einwanderung zunächst so definiert, das in die bestehenden Verhältnisse und Rechtspositionen der alten Einwohner nicht eingegriffen werden durfte. Das war auch Problemlos Möglich, weil es auf dem Gebiet des heutigen Israels noch zahlreiche ungenutzte Ressourcen wie zum Beispiel Sümpfe gab, die so eine Ansiedlung neuer Einwohner ohne Eingriffe in alte Rechtsverhältnisse zuließ. Hinzu kam, das die Einwohner über Stiftungen aus der Diaspora finanzielle Unterstützung für den Ankauf zum Beispiel von Land erhielten.

Großbritannien mühte sich redlich damit, einen Plan auszuarbeiten der sowohl der israelischen als auch der palästinensischen Seite gerecht wird. Aber den alteingesessenen Einwohner passte die gesamte Richtung nicht, das ihre Heimat aufgeteilt werden sollte. Eine Einigung konnte so nicht erzielt werden. Als das britische Mandat ausgelaufen ist, proklamierten die neuen Einwohner den Staat Israel, und wurden umgehend von den alten Einwohnern und den Armeen der Nachbarstaaten militärisch angegriffen.

Damit wurde ein Zyklus angestoßen, der in dieser Form bis heute ununterbrochen Anhält. Die Palästinensische und verbündete Araber greifen Israel in wechselnden Koalitionen an. Aber die Israelis sind besser Vorbereitet und können diese Angriffe jedes mal zurückschlagen. Jedes mal geht Israel gestärkt und größer als der Auseinandersetzung hervor. Und mal um mal mussten sich die Angreifer zurückziehen und Zivilisten fliehen. Als Begründung für die Erweiterung Israels wird in so einem Fall von "berechtigten Sicherheitsinteressen" gesprochen. Den Beweis für die Notwendigkeit so einer Forderung hat die palästinensisch arabischen Koalitionen jedes mal selbst frei Haus geliefert.

Die Hamas lehnt die Existenz Israels ab, ist von den Einwohnern demokratisch Legitimiert und feuert auf Israel Raketen ab. Da dürfen sich die Bewohner nich beschweren - zum Zweck der Vermeidung von Aufrüstung - permanent mit einer Seeblockade belegt zu werden. An sich haben die Einwohner einen Zugang zum Mittelmeer über den sie Handel betreiben könnten, wenn sie den nicht ihrem Nachbarn als Loser im permanenten Kriegszustand befinden würden. Ihre Grenze zu Ägypten nutzt ihnen auch nicht, weil Ägypten einen Friedensvertrag mit Israel abgeschlossen hat. Im Zuge dieses Friedensabkommen hat Israel den besetzten Sinai an Ägypten zurückgegeben. Dabei wurden auch alle israelischen Zivilisten - auch gegen deren Willen - von Israel mit nach Hause genommen. Später kam auch mit Jordanien ein Friedensabkommen zu Stande. Dort gab es keine Notwendigkeit für die Entflechtung, der Wille der Nationen sich gegenseitig zu akzeptieren reichte aus.

Die Palästinenser in Gaza, in der die Hamas "regiert", sind die Bürger in ihrem militärischen Konflikt mir Israel gefangen, auf der Westbank ist das Land zerklüftet wie eine Flickenteppich, den man im Fernsehen gar nicht recht erkennt, einfach weil die Auflösung des Geräts nicht ausreicht. So kann kein Staat funktionieren, wenn Straßen mit Toren versehen sind und man Morgens erst mal nachsehen muss, welche davon gerade mal offen sind. Mich erinnert dieser Plan des Abkommens an das Apartheid System Südafrikas. Das konnte, Wunder passieren immer wieder mal, friedlich überwunden werden.

Bildquelle: Wikipedia

Ob das in Israel und Palästina möglich ist? Das ist extremst unwahrscheinlich. Sowohl die islamische als auch die jüdische Religion erheben so etwas, was man einen gesetzgebenden Anspruch nennen muss. Und da mit inkompatiblen Vorgaben. Beispiel: Für orthodoxe Juden ist der Samstag heilig, für fundamentalistische Moslems der Freitag. Und vieles andere mehr. Ein säkulares Staatswesen würde in einem solchen gemeinsamen Konstrukt von der Mehrzahl seiner Bürger aus tiefsten Herzen verachtet. Es führt also kein Weg an der Erkenntnis vorbei, das der Nah Ost Konflikt unlösbar ist. Die Menschen, zum Beispiel in Gaza, werden von der internationalen Gemeinschaft allimentiert. Sie können weder Auswandern noch wirtschaftlich tätig werden. Bezug von Gütern ist umständlich und langsam, bis alle Genehmigungen da sind; der Zugang zu natürlichen Ressourcen der Region wie Wasser wird von Israel streng überwacht, ...! So kann man keine konkurrenzfähigen Produkte herstellen. Und wenn sie sich eine bescheidene Existenz aufbauen, dann wird die in schöner Regelmäßigkeiten in selbst angezettelten militärischen Auseinandersetzungen zerstört. Das Ganze ist vermutlich nicht ganz Zufällig, denn in einer wirtschaftlich prosperierenden Gesellschaft verschiebt sich der Machtfokus von den militärischen zu den wirtschaftlichen Führern.

Ich bin zufällig auf eine Lösung gestoßen, als ich mich im Kontext der "Welt ohne Menschen" Filme Gedanken darüber gemacht habe, wie den Israel in 100.000 Jahren aussieht. Unter Israel sind gewaltige Kräfte aus dem Erdinneren am Werk, die dort fortwährend die Landschaft gestalten. Das auf seinem Grund über 700 Meter tiefe Tote Meer ist der nördlichste Teil des afrikanischen Grabenbruch. Der östliche Teil Afrikas wird von den Konvektionen im Erdmantel vom Rest des Kontinents abgerissen. Sobald eine Seite eines schon heute unter dem Meeresspiegel liegenden Bereichs Zugang zum Meer erlangt, bildet sich ein neues Meer indem das Meerwasser in die Senke strömt. In Israel bildet bewegt sich das Land westlich des Jordan 0,5-1 meter pro 100 Jahre nach Süden im Bezug zur arabischen Platte westlich des Jordans. Dadurch wird das Land in der Jesreelebene um 500 Meter gedehnt, wodurch die Sohle des Tals vollständig unter den Meeresspiegel sinken wird und in der Folge das Mittelmeer die Jordan Senke fluten - zumindest wenn es keine Menschen gibt, die sich mit Staudämmen einmischen.

Bildquelle Google Earth screenshot, bearbeitet mit Gimp zur Blau Markierung aller Niveaus unter Normal Null und des potentiellen Verbindungskanals zum Mittelmeer
Was für eine perfekte Lösung. Zwei Halbinseln für die ewigen Streithammel. Damit wird es eine physikalische Trennung, welche die Konfliktparteien Trennt geben. Die Palästinenser erhalten das nördlich des neuen "Golf von Haifa". Damit haben sie genügend natürliche Ressourcen, speziell das gesamte Jordan Wasser des Oberlaufes um sich als eher einfach strukturierte Gemüter selber ernähren zu können. Hinzu kommen reichhaltige neue Fischgründe durch die lange Küstenlinie. Die Israelis erhalten ein Land, das sehr gut zu Verteidigen ist. Dort wo noch Landgrenzen vorhanden sind, haben sie Friedensverträge. Besser kann es nicht laufen.

Bleiben jetzt eigendlich noch zwei Fragen zu klären: Es müssen jede Menge Menschen umziehen, um Platz für das neue Meer zu schaffen und das Durcheinander zu entwirren. Wer soll das Bezahlen? Nun das ist erstaunlicherweise gar nicht so schwer. Menschen bauen gern am Wasser. Und Menschen verbrennen jede Menge Kohlenstoff. Aus diesem Grund erwärmt sich die Atmosphäre der Erde. Das führt zum Abschmelzen von Eis auf Bergen und Ländern wie Grönland. Dadurch wird der - im Gegensatz zum schmelzen des Schwimmenden Eis am Nordpol - der Meeresspiegel erhöht. Damit erhöht sich aber auch der Peger der größten Flut bei ungünstigen Umständen wie eine Springflut - Sonne und Mond in einer Linie - in Kombination mit einer Sturmflut - Auflandiger Wind. Mit anderen Worten, es gibt rund um die Welt Menschen, die im erheblichen Umfang davon Profitieren würden, das 1800 Kubikkilometer aus dem Meer "abfließen" können und sich der Meeresspiegel damit um ca einen halben cm abfällt. Damit wird bei einem Anstieg des Meerespiegel durch Abschmelzendes Eis von 2,9 ± 0,4 mm pro Jahr Gebäude in Küstennähe - also solche die auf einem Grundstück mit weniger als zum Beispiel 5 Meter über Normal Null errichtet wurden - eineinhalb Jahre länger bis zu ihrer Zerstörung durch das Meer genutzt werden können. Das wäre eine mögliche Bemessung für eine globale Umlage. Dies wäre eine Summe die als Schaden als Kompensation auf die Verbrennung von Kohlenstoff binnen dieser eineinhalb Jahre Umzulegen ist. Damit Trifft die Umlage dann die Verursacher des Problems.

Es gibt übrigens noch weitere Senken für Wasser, die man mit Meerwasser füllen kann, beispielsweise in der Sahara oder auch die Senke des Kaspischen Meer. Übrigens, auch jedes errichtete Wasserkraftwerk, das Wasser auf dem Land festhält wirkt dem Ansteigen des Meeresspiegel direkt entgegen. So bewirkten die Wasserkraftprojekte 1930 bis 2007 eine rechnerische Senkung des Meeresspiegel von 0,66 mm /Jahr. Die erhöhen der Wasserfläche vergrößert im Übrigen auch die Verdunstung, was zum einen zu einer Erhöhung der Niederschläge beiträgt und zum anderen durch eine vermehrte Wolkenbildung auch die Albedo - die Rückstahlkraft der Erde - vergrößern dürfte.

Die zweite Frage, die sich stellt, müssen die Palästinenser jetzt noch 100.000 Jahre in ihrem Gefängnis ausharren bis die Natur eine saubere Teilung des Landes vollzieht? Nicht unbedingt. Die höchste Stelle der Jesreelebene zwischen dem Strand des Mittelmeers und der Jordansenke ist lediglich 60 Meter über normal Null. Der Abstand zwischen dem Strand und dem nächstgelegenen normal Null Pegel beträgt gerade mal 42 Kilometer. Das ist weniger als das 7 fachen, das Menschen vor über hundert Jahren beim Bau des Kanals von Korinth bewältigt haben.

Bildquelle: Wikipedia

Das Projekt Halbinsel Israel ist also durchführbar, mit Hilfe der entwickelten Klimamodelle sollten sich auch die Folgen für das Lokale Klima abschätzen lassen. Zugegeben, der Plan ist Irrsinnig und gehört eigentlich in das Reich der Gedankenexperimente, aber alles was nicht Irrsinnig ist, dürfte ja schon in den letzten 100 Jahren Diskutiert worden sein. Also bedarf es zur Lösung eines wirklich Innovativen, noch nie dagewesenen Ansatz, und das ist die Idee mit der Halbinsel Israel ohne Frage.

22 Juli 2014

Der Denunziant in der Tasche ...gibt Apple IOS fast alles raus?

Wenn die in diesem Vortrag dargelegten Funktionen stimmen, dann kann man bei einem mit IO-S bestückten Gerät von Apple

Aus der Ferne ohne das sich der Benutzer darüber im Klaren ist den gesamten Paketdatenverkehr mitlesen!

Aus der Ferne ohne das sich der Benutzer darüber im Klaren ist Photos, Kontakte, GPS-Daten und vieles andere Mehr runter laden

Aus der Ferne ohne das sich der Benutzer darüber im Klaren ist sogar OAuth tokens aus Applikationen stehlen mit denen man direkt auf Cloud Services zugreifen kann!

Das ist unfassbar, die Einzig vertretbare Reaktion wäre:

Apple Weg

hat kein Zweg!

Entweder durch stoffliches Recyceln der Geräte oder durch Aufspielen einer komplett neuen Software die nicht von Apple ist. Bin froh das ich diese Firma schon seit geraumer Zeit meide, sonst müsste ich mir jetzt neue Geräte kaufen! Wer will schon einen Stasi IM in der Tasche haben?

Nachtrag 25.07: Das es den undokumentierten Port des iPhones gibt, kann ich dank eines Nutzer der mir erlaubt hat, mich mit diesem zu verbinden bestätigen. Welche Funktionen von dem Port ausgelöst werden können zu überprüfen ist in Deutschland rechtlich schwierig, weil etliches was man dazu braucht unter den Hackerparagrafen, wonach der Besitz von Hackersoftware schon ein Straftatbestand ist, fallen dürfte. Mann gewährt der Stasi in diesem Land immer noch Rechtsschutz!

Stasi + Apple = iM

Noch ein Gedanken zum IM iPhone Skandal. Man kann in Anlehnung an die Traditionen von Milkes Stasi und von Apple kurz vom iM (gesprochen ei-Em) als neuer Geräteklasse sprechen.

20 Juli 2014

Das Attentat auf Adolf Hitler vom 20 Juli 1944, der Kampf gegen Terroristen ... und die Frage nach der Legitimität von Widerstandshandlungen

Heute ist es 70 Jahre her, das Graf Stufenberg versucht hat, Adolf Hitler zu töten. Das ist der Zeitpunkt im Jahr, an dem Landauf Landab dem Widerstand gegen das schlimmste Unrechtssystem aller Zeiten gedacht wird. Was dabei immer wieder gerne übersehen wird, Graf Staufenberg war mit seiner Aktion nicht alleine. Insgesamt wurde, je nach Wertung 39 bis 42 mal versucht, Adolf Hitler zu töten. Die Menschen die das versucht haben, sind zum Teil Namenlos, weil nichts mehr über Ihr Schicksal in Erfahrung zu bringen ist.

Während man den Attentäter um Graf Staufenberg und Ihrem Schiksal gedenkt, sollte man sich mal Gedanken machen, welche Chancen jene Aufrichtigen Menschen den heute hätten, wenn wiedermal leider eine solche Intervention nötig werden sollte. Man kann davon ausgeht, das die Gruppe um Graf Staufenberg bereits damals sich sehr genau überlegen mussten, was sie am Telefon gesagt haben, um nicht in die Fänge der Gestapo zu geraten. In einer Welt in der Staatlichen Stellen sich die Bewegungsprofile aller Menschen organisieren können, sei es durch Mautbrücken sei es durch Handys oder irgendwann mal durch Unfalldatenschreiber, wäre eine so grosse Gruppe trotz ihrer Internen Kenntnisse der Staatsführung vermutlich aufgefallen. So wie viele andere, die damals schon geräuschlos im Gefängnis verschwunden sind. Zum Teil eben so geräuschlos, das heute nicht mal mehr ihre Namen bekannt sind.

Am ehesten wird in der Zukunft wohl eher ein Einzeltäter wie Georg Elser (Bildquelle) mit einem Anschlag Erfolg haben. Georg Elser war ein Uhrmacher und Gegner des Nationalsozialismus. Er entwickelte einen Sprengsatz mit einem Langzeitzünder den er am einem politischen Ursprungsort der Nationalsozialistischen Bewegung platzierte. Da Hitler bekanntlich abends vor jedem Jahrestag seines gescheiterten Putschversuchs vom 9. November 1923 dort im Münchner Bürgerbräukeller eine Rede hielt. Er beschloss, in die Säule direkt hinter dem Rednerpult eine Zeitbombe einzubauen. Die Bombe detonierte zur vorgegebenen Zeit, nur leider war das Wetter so schlecht, das Hitler mit dem Zug zurück nach Berlin fahren wollte und deshalb seine Ansprache kürzte.

Elser ist mir schon deshalb sympathischer als Graf Staufenberg, weil Sein Attentat rechtzeitig gekommen ist um das Unheil zu verhindern. Bei der Staatsnahen Gruppe wie der um Graf Staufenberg muss man immer auch über die Erkenntnisfähigkeit zum Stand des laufenden Krieges nachdenken. Elser hätte einen durch Adolf Hitler geführten Krieg verhindert, was auch immer das für Konsequenzen für die Zukunft bedeutet hätte.

Elser ist bei seinem Attentatsversuch sehr geschickt vorgegangen. Zuerst hat er in einem Steinbruch gearbeitet, um an Sprengstoff heran zukommen. Dann zog er nach München und arbeitete als Erfinder, um seine Tüftelleien für den Mechanischen Langzeitzünders zu erklären. Parallel suchte er den Bürgerbräukeller zum speisen auf. Dann lies er sich über Nacht einschließen und hölte den Ort für die Bombe in der zu Sprengen Säule aus.

So ein Plan könnte auch heute noch funktionieren, das hat der Norwegische Terrorist Anders Behring Breivik eindrucksvoll beweisen. Auch er hat sein Berufliches Tätigkeitsfeld gezielt so gestaltet, um an die für sein Vorhaben nötigen Ressourcen unauffällig zu gelangen. Auch er war ein Einzeltäter, so das er nicht über Kommunikation oder Verrat gestoppt werden kann.

Was ist jetzt aber der Unterschied zwischen Elser und Breivik? Diese Frage ist gar nicht so einfach zu Beantworten. Elser als auch Breivik haben Unschuldige Menschen getötet und wollten dies auch. Sie sind also Mörder. Sie sind sogar beides Terroristen, den eine Regierung und die mit ihr verbündeten Organisationen und Regierungen wird, egal wie verwerflich ihr eigenes Treiben auch immer sein wird, ihre eigene Elimination als Terrorismus Bezeichnen. Die Sowjetunion unter Stalin - obschon Hitler später Krieg gegen sie führte - zeigte "Ihr Bedauern und ihre Entrüstung über den ruchlosen Anschlag von München, ihre Freude über die glückliche Errettung Adolf Hitlers aus der Lebensgefahr und ihr Beileid für die Opfer des Attentats“, denn damals war man ja durch den kriminellen Hitler Stalin Pakt verbunden.

Wie steht es um heutige Regierungen? Objektiv betrachtet sind die USA längst kein Rechtsstaat mehr. Präsident Obama hat, tief versteckt in einem Haushaltsgesetz, das Militär ermächtigt Menschen - auch US Bürger - im Inland ohne Richterlichen Beschluss beliebig lange festgehalten werden können. Von ihrer engmaschigen Anlasslosen Überwachung die Gestapo und Stasi als aussehen lässt gar nicht zu Reden. Für mich befinden sich die USA damit in einem Stadium zwischen Reichstagsbrand und Ermächtigungsgesetz. Das wird um so deutlicher, wenn man sich die auf den Reichstagsbrand hin erlassene Verordnung zum Schutz von Volk und Staat durchliest. Das würde heute Patriot Act heißen und beinhaltet auch ähnliches. Und all die anderen Westlichen Staaten sind Amerika mehr oder weniger auf diesen Weg gefolgt.

Mann kann auch nicht sagen, das diese Einschränkung der Rechtsstaatlichkeit ohne Folgen ist. Die damit verbundenen typischen Erpressungen durch die Staatsorgane wird ja sogar schon von der eigenen Filmindustrie thematisiert. Gestern lief eine Folge von Navi CIS, bei der - zum wiederholten mal - bei einer Vernehmung eines verdächtigen mit einem "Terrorverfahren" gedroht wurde. So nach den Motto "Sie haben nicht das Recht ... " Praktisch wenn man in der Gruppe eine Mossad Agentin hat, die mal eben schnell und unbürokratisch aus Tel Aviv bestätigen lassen kann, das eine bestimmte Person Kontakt zu al Kaida hat. Man hilft sich halt unter befreundeten Regierungen. Das dürfte in der Realität auch nicht wirklich weniger Einschüchternd wirken. Eher im das Gegenteil dürfte der Fall sein. Im Film wird für diese Praxis geworben, in den Medien sind halt vorzugsweise Regierungsspeichelleker, kann man auch im eigenen Land sehen beim ZDF, die mal eben Frau Merkel zu beliebtesten Deutschen gefälscht haben.

Was ist denn nun also der Unterschied Zwischen Elser und Breivik? Der Unterschied ist, das bei Elser die Geschichte den Beweis erbracht hat, das die Tat notwendig war, und das auch keine andere Möglichkeit der Abhilfe bestand. Das genau ist die Definition, die als Folge der Hitlerdiktatur unter anderem wegen der Wichtigkeit der Widerstandshandlungen für die Neubeginn nach dem Bekanntwerden der Unglaublichen Verbrechen in Artikel 20 als Legitimation für ein Recht auf Widerstand aufgenommen ist.

Art 20
(1) Die Bundesrepublik Deutschland ist ein demokratischer und sozialer Bundesstaat.
(2) Alle Staatsgewalt geht vom Volke aus. Sie wird vom Volke in Wahlen und Abstimmungen und durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausgeübt.
(3) Die Gesetzgebung ist an die verfassungsmäßige Ordnung, die vollziehende Gewalt und die Rechtsprechung sind an Gesetz und Recht gebunden.
(4) Gegen jeden, der es unternimmt, diese Ordnung zu beseitigen, haben alle Deutschen das Recht zum Widerstand, wenn andere Abhilfe nicht möglich ist.


Das mit der Geschichte dürfte das Hauptproblem eines jeden Sein, der dem gelten Recht entgegenstehenden Widerstand leistet. Auf die heute lebenden Personen trifft das am Ehesten auf Eric Snowden zu. Die Geheimdienste der USA unternehmen mit der systematischen Durchleuchtung aller Menschen auf jeden Fall eine Abschaffung des Rechtsstaat. Und eine andere Abhilfe war auch nicht Möglich, weil die legitimierten Vertreter des Amerikanischen Volks von den Vertretern der Regierung ohne das die rot werden oder einer Strafverfolgung unterliegen belogen worden und die Volksvertreter sich auch allzu wählfähig haben belügen lassen. Insoweit war der von ihm begangene Geheimnisverrat nach der Definition unserer Verfassung eine legale Widerstandshandlung, zumal die Publikation die Mildest mögliche Form der Widerstandshandlung war.

Und Breivik mit seinem Kampf gegen Islamischen Einfluss? Der trägt seine Ideen in seinem Prozess vor. Tenor: Ja ich bin Schuldig im Sinne des geltenden Rechts, aber die Geschichte wird noch beweisen, das auch ich ein legitimer Widerstandskämpfer bin. Das ist zwar sehr Unwahrscheinlich, weil seine Ausführungen voll sind von logischen Brüchen und voreingenommenen Positionen. Hinzu kommt, das sein Anschlag funktioniert hat und nicht abzusehen ist, was es geändert haben soll. Insofern bin ich der Meinung das Breivik aller Wahrscheinlichkeit nach nie die Legitimation der Geschichte erhält. Aber seinen wir mal ehrlich, nehmen wir mal für einen Moment an, das Elser Hitler erwischt hätte. Dann wäre der als der Gründer der NSDAP eingegangen, der vom Politischen Gegner ermordet wurde. Insofern ist die Definition im Grundgesetz eigendlich fast nur als Legitimation für fehlgeschlagene Attentate geeignet.

Auf jeden Fall ist es aber so, das jede Anti Terror Maßnahme das Widerstandsrecht der Verfassung beschädigt. Mit den heutigen Methoden der automatisierten NSA Profilen wäre es gut Möglich, das ein Georg Elser auch vorzeitig Auffliegt. Insofern ist jede wirklich funktionierende Anti Terror Maßnahme deren Ziel die Verhinderung von Kriminalität durch vorheriges entdecken einer Tat vom Grunde ihres Wesens als per seh Verfassungswidrig zu betrachten. Eine terroristische Anschläge kosteten Tausenden von Menschen das Leben ... politische Entgleisungen wie zum Beispiel Pol Pot, Joseph Stalin und Adolf Hitler aber kosteten Millionen Menschen das Leben. Freiraum Widerstand muss also Priorität gegenüber der Terrorbekämpfung haben.

14 Juli 2014

Der sechste Fußball Stern für Deutschland ...

Glückwunsch an die Fußball Nationalmannschaft. Die Fifa schafft es durch die Tradition der Sterne, das eine gewonnene Fußballweltmeisterschaft eine Ehrung für die Ewigkeit ist. In Anbetracht der Tatsache, das FANS jeden Geschlechts die Trikots ihrer Mannschaft tragen finde ich es ungeschickt, wie die FIFA mit den Sternen der Geschlechter umgeht.

Als ich das erste mal den Frauenfußball im Fernsehen gesehen habe, hatte die Deutschen Frauen 3 Sterne. Es waren die geliehenen 3 Sterne der Männer. Dann haben die Frauen 2003 ihren ersten Stern selber gewonnen, und waren fortan mit einem eigenen Stern unterwegs. 2007 haben Sie ihren zweiten Stern gewonnen. Wenn sie jetzt gegen Brasilien spielen, haben die dann 5 geliehene Sterne der Männer auf der Brust, weil die noch keinen eigenen Titel haben?

Und die US Nationalmannschaft der Männer? Warum dürfen (oder wollen) die nicht mit 2 Sternen der Frauen spielen? Ich finde, es sollten alle Sterne und die Jahreszahlen auf das Trikot. Denn die Reichweite der Übertragungen ist groß. Eine nicht zensierbares Bekenntnis zur Gleichberechtigung von Mann und Frau in Länder zu senden welche das eine oder andere Geschlecht diskriminieren oder nicht wirklich fördern wäre eine sehr sinnvolle und verdienstvolle Sache.

Hier nochmal für die Qualitätsjournalisten die unisono falscher weise vom vierten Stern berichten die Deutschen Gewinner der Fußballweltmeisterschaft im Überblick


★ 2014

Jerome Boateng, Erik Durm, Julian Draxler, Matthias Ginter, Mario Götze, Kevin Großkreutz, Benedikt Höwedes, Mats Hummel, Sami Khedira, Miroslav Klose, Christoph Kramer, Toni Kroos, Phillip Lahm, Per Mertesacker, Thomas Müller, Shkodran Mustafi, Manuel Neuer, Mesut Özil, Lukas Podolski, André Schürrle, Bastian Schweinsteiger, Roman Weidenfeller, Ron-Robert Zieler

★ 2007

Nadine Angerer, Fatmire Bajramaj, Saskia Bartusiak, Melanie Behringer, Linda Bresonik, Sonja Fuss, Kerstin Garefrekes, Ariane Hingst, Ursula Holl, Annike Krahn, Simone Laudehr, Renate Lingor, Sandra Minnert, Anja Mittag, Martina Müller, Babett Peter, Birgit Prinz, Silke Rottenberg, Sandra Smisek, Kerstin Stegemann, Petra Wimbersky

★ 2003

Nadine Angerer, Linda Bresonik, Sonja Fuss, Kerstin Garefrekes, Stefanie Gottschlich, Ariane Hingst, Steffi Jones, Nia Künzer, Renate Lingor, Maren Meinert, Sandra Minnert, Martina Müller, Viola Odebrecht, Conny Pohlers, Birgit Prinz, Silke Rottenberg, Sandra Smisek, Kerstin Stegemann, Bettina Wiegmann, Pia Wunderlich

★ 1990

Klaus Augenthaler, Raimond Aumann, Uwe Bein, Thomas Berthold, Andreas Brehme, Guido Buchwald, Thomas Häßler, Günter Hermann, Bodo Illgner, Jürgen Klinsmann, Jürgen Kohler, Andreas Köpke, Pierre Littbarski, Lothar Matthäus, Frank Mill, Andreas Möller, Hans Pflügler, Stefan Reuter, Karl-Heinz Riedle, Paul Steiner, Olaf Thon, Rudolf Völler

★ 1974

Franz Beckenbauer, Rainer Bonhof, Paul Breitner, Bernhard Cullmann, Heinz Flohe, Jürgen Grabowski, Dieter Herzog, Josef Heynckes, Uli Hoeneß, Bernd Hölzenbein, Horst-Dieter Höttges, Hans-Josef Kapellmann, Wolfgang Kleff, Helmut Kremers, Josef Maier, Gerd Müller, Günter Netzer, Norbert Nigbur, Wolfgang Overath, Georg Schwarzenbeck, Hans-Hubert Vogts, Herbert Wimmer

★ 1954

Hans Bauer, Ulrich Biesinger, Horst Eckel, Herbert Erhard, Richard Herrmann, Bernhard Klodt, Werner Kohlmeyer, Heinz Kubsch, Heinrich Kwiatkowski, Fritz Laband, Werner Liebrich, Karl Mai, Max Morlock, Paul Mebus, Karl-Heinz Metzner, Alfred Pfaff, Josef Posipal, Helmut Rahn, Anton Turek, Hans Schäfer, Fritz Walter, Ottmar Walter