30 August 2014

Die Gesetzliche Krankenkasse, eine Verfassungsrechtlich befreite Zone?

Die Krankenversorgung auf ein Vernünftiges Fundament zu stellen ist eine schwierige Aufgabe. Darüber kann es keinen Zweifel geben. Auch weil sich schwierige ethische und moralische Fragen stellen. Die USA hatten bis vor Kurzen keine Krankenversicherungspflicht. Dort starben, in einem ansonsten Reichen Land Menschen eine qualvollen Tod, obwohl ihr Problem mit ein Paar ein Dollar wäre zu Beheben gewesen. Jetzt wo Obama eine Krankenversicherungspflicht durchgesetzt wurde, werden natürlich auch die Gegenseiten Argumente vorgetragen. Auch und gerade wenn wenig Geld zu Verfügung steht sich die Frage nach der Finanzeierbarkit, und den Folgen die sich daraus ergeben.

Die Medizinnische Versorgung kann seht schnell Kostenmäßig völlig aus dem Ruder laufen. Als 1998 der Wirkstoff Sildenafil zugelassen wurde stand die gesamte Finanzielle Existenz der Krankenkassen auf dem Spiel. Pfitzer hatte das Patent auf diesen Wirkstoff, mit dem sich zum ersten Mal die erektile dysfunktion beim Mann Therapieren lies. Diese "Nebenwirkung" wurde eher Zufällig entdeckt, weil Probanden der Klinischen Studie für die Zulassung als Herzmedikament sogar Straffällig wurden, weil sie in das Labor eingebrochen sind, um sich weitere Prüfmedikation zu sichern, mit deren Hilfe sie nach langer Zeit wieder Sex haben konnten. Logisch, das sich Pfizer diese Pillen einzeln königlich Bezahlen lies.

Prompt war die Frage aufgeworfen, ob die gesetzliche Krankenkasse dieses Bezahlen muss. Die Kasse sagt einfach mal so nein, Sex sei Privatsache, und wurde vom Sozialgericht entsprechend korrigiert. Wäre die Kasse dazu verurteilt worden, Viagra in Indizierten Fällen in dem Umfang zu Finanzieren wie gesunde haben können, wäre sie definitiv unrettbar Pleite gewesen. Kann so was bei einer Krankheit wie erektiver Dysfunktion noch diskutiert werden, ist das bei einer frage auf Leben und Tod oder bei schweren bleibenden Schäden in jedem Fall keine Option.

Patent muss eine Soziale Komponente bekommen

Es kann also von der Gesellschaft nicht erwartet werden, das auf medizinische Güter ein unbegrenzter Schutz auf Geistiges Eigentum gewährt wird. Die Gewinnerziehlungsmöglichkeiten aus einem Patent auf ein Medizinprodukt gehört - zumindest in einer Situation ohne wirksame Konkurrenz - nach dem Grundsatz "Eigentum Verpflichtet" gedeckelt. Zum Beispiel in dem eine für beide Seite erträgliche Lizenzgebühr festgelegt wird, zu dem jeder Produzent lizenzieren kann.

Das ist wichtig, denn neben gesamtwirtschaftlichen Erwägungen wie der Höhe der Nebenkosten von Arbeit ist das auch eine gewichtige etische Frage. Denn das Geld das als Beiträge von den Mitgliedern eingezogen wird, steht diesen ja nicht mehr zu Verfügung, um eigene Maßnahmen zu außerhalb des Leistungskatalog zu ergreifen. Besonders deutlich wird das bei kleinen Selbständigen, wenn es mal knapp wird in der Kasse.

Selbständige werden gnadenlos über den Tisch gezogen

Als Selbständiger hat man die Wahl zwischen einer PKV und der GKV, wenn man zumindest einmal im Leben abhängig beschäftigt war. Die PKV ist keine wirkliche Alternative, weil diese im Alter so teuer ist, das nur bei gut situierten Personen keine zwangsläufige Privatinsolvenz auftritt. Insofern ist die "freiwillige unfreiwillige" Mitgliedschaft in der GKV alternativlos ist. Mit der neuen Pflicht zur Krankenversicherung ist das "Ein Angebot das er nicht Ablehnen kann". Aber anderes als ein Angestellter Bezahlt ein Selbständiger im Regelfall den vollen Höchstbeitrag.

Von Gleichbehandlung keine Spur

Wenn ein Selbständiger und ein anderer Selbstzahler, anderes als sein wenig verdienender angestellter Mitversicherte, nachweist das er über kein zu großes Vermögen verfügt, dann kann der zu entrichtende Beitrag bis auf den Mindestbeitrag gesenkt werden, aber nicht darunter. Es wird also pauschal angenommen, das jemand 1382½€ im Monat Verdient. Völlig egal was er wirklich Verdient, es werden 237,79€ im Monat eingezogen. Wer 450€ als Selbständiger Verdient, der Zahlt eben die Hälfte seines Einkommens für die Pflichtkrankenversicherung.

Bei Leuten, bei denen "Geld kein Problem ist" wurde vom Verfassungsgericht festgestellt, das die staatlichen Abgaben 50% nicht übersteigen dürfen. Und Natürlich darf auch das Existenzminimum nicht angegriffen werden. Die 500€ sind deutlich darunter, trotzdem sind nach geltenden Unrecht fast die Hälfte an die Staatlich verordnete Krankenkasse abzuführen. 2001 hat Das Bundesverfassungsgericht geurteilt, das dieses so Akzeptabel sei, weil die Leistung dieses Geld Wert ist. Denn damals hatte man die Alternative den Vertrag zu Kündigen.

Bei Beitragsrückständen zeigt die Krankenkasse ihr mafiösen Charakter

Das bei Selbständigen mal was schief geht, ist Normal. Das gilt natürlich besonderen dann, wenn man wie im Oben dargestellten Fall eine vergleichsweisse sehr großen Anteil seiner frei verfügbaren Mittel der Krankenkasse in den Rachen werfen muss. Kommt es dann man dazu, das in der Kasse so Ebbe herrscht und der Zwangsversicherungsnehmer seine Beiträge nicht mehr rechtzeitig genug bezahlen kann, dann Stellt die Krankenversicherung ihre Kostenübernahme bis auf eine rudimentäre Schmerzbehandlung komplett ein.

Bei einem normalen Freiwilligen Versicherungsvertrag ist das ein Normales Geschäftsgebaren. Leistung ist die regelmäßige Prämienzahlung und Gegenleistung die Kostenübernahme im Schadensfall. Bei der Krankenversicherung kommt noch Hinzu, das ein nicht unwesentlicher Teil der Leistung zeitlich Verschoben werden kann. Aus diesem Grund ist aus Versicherungsmathematischer Sicht nicht hinzunehmen, das Versicherte einzelne Monate auslassen. Deswegen bestand die Versicherung nur dann weiter wenn die Beiträge auch ohne eine Gegenleistung Nach entrichtet wurden. Jetzt mit der Krankenkassenpflicht hat die Kasse jetzt das praktische Recht, unbegrenzt viel Geld für nichts zu kassieren.

Wie das im Falle einer Gesetzlichen Pflichtversicherung rechtsstaatskoform geregelt werden kann kann man sich bei der Gesetzlichen Unfallversicherung der Arbeitnehmer ansehen. Das Vertragsverhältnis folgt aus dem Gesetz. Aus diesem Grund Zahlt die Versicherung immer im Leistungsfall. Damit Sie Ihr Geld bekommt, kann sie ihre Außenstände wie die gesetzlichen Krankenkassen vom Zoll vorrangig pfänden lassen.

Unzumutbare Extrabürokratie

Menschen, die eine Beruf gewählt haben in dem Sie jeden Tag dutzende Briefe verfassen müssen, werden diese Tätigkeit recht Problemlos erledigen können … und haben im allgemeinen keine Vorstellung davon das es Leute gibt, für die natürliche Sprache, ausführliche Rechnungen und/oder Dokumente im allgemeinen eine einziges Gräuel sind und bei denen für einen „läppischen“ Brief ein ganzer Tag … oder in meinem Fall Nacht … drauf geht. Da werden dann gerne mal wegen irgendwelcher lächerlicher Nebensächlichkeiten wie die bei Arbeitnehmer beschränkte Abzugsfähigkeit von Schulungen angeführt, um im Namen der Gleichbehandlung eine komplette eigene Bürokratie Instanz zu errichtet. Dabei wird dann aber sogar billigend in Kauf genommen, das rechtlich Grenzwertiges gemacht wird, was an anderer Stelle im Zusammenhang mit Steuern wegen Verfassungsmäßiger Probleme schon eingestampft wurde.

Ein Arbeitnehmer Zahlt, wenn er wenig Verdient, wenig Krankenversicherung. Dabei ist es völlig unerheblich, ob er Millionen von Euro, z.B. aus einer Erbschaft oder einem Lottogewinn auf dem Konto hat. Bei einem Selbständigen ist das völlig anderes. Hat er ein Vermögen welches ein definiertes Kontingent für die Altersvorsorge übersteigt, so hat er den Vollen Beitrag zu bezahlen. Soweit die Theorie, wenn man zum Beispiel Aktien hat, dann behaupten Sachbearbeiter auch schon mal gerne, das es keine Ermäßigung gäbe ... auch wenn es nur paar Aktien im Wert von 100€ Sind, um die Sogenannte Handelsberechtigung für Hochrisikopapiere wie Ausländische Nebenwerte zu behalten. Unser Fürsorgestaat, lässt nun mal nicht jeden jede Anlageform nutzen ... nur Aussichtsreiche Technologie werte das sind immer neue Firmen. Und diese sind typischerweise im Ausland, weil der meiste Teil der Erde nun mal Ausland ist.

Damit sich solche Tricks sich auch lohnen, sind zu viel bezahlte Beiträge grundsätzlich nicht Rückerstattungsfähig. So kann man wenn irgendwann nichts mehr geht, problemlos die Beute behalten. Ein solche Geschäftspolitik passt besser zur organisierten Kriminalität als zu einem tragenden Element in einem Rechtsstaat.

Auch Problematisch ist bei Vermögen die Bewertung eines Vermögenswert. Dieser ist von der Aktuellen Nachfrage abhängig und bei exotischen oder einmaligen Werten kaum reel zu bestimmen. Dies war ja auch der Grund, warum die Vermögenssteuer abgeschafft wurde. Es war keine Option zu finden, welche dem Verfassungsgericht genügt hätte. Von den Selbstzahlern der Krankenkasse wird aber erwartet das Sie eine Vermögensbewertung durchführen.

Mangelnde Schadensersatz Forderung bei schuldhaft herbeigeführt Gebrechen

Noch ein Paar Worte zu der Pflicht der Krankenkassen, die Gemeinschaft der Versicherten von ungerechtfertigten Kosten freizuhalten. Wenn also zum Beispiel ein Neonazi jemand zusammen schlägt, dann Haftet er dafür gegenüber der Krankenkasse. Er muss die Behandlungs- und die Ausfallkosten komplett erstatten. Aber schon in diesen sehr eindeutigen Fällen erfolgt viel zu selten eine Konsequentes Durchpfänden über 30 Jahre. Da diese Forderungen mutwillig entstanden sind, können sie nicht durch eine Privatinsolvenz abgebaut werden. Würden die Kassen hier ein Systematisches hartes Inkasso aufbauen, wäre das möglicherweisse sogar noch Abschreckender als die strafrechtliche Drohungen, und in soweit mehr als Wünschenswert.

Wenn durch das partiellen Verbot von bestimmten Produkten auch nur in Teilen des öffentlichen Raums sich die Kassenlage von andauernd defizitär zu länger-anhaltend positive wandelt, dann zeigt das hier akutest möglicher Handlungsbedarf in Punkto Schadensersatzforderungen gegen die Hersteller solcher Produkte gegeben ist.

Gesundheitsgefährdende Produkte Zeichen sich eben genau dadurch aus, das diese Beeinträchtigung keinen Kausalen zusammen haben. Die Schädigung kann also in jedem Einzelfall eine andere Ursache gehabt haben. Betrachtet man aber ein Kollektiv von Nutzern und vergleicht man dieses mit einem Kollektiv vergleichbarer nicht Nutzer, so kann man exakt Berechnen wie Wahrscheinlich es ist, das ein beobachtetes Übergewicht von Schädigungen in der Nutzergruppe nicht in dem Produkt ihre Ursache hat. Wenn jemand einen Schaden Anrichtet, dann Haftet er dafür. Um diesen Jemanden zu Verurteilen, muss der Richter zu dem Schluss kommen, das keine Vernünftiger Zweifel an der Rechtmäßigkeit der Forderung besteht. Bis heute können sich die Hersteller schädlicher Produkte dahinter verstecken, das es keine Wahrscheinlichkeitstheoretische Definition von Vernünftigen Zweifel gibt. Dabei wäre so was auch für Otto Normalbürger interessant, sagt es doch nicht mehr und nicht weniger aus, wie groß die Wahrscheinlichkeit ist Unschuldig ein Strafe aufgebrummt zu bekommen. Wenn eine Wahrscheinlichkeit von P=0.001 oder Weniger kein vernünftiger Zweifel mehr ist, dann heißt das, das weniger als einer von 1000 Angeklagte unschuldig verurteilt wird. Der Schaden in einem Kollektiv ist aber – nicht zuletzt durch den Großversuch mit dem Verbot in teilen des öffentlichen Raums ohne jeden vernünftig zu nennenden Zweifel erweisen. Die Weg zu einer solchen Definition kann nur darüber erfolgen, das man durch Auswertungen erfolgreicher Wiederaufnahmeverfahren eine untere Schranke für den gelebten vernünftigen Zweifel ermittelt und dann nachweist, das der Wahrscheinlichkeitstheoretische Zweifel um vieles kleiner ist. Damit wäre dann der Beweis erbracht, das ohne Vernünftiger Zweifel im herkömmlichen Sinn in gewisser Anteil der Schadensfälle aus dem Kollektiv auf das Produkt zurückzuführen ist.

Da die Nutzer solcher Produkte auch Wähler sind, kann hier kaum auf Abhilfe durch den Gesetzgeber gehofft werden. Erschwerend kommt hinzu kommt das solche Produkte wie die Zigaretten oder Alkohol mit hohen extra Steuern belegt sind. Nur die Versickern im Haushalt, anstatt das sie den Krankenkassen sicher zugute kommen. Den Ersatz für solche Schäden muss die Versicherungswirtschaft selber von den Herstellern vor Gericht einfordern. Die gesetzlichen Krankenkassen sind hier, bedingt durch Mitgliedschaft per Gesetz hier ihren Mitgliedern im Allgemeinen, und den Arbeitnehmern in besonderen, verpflichtet, denn alleine die Frage des Schadens den Zigaretten anrichten, so hat die Erfahrung mit dem partiellen Verbot gezeigt, ist geeignet die Kostenlast signifikant zu reduzieren. Würde man das Konsequent durchziehen, könnte man unter Umständen auf fragwürdige AGB-Tricks vermutlich schon zur Gänze verzichten. Bei einem Angebot von dem Menschen per Gesetz verpflichtet sind es anzunehmen ein absolutes muss.

Der Umgang mit Versicherten im Leistungsfall

War es bisher übel, dann wird es jetzt Megaübel. Ich habe meinen Eltern geholfen, meine Oma zu Pflegen. Die Zeitscheiben bei der Pflege sind nach meiner Erfahrung einfach nur Absurd. Und die Festlegung, wer denn wann welche Bekommt ist nach dem Folgenden Beitrag als dunkelstes Kapitel in der Zusammenfassung über die Rechtsstaatlichkeit des jetzigen Krankenkassensystem zu bezeichnen.



Das muss alles vor dem Hintergrund gesehen werden, das die sozial schwächeren Betroffenen auf die Leistungen der Krankenkassen existentiell angewiesen sind, weil ja schon die Gelder auch schon für einfache Erleichterungen zuvor bereits in Form von Krankenkassen Beiträgen abgezogen wurden.

Fazit eine kombinierte Bürgerversicherung für Pflege und Krankheit ist Unumgänglich

Die Krankenkassen existieren zur Zeit in einer VBZ - einer "Verfassungsrechtlich Befreiten Zone". Im Grunde Müsste das Bindeverfassungsgericht die Krankenversicherungen in ihrer jetzigen Form aus Gründer offensichtlicher Missachtung der Verfassung kassieren und dem Gesetzgeber beauftragen, Regeln aufzustellen wie die bisherigen Marktteilnehmer eine Bürgerversicherung organisieren können. Zentraler Punkt ist ein einheitlicher Beitrag den jeder Einkommensabhängig über Finanzamt Entrichtet, vergleichbar der Kirchensteuer. Nur das man sich eben nicht für die generell Kostenfreie Alternative "Atheismus" entscheiden kann und das eine "Beitragsbemessungsgrenze" gibt ab der nur ein Höchstbetrag fällig wird.

Die Privaten Krankenversicherer müssen sich auf Aufbaupakete beschränken, wie zum Beispiel die "jederzeitige Chefarztbehandlung", die ihren eigenen Mehrwert haben, aber kein "Must Have" sind.

18 August 2014

Möglichkeiten und Grenzen von Funk- und Meshnetzen

Was ist ein Meshnetz

Heutige Kommunikationsnetze haben ein sehr stark zentralisierte Struktur. Es wird von einer sternförmigen leitungsgebundenen Infrastruktur ausgegangen, an deren Enden sich die Endgeräte befinden. Das gilt auch für die Drahtlosen Netze, bei denen nur die letzte Verbindung durch eine Funkverbindung ersetzt wurde. Diese Netze unterscheiden sich neben den technischen Details der Übertragung nur in der Zellen. In Absteigender größe sind das GPRS, UMTS, LTE, WLAN.

In den Anfängen des Internets war das Internet ein Meshnetz aus Festverbindungen. Die Verbindungsleitungen der Knoten waren wie ein richtiges Netz angeordnet. Wenn eine Leitung ausgefallen ist, dann hat die Software der Router - den Knotenrechnern - automatisch eine Umleitung gefunden, so das der Ausfall nicht aufgefallen ist. Die war Entwicklungsvorgabe, weil man das Internet benutzen wollte, einen atomaren Gegenschlag zu Organisieren. Da Internet ist auch heute noch so aufgebaut, allerdings nur noch im internationalen Maßstab. Der Grund dafür ist in der überragenden Transportkapazität von Glasfasern zu suchen. Es ist oftmals billiger ein Signal durch die halbe Republik oder noch weiter zu scheuchen, als eine neuen Leitung von 5km Länge zu bauen. Kein Wunder, 100-2000€ pro Meter kommt eine ganze Menge zusammen.

Durch die Vielzahl von Geräten welche Senden und Empfangen können stellt sich die Frage, ob auch ein Internet ohne Kabel existieren kann und was es Leisten kann. Ich selbst stelle, weil ich verhindern wollte das die Bürger meines Stadtteils mir bei den Frequenzen ins Gehege kommen, unter anderem auch Internetzugänge zur Verfügung, die auf die Aneinanderreihung von WLAN Zellen beruhen, und kann in soweit einiges dazu aus erster Hand berichten.

Solche Netze wären sehr Nützlich, weil sie durch eine Vielzahl von Wegen wesentlich robuster gegen die Einwirkung von Kriegen und Naturkatastrophen sind. Es müssen "nur" genügend Knoten aktiv bleiben, um Verbindung zu halten weil die Daten wie in einer Eimer-kette von Gerät zu Gerät weitergegeben werden. Die zentralisierten Netze sind dagegen hochgradig Gefährdet durch politische Intervention abgeschaltet zu werden. Beispielsweise war Syrien im Bürgerkrieg tagelang Offline. Wie sich kurioserweisse Raustellte war es aber weder Assat noch die ISIS die eines Ihrer Massaker unter Ausschlus der Öffentlichkeit durchziechen wollten, sondern die grössenwahsinnige und stehts omnineugierige Neue Stasi Ameriks, die NSA, die bei einem Hack einen zentralen Router in Syrien mit ihren Trojanern lahmgelegt hat.


Was können Meshnetze Leisten

Ein Meshnetz bekommt Probleme, wenn es um Fernverkehr geht. Nehmen wir zum Beispiel an, ein Knoten kann 1 Megabyte pro Sekunde Senden, ohne damit Radiointerferenzen mit den Aussendungen der anderen Knoten zu Produzieren. Nehmen wir des Weiteren an, das das Netz von den Teilnehmern heftig genutzt wird und die Ressourcen fair aufgeteilt werden. Dann kann jeder im Mittel nur so viele Aussendungen veranlassen wie er selbst zum Netzwerk beiträgt. Ich kann also 1.000.000 Byte/s direkt von meinen Nachbarn beziehen, 500.000 Byte/s von dem übernächsten Nachbarn, 333.333 Bytes pro Sekunden wenn drei Links gebraucht werden und so weiter. Mann erkennt, dass wenn ganze Landstriche auf ein Meshnetz angewiesen sind, man sehr schnell auf Chat Nivau ankommt.

Erschwerend kommt hinzu, das die aktuelle Entwicklung gerade voll gegen das Internet als Meshnetz läuft. Es gibt sehr gute Software welche die Inhalte von Webseiten zwischenspeichert und diese dann weiter verteilt. So kann diese Software per Multicast - eine Nachricht die sich wie eine Rundfunkansage an jeden wendet der Zuhört - bei den Nachbarinstanzen nachfragen ob ein bestimmter Inhalt vorliegt, und diesen dann von dort beziehen. Das Problem ist nur, das immer mehr Inhalte so angeboten werden, das es nicht mehr möglich ist zu erkennen das der selbe Inhalt vorliegt.

Das fängt mit Google an, das jetzt beschlossen hat, Webseite zu fördern die per https erreichbar sind. Sie bekommen Extrapunkte für das Ranking im Verzeichnis, tauchen also vermehrt vorne auf und werden dann auch per https verlinkt. Eine solche Verbindung kann nicht mehr Lokal gecachet werden. Microsoft hat httpi vorgeschlagen, welches nur die Authentizität sicherstellt, aber Caching zulässt.

Zuvor haben schon die Video Anbieter massiv an der Wirtschaftlichkeit von Cacheinfrastrukturen gesägt. Alle legalen Anbieter von Videofilmen verwenden individuell verschlüsselte Verbindungen zu ihren Abonnenten und sorgen dafür, das diese Inhalte dort nicht zwischengespeichert werden. Ich vermute mal, das dies eine Lizenzbedingung seitens wichtiger Filmstudios ist. Wenn man für 3€ einen HD Film übers Wochenende auf iTunes leiht und sich mehrere Familienmitglieder den Film zu unterschiedlichen Zeiten ansehen, dann wird der Film jedes mal in epischer HD Breite durch das Internet gezerrt. Das zwingt selbst die Telekom in die Knie und veranlasst Sie die echte Flatrate aus den Verkehr zu ziehen.


Technische Probleme

Ein weiteres Problem das man nicht unterschätzen darf, ist das Routing in einem Meshnetz. Dafür gibt es verschiedene Ansätze. Um Kompatibilität mit einem Normalen Netz zu erreichen und dem notorischen Ärger mit dem Zusammenwirken von WLAN Bridges unterschiedlicher Hersteller aus dem Weg zu gehen, habe ich mein Netz beginnend seit 2001 immer so aufgebaut, das ich die einzelnen Funkbrücken per LAN Switches und Router verknüpft habe. Dabei wurden die alten Verbindungen als Reserve der neueren, schnelleren Verbindungen konfiguriert. Damit ist das eigentliche Zugangs Netz ein normales WLAN Netz in dem die Accespoints eben über "WLAN-Kabel" angebunden sind und ich kann Clients aller Hersteller ohne Umstellung einbinden. Durch die vollständige Abschaltung vieler Verbindungen wird das Arbitrationsproblem - also die Funkdisziplin wer wann Senden darf - erheblich entschärft. Dazu muss man wissen, das Frequenztrennung der WLAN Chips sehr bescheiden ist. Da etliche Accesspoints über "Airview" verfügen, mit denen eine Spektrogramm des gesamten Bands angezeigt wird, gehe ich davon aus, das weite Teile des Empfanges und des Sendens per Software gemacht werden. Das führt dazu, das ein Sender der Zeitgleich im benachbarten Kanal sendet eine erhebliche Mindestentfernung haben muss, damit er nicht mehr stört, weil die Dynamik der Wandler recht begrenzt ist. Wie groß oder kein diese Nachbarkanaldämpfung ist, das haben die Hersteller trotz Support Anfrage über meinen Händler nie raus gerückt.

Mit dieser Nachbarkanaldämpfung kann es aber nicht weit her sein. So bietet der Netzwerkausrüster Ubiquity beispielsweise Spezielle Geräte welche unter Zuhilfenahme von GPS Synchronisation dafür sorgen, das sich verschiedene Zellen nicht gegenseitig Stören, wenn mehrere Geräte an einem Mast montiert sind. Viele Smartphones verfügen auch über GPS ... ob mit der physikalischen API der Chip auch eine zeitliche Synchronisation im µs Bereich möglich ist, vermag ich aber nicht zu sagen. Die Tendenz der WLAN Sendeverfahren geht in jedem Fall aber zu einer Trennung der Stationen durch die Zeit. Bei 802.11n mit seinen 40MHz Kanälen gibt es im 2,4GHz Band nur noch einen Kanal. Mit der Nachfolgenorm 802.11ac mit seinen 160MHz breiten Kanälen ist das ebenfalls schon so, das die gesamte Breite des Internationalen Indoor bereichs ausgeschöpft ist. Benutzt man die nationalen speziefischen Erweiterungen so gibt es 2 Indoor und 3 Outdoor uns einen weiteren Kanal für ISP.

Auch bei den Normen für den Mobilfunk lässt sich diese Tendenz beobachten. Zwar steigt auch dort durch neuartige Verfahren auch die Pro Hertz Bandbreite übertragene Datenmenge an, aber längst nicht so stark wie das der Fortschritt in der ausgewiesenen Übertragungskapazität vermuten lässt. Vielmehr sind die neuesten LTE Evolutionsstufen welche mehr als 1Gbit verspricht in der Lage, unterschiedliche Frequenzressourcen des Providers zu bündeln, so das ein einzelnes Telephon gleichzeitig Daten aus verschiedenen Sendeanlagen beziehen kann.

Die Verwaltung von Verbindungen durch degradieren zum Standbeibetrieb mit Hilfe von zum Beispiel STP ist aber nur bei einem fest Eingerichteten und Verwalteten Meshnetz sinnvoll, bei der es durch den Ausbau auch klare Präferenzen für den optimalen Transportweg gibt. Außerdem ist dieses Verfahren nur in der Lage Totalausfälle wie Stromausfall oder Blitzschlag gut zu behandeln. Sollen diese Netz dynamisch zu Stande kommen und verwaltet werden, dann werden Verfahren gebraucht, welche unter Ausnutzung der funktechnischen Messwerte wie Störspannungsabstand und Störungswahrscheinlichkeit beim Empfang die optimale Route berechnen. 802.11s sollte eine Offizielle Norm für diese Form eines Netz innerhalb des MAC Layers werden, was aber wegen technischer Probleme und Streit über die zu erreichenden Ziele immer wieder vertagt wurde. Bis zur Verabschiedung von etwas Konkreten hat es rund ein Jahrzehnt bis 2011 gedauert. Eine andere Alternative ist B.A.T.M.A.N., bei der die Parameter abgefragt werden und in einer höheren Ebene behandelt werden.

Für die Applikationen wirken auch bei diesen Verfahren das gesamte Mesh Netz wie eine einziges großes LAN und es wird für jedes einzelne Gerät wichtige MAC Routen vorgehalten. Es ist augenscheinlich klar, das bei großen Netzen mit einer zunehmenden Zahl von Teilnehmer entweder der Leerlaufverwaltungsaufwand immer größer wird oder aber die Zeit die für einen Verbindungsaufbau für das erstellen der nötigen Routen immer länger wird.

Neueste technische Entwicklungen können hier einen Ausweg aus der Sackgasse aufzeigen. Mit MPTCP ist es möglich, transparent von einem IP Netz in ein ganz anderes zu migrieren ohne das dies von der Applikation zur Kenntnis genommen weden muss und einen Neuaufbau einer TCP Verbindung erfordern würde. So kann zum Beispiel ein Stream in der Bahn über LTE begonnen werden und mit Ankunft im eigenem Heim auf das heimische WLAN umsteigen. Damit wird es also für ein Gerät möglich die IP unabhängig von den Applikationen zu wechseln. Da in einem IPv6 Netz eine einfaches LAN bereits einen 64 Bit großen Adressraum hat und 2 32 Bit Nummern für Geo Koordinaten mehr als Ausreichend sind, kann in Zukunft die IP die Geografische Position sein. Damit kann dann in einem Meshnetz der optimale nächste Knoten für ein beliebiges Ziel analytisch aus lokal zugänglichen Größen berechnet werden. Das wäre ein gewaltiger Fortschritt zu den jetzigen Ansätzen, weil der Verwaltungsaufwand weitestgehend flach fällt. Stellt ein Smartphone über das GPS eine Veränderung der Position fest, so wird eine neue IPv6 Adresse mit der veränderten Position erstellt, neue sup TCP's initiiert, so das die alte IPv6 Adresse wenn sie nicht mehr zu erreichen ist problemlos aufgegeben werden kann.

Ein weiterer Punkt der Bedacht werden will, speziell bei Mobilen Mesh Netzen, ist der Energieverbrauch. Die Hersteller setzen Himmel und Hölle in Bewegung, um mit der Software immer so viel Hardware wie möglich auszuschalten damit die Akkulaufzeit verbessert wird. Das geht zum Beispiel bei WLAN unter anderem so weit, das sich die Geräte mit der Basisstation einigen, wann sie wieder nach neuen Paketen lauschen, damit sie sogar den Empfänger ausschalten können. Laptops schalten beim Schliessen des Lids einfach gleich komplett in den Standby. Wenn eine Mobiles Gerät jetzt Hintergrundprozesse hat, die andauernde oder zumindest eine sehr häufige Präsens erfordern, dann wird dies die Batterie des Gerätes im erheblichen Ausmaß zusätzlich belasten so das die Laufzeit deutlich leidet. Das kann jeder an seinem Smartphone selber beobachten, wenn man irgendwelche dauerpräsenten Apps installiert, wie ein Messgerät der Sportlichkeit, das die Täglich absolvierte Bewegung ermittelt und statistisch auswertet. Und so eine App muss nicht Senden, also elektromagnetische Energie in die Umwelt abgeben. Das wird insbesondere dann zum relevanten Problem, wenn man Meshnetze als Katastrophenhelfer einsetzen will, weil dann eine neue Ladung für den Akku mitunter schwer zu bekommen sein kann. Verfahren wie 802.11s die im MAC Layer arbeiten sind hier im Vorteil, weil sie eine Gesamtstragie zur Ersparnis von Strom fahren können. Das Grundproblem bleibt aber.


Meshnetze in Konkurrenz zu herkömmlichen Internetanschlüssen

Solange die herkömmlichen Anschlüsse in Ihrer Leistung begrenzt sind, so das Sie nicht in der Lage sind einen WLAN Kanal vollständig zu fluten, sind sie Unkritisch. Das ändert sich aber schlagartig, wenn der Engpass für eine Datenübertragung nicht mehr der Zugang ist sondern das konventionelle WLAN ist. In dem Moment kann bei einem Download der Funkraum vollständig in Benutzung sein, und Routen müssen sich im Meshnetz verändern. Da die Konventionellen Funkzellen kleiner sind, typischerweise nach außen auch noch durch Wände partiell abgeschirmt, werden ihre Übertragungen immer Vorrang vor dem Mesh haben, dessen Restsignale im inneren der Wohnung mit dem konkurrierenden Zugang mitunter gar nicht mehr wahrgenommen werden. Das gilt in verschärfter Form dann, wenn für das Mesh Antennen mit Gewinn eingesetzt werden.

Hier kann gesagt werden, das gerade bei größeren Netzen der daraus resultierende Aufwand jeden vernünftigen Rahmen sprengen kann. Eine Software die in einem Areal wie dem australischen Outback eine brauchbares Internet erzeugt, muss daher in einer Stadt noch lange nicht gut funktionieren. Ein Teil der Bürger welcher schlicht die Ausgaben begrenzen muss kann das dort nicht durch den Rückgriff auf ein Meshnetz machen, insoweit das nicht alle in einer Region machen.


Welche Normen werden gebraucht, damit Meshnetze Prosperieren können

In den Anfängen des Internets wurde dieses von dem Telephonetz getragen. Es gab Verbindungen, die sehr schwach waren. Aus dieser Zeit stammen noch die technischen Grundkonzepte des Internets mit seinen lokalen Caches. Das fängt bei den DNS Namen an, geht über die Http Caches bis hin zu den Caches für die Realtimeprotokolle.

Es gibt 2 Arten von Internetprovider. Da sind zum einen jene, die über eine eigenständige physikalische Leitung jedem ihrer Kunden haben wie das beim DSL System der Telekom der Fall ist. Dank der Konkurrenzangebote hat die Bundesnetzagentur der Telekom in vielen Orten erlaubt, ihre Netze wieder exklusiv zu betreiben. Das hat für die Kunden der Telekom den Vorteil, das die Elektronik die Störungen der anderen Anschlüsse beim Senden berücksichtigen kann, diese Kompensieren kann und damit mehr Frequenz nutzen kann. So wird es möglich, über alte Kupferkabel die für 300-3300 Hz ausgelegt sind 100 MBit pro Sekunde an Daten zu übertragen. Ab den Anschaltpukten liegt das sternförmige Glasfasernetz vor, das was Performance angeht, kaum wünsche offen lässt. Das ist allenfalls eine Kostenfrage, und die Telekom wird im Wege der Drosselflat die Diensteanbieter in die Zange nehmen, mit ihr so zusammenzuarbeiten das die Kosten vertretbar sind. Sie sind eben genötigt, über die Telekomeingene Plattform Entertain ihre Werke anzubieten, welche vermutlich über eine Verteilte Serverarchitektur verfügen dürfte. Auch der Modem Dail up als die erste Version des Massen tauglichen Internet und die Anbindung über eine Standleitung gehört in diese Kategorie der Anbindung über eine einzelne Leitung.

Alle andere Angebote sind allesamt die Ausnutzung von Rundfunktechnologie zur individuellen Versorgung mit Internet. Das gilt für Satelliten, Googel Drohnen basiertes Funknetz, WLAN und Mobilfunkinternet, aber auch für die Angebote im Fernsehkabel. Diese Angebote zeichnen sich nur dadurch aus, das sie über ihren eigenen abgeschotteten Funkraum im inneren der Kabel verfügen, sind aber ansonsten von der Funktion her so aufgebaut wie der Funk in der Atmosphäre. Diesen Übertragungskanälen ist allesamt gemeinsam, das sie eigendlich dafür prädestiniert sind, Inhalte ein einem Vorgang parallel an viele Stationen zu senden. Diese Eigenschaft wird, bis auf bei wenigen life Anwendungen, von den im Internet eingesetzten Anwendungen aber nicht ausgenutzt.

Wenn wir nicht langfristig wieder in eine Monopolabhängigkeit von der Telekom hineinschlittern wollen, dann werden für das Internet neue Protokolle gebraucht, welche die rundfunkartige Verteilung von Content auf Vorrat ermöglichen. Meine Vorschlag: bhttp und mhttp als broadcast hyper text transport protokoll respektive multicast hyper text transport protokoll. Heutige Festplatten speichern 4TB für 125€. Das ist viel mehr als viele Nutzer je brauchen werden. Mit 1TB kann man einen Datenstrom von 50 MBit 44 Stunden lang aufzeichnen. Es gibt also jede Menge Raum für eine Vorratscontentspeicherung, und damit kann zum Beispiel vermieden werden das jede einzelne Windowsmühle ihre immer größer werdenden Service Pack für sich durch das Medium zerrt und damit die Netzwerke verstopft.

Technisch würde das so aussehen, das ein jedes cachefähige Device auf per Multicast oder Broadcast verbreitete Anouncemect von "Sendefächigen" Proxiserver lauscht. Würde es so einen finden, würde das Gerät den angezeigten Proxy Autoconfig File herunterladen und seine Anfragen dann an die verzeichneten Proxys richten. Diese haben dann die Möglichkeit, anhand von statistischen Kriterien zu ermitteln, welche Inhalte für viele Kunden von Interesse sind. Diese Inhalte werden von dem Server zu einem Bucket zusammengestellt das eine vordefinierte, von den Eigenschaften des Funknetz abhängige, Maximalbandbreite ausfüllt. Diese würden dann im Wege eines mit Forward Error Correction versehenen UDP Streams per Broadcast oder Multicast versendet, so das bei einer Aussendung der Inhalt via Stream Decoder in jedem Cache landet der Online ist. Wird bei einem erstmaligen Aufruf gleich festgestellt, das ein Inhalt an alle gehen soll, so müsste ein neuer HTTP Status darauf hinweisen, damit der Server im stream sucht.

Auch sinnvoll ist, das Hintergrundaktivität wie das Abfragen und Laden von Betriebsystemupdates von der Software mittels eines neuen HTTP Headers mit einem zumutbaren Zeithorizont versehen wird, der es gestattet wichtigeres, auf das ein Nutzer am Bildschirm wartet, vorzuziehen. Durch das aussenden von häufig gebrauchten Inhalten würde es auch in Zukunft möglich sein mit Funknetzen gutes Internet zu bekommen. Bedingt durch moderne Mimo Übertragungen ist die One to All Kommunikation zwar um ein mehrfaches langsamer als Punkt zu Punkt Kommunikation, aber all das, was mehr als zehn mal in einer Funkzelle abgerufen wird, das ist im Rundfunkmodus definitiv effektiver verteilt. Das wären dann so Dinge wie Betriebssystemupdates, aber auch aktuelle Medieninhalte wie Nachrichten aller Art oder eben aktuelle Filme.

Die Zukunftsfähigkeit von Meshnetzen im Speziellen und Funknetzen im Allgemeinen steht und fällt damit, das Große Objekte vernünftig cachebar und verteilbar sind. Ein solcher großer Inhalt darf nur an einer Stelle publiziert werden und muss dann von überall her her gleich verlinkt sein, damit er von der Software als Identisch erkannt werden kann. Es dürfen auch keine Trakingparameter übergeben werden, wie das seit der idiotischen Cookie Verordnung der EU immer mehr in Mode kommt, um ohne Cookie tracen zu können. Eine url http://www.monster.org/monsterobjekt?session=2354983924 wird von einem cache nicht als identisch zu http://www.monster.org/monsterobjekt?session=2354983925 erkannt, und in epischer Breite wieder durch das Netz gezogen. Ein cache kann solche Parameter aber auch nicht ignorieren, weil diese auch durch die Eingaben eines GET FORM entstehen, und in diesem Zusammenhang auch unterschiedlichen Content abrufen.

Ein billiges effektives Internet steht aber in Diametralen Gegensatz zu den Interessen der Unterhaltungsindustrie. Das muss man so sehen. Je teurer ein Medium ist, desto teurer können auch die Inhalte sein. Mit dem Preisverfall für die Verteilung von Content begannen auch die Probleme den Preis für Content zu rechtfertigen. In diesem Kontext muss man die in Spanien eingeführte Linksteuer sehen, die ein offensichtlicher Versuch ist das Internet als kostenfreie Quelle für Wissen zu torpedieren. Schon 2007 gab es darum einen Disput in Grossbritanien zwischen der BBC und den Internetprovidern um die Form der Zugänglichmachung von Videomatherial. Ohne eine Regulation wie Videos schonend im Internet zu publizieren sind sowie Ausnahmen bei der Netzneutralität welche es gestatten, das man spezielle Inhalte auf ein verträgliches Nivau drosselt um zum Beispiel als Provider die Auflösung von Videos zu begrenzen werden Mesh und Mobilfunknetze langfristig nicht richtig nutzbar bleiben und hoffnungslos verstopfen. Es werden jetzt schon die ersten Filme in Super HD - also 3640 punkte statt der jetzt bei HD üblichen 1820 Punkte. Das ergibt 4 mal so viele Daten! Und das, so die Vorstellung der Anbiehter, wie bisher bei jedem Betrachten. Unangenehme Nebenwirkung dieser Technik: Staatliche stellen können in erfahrung bringen, wer welche Sendungen gesehen hat.

Eine solche Vorratsverteilung von Videodaten müsste im Übrigen nicht notwendigerweise das Geschäftsmodell der Contentindustrie der Geltendmachung einer Gebühr für die reine Kenntnisnahme von einem Inhalt betreffen, auch wenn es theoretische Argumente gibt, die gegen dieses Sprechen. Wenn das Massive Objekt verschlüsselt ist, unter der Zugriffscode dann sicher verteilt wird so wie das bei der Blue Ray Disk der Fall ist, dann wäre der Verstopfung der Netze auch wirksam entgegengwirkt.

Ein weiteres Problem für die Leitungskapazität stellen Backuplösungen zu zentralisierten Cloudspeichern dar. Diese sind in der gegenwärtigen state of the Art Form des Verschlüsselten Hinterlegens so konstruiert, das wieder eine sehr großer Datenstrom zu einem sehr weit entfernten Ziel transportiert werden muss. Selbst wenn das Backup in der Nachbarschaft erfolgt, ist die schiere Masse der Daten aber dennoch verheerend. Ich biete meinen Kunden einen Backupserver kostenfrei und unlimitiert lokal an. Das ist billiger als der Traffic ins Internet. Als einer meiner Kunden mit großem Datenbestand die Seine Festplatte wegen Verschleiß wechseln musste, hat die Applikation des Backup neu synchronisiert und damit Wochenlang den Funkraum wüst belastet. Hier könnte ein Medium wie Freenet für Abhilfe sorgen, welches so konstruiert ist, das die Daten verteilt in der Umgebung hinterlegt werden. Besonders clever daran ist, das der gleiche Datensatz immer gleich, mit seinem eigenen Hashwert verschlüsselt unter dem Hashwert des Verschlüsselten Files als Zugriffscode abgelegt wird, so das die Vielen GB zum Beispiel des Betriebssystem oder beliebter Medien eben nicht jedes mal mitgeschleppt werden müssten, private Dateien auf der anderen Seite aber Privat bleiben. Nur wer beiden Schlüssel kennt, kann den Inhalt wiederbekommen. Die Sache mit Remotebackups hat generell den Hacken, das sich viele Kunden nicht darüber im klaren sind, wie lange es Dauert, bis ihre Daten wieder da sind und sie dann Weiterarbeiten können. Richtig rund wird die Sache mit den Remotebackups überhaupt erst wenn so etwas wie ein Welt File System implementiert wird, in dem so etwas was wir wie Freenet aufgebaut ist als Backup eines lokalen Dateisystem eingeblendet wird, welches es dann erlauben würde, zwar deutlich langsamer als gewohnt aber dafür sofort, los zulegen. Langsamer weil die Inhalte eben erst zusammengetragen werden müssten. Dafür müsste man nicht Warten, bis die Platte wiederhergestellt ist, so wie das bei einer klassischen Backupanwendung immer der Fall ist. Nur um Offline Arbeiten zu können muss man Warten bis die Wiederherstellung komplett ist.


09 August 2014

Piratenpartei stellt politischen Insolvenzantrag ... Mitgliederbefragung per Post

Als ich heute Morgen in meinen Ticker geblickt habe, habe ich nicht schlecht gestaunt. Die Piratenpartei will nun den Basisentscheid per Post machen. Das ist aus den verschiedensten Gründen verheerend. Zum einen ist es sehr Teuer. Hin und Rückporto kosten 1,2€ jeweils als Standartbrief, das macht bei 28000 Mitgliedern mal eben 33600€ Porto. Dazu kommen dann noch Papier, Umschläge, Eintüten, Austüten, ... es wird die Piraten - also die Partei und ihre Mitglieder - rund 70000€ oder mehr Kosten ... Geld das man auch anderweitig für politische Aktivitäten einsetzen könnte.

Viele Schlimmer als das ist aber die Tatsache, das es so was wie eine Politische Insolvenzerklärung ist. Die Nachricht ist so Wichtig, das sie es nach langer Zeit mal wieder in die Hauptnachrichtensendung der News Kanäle geschafft hat. Und das mit einem Piraten, der demonstrativ auf dem Parteitag ein Brett vor dem Kopf trägt. Nichts desto trotz hat die Parteiführung recht, wenn sie sagt das es zur Zeit keine Software gibt, die das zu Leisten vermag. Insofern ist dieser Offenbarungseid nötig um die Fehler der Vergangenheit zu heilen.

Am Anfang war die Piratenpartei eine Ansammlung von sehr EDV erfahrenen Subjekten, die sich im wesentlichen darüber geärgert haben, das angestammte Rechte der Menschen veräussert werden um es bestimmten Politik- und Wirtschaftsinteressen leichter zu machen mit den Folgen des digitalen Wandels klar zu kommen. Das reicht von absurden rechtlichen Interpretationen über Zensurwünsche bis hin zur Besteuerung des Internets mit einer Linksteuer in Spanien, das Kostenfreie Angebote unmöglich machen soll.

Dieser anfangs sehr kleine Haufen von Menschen hatte keinerlei direkte politische Relevanz. Insofern brauchte man auch keinerlei wirksame subversiven Einflüsse fürchten ... wenn man mal von den bei jeder Parteigründung auftauchenden üblichen widerlichen "Blut und Boden" Subjekten mal absieht. Man traf informelle Votings in Web basieren Tools irgendwelcher Anbieter wo immer man sie fand, wie zum Beispiel Doodel. Bestätigt wurden die Beschlüsse dann aber immer ganz konventionell auf einem Mitglieder Parteitag. Das Agendasettig erfolgte per Sozialen Netzwerken und basisdemokratisch in überschaubaren Treffen. Heute ist dies so nicht mehr möglich, weil die Nachrichtendienste gelernt haben, diesen Informelle Community zu unterwandern. Snowden hat dies der Öffentlichkeit mit Dokumenten aus dem Innenleben der Geheimdienste vor Augen geführt.

Es gibt da in der EDV ein Problem. Die Anwendung sind Komplex, das Verhalten von Software ist gelinde gesagt mit unter recht überraschend. Aus diesem Grund passiert es sehr leicht wenn sich Menschen mit EDV Hintergrund treffen, das sie über EDV Werkzeuge diskutieren und Erfahrungen Austauschen. Das entspricht dem natürlichen Kommunikationsbedürfnis der Protagonisten auch und gerade weil sie dadurch einen unmittelbaren Nutzen in ihrem Leben ziehen können. Um trotzdem eine vernünftiges, vollständiges Parteiprogramm zu bekommen, gab es denn Konsens "Keine Tooldikusionen" mehr. Mit dem Achtungserfolg bei der Europawahl 2009 bis zur Bundestagswahl 2009 kamen dann aber reichlich neue Mitglieder in die Partei, so das die Sache mit der Basisdemokratie schwierig wurde. Klar zu erkennen an Problemen, wie Redezeiten von 30 Sekunden auf Bundesparteitagen. Sehr viel mehr als in einem 140 Zeichen tweet kann man da auch nicht sagen, und das ist für differenzierte Betrachtungen definitiv zu kurz.

Bildquelle: Piraten Wiki
Die Piraten haben sich zwar Gedanken über die digitale Demokratie gemacht ... nur wurde die Umsetzung von einer externen Gruppe umgesetzt. Dann wurde eine "Probebetrieb" des externen entstandenen Tool Liquid Feedback (LQFB) beschlossen, mit einem Parteitagsvorbehalt der Beschlüsse. Ich habe in dem LQFB etliche Beschlüsse durchgekommen. Diese verfielen nach dem Parteitag zunächst, haben es dann aber über Umwege doch noch in das Parteiprogramm geschafft.

Was aber keine Umsetzung fand, waren Anträge zum Tool selber. Und das war der Kardinalfehler, der zur heutigen politischen Insolvenz der Piratenpartei geführt hat. Richtig wäre es gewesen, das der Parteitag nicht nur den Probebetrieb beschließt, sondern auch einen finanziellen Etatrahmen für die Entwicklung von Software. Damit wäre dann das Tool eine Art von Autonomie vom Parteitag zugestanden worden, um sich schneller Weiterzuentwickeln als maximal 2 mal im Jahr. Denn die Tools waren alles anderes als Fertig, auch wenn die Darstellung in der Presse 2010 diesen Eindruck vermittelt hat. Mit dem Erfolg bei der Landtagswahl in Berlin und den folgenden 3 Landtagswahlen kamen dann viele neue Mitglieder in die Partei. Mehrheitlich waren das solche die von EDV, Mathematik und Digitaltechnik so gut wie nichts an Erfahrung mitbringen. Und damit hat sich das Zeitfenster geschlossen für die demokratisch gesteuerte und kontrollierte Entwicklung eines Betriebssystem für die Demokratie 2.0. Meines Erachtens ist die Tatsache das der Suverän begriffen hat, das die Piraten ihr Demokratieupdate eben nicht fertig haben, auch Zentral für ihren Abstieg in die Wahlergebnis basierte Bedeutungslosigkeit.

Bildquelle: Piraten Wiki
Wie kann es weitergehen mit der Piratenpartei? Die Mitglieder der Partei habe heute nicht mehr in der nötigen Breite den Backgrund, der Ausreicht direkt die Entwicklung der nötigen Software demokratisch zu führen. Dazu ist die ansonsten politisch Nötige "entnerdung" der Piratenpartei zu weit fortgeschritten. Es bedarf also entweder eine Untermenge von Parteimitglieder, die den nötigen programmiertechnischen und mathematischen Background haben. Insoweit ist eine neue Organisationsform nötig. Entweder so etwas wie eine geschlossene Arbeitsgruppe eine Stiftung an einen zu gründenden eingetragenen Verein oder eine neue Partei, deren Voraussetzung die Mitgliedschaft in der Piratenpartei ist. Gewissermaßen so was wie eine Sub Partei, die ihr übriges Programm von der Mutterpartei übernimmt aber die eigene Satzung weiterentwickelt.

Alternativ könnte man einen Versuch damit machen, wie Software in unserem Staat Üblicherweise entsteht. Es wird ein Katalog von Forderungen aufgestellt, ein sogenanntes Lastenheft. Dann macht man eine Ausschreibung und vergibt einen Auftrag. Aber dieses Vorgehensweise ist Problematisch. Dazu kann man sich Softwareprojekte des Staates ansehen. Wie bei einem Projekt der Grundstücksverwaltung in Baden Württemberg. Das Lastenheft hatte haufenweise Widersprüche und war unvollständig, entsprechend günstig war das Preiswerteste Angebot. Endlose viele spätere Releases mit viele "Extrastunden" hatte der Anbieter einen satten Reibach gemacht mit der Option auf noch mehr. Oder man denke nur an das Fiasko mit dem digitalen Ausweis, den unsere Aktivisten in der ersten Nacht durch die Hintertür gehackt haben. Und es dauerte ewig und kostete die Mitarbeiter endlos Nerven, bis die Software einigermaßen einsetzbar ist. Dieser weg ist also sicherlich weniger Empfehlenswert.

In jedem Fall aber muss die Partei dafür sorge tragen, das ein Schutzpreis hinterlegt wird, welche Menschen erhalten, die Schwachstellen des neu zu errichtenden Systeme aufdecken. So, und nur so, kann unwissenden ohne Mathematik Studium klar gemacht werden, das es Mittel und Wege gibt, die versprochene Sicherheit auch umzusetzen. Denn mathematisch ist es möglich, eine solche Software zu erstellen die nicht Manipulierbar ist. Mit Mathematik kann man Sicherstellen, das jeder nachvollziehen kann

  • Wer hat an der Abstimmung Teilgenommen
  • Ist meine Stimme in dem Ergebnis vertreten
  • Wurde korrekt Ausgezählt und Ausgewertet
  • Das die Stimmen während der Wahlphase abgegeben wurden, also in Unkenntnis des Votums anderer


Allerdings ist es nicht Möglich, herauszubekommen wer welchen digitalen Stimmzettel abgegeben hat. Was das Verfahren nicht leistet, es ist möglich einem anderen zu Belegen wie man gewählt hat. Wenn man aber ehrlich ist muss man zugeben: Das ist bei der Papierwahl auch möglich! Zum Beispiel mit den immer kleiner werdenden und allgegenwärtigen Kameras. Oder per DNA ... . Und bei der Briefwahl ... wie sie jetzt für alle Piraten angedacht ist ... ist es sowieso trivial möglich, weil der viel zitierte "Stimmenkäufer" ja nur bei der Abgabe dabei sein muss. Insoweit hoffe ich, das der der jetzt geplante postalische Wahlgang eine einmalige Maßnahme einer Konkursverwaltung ist.

Und wenn die Partei sich nun endlich Aufrafft das Politik 2.0 Betriebssystem auch zu erstellen und nicht nur darüber zu reden, dann sollte sie es parallel angehen, dafür zu sorgen das so etwas wie eine Basis demokratische Politik Awarness und ein System zur Agenda setting entsteht. Für beides wird zur Zeit Twitter missbraucht, mit den bekannten Folgen für die Außenwirkung. Mit einem klassischen Abstimmungstool wie man es z.B. für Personalfragen braucht wird man das Problem des Agenda Setting mit nur verwaltend tätigen Vorständen nicht in den Griff bekommen, weil einfach nicht jeder alle Äußerungen aller anderen Piraten lesen kann. Wir sind da bei dem digitalen Analogon 30 Sekunden Redezeitproblem auf den Parteitagen. Entsprechnde Lösungsvorschläge habe ich schon vor Langer Zeit gemacht, sowohl zum Agenda setting als auch zum Awarness Problem. Passiert ist nichts - leider - keine Diskussion, keine besseren Vorschläge, keine ... einfach nichts voll digitales. Dabei hätte man mit den 70000€ die jetzt zur Verschwendung anstehen, auf dem Gebiet schon so viel erreichen können. Es ist also wie immer in der Politik: "Falsche Verteilung der zur Verfügung stehenden Finanzmittel".













08 August 2014

Was vordergründig ein Streit um das Urheberhecht ist, ist in Wirklichkeit einer um die Rechtsstellung eines Tiers

Sachlage

Ein Tierfotograf war unterwegs um Bilder von Tieren zu erstellen, um diese anschließend unter dem Schutz des Urheberrecht zu Verkaufen. Dabei bemächtigte sich ein Affenweibchen seiner Digitalkamera. Das Affenweibchen fand heraus, wie man Bilder erstellt, und spielte damit herum. Unter anderem entstanden so auch Selbstportraits. Es ist eine Bewiesene Tatsache, das Affen sich selbst Beispielsweise in einem Spiegelbild selber erkennen. Man fand das Heraus, indem man die Tiere ohne ihr Wissen mit Farbe markiert hat, und beobachtet hat, wie die Tiere selbst gezielt die betroffen Stellen des Fells zu säubern versuchten.

Wikimedia Argumentiert nun, das der Affe kein Träger des Urheberhechts sein, und sein Werk insoweit gemeinfrei ist. Der Fotograf proklamiert, er sei Inhaber des Urheberrechts, weil die Kamera die Seine ist.

Bildquelle: Wikimedia

Was spricht für den Fotografen

Man braucht nicht selber auf den Auslöser einer Kamera zu drücken, um das Urheberrecht an einer Aufnahme zu haben. Es ist Unstrittig, das andere Formen der Auslösung einer Aufnahme ebenso ein Urheberrecht begründen. Beispielsweise mit einem in der Kamera eingebautem Zeitgeber. Oder aber mit einem Sensor. Bei Tierfilmer sind sogenannte Fotofallen weit verbreitet. Das sind Apparaturen, die an einem Wildwechsel oder einer vergleichbar geeigneten Stelle aufgebaut werden, und die dann mit einer Lichtschranke oder einem Bewegungsmelder ausgelöst werden. Im ersten Fall wird die Abschattung einer Lichtquelle um zweiten Fall das Auftreten von Infrarot Emissionen gemessen, um das erstellen eines Bildes auszulösen.

Der Auslöseknopf an der Kamera ist nichts weiter als ein Drucksensor, der bei der Feststellung eines punktuellen Druck auf einen bestimmten Bereich der Oberfläche der Kamera die Erstellung eines Bildes veranlasst. Wenn man also das Tier streng als Sache betrachtet, muss man dem Fotografen recht geben. Die Rechtsauffassung ein Tier nur wie eine Sache aus toter Materie zu behandeln wird aber zum Beispiel im deutschen Raum so nicht mehr vertreten.

Was spricht für Wikimedia

Um die Rechtsposition von Wikimedia zu vertreten, muss man dem Affen eine Bewusste Handlung zubilligen. Das kann man wie Dargelegt aus wissenschaftlich Sicht der Dinge so vertreten. Dann hat der Fotograf die Bilder eben nicht erstellt, er ist somit Genauso wenig Inhaber eines Urheberrechts wie der Eigentümer eines Fotoapparats wenn ein anderer Mensch ein Foto damit macht.

Im Fall des Affenweibchens war der zeitweise Erwerb des Besitzes vermutlich aber ohne Einwilligung des Eigentümer erfolgt - nach Menschlichen Maßstäben also Unrechtmäßig.

Um die Rechtsauffassung von Wikimedia zu Vertreten bedarf es also einer gewissen begrenzten bewussten Rechtsfähigkeit, die aber ihre Grenzen in der Einsicht was Falsch und Richtig ist und in der Fähigkeit Träger des Urheberhechts zu sein.

Alternativ zeigt die Qualität des Bildes, das man heute wirklich keine Ahnung haben muss, um gute Bilder zu machen. Die Tatsache, das die Erstellung eines fotografischen Bildes ein Urheberrecht begründet stammt aus einer Zeit, als Fotografieren eine Mischung aus Kunst und Wissenschaft war. Damals lehnte sich das Urheberrecht der Fotografie an das Urheberrecht der Malerei an. Man könnte sich Fragen, ob überhaupt jedes Bild ein Urheberrecht begründen soll ohne das nicht weitere Faktoren der Werkschöpfung hinzukommen.

Was spricht für den Affen

Es gibt aber noch eine Dritte Form der Betrachtung. In Indien sind Delfine als nicht menschliche Personen, die zum Beispiel nicht gefangen genommen werden dürfen, anerkannt.

Aus wissenschaftlicher Sicht spricht vieles Dafür, Primaten einen solchen Status zuzubilligen. Eine taubstumme Tierpflegerin in einem amerikanischen Zoo hat einem Schimpansen Elemente der Taubstummensprache beigebracht, und konnte sich so mit den Tieren verständigen. Es zeigte sich, das die Tiere diese Fertigkeit auch an ihren Nachwuchs weitergegeben haben.

Wäre das Bild durch ein geistig schwer behinderten Menschen entstanden, wäre der Fall klar. Ein Anwalt könnte sich mit dem Versprechen nach einem für diesen Menschen verständlichen Vorteil wie zum Beispiel jeden Tag einen leckeren Schokoladenkuchen ein Mandat besorgen, und die Urheberrechte geltend machen. Er müsste sich dann zwar mit dem Eigentümer wegen der Kameranutzung einigen, aber die Tantiemen aus dem Urheberrecht stünden definitiv ihm primär zu. Eventuell muss auch erst eine Vormundschaft durch Verwandte oder Rechtspfleger errichtet werden, damit jemand bereitsteht, der die Interessen der zu vertretenen Person erst mal in fürsorglicher Art und Weiße rechtlich genau definiert.

Wenn ein Affe auf die in Taubstummensprache - Affen können aus anatomischen Gründen keine Laute einer Sprache artikulieren - gestellte Frage wie "Willst du lieber Banane oder einen Apfel haben" beantworten kann, dann stellt sich auch die Frage, ob ein Affe eine Mandat erteilen könnte, seine potentiellen Rechte geltend zu machen. Beispielsweise mit der positiven Antwort auf die Frage "Wenn ich die vertrete kann du jeden Tag 2 leckere Bananen bekommen. Soll ich das machen?" Der Affe wird zwar natürlich nicht im Detail die rechtlichen Transaktion überblicken - aber das kann man vermutlich auch von einem nicht unbedeutenden Teil der Menschheit behaupten. Eine Vormundschaft durch Verwandte scheidet zwar in dem Fall aus, aber durch einen Rechtspfleger, das ist durchaus denkbar.

02 August 2014

Ein Friedensplan für den Nahen Osten, der wie Sciencefiction klingt aber funktionieren könnte: Die Halbinsel Israel

Es ist, gemessen an der Existenzzeit des Problems, das anspruchsvollste Problem, dem sich Politik stellen kann. Das Problem Entstand von seinen Ursprüngen her schon zu Zeiten des römischen Imperiums in der Zeit von 66 bis 74 nach Christus. Damals entsandte der Imperator Nero nach einer schlappe des Römischen Imperium Vespasian - der nach Nero Kaiser wurde - und Titus - sein Sohn und übernächster Kaiser des Imperium Romanum - in die Region, die nach dem Motto "keine Gefangenen" Krieg gegen die jüdischen Stämme führten.

Am Ende der Auseinandersetzungen waren 1,1 Millionen Menschen jüdischen Glaubens tot, weitere 97.000 wurden in die Sklaverei verschleppt, der Rest der freien Menschen fand sich in der Diaspora auf viele Länder verteilt wieder. Rund 1800 später kam man nach der Zerschlagung des Osmanischen Reichs der Türken auf die Idee, eine Basis für die Einwanderung von zukünftigen Israeli in ihre Seit 18 Jahrhunderten von anderen Völkern bewohnten Areale zu schaffen. Dazu wurde dem Völkerbund Großbritannien ein Mandat übertragen, das die Gebiete des heutigen Jordaniens, die Westbank, Israels und Gaza umfasste. Den schwarzen Peter der Ausarbeitung einer Regelung für das Zusammenleben der alten und der neuen Einwohner hat man vornehm an Großbritannien delegiert.

Um Kosten und potentielle Schadenersatzforderungen zu verhindern, hat man die Einwanderung zunächst so definiert, das in die bestehenden Verhältnisse und Rechtspositionen der alten Einwohner nicht eingegriffen werden durfte. Das war auch Problemlos Möglich, weil es auf dem Gebiet des heutigen Israels noch zahlreiche ungenutzte Ressourcen wie zum Beispiel Sümpfe gab, die so eine Ansiedlung neuer Einwohner ohne Eingriffe in alte Rechtsverhältnisse zuließ. Hinzu kam, das die Einwohner über Stiftungen aus der Diaspora finanzielle Unterstützung für den Ankauf zum Beispiel von Land erhielten.

Großbritannien mühte sich redlich damit, einen Plan auszuarbeiten der sowohl der israelischen als auch der palästinensischen Seite gerecht wird. Aber den alteingesessenen Einwohner passte die gesamte Richtung nicht, das ihre Heimat aufgeteilt werden sollte. Eine Einigung konnte so nicht erzielt werden. Als das britische Mandat ausgelaufen ist, proklamierten die neuen Einwohner den Staat Israel, und wurden umgehend von den alten Einwohnern und den Armeen der Nachbarstaaten militärisch angegriffen.

Damit wurde ein Zyklus angestoßen, der in dieser Form bis heute ununterbrochen Anhält. Die Palästinensische und verbündete Araber greifen Israel in wechselnden Koalitionen an. Aber die Israelis sind besser Vorbereitet und können diese Angriffe jedes mal zurückschlagen. Jedes mal geht Israel gestärkt und größer als der Auseinandersetzung hervor. Und mal um mal mussten sich die Angreifer zurückziehen und Zivilisten fliehen. Als Begründung für die Erweiterung Israels wird in so einem Fall von "berechtigten Sicherheitsinteressen" gesprochen. Den Beweis für die Notwendigkeit so einer Forderung hat die palästinensisch arabischen Koalitionen jedes mal selbst frei Haus geliefert.

Die Hamas lehnt die Existenz Israels ab, ist von den Einwohnern demokratisch Legitimiert und feuert auf Israel Raketen ab. Da dürfen sich die Bewohner nich beschweren - zum Zweck der Vermeidung von Aufrüstung - permanent mit einer Seeblockade belegt zu werden. An sich haben die Einwohner einen Zugang zum Mittelmeer über den sie Handel betreiben könnten, wenn sie den nicht ihrem Nachbarn als Loser im permanenten Kriegszustand befinden würden. Ihre Grenze zu Ägypten nutzt ihnen auch nicht, weil Ägypten einen Friedensvertrag mit Israel abgeschlossen hat. Im Zuge dieses Friedensabkommen hat Israel den besetzten Sinai an Ägypten zurückgegeben. Dabei wurden auch alle israelischen Zivilisten - auch gegen deren Willen - von Israel mit nach Hause genommen. Später kam auch mit Jordanien ein Friedensabkommen zu Stande. Dort gab es keine Notwendigkeit für die Entflechtung, der Wille der Nationen sich gegenseitig zu akzeptieren reichte aus.

Die Palästinenser in Gaza, in der die Hamas "regiert", sind die Bürger in ihrem militärischen Konflikt mir Israel gefangen, auf der Westbank ist das Land zerklüftet wie eine Flickenteppich, den man im Fernsehen gar nicht recht erkennt, einfach weil die Auflösung des Geräts nicht ausreicht. So kann kein Staat funktionieren, wenn Straßen mit Toren versehen sind und man Morgens erst mal nachsehen muss, welche davon gerade mal offen sind. Mich erinnert dieser Plan des Abkommens an das Apartheid System Südafrikas. Das konnte, Wunder passieren immer wieder mal, friedlich überwunden werden.

Bildquelle: Wikipedia

Ob das in Israel und Palästina möglich ist? Das ist extremst unwahrscheinlich. Sowohl die islamische als auch die jüdische Religion erheben so etwas, was man einen gesetzgebenden Anspruch nennen muss. Und da mit inkompatiblen Vorgaben. Beispiel: Für orthodoxe Juden ist der Samstag heilig, für fundamentalistische Moslems der Freitag. Und vieles andere mehr. Ein säkulares Staatswesen würde in einem solchen gemeinsamen Konstrukt von der Mehrzahl seiner Bürger aus tiefsten Herzen verachtet. Es führt also kein Weg an der Erkenntnis vorbei, das der Nah Ost Konflikt unlösbar ist. Die Menschen, zum Beispiel in Gaza, werden von der internationalen Gemeinschaft allimentiert. Sie können weder Auswandern noch wirtschaftlich tätig werden. Bezug von Gütern ist umständlich und langsam, bis alle Genehmigungen da sind; der Zugang zu natürlichen Ressourcen der Region wie Wasser wird von Israel streng überwacht, ...! So kann man keine konkurrenzfähigen Produkte herstellen. Und wenn sie sich eine bescheidene Existenz aufbauen, dann wird die in schöner Regelmäßigkeiten in selbst angezettelten militärischen Auseinandersetzungen zerstört. Das Ganze ist vermutlich nicht ganz Zufällig, denn in einer wirtschaftlich prosperierenden Gesellschaft verschiebt sich der Machtfokus von den militärischen zu den wirtschaftlichen Führern.

Ich bin zufällig auf eine Lösung gestoßen, als ich mich im Kontext der "Welt ohne Menschen" Filme Gedanken darüber gemacht habe, wie den Israel in 100.000 Jahren aussieht. Unter Israel sind gewaltige Kräfte aus dem Erdinneren am Werk, die dort fortwährend die Landschaft gestalten. Das auf seinem Grund über 700 Meter tiefe Tote Meer ist der nördlichste Teil des afrikanischen Grabenbruch. Der östliche Teil Afrikas wird von den Konvektionen im Erdmantel vom Rest des Kontinents abgerissen. Sobald eine Seite eines schon heute unter dem Meeresspiegel liegenden Bereichs Zugang zum Meer erlangt, bildet sich ein neues Meer indem das Meerwasser in die Senke strömt. In Israel bildet bewegt sich das Land westlich des Jordan 0,5-1 meter pro 100 Jahre nach Süden im Bezug zur arabischen Platte westlich des Jordans. Dadurch wird das Land in der Jesreelebene um 500 Meter gedehnt, wodurch die Sohle des Tals vollständig unter den Meeresspiegel sinken wird und in der Folge das Mittelmeer die Jordan Senke fluten - zumindest wenn es keine Menschen gibt, die sich mit Staudämmen einmischen.

Bildquelle Google Earth screenshot, bearbeitet mit Gimp zur Blau Markierung aller Niveaus unter Normal Null und des potentiellen Verbindungskanals zum Mittelmeer
Was für eine perfekte Lösung. Zwei Halbinseln für die ewigen Streithammel. Damit wird es eine physikalische Trennung, welche die Konfliktparteien Trennt geben. Die Palästinenser erhalten das nördlich des neuen "Golf von Haifa". Damit haben sie genügend natürliche Ressourcen, speziell das gesamte Jordan Wasser des Oberlaufes um sich als eher einfach strukturierte Gemüter selber ernähren zu können. Hinzu kommen reichhaltige neue Fischgründe durch die lange Küstenlinie. Die Israelis erhalten ein Land, das sehr gut zu Verteidigen ist. Dort wo noch Landgrenzen vorhanden sind, haben sie Friedensverträge. Besser kann es nicht laufen.

Bleiben jetzt eigendlich noch zwei Fragen zu klären: Es müssen jede Menge Menschen umziehen, um Platz für das neue Meer zu schaffen und das Durcheinander zu entwirren. Wer soll das Bezahlen? Nun das ist erstaunlicherweise gar nicht so schwer. Menschen bauen gern am Wasser. Und Menschen verbrennen jede Menge Kohlenstoff. Aus diesem Grund erwärmt sich die Atmosphäre der Erde. Das führt zum Abschmelzen von Eis auf Bergen und Ländern wie Grönland. Dadurch wird der - im Gegensatz zum schmelzen des Schwimmenden Eis am Nordpol - der Meeresspiegel erhöht. Damit erhöht sich aber auch der Peger der größten Flut bei ungünstigen Umständen wie eine Springflut - Sonne und Mond in einer Linie - in Kombination mit einer Sturmflut - Auflandiger Wind. Mit anderen Worten, es gibt rund um die Welt Menschen, die im erheblichen Umfang davon Profitieren würden, das 1800 Kubikkilometer aus dem Meer "abfließen" können und sich der Meeresspiegel damit um ca einen halben cm abfällt. Damit wird bei einem Anstieg des Meerespiegel durch Abschmelzendes Eis von 2,9 ± 0,4 mm pro Jahr Gebäude in Küstennähe - also solche die auf einem Grundstück mit weniger als zum Beispiel 5 Meter über Normal Null errichtet wurden - eineinhalb Jahre länger bis zu ihrer Zerstörung durch das Meer genutzt werden können. Das wäre eine mögliche Bemessung für eine globale Umlage. Dies wäre eine Summe die als Schaden als Kompensation auf die Verbrennung von Kohlenstoff binnen dieser eineinhalb Jahre Umzulegen ist. Damit Trifft die Umlage dann die Verursacher des Problems.

Es gibt übrigens noch weitere Senken für Wasser, die man mit Meerwasser füllen kann, beispielsweise in der Sahara oder auch die Senke des Kaspischen Meer. Übrigens, auch jedes errichtete Wasserkraftwerk, das Wasser auf dem Land festhält wirkt dem Ansteigen des Meeresspiegel direkt entgegen. So bewirkten die Wasserkraftprojekte 1930 bis 2007 eine rechnerische Senkung des Meeresspiegel von 0,66 mm /Jahr. Die erhöhen der Wasserfläche vergrößert im Übrigen auch die Verdunstung, was zum einen zu einer Erhöhung der Niederschläge beiträgt und zum anderen durch eine vermehrte Wolkenbildung auch die Albedo - die Rückstahlkraft der Erde - vergrößern dürfte.

Die zweite Frage, die sich stellt, müssen die Palästinenser jetzt noch 100.000 Jahre in ihrem Gefängnis ausharren bis die Natur eine saubere Teilung des Landes vollzieht? Nicht unbedingt. Die höchste Stelle der Jesreelebene zwischen dem Strand des Mittelmeers und der Jordansenke ist lediglich 60 Meter über normal Null. Der Abstand zwischen dem Strand und dem nächstgelegenen normal Null Pegel beträgt gerade mal 42 Kilometer. Das ist weniger als das 7 fachen, das Menschen vor über hundert Jahren beim Bau des Kanals von Korinth bewältigt haben.

Bildquelle: Wikipedia

Das Projekt Halbinsel Israel ist also durchführbar, mit Hilfe der entwickelten Klimamodelle sollten sich auch die Folgen für das Lokale Klima abschätzen lassen. Zugegeben, der Plan ist Irrsinnig und gehört eigentlich in das Reich der Gedankenexperimente, aber alles was nicht Irrsinnig ist, dürfte ja schon in den letzten 100 Jahren Diskutiert worden sein. Also bedarf es zur Lösung eines wirklich Innovativen, noch nie dagewesenen Ansatz, und das ist die Idee mit der Halbinsel Israel ohne Frage.