Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

22 September 2014

Wie Premium Content Anbieter das Internet unnötig zu Müllen ... und warum Netzneutralität kaufmännisch zu definieren ist!

Anlässlich der Tatsache, das jetzt auch Netflix in Deutschland aktiv wird, will ich als Internetprovider einen Nochmaligen Versuch starten, den Piraten klar zu machen, das Netzneutralität eine Frage ist, die kaufmännisch zu regulieren ist.

Zunächst brauch ich einen "Premium Content", den ich hier zitieren kann. Dafür sollte der Content nicht zu lang sein, einen sinnvollen Abschluss haben aber nicht die Ganze Sendung umfassen. Außerdem sollte der Contet aber auch eine gewisse Länge haben, damit die Codierung repräsentativ ist. Meine Wahl viel auf Prof. Dr. Lesch der im Rahmen der Serie α-Centaurie erklärt, "Was ist der Big Crunsh?". Link macht leider keinen Sinn wegen der blödsinnigen Unart des de publizieren nach in paar Tagen. Hier also das Original mit einem Bild nach 2:30, welches wegen der Deko ein relativ komplexes Bild ist. Sie können die vollen 3 Minuten welche ich für diesen Vergleich erzeugt habe, jeweils mit dem Link unter dem Bild Runter laden, um sich die Bilder auch bewegt im VLC ansehen zu können.

Ich habe das Video in erst mal im Momentan verwendeten Verfahren H264 recodiert, wobei ich aber alle Optionen der Rechenleistung und Codierung aktiviert habe. Es gibt einige Geräte, die per Hardware codieren und dementsprechend über begrenzte Ressourcen verfügen. Diese haben hier keine Beachtung gefunden, weil es um Übertragungen zu Software gesteuerte Geräte geht.

Original Br-α, H264, 28 MB/Min



Video Download

Halbe Rate, H264, 15 MB/Min



Video Download

Viertel Rate, H264, 8 MB/Min



Video Download

Achtel Rate, H264, 4 MB/Min



Video Download

Bis hierhin nahm die Bildqualität nur Marginal ab. Bei 4MB/Minute hat ein Abendfüllender Spielfilm 480 MByte und passt schon locker auf ein CD. Auf eine 1 TB große Festplatte für 60€ passen 2000 File ... mehr als genug für fast jede Filmsammlung. Eine angemessen gute Codierung - ich habe meinen Rechner sehr lange rechnen lassen - marginalisiert schon mit der heutigen Codierungstechnologie das Produkt Film wie das in den 1990 mit dem Produkt Musik passiert ist.

Da die Filmindustrie dies auf gar keinen Fall will, halten sie die Grösse von Videos künstlich groß. So werden HD Filme in Satelliten TV mit 45 MB/Minute gesendet. Diese kann natürlich nich verändert werden, weil sich die TV Infrastruktur in den Low Cost Controllern durch Asics definieren, die kaum programmierbar sind. Selbst eine Verbeserung der Codierung wie sie das ZDF durchgezogen hat, kann dazu führen das das Programm nicht mehr ohne Stocken Dekodierbar ist.

Sechzehntel Rate, H264, 2 MB/Min



Video Download

Erst bei dieser super knauserigen Kompression können die Bilder deutlich erkennbar verzerrt werden. Sie müssen aber schon auf das Bild klicken, die Vergösserung hervorholen und die Bilder im Vergleich bewerten. Auf den ersten Blick werden sie nichts merken. Aber das ist ja nicht das Ende der Möglichkeiten. Es gibt einen neuen Video Standard H265 - zu dem es auch wieder die Lizenzfreie WEBM alternative als VP9 gibt. Mit diesem Verfahren ist es möglich, ohne Ratenvorgabe ein HD-Video verlustfrei im ramen der visuellen Erkennbarkeit mit nur 3 MB/Min zu Kodieren.

H265, ohne Vorgabe über Datenraten, 3 MB/Min



Video Download

Würde man die Netzneutralität technisch festschreiben, so haben Internetprovider keine Möglichkeit mehr, sich gegen Bandbreitenverschwendung zur Wehr zu setzen. Das genau ist es, was die Filmindustrie erreichen will. Sie kann dann ihre Extraspuren für das Internet einrichten, auf denen Filme unterwegs sind und den Rest so verstopfen, das dort keine Filme mehr dort transportiert werden können.

Große Provider wie die Telekom können direkt mit Anbietern wie Netflix Peeren, Projekten wie Freifunk oder kleine Provider werden durch künstlich Vergrößerte Inhalte schlicht das Lebenslicht ausgeblasen, weil sie für die meisten Konsumenten uninteressant werden. Sie werden z.B. bei Apple TV nicht mal im Gerät für die Leihdauer eines Film gespeichert. Für jedes mal Ansehen wird der Film in epischer Länge durch das Internet gezogen und der Traffic muss vom ISP Finanziert werden. Die Premium Anbieter verwenden DRM, so das die größten Objekte nicht Cachebar sind. Aber selbst bei direktem Peering muss die Telekom ihr Netzwerk erheblich aufrüsten.

Auf dem Land lässt sie sich das von dem Landkreis bezahlen ... und das obwohl es meist LTE und überall Satelliteninternet als schnelles Internet gibt. Aus diesem Grund empfehle ich der Piratenpartei dringend, die Netzneutralität kaufmännisch zu definieren. Nur so können die Anbieter die optimale Ausnutzung der Ressourcen gegenüber den Anbietern durchsetzen und sich gegen solche zur Wehr setzen, die Ressourcen aus vorsätzlich oder fahrlässig verschwenden.


19 September 2014

Hatten die Schotten Angst vor der eigenen Courage zur Unabhängigkeit?

Schottland hat gewählt. Mit einer keinen aber eindeutigen Mehrheit von 54% für den Verbleib in vereinigten Königreich. Mit der Drohung nicht mehr im Vereinigten Königreich bleiben zu wollen, haben Sie dennoch Großbritannien verändert.

Die Versprechen die nötig waren um das Nein zur Unabhängigkeit zu bekommen, werden aus Großbritannien einen föderalen Bundesstaat machen. Bisher gab es das Paradoxon, das die Schotten sein 1999 schon Rechte hatten, welche die andere Menschen in Großbritannien nicht hatten. Die selben Fragen die in Schottland im Regionalparlament entschieden werden, werden für die anderem Menschen im Unterhaus - unter Einbeziehung der Schottischen Abgeordneten - entschieden. Das kann so nicht bleiben, erst Recht nicht, wenn die Versprechen an die Schotten umgesetzt werden.

Dieses "West Lothian question" soll jetzt angegangen werden. Damit würde Großbritannien zu einem echten Bundesstaat werden mit den Ländern England, Wales, Schottland und Nordirland. Das ist zur Zeit mit Sicherheit die beste Entwicklung mit den geringsten Risiken. Die erweiterten Autonomierechte werden auch die Probleme in Nordirland weiter entschärfen.

Trotzdem bin ich sehr Enttäuscht. David Camaron hat es in seiner Rede heute morgen gesagt: Das die Frage der Unabhängigkeit Schottlands für eine Generation geklärt sei. Damit haben die Schotten vermutlich auch gegen die EU und für die orwelschen Überwachungsstaat den die Engländer entfacht haben. Die Frage der Mitgliedschaft von Großbritannien in der EU wird von den Verhandlungsdelegation immer wieder in Frage gestellt. Würde Großbritannien die EU verlassen, müssten die Schotten die im Grund EU und Euro freundlich eingestellt sind mit.

Großbritannien hält es für Wichtig, andere Völker per Anzapfen von Glasfaserkabel zu belauschen. Das ist aber auch so ein Punkt, der nicht vereinbar ist mit den Datenschutzvorgaben der EU. Dieser Punkt ist zu klären, auch wenn die anderen Regierungen krampfhaft versuchen, dies unter den Teppich zu kehren. Insoweit bin ich mir nicht sicher, ob Großbritannien auch weiterhin Mitglied in der EU bleiben wird.

Meiner Meinung nach hat die Schottische Nationalpartei es versäumt, genauer Auszuführen wie sie Wichtige Frage angehen will wie die Frage nach dem zukünftigen Geld. Ein größer Teil der Bevölkerung dürfte in diesem Punk bedenken gehabt haben. Wahnanalysten sagen, es gebe eine eindeutigen Zusammenhang zwischen einer guten Beschäftigunsituation und der Zustimmung zur Unabhängigkeit.

Zum Schluss noch ein Wort zur Wahlbeteiligung. Politik ist den Menschen nicht egal. Wenn es um Wichtige Entscheidungen mit einer klaren und konkreten Weichenstellung geht, dann ist das Interesse an der Wahrnehmung des eigenen Stimmrecht entsprechend Groß. 97% der Wahlberechtigten haben sich registrieren lassen, 84.6% haben an der Wahl teilgenommen.

Nachtrag 20.09: Oder war es am Ende gar nicht die Angst vor der eigenen Courage sonder schnöde dunkle Machenschaften des mächtigen Geheimdienstapparates von Großbritannien, der für das "gewünsche" Ergebnis gesorgt hat? Das folgende Video ist auf jeden Fall extrem erklärungsbedürftig:



Sind hier die Geheimwurschtler aus Großbritannien über ihre eigene Videotie gestolpert? Oder hat sich ein frustrierter schottischer Separatist einen Joke erlaubt? Nach einer Normalen Auszählung einer so einfach strukturierten Abstimmung sieht das jedenfalls definitiv nicht aus! Ich erwarte als EU Bürger eine genaue und unabhängige Untersuchung, was da Vorgefallen ist.

Nachtrag 20.09: Jetzt taucht noch eine Aufzeichnung auf, in der ein Zähler einfach mal selber Wahlzettel ausfüllt. Schon erstaunlich was HD Bilder so alles verraten ...



Und das unter den Wachsamen Augen von "Scotland" Yard, was ein Hohn.

Nachtrag 20.09: Immerhin sehen sich die Leute die Videomaterial über das Auszählen des Schottischen Unabhängigkeitsreferendum haben, dieses sehr genau an. Von der Lady mit der unorthodoxen Zähltechnik ist jetzt noch ein Video aus einer anderen Perspektive aufgetaucht.



Das spricht dafür, das hier in der Tat irgendwas nicht in Ordnung wahr. Ein Video Joke wird damit extrem unwahrscheinlicher. Russland greift die Kritik als erstes auf, das war zu erwarten.
Das liefert noch einen dritten Verdächtigen: Könnte natürlich auch sein, das Putin Werbung für seine Vorstellung von der "gelenkten Demokratie" machen will, und eine Agentin zur plumpen Wahlfälschung eingeschleust hat. Nach dem Motto, die im Westen machen auch nichts anderes. Wie gesagt, die Sache gehört untersucht! Was immer dazu nötig ist. Nachzählen zum Beispiel.

Nachtrag 20.09: So was! Nachträge im Minutentackt! Das wird ja immer Lustiger: Alle Zähler wegjagen mit einem Feueralarm? Das sind ja Zustände wie unter Stalin ...



Nachtrag 23.09: 18% Briefwähler und dann die Urnen vorzeitig öffnen ... wenn das mal kein Grund für eine Anfechtung ist ...

04 September 2014

Wo Leben wir ... diese fundamentale Frage hat eine neue Antwortebene erfahren ...

Die meisten Menschen ... von einigen Religioten mal abgesehen ... dürften wissen, das wir auf der Erde Leben, die im Sonnensystem um die Sonne kreist.

Das Sonnensystem kreist seinerseits zusammen mit anderen um das Zentrum der Milchstraße. So weit der bisher Weitläufig bekannte Teil der Antwort.

Und die Milchstraße wiederum fliehst in einem Strom der Materie der Superclusters Laniakea mir. Laniakea ist eine Wabe in der globalen gravitativen Struktur des Universums. Diese Struktur passt zu einem Überbleibsel der Quantenfluktuation aus der Frühzeit des Universums vor der Inflationsphase der Raumzeit. Dies Inflationsphase sorgte durch ein Superschnelles auseinander ziehen des Universums für die Gleichmäßigkeit der Verteilung der Materie im Universum und erklärt die dazu nötige Feinabstimmung.

01 September 2014

15% Nazis und Rechtsextreme werfen ihren Schatten voraus ...

Das Ergebnis der Wahl in Sachsen ist keine Sternstunde für die Demokratie. Zwar ist die NPD mit dem knappest möglichen Ergebnis an der 5% Grenze gescheitert, und damit nicht mehr im Landtag. Dafür hat man sich die Fremdenfeindliche AFD, so eine Art NPD leight, eingefangen.

Aber trotz oder gerade deswegen ist man in Sachsen echt schräg drauf. Wer das amtliche Endergebnis einsehen will, der muss den staatlichen Stellen in Sachsen Zugriff auf seinen Rechner gewähren! Geht es noch? Ihr Spinnt!


Die Piraten sind von 1,9 auf 1,1% gefallen, da hab ich nichts anderes Erwartet. Zum einen hat die Piratenpartei ihre Hausaufgaben des Demokratieupdate 2.0 (noch?) nicht fertiggestellt. Zum anderen laufen natürlich auch Mutties Speicher lecker zu agitatiever Höchstleistung auf. Agitation ist, was nicht gesendet wird.

Betrachtet man die Presseseite der FSA 2014, dann erkennt man das wieder viele Piraten präsent waren.



Jeder der unvoreingenommen in Bild und Ton Berichtet wird dies auch Tranportieren



Das ZDF hat es aber wie 2013 wieder Geschafft in den 19:00 Hauptnachrichten so zu schneiden, das nicht ein einziges Symbol der Piratenpartei zu sehen ist. Das werden die Bürgerlichen Wähler gezielt abgeschirmt. Habe das auch nur deshalb mitbekommen, weil ich auswärts zu Gast war. Normal sehe ich aus genau diesen Gründen keine Öffentlich rechtlichen Nachrichten. Bis jetzt gibt es auch noch keinen Permanenten Link auf den Beitrag.

Die Parteiintern kann sich also als zusätzliche Aufgabe die Schaffung einer Tatsache auf die Fahnen scheiben, über welche auch bei extremen Wieder willen aus Gründen der Zeitgeschichte berichtet werden muss.

Aber es gibt auch einen ungetrübten Lichtblick bei der Sächsischen Landtagswahl: Die FDP wurde ein weiteres mal deutlich Entsorgt!

30 August 2014

Die Gesetzliche Krankenkasse, eine Verfassungsrechtlich befreite Zone?

Die Krankenversorgung auf ein Vernünftiges Fundament zu stellen ist eine schwierige Aufgabe. Darüber kann es keinen Zweifel geben. Auch weil sich schwierige ethische und moralische Fragen stellen. Die USA hatten bis vor Kurzen keine Krankenversicherungspflicht. Dort starben, in einem ansonsten Reichen Land Menschen eine qualvollen Tod, obwohl ihr Problem mit ein Paar ein Dollar wäre zu Beheben gewesen. Jetzt wo Obama eine Krankenversicherungspflicht durchgesetzt wurde, werden natürlich auch die Gegenseiten Argumente vorgetragen. Auch und gerade wenn wenig Geld zu Verfügung steht sich die Frage nach der Finanzeierbarkit, und den Folgen die sich daraus ergeben.

Die Medizinnische Versorgung kann seht schnell Kostenmäßig völlig aus dem Ruder laufen. Als 1998 der Wirkstoff Sildenafil zugelassen wurde stand die gesamte Finanzielle Existenz der Krankenkassen auf dem Spiel. Pfitzer hatte das Patent auf diesen Wirkstoff, mit dem sich zum ersten Mal die erektile dysfunktion beim Mann Therapieren lies. Diese "Nebenwirkung" wurde eher Zufällig entdeckt, weil Probanden der Klinischen Studie für die Zulassung als Herzmedikament sogar Straffällig wurden, weil sie in das Labor eingebrochen sind, um sich weitere Prüfmedikation zu sichern, mit deren Hilfe sie nach langer Zeit wieder Sex haben konnten. Logisch, das sich Pfizer diese Pillen einzeln königlich Bezahlen lies.

Prompt war die Frage aufgeworfen, ob die gesetzliche Krankenkasse dieses Bezahlen muss. Die Kasse sagt einfach mal so nein, Sex sei Privatsache, und wurde vom Sozialgericht entsprechend korrigiert. Wäre die Kasse dazu verurteilt worden, Viagra in Indizierten Fällen in dem Umfang zu Finanzieren wie gesunde haben können, wäre sie definitiv unrettbar Pleite gewesen. Kann so was bei einer Krankheit wie erektiver Dysfunktion noch diskutiert werden, ist das bei einer frage auf Leben und Tod oder bei schweren bleibenden Schäden in jedem Fall keine Option.

Patent muss eine Soziale Komponente bekommen

Es kann also von der Gesellschaft nicht erwartet werden, das auf medizinische Güter ein unbegrenzter Schutz auf Geistiges Eigentum gewährt wird. Die Gewinnerziehlungsmöglichkeiten aus einem Patent auf ein Medizinprodukt gehört - zumindest in einer Situation ohne wirksame Konkurrenz - nach dem Grundsatz "Eigentum Verpflichtet" gedeckelt. Zum Beispiel in dem eine für beide Seite erträgliche Lizenzgebühr festgelegt wird, zu dem jeder Produzent lizenzieren kann.

Das ist wichtig, denn neben gesamtwirtschaftlichen Erwägungen wie der Höhe der Nebenkosten von Arbeit ist das auch eine gewichtige etische Frage. Denn das Geld das als Beiträge von den Mitgliedern eingezogen wird, steht diesen ja nicht mehr zu Verfügung, um eigene Maßnahmen zu außerhalb des Leistungskatalog zu ergreifen. Besonders deutlich wird das bei kleinen Selbständigen, wenn es mal knapp wird in der Kasse.

Selbständige werden gnadenlos über den Tisch gezogen

Als Selbständiger hat man die Wahl zwischen einer PKV und der GKV, wenn man zumindest einmal im Leben abhängig beschäftigt war. Die PKV ist keine wirkliche Alternative, weil diese im Alter so teuer ist, das nur bei gut situierten Personen keine zwangsläufige Privatinsolvenz auftritt. Insofern ist die "freiwillige unfreiwillige" Mitgliedschaft in der GKV alternativlos ist. Mit der neuen Pflicht zur Krankenversicherung ist das "Ein Angebot das er nicht Ablehnen kann". Aber anderes als ein Angestellter Bezahlt ein Selbständiger im Regelfall den vollen Höchstbeitrag.

Von Gleichbehandlung keine Spur

Wenn ein Selbständiger und ein anderer Selbstzahler, anderes als sein wenig verdienender angestellter Mitversicherte, nachweist das er über kein zu großes Vermögen verfügt, dann kann der zu entrichtende Beitrag bis auf den Mindestbeitrag gesenkt werden, aber nicht darunter. Es wird also pauschal angenommen, das jemand 1382½€ im Monat Verdient. Völlig egal was er wirklich Verdient, es werden 237,79€ im Monat eingezogen. Wer 450€ als Selbständiger Verdient, der Zahlt eben die Hälfte seines Einkommens für die Pflichtkrankenversicherung.

Bei Leuten, bei denen "Geld kein Problem ist" wurde vom Verfassungsgericht festgestellt, das die staatlichen Abgaben 50% nicht übersteigen dürfen. Und Natürlich darf auch das Existenzminimum nicht angegriffen werden. Die 500€ sind deutlich darunter, trotzdem sind nach geltenden Unrecht fast die Hälfte an die Staatlich verordnete Krankenkasse abzuführen. 2001 hat Das Bundesverfassungsgericht geurteilt, das dieses so Akzeptabel sei, weil die Leistung dieses Geld Wert ist. Denn damals hatte man die Alternative den Vertrag zu Kündigen.

Bei Beitragsrückständen zeigt die Krankenkasse ihr mafiösen Charakter

Das bei Selbständigen mal was schief geht, ist Normal. Das gilt natürlich besonderen dann, wenn man wie im Oben dargestellten Fall eine vergleichsweisse sehr großen Anteil seiner frei verfügbaren Mittel der Krankenkasse in den Rachen werfen muss. Kommt es dann man dazu, das in der Kasse so Ebbe herrscht und der Zwangsversicherungsnehmer seine Beiträge nicht mehr rechtzeitig genug bezahlen kann, dann Stellt die Krankenversicherung ihre Kostenübernahme bis auf eine rudimentäre Schmerzbehandlung komplett ein.

Bei einem normalen Freiwilligen Versicherungsvertrag ist das ein Normales Geschäftsgebaren. Leistung ist die regelmäßige Prämienzahlung und Gegenleistung die Kostenübernahme im Schadensfall. Bei der Krankenversicherung kommt noch Hinzu, das ein nicht unwesentlicher Teil der Leistung zeitlich Verschoben werden kann. Aus diesem Grund ist aus Versicherungsmathematischer Sicht nicht hinzunehmen, das Versicherte einzelne Monate auslassen. Deswegen bestand die Versicherung nur dann weiter wenn die Beiträge auch ohne eine Gegenleistung Nach entrichtet wurden. Jetzt mit der Krankenkassenpflicht hat die Kasse jetzt das praktische Recht, unbegrenzt viel Geld für nichts zu kassieren.

Wie das im Falle einer Gesetzlichen Pflichtversicherung rechtsstaatskoform geregelt werden kann kann man sich bei der Gesetzlichen Unfallversicherung der Arbeitnehmer ansehen. Das Vertragsverhältnis folgt aus dem Gesetz. Aus diesem Grund Zahlt die Versicherung immer im Leistungsfall. Damit Sie Ihr Geld bekommt, kann sie ihre Außenstände wie die gesetzlichen Krankenkassen vom Zoll vorrangig pfänden lassen.

Unzumutbare Extrabürokratie

Menschen, die eine Beruf gewählt haben in dem Sie jeden Tag dutzende Briefe verfassen müssen, werden diese Tätigkeit recht Problemlos erledigen können … und haben im allgemeinen keine Vorstellung davon das es Leute gibt, für die natürliche Sprache, ausführliche Rechnungen und/oder Dokumente im allgemeinen eine einziges Gräuel sind und bei denen für einen „läppischen“ Brief ein ganzer Tag … oder in meinem Fall Nacht … drauf geht. Da werden dann gerne mal wegen irgendwelcher lächerlicher Nebensächlichkeiten wie die bei Arbeitnehmer beschränkte Abzugsfähigkeit von Schulungen angeführt, um im Namen der Gleichbehandlung eine komplette eigene Bürokratie Instanz zu errichtet. Dabei wird dann aber sogar billigend in Kauf genommen, das rechtlich Grenzwertiges gemacht wird, was an anderer Stelle im Zusammenhang mit Steuern wegen Verfassungsmäßiger Probleme schon eingestampft wurde.

Ein Arbeitnehmer Zahlt, wenn er wenig Verdient, wenig Krankenversicherung. Dabei ist es völlig unerheblich, ob er Millionen von Euro, z.B. aus einer Erbschaft oder einem Lottogewinn auf dem Konto hat. Bei einem Selbständigen ist das völlig anderes. Hat er ein Vermögen welches ein definiertes Kontingent für die Altersvorsorge übersteigt, so hat er den Vollen Beitrag zu bezahlen. Soweit die Theorie, wenn man zum Beispiel Aktien hat, dann behaupten Sachbearbeiter auch schon mal gerne, das es keine Ermäßigung gäbe ... auch wenn es nur paar Aktien im Wert von 100€ Sind, um die Sogenannte Handelsberechtigung für Hochrisikopapiere wie Ausländische Nebenwerte zu behalten. Unser Fürsorgestaat, lässt nun mal nicht jeden jede Anlageform nutzen ... nur Aussichtsreiche Technologie werte das sind immer neue Firmen. Und diese sind typischerweise im Ausland, weil der meiste Teil der Erde nun mal Ausland ist.

Damit sich solche Tricks sich auch lohnen, sind zu viel bezahlte Beiträge grundsätzlich nicht Rückerstattungsfähig. So kann man wenn irgendwann nichts mehr geht, problemlos die Beute behalten. Ein solche Geschäftspolitik passt besser zur organisierten Kriminalität als zu einem tragenden Element in einem Rechtsstaat.

Auch Problematisch ist bei Vermögen die Bewertung eines Vermögenswert. Dieser ist von der Aktuellen Nachfrage abhängig und bei exotischen oder einmaligen Werten kaum reel zu bestimmen. Dies war ja auch der Grund, warum die Vermögenssteuer abgeschafft wurde. Es war keine Option zu finden, welche dem Verfassungsgericht genügt hätte. Von den Selbstzahlern der Krankenkasse wird aber erwartet das Sie eine Vermögensbewertung durchführen.

Mangelnde Schadensersatz Forderung bei schuldhaft herbeigeführt Gebrechen

Noch ein Paar Worte zu der Pflicht der Krankenkassen, die Gemeinschaft der Versicherten von ungerechtfertigten Kosten freizuhalten. Wenn also zum Beispiel ein Neonazi jemand zusammen schlägt, dann Haftet er dafür gegenüber der Krankenkasse. Er muss die Behandlungs- und die Ausfallkosten komplett erstatten. Aber schon in diesen sehr eindeutigen Fällen erfolgt viel zu selten eine Konsequentes Durchpfänden über 30 Jahre. Da diese Forderungen mutwillig entstanden sind, können sie nicht durch eine Privatinsolvenz abgebaut werden. Würden die Kassen hier ein Systematisches hartes Inkasso aufbauen, wäre das möglicherweisse sogar noch Abschreckender als die strafrechtliche Drohungen, und in soweit mehr als Wünschenswert.

Wenn durch das partiellen Verbot von bestimmten Produkten auch nur in Teilen des öffentlichen Raums sich die Kassenlage von andauernd defizitär zu länger-anhaltend positive wandelt, dann zeigt das hier akutest möglicher Handlungsbedarf in Punkto Schadensersatzforderungen gegen die Hersteller solcher Produkte gegeben ist.

Gesundheitsgefährdende Produkte Zeichen sich eben genau dadurch aus, das diese Beeinträchtigung keinen Kausalen zusammen haben. Die Schädigung kann also in jedem Einzelfall eine andere Ursache gehabt haben. Betrachtet man aber ein Kollektiv von Nutzern und vergleicht man dieses mit einem Kollektiv vergleichbarer nicht Nutzer, so kann man exakt Berechnen wie Wahrscheinlich es ist, das ein beobachtetes Übergewicht von Schädigungen in der Nutzergruppe nicht in dem Produkt ihre Ursache hat. Wenn jemand einen Schaden Anrichtet, dann Haftet er dafür. Um diesen Jemanden zu Verurteilen, muss der Richter zu dem Schluss kommen, das keine Vernünftiger Zweifel an der Rechtmäßigkeit der Forderung besteht. Bis heute können sich die Hersteller schädlicher Produkte dahinter verstecken, das es keine Wahrscheinlichkeitstheoretische Definition von Vernünftigen Zweifel gibt. Dabei wäre so was auch für Otto Normalbürger interessant, sagt es doch nicht mehr und nicht weniger aus, wie groß die Wahrscheinlichkeit ist Unschuldig ein Strafe aufgebrummt zu bekommen. Wenn eine Wahrscheinlichkeit von P=0.001 oder Weniger kein vernünftiger Zweifel mehr ist, dann heißt das, das weniger als einer von 1000 Angeklagte unschuldig verurteilt wird. Der Schaden in einem Kollektiv ist aber – nicht zuletzt durch den Großversuch mit dem Verbot in teilen des öffentlichen Raums ohne jeden vernünftig zu nennenden Zweifel erweisen. Die Weg zu einer solchen Definition kann nur darüber erfolgen, das man durch Auswertungen erfolgreicher Wiederaufnahmeverfahren eine untere Schranke für den gelebten vernünftigen Zweifel ermittelt und dann nachweist, das der Wahrscheinlichkeitstheoretische Zweifel um vieles kleiner ist. Damit wäre dann der Beweis erbracht, das ohne Vernünftiger Zweifel im herkömmlichen Sinn in gewisser Anteil der Schadensfälle aus dem Kollektiv auf das Produkt zurückzuführen ist.

Da die Nutzer solcher Produkte auch Wähler sind, kann hier kaum auf Abhilfe durch den Gesetzgeber gehofft werden. Erschwerend kommt hinzu kommt das solche Produkte wie die Zigaretten oder Alkohol mit hohen extra Steuern belegt sind. Nur die Versickern im Haushalt, anstatt das sie den Krankenkassen sicher zugute kommen. Den Ersatz für solche Schäden muss die Versicherungswirtschaft selber von den Herstellern vor Gericht einfordern. Die gesetzlichen Krankenkassen sind hier, bedingt durch Mitgliedschaft per Gesetz hier ihren Mitgliedern im Allgemeinen, und den Arbeitnehmern in besonderen, verpflichtet, denn alleine die Frage des Schadens den Zigaretten anrichten, so hat die Erfahrung mit dem partiellen Verbot gezeigt, ist geeignet die Kostenlast signifikant zu reduzieren. Würde man das Konsequent durchziehen, könnte man unter Umständen auf fragwürdige AGB-Tricks vermutlich schon zur Gänze verzichten. Bei einem Angebot von dem Menschen per Gesetz verpflichtet sind es anzunehmen ein absolutes muss.

Der Umgang mit Versicherten im Leistungsfall

War es bisher übel, dann wird es jetzt Megaübel. Ich habe meinen Eltern geholfen, meine Oma zu Pflegen. Die Zeitscheiben bei der Pflege sind nach meiner Erfahrung einfach nur Absurd. Und die Festlegung, wer denn wann welche Bekommt ist nach dem Folgenden Beitrag als dunkelstes Kapitel in der Zusammenfassung über die Rechtsstaatlichkeit des jetzigen Krankenkassensystem zu bezeichnen.



Das muss alles vor dem Hintergrund gesehen werden, das die sozial schwächeren Betroffenen auf die Leistungen der Krankenkassen existentiell angewiesen sind, weil ja schon die Gelder auch schon für einfache Erleichterungen zuvor bereits in Form von Krankenkassen Beiträgen abgezogen wurden.

Fazit eine kombinierte Bürgerversicherung für Pflege und Krankheit ist Unumgänglich

Die Krankenkassen existieren zur Zeit in einer VBZ - einer "Verfassungsrechtlich Befreiten Zone". Im Grunde Müsste das Bindeverfassungsgericht die Krankenversicherungen in ihrer jetzigen Form aus Gründer offensichtlicher Missachtung der Verfassung kassieren und dem Gesetzgeber beauftragen, Regeln aufzustellen wie die bisherigen Marktteilnehmer eine Bürgerversicherung organisieren können. Zentraler Punkt ist ein einheitlicher Beitrag den jeder Einkommensabhängig über Finanzamt Entrichtet, vergleichbar der Kirchensteuer. Nur das man sich eben nicht für die generell Kostenfreie Alternative "Atheismus" entscheiden kann und das eine "Beitragsbemessungsgrenze" gibt ab der nur ein Höchstbetrag fällig wird.

Die Privaten Krankenversicherer müssen sich auf Aufbaupakete beschränken, wie zum Beispiel die "jederzeitige Chefarztbehandlung", die ihren eigenen Mehrwert haben, aber kein "Must Have" sind.

18 August 2014

Möglichkeiten und Grenzen von Funk- und Meshnetzen

Was ist ein Meshnetz

Heutige Kommunikationsnetze haben ein sehr stark zentralisierte Struktur. Es wird von einer sternförmigen leitungsgebundenen Infrastruktur ausgegangen, an deren Enden sich die Endgeräte befinden. Das gilt auch für die Drahtlosen Netze, bei denen nur die letzte Verbindung durch eine Funkverbindung ersetzt wurde. Diese Netze unterscheiden sich neben den technischen Details der Übertragung nur in der Zellen. In Absteigender größe sind das GPRS, UMTS, LTE, WLAN.

In den Anfängen des Internets war das Internet ein Meshnetz aus Festverbindungen. Die Verbindungsleitungen der Knoten waren wie ein richtiges Netz angeordnet. Wenn eine Leitung ausgefallen ist, dann hat die Software der Router - den Knotenrechnern - automatisch eine Umleitung gefunden, so das der Ausfall nicht aufgefallen ist. Die war Entwicklungsvorgabe, weil man das Internet benutzen wollte, einen atomaren Gegenschlag zu Organisieren. Da Internet ist auch heute noch so aufgebaut, allerdings nur noch im internationalen Maßstab. Der Grund dafür ist in der überragenden Transportkapazität von Glasfasern zu suchen. Es ist oftmals billiger ein Signal durch die halbe Republik oder noch weiter zu scheuchen, als eine neuen Leitung von 5km Länge zu bauen. Kein Wunder, 100-2000€ pro Meter kommt eine ganze Menge zusammen.

Durch die Vielzahl von Geräten welche Senden und Empfangen können stellt sich die Frage, ob auch ein Internet ohne Kabel existieren kann und was es Leisten kann. Ich selbst stelle, weil ich verhindern wollte das die Bürger meines Stadtteils mir bei den Frequenzen ins Gehege kommen, unter anderem auch Internetzugänge zur Verfügung, die auf die Aneinanderreihung von WLAN Zellen beruhen, und kann in soweit einiges dazu aus erster Hand berichten.

Solche Netze wären sehr Nützlich, weil sie durch eine Vielzahl von Wegen wesentlich robuster gegen die Einwirkung von Kriegen und Naturkatastrophen sind. Es müssen "nur" genügend Knoten aktiv bleiben, um Verbindung zu halten weil die Daten wie in einer Eimer-kette von Gerät zu Gerät weitergegeben werden. Die zentralisierten Netze sind dagegen hochgradig Gefährdet durch politische Intervention abgeschaltet zu werden. Beispielsweise war Syrien im Bürgerkrieg tagelang Offline. Wie sich kurioserweisse Raustellte war es aber weder Assat noch die ISIS die eines Ihrer Massaker unter Ausschlus der Öffentlichkeit durchziechen wollten, sondern die grössenwahsinnige und stehts omnineugierige Neue Stasi Ameriks, die NSA, die bei einem Hack einen zentralen Router in Syrien mit ihren Trojanern lahmgelegt hat.


Was können Meshnetze Leisten

Ein Meshnetz bekommt Probleme, wenn es um Fernverkehr geht. Nehmen wir zum Beispiel an, ein Knoten kann 1 Megabyte pro Sekunde Senden, ohne damit Radiointerferenzen mit den Aussendungen der anderen Knoten zu Produzieren. Nehmen wir des Weiteren an, das das Netz von den Teilnehmern heftig genutzt wird und die Ressourcen fair aufgeteilt werden. Dann kann jeder im Mittel nur so viele Aussendungen veranlassen wie er selbst zum Netzwerk beiträgt. Ich kann also 1.000.000 Byte/s direkt von meinen Nachbarn beziehen, 500.000 Byte/s von dem übernächsten Nachbarn, 333.333 Bytes pro Sekunden wenn drei Links gebraucht werden und so weiter. Mann erkennt, dass wenn ganze Landstriche auf ein Meshnetz angewiesen sind, man sehr schnell auf Chat Nivau ankommt.

Erschwerend kommt hinzu, das die aktuelle Entwicklung gerade voll gegen das Internet als Meshnetz läuft. Es gibt sehr gute Software welche die Inhalte von Webseiten zwischenspeichert und diese dann weiter verteilt. So kann diese Software per Multicast - eine Nachricht die sich wie eine Rundfunkansage an jeden wendet der Zuhört - bei den Nachbarinstanzen nachfragen ob ein bestimmter Inhalt vorliegt, und diesen dann von dort beziehen. Das Problem ist nur, das immer mehr Inhalte so angeboten werden, das es nicht mehr möglich ist zu erkennen das der selbe Inhalt vorliegt.

Das fängt mit Google an, das jetzt beschlossen hat, Webseite zu fördern die per https erreichbar sind. Sie bekommen Extrapunkte für das Ranking im Verzeichnis, tauchen also vermehrt vorne auf und werden dann auch per https verlinkt. Eine solche Verbindung kann nicht mehr Lokal gecachet werden. Microsoft hat httpi vorgeschlagen, welches nur die Authentizität sicherstellt, aber Caching zulässt.

Zuvor haben schon die Video Anbieter massiv an der Wirtschaftlichkeit von Cacheinfrastrukturen gesägt. Alle legalen Anbieter von Videofilmen verwenden individuell verschlüsselte Verbindungen zu ihren Abonnenten und sorgen dafür, das diese Inhalte dort nicht zwischengespeichert werden. Ich vermute mal, das dies eine Lizenzbedingung seitens wichtiger Filmstudios ist. Wenn man für 3€ einen HD Film übers Wochenende auf iTunes leiht und sich mehrere Familienmitglieder den Film zu unterschiedlichen Zeiten ansehen, dann wird der Film jedes mal in epischer HD Breite durch das Internet gezerrt. Das zwingt selbst die Telekom in die Knie und veranlasst Sie die echte Flatrate aus den Verkehr zu ziehen.


Technische Probleme

Ein weiteres Problem das man nicht unterschätzen darf, ist das Routing in einem Meshnetz. Dafür gibt es verschiedene Ansätze. Um Kompatibilität mit einem Normalen Netz zu erreichen und dem notorischen Ärger mit dem Zusammenwirken von WLAN Bridges unterschiedlicher Hersteller aus dem Weg zu gehen, habe ich mein Netz beginnend seit 2001 immer so aufgebaut, das ich die einzelnen Funkbrücken per LAN Switches und Router verknüpft habe. Dabei wurden die alten Verbindungen als Reserve der neueren, schnelleren Verbindungen konfiguriert. Damit ist das eigentliche Zugangs Netz ein normales WLAN Netz in dem die Accespoints eben über "WLAN-Kabel" angebunden sind und ich kann Clients aller Hersteller ohne Umstellung einbinden. Durch die vollständige Abschaltung vieler Verbindungen wird das Arbitrationsproblem - also die Funkdisziplin wer wann Senden darf - erheblich entschärft. Dazu muss man wissen, das Frequenztrennung der WLAN Chips sehr bescheiden ist. Da etliche Accesspoints über "Airview" verfügen, mit denen eine Spektrogramm des gesamten Bands angezeigt wird, gehe ich davon aus, das weite Teile des Empfanges und des Sendens per Software gemacht werden. Das führt dazu, das ein Sender der Zeitgleich im benachbarten Kanal sendet eine erhebliche Mindestentfernung haben muss, damit er nicht mehr stört, weil die Dynamik der Wandler recht begrenzt ist. Wie groß oder kein diese Nachbarkanaldämpfung ist, das haben die Hersteller trotz Support Anfrage über meinen Händler nie raus gerückt.

Mit dieser Nachbarkanaldämpfung kann es aber nicht weit her sein. So bietet der Netzwerkausrüster Ubiquity beispielsweise Spezielle Geräte welche unter Zuhilfenahme von GPS Synchronisation dafür sorgen, das sich verschiedene Zellen nicht gegenseitig Stören, wenn mehrere Geräte an einem Mast montiert sind. Viele Smartphones verfügen auch über GPS ... ob mit der physikalischen API der Chip auch eine zeitliche Synchronisation im µs Bereich möglich ist, vermag ich aber nicht zu sagen. Die Tendenz der WLAN Sendeverfahren geht in jedem Fall aber zu einer Trennung der Stationen durch die Zeit. Bei 802.11n mit seinen 40MHz Kanälen gibt es im 2,4GHz Band nur noch einen Kanal. Mit der Nachfolgenorm 802.11ac mit seinen 160MHz breiten Kanälen ist das ebenfalls schon so, das die gesamte Breite des Internationalen Indoor bereichs ausgeschöpft ist. Benutzt man die nationalen speziefischen Erweiterungen so gibt es 2 Indoor und 3 Outdoor uns einen weiteren Kanal für ISP.

Auch bei den Normen für den Mobilfunk lässt sich diese Tendenz beobachten. Zwar steigt auch dort durch neuartige Verfahren auch die Pro Hertz Bandbreite übertragene Datenmenge an, aber längst nicht so stark wie das der Fortschritt in der ausgewiesenen Übertragungskapazität vermuten lässt. Vielmehr sind die neuesten LTE Evolutionsstufen welche mehr als 1Gbit verspricht in der Lage, unterschiedliche Frequenzressourcen des Providers zu bündeln, so das ein einzelnes Telephon gleichzeitig Daten aus verschiedenen Sendeanlagen beziehen kann.

Die Verwaltung von Verbindungen durch degradieren zum Standbeibetrieb mit Hilfe von zum Beispiel STP ist aber nur bei einem fest Eingerichteten und Verwalteten Meshnetz sinnvoll, bei der es durch den Ausbau auch klare Präferenzen für den optimalen Transportweg gibt. Außerdem ist dieses Verfahren nur in der Lage Totalausfälle wie Stromausfall oder Blitzschlag gut zu behandeln. Sollen diese Netz dynamisch zu Stande kommen und verwaltet werden, dann werden Verfahren gebraucht, welche unter Ausnutzung der funktechnischen Messwerte wie Störspannungsabstand und Störungswahrscheinlichkeit beim Empfang die optimale Route berechnen. 802.11s sollte eine Offizielle Norm für diese Form eines Netz innerhalb des MAC Layers werden, was aber wegen technischer Probleme und Streit über die zu erreichenden Ziele immer wieder vertagt wurde. Bis zur Verabschiedung von etwas Konkreten hat es rund ein Jahrzehnt bis 2011 gedauert. Eine andere Alternative ist B.A.T.M.A.N., bei der die Parameter abgefragt werden und in einer höheren Ebene behandelt werden.

Für die Applikationen wirken auch bei diesen Verfahren das gesamte Mesh Netz wie eine einziges großes LAN und es wird für jedes einzelne Gerät wichtige MAC Routen vorgehalten. Es ist augenscheinlich klar, das bei großen Netzen mit einer zunehmenden Zahl von Teilnehmer entweder der Leerlaufverwaltungsaufwand immer größer wird oder aber die Zeit die für einen Verbindungsaufbau für das erstellen der nötigen Routen immer länger wird.

Neueste technische Entwicklungen können hier einen Ausweg aus der Sackgasse aufzeigen. Mit MPTCP ist es möglich, transparent von einem IP Netz in ein ganz anderes zu migrieren ohne das dies von der Applikation zur Kenntnis genommen weden muss und einen Neuaufbau einer TCP Verbindung erfordern würde. So kann zum Beispiel ein Stream in der Bahn über LTE begonnen werden und mit Ankunft im eigenem Heim auf das heimische WLAN umsteigen. Damit wird es also für ein Gerät möglich die IP unabhängig von den Applikationen zu wechseln. Da in einem IPv6 Netz eine einfaches LAN bereits einen 64 Bit großen Adressraum hat und 2 32 Bit Nummern für Geo Koordinaten mehr als Ausreichend sind, kann in Zukunft die IP die Geografische Position sein. Damit kann dann in einem Meshnetz der optimale nächste Knoten für ein beliebiges Ziel analytisch aus lokal zugänglichen Größen berechnet werden. Das wäre ein gewaltiger Fortschritt zu den jetzigen Ansätzen, weil der Verwaltungsaufwand weitestgehend flach fällt. Stellt ein Smartphone über das GPS eine Veränderung der Position fest, so wird eine neue IPv6 Adresse mit der veränderten Position erstellt, neue sup TCP's initiiert, so das die alte IPv6 Adresse wenn sie nicht mehr zu erreichen ist problemlos aufgegeben werden kann.

Ein weiterer Punkt der Bedacht werden will, speziell bei Mobilen Mesh Netzen, ist der Energieverbrauch. Die Hersteller setzen Himmel und Hölle in Bewegung, um mit der Software immer so viel Hardware wie möglich auszuschalten damit die Akkulaufzeit verbessert wird. Das geht zum Beispiel bei WLAN unter anderem so weit, das sich die Geräte mit der Basisstation einigen, wann sie wieder nach neuen Paketen lauschen, damit sie sogar den Empfänger ausschalten können. Laptops schalten beim Schliessen des Lids einfach gleich komplett in den Standby. Wenn eine Mobiles Gerät jetzt Hintergrundprozesse hat, die andauernde oder zumindest eine sehr häufige Präsens erfordern, dann wird dies die Batterie des Gerätes im erheblichen Ausmaß zusätzlich belasten so das die Laufzeit deutlich leidet. Das kann jeder an seinem Smartphone selber beobachten, wenn man irgendwelche dauerpräsenten Apps installiert, wie ein Messgerät der Sportlichkeit, das die Täglich absolvierte Bewegung ermittelt und statistisch auswertet. Und so eine App muss nicht Senden, also elektromagnetische Energie in die Umwelt abgeben. Das wird insbesondere dann zum relevanten Problem, wenn man Meshnetze als Katastrophenhelfer einsetzen will, weil dann eine neue Ladung für den Akku mitunter schwer zu bekommen sein kann. Verfahren wie 802.11s die im MAC Layer arbeiten sind hier im Vorteil, weil sie eine Gesamtstragie zur Ersparnis von Strom fahren können. Das Grundproblem bleibt aber.


Meshnetze in Konkurrenz zu herkömmlichen Internetanschlüssen

Solange die herkömmlichen Anschlüsse in Ihrer Leistung begrenzt sind, so das Sie nicht in der Lage sind einen WLAN Kanal vollständig zu fluten, sind sie Unkritisch. Das ändert sich aber schlagartig, wenn der Engpass für eine Datenübertragung nicht mehr der Zugang ist sondern das konventionelle WLAN ist. In dem Moment kann bei einem Download der Funkraum vollständig in Benutzung sein, und Routen müssen sich im Meshnetz verändern. Da die Konventionellen Funkzellen kleiner sind, typischerweise nach außen auch noch durch Wände partiell abgeschirmt, werden ihre Übertragungen immer Vorrang vor dem Mesh haben, dessen Restsignale im inneren der Wohnung mit dem konkurrierenden Zugang mitunter gar nicht mehr wahrgenommen werden. Das gilt in verschärfter Form dann, wenn für das Mesh Antennen mit Gewinn eingesetzt werden.

Hier kann gesagt werden, das gerade bei größeren Netzen der daraus resultierende Aufwand jeden vernünftigen Rahmen sprengen kann. Eine Software die in einem Areal wie dem australischen Outback eine brauchbares Internet erzeugt, muss daher in einer Stadt noch lange nicht gut funktionieren. Ein Teil der Bürger welcher schlicht die Ausgaben begrenzen muss kann das dort nicht durch den Rückgriff auf ein Meshnetz machen, insoweit das nicht alle in einer Region machen.


Welche Normen werden gebraucht, damit Meshnetze Prosperieren können

In den Anfängen des Internets wurde dieses von dem Telephonetz getragen. Es gab Verbindungen, die sehr schwach waren. Aus dieser Zeit stammen noch die technischen Grundkonzepte des Internets mit seinen lokalen Caches. Das fängt bei den DNS Namen an, geht über die Http Caches bis hin zu den Caches für die Realtimeprotokolle.

Es gibt 2 Arten von Internetprovider. Da sind zum einen jene, die über eine eigenständige physikalische Leitung jedem ihrer Kunden haben wie das beim DSL System der Telekom der Fall ist. Dank der Konkurrenzangebote hat die Bundesnetzagentur der Telekom in vielen Orten erlaubt, ihre Netze wieder exklusiv zu betreiben. Das hat für die Kunden der Telekom den Vorteil, das die Elektronik die Störungen der anderen Anschlüsse beim Senden berücksichtigen kann, diese Kompensieren kann und damit mehr Frequenz nutzen kann. So wird es möglich, über alte Kupferkabel die für 300-3300 Hz ausgelegt sind 100 MBit pro Sekunde an Daten zu übertragen. Ab den Anschaltpukten liegt das sternförmige Glasfasernetz vor, das was Performance angeht, kaum wünsche offen lässt. Das ist allenfalls eine Kostenfrage, und die Telekom wird im Wege der Drosselflat die Diensteanbieter in die Zange nehmen, mit ihr so zusammenzuarbeiten das die Kosten vertretbar sind. Sie sind eben genötigt, über die Telekomeingene Plattform Entertain ihre Werke anzubieten, welche vermutlich über eine Verteilte Serverarchitektur verfügen dürfte. Auch der Modem Dail up als die erste Version des Massen tauglichen Internet und die Anbindung über eine Standleitung gehört in diese Kategorie der Anbindung über eine einzelne Leitung.

Alle andere Angebote sind allesamt die Ausnutzung von Rundfunktechnologie zur individuellen Versorgung mit Internet. Das gilt für Satelliten, Googel Drohnen basiertes Funknetz, WLAN und Mobilfunkinternet, aber auch für die Angebote im Fernsehkabel. Diese Angebote zeichnen sich nur dadurch aus, das sie über ihren eigenen abgeschotteten Funkraum im inneren der Kabel verfügen, sind aber ansonsten von der Funktion her so aufgebaut wie der Funk in der Atmosphäre. Diesen Übertragungskanälen ist allesamt gemeinsam, das sie eigendlich dafür prädestiniert sind, Inhalte ein einem Vorgang parallel an viele Stationen zu senden. Diese Eigenschaft wird, bis auf bei wenigen life Anwendungen, von den im Internet eingesetzten Anwendungen aber nicht ausgenutzt.

Wenn wir nicht langfristig wieder in eine Monopolabhängigkeit von der Telekom hineinschlittern wollen, dann werden für das Internet neue Protokolle gebraucht, welche die rundfunkartige Verteilung von Content auf Vorrat ermöglichen. Meine Vorschlag: bhttp und mhttp als broadcast hyper text transport protokoll respektive multicast hyper text transport protokoll. Heutige Festplatten speichern 4TB für 125€. Das ist viel mehr als viele Nutzer je brauchen werden. Mit 1TB kann man einen Datenstrom von 50 MBit 44 Stunden lang aufzeichnen. Es gibt also jede Menge Raum für eine Vorratscontentspeicherung, und damit kann zum Beispiel vermieden werden das jede einzelne Windowsmühle ihre immer größer werdenden Service Pack für sich durch das Medium zerrt und damit die Netzwerke verstopft.

Technisch würde das so aussehen, das ein jedes cachefähige Device auf per Multicast oder Broadcast verbreitete Anouncemect von "Sendefächigen" Proxiserver lauscht. Würde es so einen finden, würde das Gerät den angezeigten Proxy Autoconfig File herunterladen und seine Anfragen dann an die verzeichneten Proxys richten. Diese haben dann die Möglichkeit, anhand von statistischen Kriterien zu ermitteln, welche Inhalte für viele Kunden von Interesse sind. Diese Inhalte werden von dem Server zu einem Bucket zusammengestellt das eine vordefinierte, von den Eigenschaften des Funknetz abhängige, Maximalbandbreite ausfüllt. Diese würden dann im Wege eines mit Forward Error Correction versehenen UDP Streams per Broadcast oder Multicast versendet, so das bei einer Aussendung der Inhalt via Stream Decoder in jedem Cache landet der Online ist. Wird bei einem erstmaligen Aufruf gleich festgestellt, das ein Inhalt an alle gehen soll, so müsste ein neuer HTTP Status darauf hinweisen, damit der Server im stream sucht.

Auch sinnvoll ist, das Hintergrundaktivität wie das Abfragen und Laden von Betriebsystemupdates von der Software mittels eines neuen HTTP Headers mit einem zumutbaren Zeithorizont versehen wird, der es gestattet wichtigeres, auf das ein Nutzer am Bildschirm wartet, vorzuziehen. Durch das aussenden von häufig gebrauchten Inhalten würde es auch in Zukunft möglich sein mit Funknetzen gutes Internet zu bekommen. Bedingt durch moderne Mimo Übertragungen ist die One to All Kommunikation zwar um ein mehrfaches langsamer als Punkt zu Punkt Kommunikation, aber all das, was mehr als zehn mal in einer Funkzelle abgerufen wird, das ist im Rundfunkmodus definitiv effektiver verteilt. Das wären dann so Dinge wie Betriebssystemupdates, aber auch aktuelle Medieninhalte wie Nachrichten aller Art oder eben aktuelle Filme.

Die Zukunftsfähigkeit von Meshnetzen im Speziellen und Funknetzen im Allgemeinen steht und fällt damit, das Große Objekte vernünftig cachebar und verteilbar sind. Ein solcher großer Inhalt darf nur an einer Stelle publiziert werden und muss dann von überall her her gleich verlinkt sein, damit er von der Software als Identisch erkannt werden kann. Es dürfen auch keine Trakingparameter übergeben werden, wie das seit der idiotischen Cookie Verordnung der EU immer mehr in Mode kommt, um ohne Cookie tracen zu können. Eine url http://www.monster.org/monsterobjekt?session=2354983924 wird von einem cache nicht als identisch zu http://www.monster.org/monsterobjekt?session=2354983925 erkannt, und in epischer Breite wieder durch das Netz gezogen. Ein cache kann solche Parameter aber auch nicht ignorieren, weil diese auch durch die Eingaben eines GET FORM entstehen, und in diesem Zusammenhang auch unterschiedlichen Content abrufen.

Ein billiges effektives Internet steht aber in Diametralen Gegensatz zu den Interessen der Unterhaltungsindustrie. Das muss man so sehen. Je teurer ein Medium ist, desto teurer können auch die Inhalte sein. Mit dem Preisverfall für die Verteilung von Content begannen auch die Probleme den Preis für Content zu rechtfertigen. In diesem Kontext muss man die in Spanien eingeführte Linksteuer sehen, die ein offensichtlicher Versuch ist das Internet als kostenfreie Quelle für Wissen zu torpedieren. Schon 2007 gab es darum einen Disput in Grossbritanien zwischen der BBC und den Internetprovidern um die Form der Zugänglichmachung von Videomatherial. Ohne eine Regulation wie Videos schonend im Internet zu publizieren sind sowie Ausnahmen bei der Netzneutralität welche es gestatten, das man spezielle Inhalte auf ein verträgliches Nivau drosselt um zum Beispiel als Provider die Auflösung von Videos zu begrenzen werden Mesh und Mobilfunknetze langfristig nicht richtig nutzbar bleiben und hoffnungslos verstopfen. Es werden jetzt schon die ersten Filme in Super HD - also 3640 punkte statt der jetzt bei HD üblichen 1820 Punkte. Das ergibt 4 mal so viele Daten! Und das, so die Vorstellung der Anbiehter, wie bisher bei jedem Betrachten. Unangenehme Nebenwirkung dieser Technik: Staatliche stellen können in erfahrung bringen, wer welche Sendungen gesehen hat.

Eine solche Vorratsverteilung von Videodaten müsste im Übrigen nicht notwendigerweise das Geschäftsmodell der Contentindustrie der Geltendmachung einer Gebühr für die reine Kenntnisnahme von einem Inhalt betreffen, auch wenn es theoretische Argumente gibt, die gegen dieses Sprechen. Wenn das Massive Objekt verschlüsselt ist, unter der Zugriffscode dann sicher verteilt wird so wie das bei der Blue Ray Disk der Fall ist, dann wäre der Verstopfung der Netze auch wirksam entgegengwirkt.

Ein weiteres Problem für die Leitungskapazität stellen Backuplösungen zu zentralisierten Cloudspeichern dar. Diese sind in der gegenwärtigen state of the Art Form des Verschlüsselten Hinterlegens so konstruiert, das wieder eine sehr großer Datenstrom zu einem sehr weit entfernten Ziel transportiert werden muss. Selbst wenn das Backup in der Nachbarschaft erfolgt, ist die schiere Masse der Daten aber dennoch verheerend. Ich biete meinen Kunden einen Backupserver kostenfrei und unlimitiert lokal an. Das ist billiger als der Traffic ins Internet. Als einer meiner Kunden mit großem Datenbestand die Seine Festplatte wegen Verschleiß wechseln musste, hat die Applikation des Backup neu synchronisiert und damit Wochenlang den Funkraum wüst belastet. Hier könnte ein Medium wie Freenet für Abhilfe sorgen, welches so konstruiert ist, das die Daten verteilt in der Umgebung hinterlegt werden. Besonders clever daran ist, das der gleiche Datensatz immer gleich, mit seinem eigenen Hashwert verschlüsselt unter dem Hashwert des Verschlüsselten Files als Zugriffscode abgelegt wird, so das die Vielen GB zum Beispiel des Betriebssystem oder beliebter Medien eben nicht jedes mal mitgeschleppt werden müssten, private Dateien auf der anderen Seite aber Privat bleiben. Nur wer beiden Schlüssel kennt, kann den Inhalt wiederbekommen. Die Sache mit Remotebackups hat generell den Hacken, das sich viele Kunden nicht darüber im klaren sind, wie lange es Dauert, bis ihre Daten wieder da sind und sie dann Weiterarbeiten können. Richtig rund wird die Sache mit den Remotebackups überhaupt erst wenn so etwas wie ein Welt File System implementiert wird, in dem so etwas was wir wie Freenet aufgebaut ist als Backup eines lokalen Dateisystem eingeblendet wird, welches es dann erlauben würde, zwar deutlich langsamer als gewohnt aber dafür sofort, los zulegen. Langsamer weil die Inhalte eben erst zusammengetragen werden müssten. Dafür müsste man nicht Warten, bis die Platte wiederhergestellt ist, so wie das bei einer klassischen Backupanwendung immer der Fall ist. Nur um Offline Arbeiten zu können muss man Warten bis die Wiederherstellung komplett ist.


09 August 2014

Piratenpartei stellt politischen Insolvenzantrag ... Mitgliederbefragung per Post

Als ich heute Morgen in meinen Ticker geblickt habe, habe ich nicht schlecht gestaunt. Die Piratenpartei will nun den Basisentscheid per Post machen. Das ist aus den verschiedensten Gründen verheerend. Zum einen ist es sehr Teuer. Hin und Rückporto kosten 1,2€ jeweils als Standartbrief, das macht bei 28000 Mitgliedern mal eben 33600€ Porto. Dazu kommen dann noch Papier, Umschläge, Eintüten, Austüten, ... es wird die Piraten - also die Partei und ihre Mitglieder - rund 70000€ oder mehr Kosten ... Geld das man auch anderweitig für politische Aktivitäten einsetzen könnte.

Viele Schlimmer als das ist aber die Tatsache, das es so was wie eine Politische Insolvenzerklärung ist. Die Nachricht ist so Wichtig, das sie es nach langer Zeit mal wieder in die Hauptnachrichtensendung der News Kanäle geschafft hat. Und das mit einem Piraten, der demonstrativ auf dem Parteitag ein Brett vor dem Kopf trägt. Nichts desto trotz hat die Parteiführung recht, wenn sie sagt das es zur Zeit keine Software gibt, die das zu Leisten vermag. Insofern ist dieser Offenbarungseid nötig um die Fehler der Vergangenheit zu heilen.

Am Anfang war die Piratenpartei eine Ansammlung von sehr EDV erfahrenen Subjekten, die sich im wesentlichen darüber geärgert haben, das angestammte Rechte der Menschen veräussert werden um es bestimmten Politik- und Wirtschaftsinteressen leichter zu machen mit den Folgen des digitalen Wandels klar zu kommen. Das reicht von absurden rechtlichen Interpretationen über Zensurwünsche bis hin zur Besteuerung des Internets mit einer Linksteuer in Spanien, das Kostenfreie Angebote unmöglich machen soll.

Dieser anfangs sehr kleine Haufen von Menschen hatte keinerlei direkte politische Relevanz. Insofern brauchte man auch keinerlei wirksame subversiven Einflüsse fürchten ... wenn man mal von den bei jeder Parteigründung auftauchenden üblichen widerlichen "Blut und Boden" Subjekten mal absieht. Man traf informelle Votings in Web basieren Tools irgendwelcher Anbieter wo immer man sie fand, wie zum Beispiel Doodel. Bestätigt wurden die Beschlüsse dann aber immer ganz konventionell auf einem Mitglieder Parteitag. Das Agendasettig erfolgte per Sozialen Netzwerken und basisdemokratisch in überschaubaren Treffen. Heute ist dies so nicht mehr möglich, weil die Nachrichtendienste gelernt haben, diesen Informelle Community zu unterwandern. Snowden hat dies der Öffentlichkeit mit Dokumenten aus dem Innenleben der Geheimdienste vor Augen geführt.

Es gibt da in der EDV ein Problem. Die Anwendung sind Komplex, das Verhalten von Software ist gelinde gesagt mit unter recht überraschend. Aus diesem Grund passiert es sehr leicht wenn sich Menschen mit EDV Hintergrund treffen, das sie über EDV Werkzeuge diskutieren und Erfahrungen Austauschen. Das entspricht dem natürlichen Kommunikationsbedürfnis der Protagonisten auch und gerade weil sie dadurch einen unmittelbaren Nutzen in ihrem Leben ziehen können. Um trotzdem eine vernünftiges, vollständiges Parteiprogramm zu bekommen, gab es denn Konsens "Keine Tooldikusionen" mehr. Mit dem Achtungserfolg bei der Europawahl 2009 bis zur Bundestagswahl 2009 kamen dann aber reichlich neue Mitglieder in die Partei, so das die Sache mit der Basisdemokratie schwierig wurde. Klar zu erkennen an Problemen, wie Redezeiten von 30 Sekunden auf Bundesparteitagen. Sehr viel mehr als in einem 140 Zeichen tweet kann man da auch nicht sagen, und das ist für differenzierte Betrachtungen definitiv zu kurz.

Bildquelle: Piraten Wiki
Die Piraten haben sich zwar Gedanken über die digitale Demokratie gemacht ... nur wurde die Umsetzung von einer externen Gruppe umgesetzt. Dann wurde eine "Probebetrieb" des externen entstandenen Tool Liquid Feedback (LQFB) beschlossen, mit einem Parteitagsvorbehalt der Beschlüsse. Ich habe in dem LQFB etliche Beschlüsse durchgekommen. Diese verfielen nach dem Parteitag zunächst, haben es dann aber über Umwege doch noch in das Parteiprogramm geschafft.

Was aber keine Umsetzung fand, waren Anträge zum Tool selber. Und das war der Kardinalfehler, der zur heutigen politischen Insolvenz der Piratenpartei geführt hat. Richtig wäre es gewesen, das der Parteitag nicht nur den Probebetrieb beschließt, sondern auch einen finanziellen Etatrahmen für die Entwicklung von Software. Damit wäre dann das Tool eine Art von Autonomie vom Parteitag zugestanden worden, um sich schneller Weiterzuentwickeln als maximal 2 mal im Jahr. Denn die Tools waren alles anderes als Fertig, auch wenn die Darstellung in der Presse 2010 diesen Eindruck vermittelt hat. Mit dem Erfolg bei der Landtagswahl in Berlin und den folgenden 3 Landtagswahlen kamen dann viele neue Mitglieder in die Partei. Mehrheitlich waren das solche die von EDV, Mathematik und Digitaltechnik so gut wie nichts an Erfahrung mitbringen. Und damit hat sich das Zeitfenster geschlossen für die demokratisch gesteuerte und kontrollierte Entwicklung eines Betriebssystem für die Demokratie 2.0. Meines Erachtens ist die Tatsache das der Suverän begriffen hat, das die Piraten ihr Demokratieupdate eben nicht fertig haben, auch Zentral für ihren Abstieg in die Wahlergebnis basierte Bedeutungslosigkeit.

Bildquelle: Piraten Wiki
Wie kann es weitergehen mit der Piratenpartei? Die Mitglieder der Partei habe heute nicht mehr in der nötigen Breite den Backgrund, der Ausreicht direkt die Entwicklung der nötigen Software demokratisch zu führen. Dazu ist die ansonsten politisch Nötige "entnerdung" der Piratenpartei zu weit fortgeschritten. Es bedarf also entweder eine Untermenge von Parteimitglieder, die den nötigen programmiertechnischen und mathematischen Background haben. Insoweit ist eine neue Organisationsform nötig. Entweder so etwas wie eine geschlossene Arbeitsgruppe eine Stiftung an einen zu gründenden eingetragenen Verein oder eine neue Partei, deren Voraussetzung die Mitgliedschaft in der Piratenpartei ist. Gewissermaßen so was wie eine Sub Partei, die ihr übriges Programm von der Mutterpartei übernimmt aber die eigene Satzung weiterentwickelt.

Alternativ könnte man einen Versuch damit machen, wie Software in unserem Staat Üblicherweise entsteht. Es wird ein Katalog von Forderungen aufgestellt, ein sogenanntes Lastenheft. Dann macht man eine Ausschreibung und vergibt einen Auftrag. Aber dieses Vorgehensweise ist Problematisch. Dazu kann man sich Softwareprojekte des Staates ansehen. Wie bei einem Projekt der Grundstücksverwaltung in Baden Württemberg. Das Lastenheft hatte haufenweise Widersprüche und war unvollständig, entsprechend günstig war das Preiswerteste Angebot. Endlose viele spätere Releases mit viele "Extrastunden" hatte der Anbieter einen satten Reibach gemacht mit der Option auf noch mehr. Oder man denke nur an das Fiasko mit dem digitalen Ausweis, den unsere Aktivisten in der ersten Nacht durch die Hintertür gehackt haben. Und es dauerte ewig und kostete die Mitarbeiter endlos Nerven, bis die Software einigermaßen einsetzbar ist. Dieser weg ist also sicherlich weniger Empfehlenswert.

In jedem Fall aber muss die Partei dafür sorge tragen, das ein Schutzpreis hinterlegt wird, welche Menschen erhalten, die Schwachstellen des neu zu errichtenden Systeme aufdecken. So, und nur so, kann unwissenden ohne Mathematik Studium klar gemacht werden, das es Mittel und Wege gibt, die versprochene Sicherheit auch umzusetzen. Denn mathematisch ist es möglich, eine solche Software zu erstellen die nicht Manipulierbar ist. Mit Mathematik kann man Sicherstellen, das jeder nachvollziehen kann

  • Wer hat an der Abstimmung Teilgenommen
  • Ist meine Stimme in dem Ergebnis vertreten
  • Wurde korrekt Ausgezählt und Ausgewertet
  • Das die Stimmen während der Wahlphase abgegeben wurden, also in Unkenntnis des Votums anderer


Allerdings ist es nicht Möglich, herauszubekommen wer welchen digitalen Stimmzettel abgegeben hat. Was das Verfahren nicht leistet, es ist möglich einem anderen zu Belegen wie man gewählt hat. Wenn man aber ehrlich ist muss man zugeben: Das ist bei der Papierwahl auch möglich! Zum Beispiel mit den immer kleiner werdenden und allgegenwärtigen Kameras. Oder per DNA ... . Und bei der Briefwahl ... wie sie jetzt für alle Piraten angedacht ist ... ist es sowieso trivial möglich, weil der viel zitierte "Stimmenkäufer" ja nur bei der Abgabe dabei sein muss. Insoweit hoffe ich, das der der jetzt geplante postalische Wahlgang eine einmalige Maßnahme einer Konkursverwaltung ist.

Und wenn die Partei sich nun endlich Aufrafft das Politik 2.0 Betriebssystem auch zu erstellen und nicht nur darüber zu reden, dann sollte sie es parallel angehen, dafür zu sorgen das so etwas wie eine Basis demokratische Politik Awarness und ein System zur Agenda setting entsteht. Für beides wird zur Zeit Twitter missbraucht, mit den bekannten Folgen für die Außenwirkung. Mit einem klassischen Abstimmungstool wie man es z.B. für Personalfragen braucht wird man das Problem des Agenda Setting mit nur verwaltend tätigen Vorständen nicht in den Griff bekommen, weil einfach nicht jeder alle Äußerungen aller anderen Piraten lesen kann. Wir sind da bei dem digitalen Analogon 30 Sekunden Redezeitproblem auf den Parteitagen. Entsprechnde Lösungsvorschläge habe ich schon vor Langer Zeit gemacht, sowohl zum Agenda setting als auch zum Awarness Problem. Passiert ist nichts - leider - keine Diskussion, keine besseren Vorschläge, keine ... einfach nichts voll digitales. Dabei hätte man mit den 70000€ die jetzt zur Verschwendung anstehen, auf dem Gebiet schon so viel erreichen können. Es ist also wie immer in der Politik: "Falsche Verteilung der zur Verfügung stehenden Finanzmittel".