Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

24 April 2013

Rettet die Flatrate: Sie gehört auf die Rote Liste der vom Aussterben bedrohten Arten!

Diese Woche wurde offiziell, was bisher schon die Spatzen von den Dächern gepfiffen haben. Die Telekom gibt bekannt, das sie keine unlimitierten DSL Verträge mehr anbietet. Beim Mobilfunk war dieses schon immer gängige Praxis. Flatrate beim Mobiltelefon heißt, wenn ein Kontingent das im kleingedruckten des Vertrages verzeichnet ist erreicht wird, dann geht es nur noch mit Schneckentempo weiter. Das kann man auch verstehen, so hat zum Beispiel das LTE im für die Austrahlung auf dem Land geeigneten 800MHz Band nur 10MHz band breite pro Anbieter, das ist gerade mal ein halver WLan kanal. Die dürfen zwar mit 2 kWatt senden, es ist aber doch so als ob sich ein ganzer Landstrich zu einer WLan Partie versammelt. Jetzt will die Telekom dieses auch auf das DSL ausweiten. Bei super schnellen Glasfaseranschlüssen war dieses ohnehin schon so der Fall.

Die Telekom ist nach wie vor einer der Größten Player am Markt. Wenn diese jetzt also die Poweruser systematisch aus ihrem Netz drängt, indem es zum Beispiel keine Upgrade der Geschwindigkeit mehr gibt ohne die Akzeptanz eines Limits seitens der Nutzer, werden die sich notgedrungen neue Provider suchen. Da jetzt die Powernutzer der Telekom den Rücken kehren passieren 2 Dinge: Der Profit der Telekom steigt und diejenigen Provider die noch echte Flatrates fällt oder wird gar zum Defizit, zumindest dann, wenn diese in dem Ausmaß wie der Verkehr in ihren Netzen steigt und diese dann auch ihre Kapazität vergrößern.

Das führt dann dazu, das alle alternativen Provider nach und nach entweder durch Verstopfung langsam werden, Pleite gehen oder auch von der Flatrate Abstand nehmen müssen. Das ist wohl vielen klar, auch wenn diese jetzt erst mal die Telekom als Drosselkom verspotten. Das meine eigene Partei mich nötigt, ausnahmsweise die Telekom in Schutz zu nehmen, das hätte ich mir wirklich so auch nicht vorgestellt.

Ich bin selber Internet Provider, wenn auch nur ein sehr kleiner, und ich kenne die Problem mit den Geschäft. Ich habe jetzt schon Kunden, die mit einem normalen DSL Account nicht mehr klarkommen, weil sie bei andren Providern im Stau stechen. Ich habe einen sehr leistungsfähigen Cache, der bisher auch gute Arbeit geleistet hat und die Volumina einigermaßen im Schacht halten konnte.

Nur wenn es aus Datenschutzgründen, Spionagegründen und Ignoranz im zunehmenden Masse Daten verschlüsselt Übertragen werden, dann senkt das die Cacherate. So werden zum Beispiel bei Google plus auch öffentliche Inhalte verschlüsselt, so das diese dann nicht mehr gecachet werden können. Microsoft sendet seine Update so, das diese nach 3 Tagen im cache gelöscht werden und neu gezogen werden. Und das, obwohl es bestimmte Updatepackete für Firmen gibt welche eine lokale Kopie des Update service erstellen, und die bei jedem Update Zyklus das gesamte Inventar des Updateserver runtersaugen.

Noch viel schlimmer als die Leute die sich bei der Entwicklung von Internetanwendungen keine Gedanken um die Cachebarkeit machen, sind die Leute die alles daran setzten, das Cachen ihrer Inhalte zu unterbinden. Das sind zum einen einige Anbieter von Spielen. Diese Leute haben meist einen extra Client für die Verteilung ihrer Inhalte programmiert, damit die Downloads ordentlich Dampf haben. Diese Firmen haben an verschiedenen Stellen des Internets Server aufgestellt, und der Client fährt diejenigen Server an, welche die Daten am schnellsten liefern. Bis dahin ist das noch in Ordnung.

Das Problem: Die machen das mit einem Proprietären geschützten Protokoll, so das ein cachen nicht möglich ist. moderne Computerspiele sind sehr große Objekte, typischerweise zwischen 4 und 40 GByte. Noch viel schlimmer ist, das einige dann noch der TCP Stack modifiziert haben, so das immer 10%, bei geringen Bandbreiten zum Teil noch mehr, Überschuss gesendet wird als überhaupt durch die Leitung passen. Damit wird erreicht, das diese Anbieter sich auf der Backbone eine Vorfahrt organisieren, zu lasten der anderen Teilnehmer im Internet.

Nun sind Spieler die jedes Spiel ausprobieren keine allzu grosse Gruppe. Was der Internetflatrate den gar ausmacht, das ist eindeutig die Verteilung von HD Film content über Setop Boxen, die aus Copyrightangst über keinen Speicher verfügen. Ich habe von einem Kunden ein Apple TV geliehen bekommen, um möglichst viel von deren Angebot mit dem Cache abdecken zu können. Das Ergebnis war ernüchtern: Wenn sich der Kunde einen Film für 3 Tage für z.B. 3-10€ leiht, dann kann er diesen Film so oft ansehen wie er das mag. Aber jedes mal wird der Film neu durch das Internet gezogen. Ein HD Film hat zwischen 15 und 50 GByte. Und Sony bietet jetzt schon auch File in Super HD, also mit 4000 Punkten in X-Richtung. Das ist die typische Auflösung eines typischen digitalen Belichter um analoges Diamatherial ohne Qualitätsverlust mit synthetischen Bilder belichten zu können.

Das muss man mit den Preisen im Einkauf gegenüberstellen. Wenn die Daten vom Austauschpunkt, z.B. dem Decix, holt, dann kostet eine 1Gbit/Sekunde Flatrate 1000 Dollar für die Weltweite BGP Durchleitung der Daten. Das ist das Fundament, wenn man ein Netz mit eigenem autonomen System gründet und man erreichen will, das alle Netze erreichen kann, also auch solche die nicht am gleichen Peering Punkt vertreten sind. Ein Gigabit liefern, eine Durchschnittliche Lastkurve vorausgesetzt mit einer 1GB Leitung zum Austauschpunkt 108 000 GByte im Monat, das ist rund ein ¢ pro GB. Auf diesem Niveau sind die Vorstellungen der Großkontentabiehter real. Aber nur deshalb, weil die für ihre Seite des Internets nur eine sehr dicke Leitung brauchen, so das Herstellungskosten gering bleiben. Zumal diese Anbieter ihren Standort entlang der Hochgeschwindikeitsverbindungen frei Wählen können. So "produziert" zum Beispiel Facebook am Polarkreis, weil dort ganzjährig keine Klimaanlage gebraucht wird, und das spart Unmengen an Strom.

Mit den Tausend Dollar im Monat ist es aber nicht getan, ich muss einen Platz im Rechenzentrum mieten, einen Router kaufen der die Technischen Vorstellungen des dortigen Betreibers erfüllt - das heißt in der Regel ein Schweine teures Teil vom Cisco - und dann brauche ich noch eine Leitung vom Austauschpunkt zu dem Punkt, an dem ich als Internetprovider mit der Verteilung beginnen will. Und diese Leitung kostet richtig Geld - erst recht wenn Sie erst noch verlegt werden müssen.

Das Problem, je größer eine Leitung ist, desto dramatisch billiger wird das Mbit an Übertragungskapazität. Der Telekom ist es mittlerweile so gut wie egal wie weit eine Leitung ist, es zählen nur die Enden der Leitung. Mit anderen Worten, ISP die ausschließlich mit Mietleitungen arbeiten stellen sich am günstigsten, wenn Sie ihre Kunden mit Mitleitungen gleich mit ihrem BGP Router am Austauschpunkt verbinden. Eine solche Preispolitik reflektiert eine Sternstruktur in der alle Leitungen in einem Zentralen Pachtpunkt zusammenlaufen. Bestätigt wird das wenn z.B ein Feuer wie am 21 Januar 2013 in Siegen geschehen ausbricht. Dann hat der ganze Landstrich kein Internet und kein Telephon mehr, weil alle alternative Anbieter auf Vorprodukte der Telekom setzen. Wenn eine Netztechnologie so viel mehr Daten als alle andere Technologien transportieren können, dann ist das Sternförmige Netz das kosten effektivste. In Amerika der neunziger ist mal ein Feuer in der Überwachungsmodul eines unbemannten Glasfaserknoten ausgebrochen, mit dem Ergebnis, das man zum Telefonieren eine Flugreise machen musste.

Sp kostet ein GB im Wiederverkaufskontrakt via Sattelsittenverbindung günstigsterweisse 9€. Damit liegt, weil nur diese Technik flächendeckend ist, der Maximale Breitband Verkehrspreis bei diesem Betrag. Einen einmal Übertragenen Inhalt in einem Cache zu Speichern lohnt sich also, denn eine 100€ 3TByte Platte kann Daten für bis zu 27000€ aufnehmen. Ich habe schon in meinem Aufsatz über die Lobbywünsche eines ISP für die Piraten über die Problematik referiert, aber leider wurde dies nicht Zeitlich aufgegriffen. Im Gegenteil, ich gehe davon aus, das meine Listen Kandidatur ganz wesentlich an meinen kritischen Äußerungen zur Netzneutralität und vom drängeln im Internet gescheitert ist. Die Piraten sind halt doch auf dem Weg eine etablierte Partei zu werden.

Was kann die Internet Gemeinde jetzt noch tun, um die Flatrate zu Retten? Natürlich kann sie mit und ohne Piraten politischen Druck machen für eine technische Regulierung machen, die speziell Anbieter von kostenpflichtigen Inhalten dazu zwingen, das sie eine Mindestcachebarkeit von sagen wir mal 95% garantieren müssen. Zum Beispiel dadurch das ein Basis Datei per http Streaming übertragen wird, der wichtige Teile der Bilder und Töne Fehlen, damit die Urheber ihre Rechte wahren können und Gleichzeitig das Internet in seiner Kosten effektiven Struktur erhalten bleibt. Das ist wichtig, denn ist der letzte Flatrate Anbieter vom Netz, werden Werbungs blocker immer wichtiger werden, was weitere Teile der Internet Infrastruktur gefährden wird. Das ist nur logisch, macht doch auf etlichen Seiten die Werbung den Hauptteil des Traffic aus. Damit rückt dann das Ende einer Wissensgesellschaft und der feuchte Traum der Contentindustrie des Pay per View in greifbare nähe. Diese Entwicklung ist extrem Gefährlich, bedenkt man was für ein Schund diese Industrie in die Köpfe der in der Vergangenheit den Menschen in die Köpfe geblasen hat.

Richtig helfen können jetzt eigendlich nur technische Lösungen, die dann gegen politische Übergriffe geschützt werden müssen. Ich biete meinen Kunden einen Lokalen Backup Speicher für meine Kunden an. Das ist für mich alle mal billiger als den Traffic den ich bei meinen Vorlieferanden bezahlen müsste. Problem ist natürlich, das ich meine Kunden fairerweise auf die Gefahren duch die gewählte Regierung im Wege der Bestandsdatenauskunft hinweisen muss, und das diese Daten ohne aufwändige Verschlüsselung (FTP als Laufwerk einbinden, dann true crypt auf eine Datei in dem System mounten - was auch immer die Gefahr birgt das der Kunde im Notfall dann nicht mehr an seine eigenen Daten kommt und man ihm nicht helfen kann) eben leider nicht den gleichen Rechtsschutz unterliegen als wenn diese Daten bei ihm Wohnzimmer oder in einem Land mit vertrauenswürdigen Rechtslage gespeichert sind. In der Schweiz zum Beispiel gibt es z.B. (teure) Backup Services für deren Integrität sogar die Schweizer Armee garantiert!!

Den wichtigsten Aspekt bei der Entlastung der Backbone ist die Verteilung von Filmen, speziell solchen in HD. Für diese müsste eine technische Lösung des Problems in einem neuen Video Codec bestechen, das von der Comunity entwickelt wird und das Videos um den Faktor 10-20 über das heutige Niveau hinaus reduziert. Dieses Ziel ist gar nicht so Abwegig oder Unmöglich wie es auf den ersten Blick erscheint. Die bisher verfügbaren Videocodecs sind so designt, das man in einen Video stream rein zappen kann. Will man eine Plattform für digitales Fernsehen entwickeln welches das analoge Fernsehen emuliert ist diese Forderung zwangsläufig notwendig. Damit das geht, werden in Videos immer wieder Vollbilder eingefügt. Zwischen diesen Vollbilder als jpeg werden Frames mit update und Interpolationsdirektiven erzeugt, mit denen nur leicht veränderte Bilder aus ihrer unmittelbaren Umgebung hergeleitet werden.

Die Elementarzellen sind 8x8 Felder, die entweder per Jpeg übertragen werden oder aber aus dem Vorgängerbild durch Updates hervorgeht. Will man die Kompression steigern, so muss man ein 3D Modell aus einen Film herleiten. Dieses 3D Modell muss nicht stimmen in dem Sinn das es die 3D Verhältnisse der Filmszene korrekt wiedergibt. Es reicht, das es beim Rendern der Kameraposition den Inhalt des zu Kodierenden Film entspricht.
Da ein solches Formt in der Lage ist, Elemente aus der Übertragung aus vorangegangenen Szenen wieder zu benutzen beispielsweise für die Darstellungen Lebensumgebung der Filmcharaktere - kann sehr viel Datenmaterial eingespart werden.

Natürlich muss dann so ein Film von vorne an in den lokalen Speicher geladen werden, aber das ist ja meisten eh der Fall und hilft den caches ungemein. Squid zum Beispiel cached defaultmäßig erst gar nicht, wenn irgendwelche Lader mit partiellen GET's die Daten aus einer Datei stückchenweise laden. Wenn die Kompression eines Films um das 10-20 Fache verbessert wird, dann passt ein normaler Film auf eine CD, ein HD Film auf eine DVD. Das sind Datenmengen die moderne Rechner meist schon in das RAM laden können. Außerdem ist es so, das ein solches Verfahren die Qualität des Video Material zusätzlich noch über die Auflösung des Originalmaterials hinaus erhöhen lässt. Wie ist das Möglich? Dadurch das viele Dinge in einem Film von verschiedenen Kamerapositionen aus gezeigt werden. Dabei hat diejenige Aufnahme mit dem geringsten Abstand die meisten Informationen über eine Oberfläche. In dem diese Informationen zusammengeführt und überall verwendet wird, kann die Auflösungen in den anderen Einstellungen vergrößert werden. So würde selbst SD Altmaterial noch deutlich aufgewertet.

Da seit geraumer Zeit jeder normale Computer über einen 3D support Verfügt, sind auch die Voraussetzungen für die Wiedergabe für ein solches avantgardistisches Codec gegeben. Mit einem solchen Codec unter GNU Lizenz mit der Zusatzbedingung das der produzierte Code außer im Falle einer Videotelefonie Verbindung nicht verschlüsselt werden darf wird Filmmaterial in einer ähnlichen Weiße marginalisiert wie das in den neunziger Jahren mit den Tondateien passiert ist, die durch mp3 und den nachfolge verfahren aac+ so geschrumpft wurden, das sie für das bestehende Internet problemlos zu bewältigen waren. Man muss sich das mal vorstellen: eine gewöhnliche 100€ 3TB Platte kann 1000000 Dateien mit 3MByte Umfang aufnehmen. Man muss sich das mal Vorstellen: nach den Vorstellungen der GEMA von rund 1€ pro Musikstück sollte ein Verbraucher für eine Festplatte mit Musikdaten also bis zu 1000000€ für Musiker abdrücken. Das ist lächerlich, da müssten ja die Festplatten nur noch eingebaut in einen Panzerschrank geliefert werden. Umgang mit Festplatten als Schwerathletik!

Die Kompressionsseite eines solchen Codecs ist erheblich aufwändiger. Das geht nicht mit jedem Computer in vertretbarer Zeit oder gar in Echtzeit. Aber Moderne High End Grafikarten haben eine so große Rechenleistung, das es heutzutage kaum noch Rechenwerke für Supercomputer gibt. Supercomputer, das sind heute Chipgräber aus sehr vielen Grafikprozessoren. Da die Kompression von Filmen seht gut parallelisiert, eignet sie sich diese Aufgabe sehr Gut für eine Lösung ein einer Cloud.

Ich habe beim anonymisierten durchsehen von Cache Log Files festgestellt, das es gerade bei Videomaterial zusätzlich vom Ausmaß her verhängnisvolle Tendenz gibt, das ein und der selben Inhalt an unzähligen verschiedenen Stellen zu Hosten. Würde man einem solchen Internet Video Format einen Header der eine SHA512 Hash summe des gesamt Inhalts umfasst, dann könnten Caches nach dem Laden des Dateikopfs erkennen, ob sie diesen Inhalt schon aus einer anderen Quelle kennen.

Alternativ lies sich das Problem der Mehrfachspeicherung von Inhalten unter verschiedenen URL auch generell dadurch in den Griff bringen, das an einem Ort mit extrem billigen Internet Verkehr neue Services eingerichtet werden mit einem neuen abgewandelten Typ eines Proxy Server, der dadurch definiert ist, das er statt des Inhaltes selber nur einen SHA512 einer URL liefert. Damit könnten dann Squid Proxiserver vor Ort beim Kunden, wie sie z.B. in Endian firewalls eingesetzt werden, oder aber in Ortsnetzen mit begrenztem Zugang zum Internet feststellen ob sie eine große Datei schon aus einer anderen Quelle haben. Damit lassen sich Verluste vermeiden wie sie bei der Distribution des Suse Linux auftreten, bei dem ohne explizite Äquivalenz Anweisung ein und die selben Dinge aus verschiedenen Quellen gezogen werden. Solche Pannen sorgen dafür, das wirksame Caches zur Zeit so Wartungsintensiv geworden sind, das viele - zu viele - Internet Provider auf ihre Verwendung verzichten, und es damit auch für immer mehr Anbieter von Inhalten nicht mehr Wirtschaftlich ist, sich Gedanken um das Zusammenspiel mit Caches zu machen. Das ist Punkt, der sich wieder Ändern muss.


Nachtrag: Wie ist es möglich, sich im Internet vorzudrängeln?

Es gibt Leute im Internet, die versuchen mit eigenen Transportprotokollen eine Vorfahrt zu Erschleichen. Um zu verstehen wie das geht, musst man folgendes Verstehen:

  1. Was passiert, wenn es auf einer Leitung eng wird?
    Als erstes wirft der IP router, wenn die Werteschlange an einer Leitung eine Bestimmte Länge erreicht, die Pakete weg. Durch das Wegwerfen, das Zufällig geschieht, reagieren die empfangende Stelle mit einer Aufforderung zur erneuten Aussendung. Daraufhin wiederholt die Sendende Seite und verringert Geschwindigkeit.
  2. Was ist Forward Error Correction?
    Dabei handelt es sich um ein Verfahren, die Daten aufzublasen, um ohne erneute Aussendung Verluste ausgleichen zu können. Im einfachsten Fall, alles Doppelt senden, aber es geht bedeutend cleverer. Das Prizip ist wie bei einem Raid5 oder Raid6.
  3. Was ergibt sich aus der Kombination dieser Fakten?
    Wenn ich jetzt einen Modifizierten TCP/IP Stack verwende, dann brauche ich nicht jedes Packet neu anfordern. Demzufolge kann ich mehr Senden als meine Konkurrenten. Ich selbst kann Verluste weg stecken, während der Konkurrent auch Paketverluste verzeichnet und sich so weit zurück nimmt bis er ich nicht mehr behindert im Extremfall bis auf Null!!

Solchen Machenschaften muss man als ISP massiv Drosseln, um solche Dienste sozial verträglich zu machen. Sonst machen die einem betroffene Links zu Unterverteilern gnadenlos zu. Das ist bei jeder Verbindung der Fall, ist aber bei WLAN ISP besonders kritisch, weil ab irgendeiner Belastung die Funkdisziplin kollabiert und alles nur mehr ganz langsam geht.


Keine Kommentare: