Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

18 August 2013

Netzneutralität, Selbstversuche eines ISP

Das Ansinnen der Deutschen Telekom die Flatrates im Volumen zu Begrenzen schlägt weiter Hohe Wellen. In der Tat sind die Aussichten mit diesem dem Internet überlagerten Service problematisch.



Wie wichtig dieses Thema auch in der interessierten Öffentlichkeit genommen wird kann mann auch daran erkennen das in der Zwischenzeit binnen 4 Tagen eine öffentliche Petition die nötigen 50000 Unterschriften erhalten hat, welche in Analogie zum neu verabschiedeten Programm der Piratenpartei ein Gesetzliches Verbot der Ungleichbehandlung von Internetpakete vorsieht.

Ich habe über Pfingsten ein Experiment gestartet. Ziel war es, mein über viele Jahre entwickelte Behandlung der Datenpakete abzuschalten und gegen eine Version zu ersetzen, welche eine im technischen Sinn Netz neutrale Version zu ersetzen.

Bis dahin habe ich eine Reihe von Regeln am laufen, welche sich zu Vermeidung von Störungen und aus kaufmännischer Sicht als Opportun erwiesen haben. Da ich mit WLAN Bridges arbeite und die Router nur nachgeschaltet sind, macht ein Que Management in meinem Netz wenig Sinn, weil die Router nicht wissen welche Funkkapazitäten vorliegen. Das Problem ist, es gibt hervorragende Bridges die über Power Over Ethernet versorgt werden und sich direkt an der Antenne befinden. Ein Betrieb eines Router mit einem Antennenkabel nach außen ist an vielen Stellen nicht möglich, erheblich teurer oder geringer in der Reichweite wegen der Kabelverluste auf dem Weg zur Antenne.

Ich bin ein Gegner der Volumenbegrenzung nach Lesart der Telekom. Kunden der Telekom werden das Problem haben, das zum Beispiel eine Schadanwendung ihren Traffic verballert, und die Kunden dann bis zum Monatsende fast auf dem trockenen Sitzen. Aus diesem Grund bevorzuge ich ein Gleitendes verfahren. Jede Sekunden werden den verwendeten Pools Kontingente zu gebucht. Werden diese nicht genutzt, werden sie Angespart bis zu einem konfigurierten höchst wert. Ausserdem versuche ich die Bremsregeln so zu codieren, das sie sich gegen diejenige Funktion richtet, welche den Overflow produziert. Wenn also jemand mit einem P2P die Volumengrenze zu sprengen droht, sollten beispielsweise https Webseiten noch gut Funktionieren.

Welche Regeln sind das:
  • Die Datenmenge zwischen zwei IP ist Limitiert
  • Die Zahl der Pakete pro Sekunde zwischen zwei IP ist Limitiert - Das mache ich, weil kurze Datenpakete wegen der Verluste durch Aushandeln wer das Senderecht hat mehr Frequenz Ressourcen belegen als lange
  • Behandlung der TCP und UDP: Es gibt Kontingente für Systemservices (Sorce Port < 1024 oder Dest Port 1024) und P2P Services (Source Port > 1024 und Dest Port > 1024). Übersteigt der Traffic das Kontingent, so wird individuell nach Benutzer Bytes aus dem Vorrat genommen. Ist dieser Aufgebraucht wird das Paket nicht weitergereicht, um der Applikation eine Verringerung der Datenrate nahezulegen
  • Priorität 1 Vorrang für Steuerpakete der Routineprotokolle und Schutz der entsprechen Ports wie z.B. TCP 179 der vom BGP genutzt wird vor Nutzung durch die Kunden
  • Priorität 2 Vorrang für Datenpakete zur Fernsteuerung der Geräte (ssh)
  • Dienste die mit modifizierten Stacks arbeiten um sich einen Vorteil auf belasteten Netzelementen zu erringen, zum Beispiel durch Verwendung von Forward Error Korrection (FEC), werden gezielt so weit gedrosselt, das sie keine Leitungen füllen, und so die Ping Zeiten niedrig bleiben.
  • Sperrung von Port 25 weil sonst bei Kunden trotz Vertragsmäßig geforderten Virenschutz für unzuverlässige Betriebssysteme sowie Virenscanner im Proxyserver und Mailserver meine Class C-Netze im Spamhouse Service langen und keine Mails mehr versendet werden können. Für Kunden die einen Mailserver betreiben wollen gibt es eine Exeption, Kunden die ferne Mailservices nutzen wollen sollen gemäß RFC eh Port 587 benutzen.
  • Port 80 Traffic wird von einem Proxyserver abgehandelt, weil die Kunden darüber eine Flatrate haben.

Alle diese Regeln sind entstanden, um die auftreten betriebliche Probleme zu lösen. Ich habe diese Regel bis auf die Letzten zwei durch ein gleitendes Limit pro Kunde ersetzt und mal schauen, was passiert.

Hilfe, mein Internet Zugang funktioniert nicht...

Das erste Ergebnis war, das ich ein erhöhten Support Aufwand. Beispielsweise ruft ein Vater an, weil sein Internetzugang nicht funktioniert. Ich schaue in den Monitor, keine Störung gemeldet. Mache ein Ping, der geht, aber mit Paketverlust. Ein Tcpdump liefert, das der Zugang recht Aktiv ist. So wie der verkehr aussah, hat eines der Kinder gerade ein Spiel mit einem mir von der IP her bekannten recht aggressiven Installer heruntergeladen. Also bekommt der Vater den Hinweis, das von seinem Zugang massiv Daten gezogen werden. Ob der Nachwuchs über die vermutlich fällige elterlichen Nachfragen erfreut wahr? Glaube ich weniger ...

Es wird sukzessive Langsamer...

Nach und nach steigt der P2P Traffic deutlich an. Das dürfte verschiedene Gründe haben. Zum einen könnte die Leute Merken das sich das Bandbreitenregime geändert hat, und mehr Bakups anstoßen. Mir ist aber aus etlichen debugging Sessions bekannt, das etliche 2 Stufen Installer von Free to Play spielen erst mal ein P2P download mit Bittorent versuchen und nur wenn das nicht geht oder zu lange dauert, wird ein normaler Download gestartet. Der Grund ist einfach, so kann der Anbieter Kosten für seinen Internetauftritt sparen, und diese auf seine Kunden verlagern. Wenn diese aber keine Flat mehr haben sondern ein Kontingent haben, ist das für die ein echtes Problem, weil ein solcher Download damit P2P funktioniert mindestens 2 mal so viel Traffic erzeugen muss.

In meinem Netz tritt das Problem verschärft auf. Da WLAN Symmetrisch ist, habe ich auch symmetrische Zugänge verkauft. Die P2P Anwendung neigen dazu, in diesen Konfigurationen den Teilnehmern einen Supernode Status zu verleihen, um die Performance des P2P Netz zu verbessern. Es wird also der Traffic vorzugsweise über Rechner mit schnellem uplink Zugang verlagert. Das führt dazu, das nicht nur das Doppelte sondern ein mehrfaches an Traffic gezogen wird im Verhältnis zur Dateigrößen welche der Nutzer haben will. Das führt dann zu einer deutlich verringerten Nachvollziehbarkeit durch den Kunden, dessen Kontingent am Ende ist, wo er doch nur eine deutlich kleinere Menge an Daten auf der Festplatte hat.

Das Experiment ist gescheitert, aus pekuniären Gründen...

Der Traffic, vor allem der Upstream steigt immer weiter an. Es ist völlig klar, das ein große Zahl von Inhalte Anbieter Kosten via P2P auf Ihre Kunden über wälzen. Ich kaufe Traffic per Volumen, habe eine Drosselklausel in den Verträge für nicht Cachebaren NAT Traffic sowie eine Flatrate für Http Cachebaren Traffic. Durch diese Konstellation ist es mir Möglich, vergleichbar hohe Download Geschwindigkeiten zum Beispiel für Software zu realisieren. Aber mit 250% mehr Traffic - und der Gleichgewichtszustand war vermutlich noch lange nicht erreicht - kann ich nicht Leben. Um das Geschäftsmodell profitabel zu halten, müsste ich also wesentlich härter Drosseln. Ein GB auf dem Land zu besorgen ist über 100x Teurer als ein GB zu speichern. Da wird klar wie wichtig Proxiserver für Anbieter wie mich sind. Man denke nur an die Vielen Updates der Software. So kostet ein Wiederverkaufs GB per Satellit 9€.

Hilfe, das Routing wird instabil...

Die Lage wird, dank des Zunehmenden Traffic immer kritischer. Außerdem ist es so, das bei Intensiven Gegenverkehr der Zeitbedarf der Arbritration stark zunimmt, um Kollisionen unwahrscheinlicher zu machen. Kollisionen wären noch destruktiver. Viele Provider, auch wenn sie nicht darüber Reden, drosseln P2P. Aus diesem Grund kämpfen diese Applikationen um die Vorhandenen Bandbreite. Sobald diese Anwendungen so viel Verkehr erzeugen, das Steuerpackete des Routingprotokolls zu oft untergehen, dann wird es Problematisch. Dann werden die Daten plötzlich über Umwege geschickt, weil einzelne Verbindungen als defekt gewertet wird. Damit Fällt ein Teil der vorhandenen Kapazität weg. Dies führt eine zunehmenden Verlangsamung, und damit ist dann der Kreis zum Teufelskreis geschlossen.

Oh je, eine unerwartete Mehrbelastung

Ich wollte das Experiment beenden, weil die Stabilität des System nicht mehr gegeben ist. Aber die Realität kam mir zuvor, als ein Verlagshaus das bei mir Kunde ist seine zweite Leitung beschädigt und sich mit seinem ganzen Gewicht auf mein Netz legt ... und dann ging endgültig nichts mehr. Nicht mal die Router waren zu erreichen, um das Experiment zu beenden. Da half dann nur noch offline schalten, dann die alten Regelsätze einzuspielen, und das Netz komplett neu zu starten.

Das neue Modell

Mittlerweile habe ich einen Modus gefunden, der in der tat nur noch mit der Auswertung von Source IP, Dest IP und Paketlänge auskommt. Der ganz große Vorteil ist, dass das nicht mehr mit Verschlüsselungen in die Irre geführt werden kann. Als erstes wird das Kontingent des Kunden durch die Zeit eines Monats geteilt. Das ergibt z.B. bei einem Gigabyte 385 Bytes pro Sekunde. Dann gibt es einen Faktor, der sich aus Statistischen Überlegungen zum Verfall von Traffic. Diesen Traffic splitte ich auf verschiedenen Konten. Einem größeren Anteil auf ein Kurzeitkonto mit einem beschränkterem Kontingent von cirka 50 Megabyte, und einem größeren Reservoire mit ca. 700 Megabyte das sich seht langsam füllt. Der Sinn ist, das ein Nutzer der sein Kontingent verbauert hat, schon seht schnell wieder normal im Internet Servern kann. Wie gesagt, es gibt etliche Programme, die Dinge treiben, welche die Nutzer nicht erwarten. Außerdem ist im Normalfall ein Runter laden eines CD Image in voller Geschwindigkeit möglich. Aber eben nicht zu oft. Auf diese Weise wird bei einer Auslastung welche den Vertraglichen Rahmen sprengt die Übertragung immer Langsamer bis diese wieder in das Kontingent passt. Außerdem splitte ich einen Teil des kleinen Volumens als per binnen IP Volumen auf, so das Eltern nach Möglichkeit nicht mehr durch ihre Sprösslinge ganz aus gebremst werden.

Was sind die Lehren aus dem Experiment?

Wenn es eine Bedingungslose technisch definierte Netzneutralität gibt, wird das Internet für den Verbraucher deutlich teurer und unter Umständen auch instabiler. Es gibt einen immer größeren Trend zu den Apps. Aber dies Applikationen liefern den Anbietern von Film und Musik die Möglichkeiten, die bisher nur Anbieter von Spielen hatten. Und diese Leute gehen absolut rücksichtslos mit der Bandbreite um. Vermutlich auf Druck von Hollywood werden Filme z.B. bei AppleTV nicht gespeichert. Jedes mal Ansehen zerrt den Film in voller Länge durch das Internet. Sie können ihren Konntet mit einem nach ihren freien Ermessen konstruierten Verfahren verteilen. Insoweit sind mit den gleichen Exzessen zu rechnen wie es sie heute schon auf dem Spielemarkt gibt:

  • Verlagern von Internet Kosten auf die Verbraucher durch P2P Verfahren
  • Benutzen von Ports mit bevorzugter Beförderung wie TCP 179 des BGP
  • Benutzen von Verfahren, die sich mittels Forward Error Correction Vorfahrt im Internet erschleichen
  • Benutzen von Massiv parallelen Verfahren, also einfach 100 Teilsegmente Parallel Laden anstatt eines normalen TPC/IP transports.

Mit Aufwändigen Routern welche über ein aktives Que Managment verfügen, kann einiges abgefangen werden, das funktioniert aber nur so lange wie der Content nicht über das halbe Internet verteilt ist. Denn nur dann ist {Source IP, Dest IP} immer die gleiche Menge. Gerade bei Anbieten großer Inhalte ist das schon fast flächendeckender Standard. Und unter dieser Voraussetzung wird sich der Traffic auffächern und verschiedene Wege gehen.

Da Computer Spiele und Videos den absoluten Löwenanteil des Internetverkehrs ausmachen, werden die P2P basierenden Verlagerung von Verkehrskosten mindestens zu einem Kostenanstieg für den Verbraucher auf das Doppelte mit sich Bringen. Da aber die Netzneutralität in der Form in anderen Ländern erst mal nicht existiert, werden die Kosten in Wirklichkeit noch höher ausfallen, weil die Upstreamkosten für das P2P noch größer sein wird weil aus dem Ausland zusätzlicher Verkehr angezogen werden dürfte.

Man wird sich also Fragen müssen, ob man die Netzneutralität nicht doch eher kaufmännisch definieren soll - indem man kostenpflichtige Zusatzdienste wie das Entertain der Telekom eines Internetprovider, welche über die Gleiche Infrastruktur abgewickelt werden, nicht zulässt wenn sie sich an die Allgemeinheit wenden. Für abgegrenzte Anwendungen wie VPN für einem Heimarbeitsplatz will die Bundesnetzagentur die Extraabrechnung und Priorisieren zulassen. Ich habe das Angefragt, weil ich einen Arzt als Kunden habe, der im Bereitschaft von Zuhause Diagnosen erstellen können soll. Technisch ist das, was er da bekommt exakt das, was Entertain & Co ausmacht. Der Verkehr {sIP, dIP} wird gesondert behandelt, fällt somit nicht unter die allgemeine Drossel und und eventuell wird der Traffic noch mit Vorrang transportiert.

Alternativ müsste man zum Schutz der Verbraucher zusätzliche Vorgaben an die Programme welche im Internet genutzt werden machen. Aber da ist man ganz schnell bei einer Zulassungspflicht wie es sie dereinst in BTX Zeiten schon mal gab. Einen größeren Gefallen könnte man Regierungen und Despoten in aller Welt nicht machen. Außerdem denke ich, das die Tatsache das Programme nicht in irgendeiner Weiße zugelassen werden müssen noch wesentlich Wichtiger für den Erfolg des Internets war wie die Netzneutralität. Denn nur die Freiheit der Anwendungen, an der durch Konzerne wie Apple durch die Regeln des App Stores auch schon heftig gegraben wird, lies es überhaupt erst zu die Netzneutralität auszunutzen. Wenn dieses Prinzip aber Störungen verursacht und die Betreiber der Netze diese Störungen nun wegen Gesetzlicher Vorgaben nicht mehr unbürokratisch beseitigen können, dann ist dieser Pfeiler des Erfolgs akut gefährdet. Das kann niemand ernsthaft wollen


Die beste Lösung wäre in meinen Augen, die Ganze Diskussion damit zu beenden, das ein neues, wirksameres Videocodec für HD und UltraHD Filme entwickelt wird, weil der Transport von Filmen die Hauptquelle des Ausufernden Verkehrs ist. Würde auf die Voraussetzung an das Format verzichtet, in einen Film "reinzappen" können zu wollen, dann kann mit einer Entropie Schätzung belegt werden das ein Film um den Faktor 10, einer mit HD sogar um den Faktor 20, komprimiert werden. Die für das entpacke nötige Rechenleistung ist dank der GPU's allgegenwärtig. So ein Codec muss aus der Internet Community kommen, denn die Filmindustrie und ihr Vertrieb dürfte nichts mehr fürchten wie eine Marginalisierung ihres Produktes wie es die Tonträgerindustrie in den 1990'ger Jahren mit dem aufkommen von mp3 erleiden musste. Darüber hinaus sollte man den Kommerziellen Film und Musik Streaming Diensten vorschreiben, das man deren Content Cachen kann. Es ist ein Unding, das die Fettesten Objekte im Internet nicht gecacht werden können. Noch dazu wo diese Inhalte annähernd Zeitgleich abgerufen werden und dann mehr oder weniger wieder in Vergessenheit geraten. Das sind beste Voraussetzungen für das Cachen. Einen entsprechenden Paragrafen im Urheberrecht gibt es schon, es muss nur verhindert werden, das die Anbieter dieses mit ihren Rechten aus dem Urheberrechten wieder technisch aushebeln. So wie sie mit HD+ auch versuchen das Recht der Verbraucher auf Privataufzeichnung von über Funk ausgestrahlte Werke zu negieren. Da alle Online Anbieter von Spielfilmen das so machen, gehe ich davon aus, das die Filmstudios dies zur Voraussetzung der Lizenzierung machen. Dies kann nur der Gesetzgeber durchsetzen, in dem er glasklar sagt, so oder eben gar kein Geschäft.

Keine Kommentare: