24 Februar 2015

Was passiert wenn im Internet mal ein Großteil der Kapazität ausfällt ... die Auswirkungen des Internet der Dinge ...

Gestern kam ein besonders klebriger Typ Schnee vom Himmel, der sich wie Blei auf die von mir verwendeten Gitternetzantennen gelegt hat. Normaleiweiße verwendet man im Bereich des WLAN-Richtfunks heute geschlossene Antennen um solcherlei Ungemach zu vermeiden, aber die haben ein anderes Problem: Sie haben eine große Windlast welche aufwändige und teure Umbaumaßnahmen erfordern würde. Die Gitternetzteile lassen sich im Rahmen der Spezifikationen an alte Antennenmasten schrauben.

Bedingt durch diesen Schnee sind viele Strecken sehr langsam gewesen oder auch ganz runter gefahren. Es war interessant auszuwerten wie sich das ausgewirkt hat. Eine sinnvolle Nutzung des Browsers, wofür auch immer, war nicht mehr möglich. Der Grund dafür ist einfach: Immer mehr Geräte halten mehr oder weniger engen Kontakt mit ihrem Hersteller. So was ist praktisch für Hersteller, damit kann man zum Beispiel die Produktlebenszeit definieren. Selbst Spielzeuge wie die "Stasi Barbie" halten intensiven Kontakt mit ihrer Quelle. Stasi Barbie lädt alles zu "Sprachgehirn" der Puppe im Internet hoch, und verbrauch damit zum Beispiel konstant ein nicht unwesentlich Teil der ohnehin eher dünner ausgelegten Upload Kapazität. Ebenfalls sehr Toxisch sind Downloader welche im Hintergrund mit sehr vielen parallelen TPC/IP Verbindungen große Spiele und ähnliches runter laden.

Und Bots sind sehr viel geduldiger als Menschen. Mit andren Worten: Die Kapazität wurde von Update und Download Prozessen der unterschiedlichsten Couleur aufgefressen, für den eigentlichen Betrieb mit Menschen blieb nichts mehr übrig. Die Anfragen aus dem Kundensupport ließen erkennen, das ein großflächiger mehrtägiger Teilausfall des Internet ebenfalls zu enormen wirtschaftlichen Ausfall nach sich ziehen würde.

Abhilfe könnte eine Labelung des Verkehrs als human nahe Schmalbandübertragung liefern. Technisch müsste dies auf sehr gut geschützten kryptografischen Verfahren beruhen, denn im Internet gibt Leute die ohne Rücksicht auf Verluste nach Vorfahrt auf der Datenautobahn gieren. Selbst der Port des BGP, dem Border Gateway Protokoll welches die Vermittlung der Daten im Internet bewerkstelligt, ist machen Download Programmen nicht heilig. Damit riskiert der Programmierer, hinreichenden Erfolg seiner Anwendung mal vorausgesetzt, den n Zusammenbruch des Internets weil sich die Router nicht mehr schnell genug über Änderungen in der Konfiguration austauschen können.

Ein Kette Digitaler Unterschriften könnte so etwas leisten. Zunächst findet ein Audit statt das Prüft ob eine Software wie ein Browser "nah am Menschen" operiert und Daten sparsam ist, also zum Beispiel in dem die Software keine Videos mit Vorrang herunter lädt und Bilder sowie Flasch nur nach manueller Aufforderung mit Vorrang lädt, automatische Erneuerungen von Webseiten nie mit Vorrang durchführt, und vieles andere Mehr. Dann wird dieser Software ein befristetes Zertifikat ausgestellt, mit dem sie Ihre Vorranganfragen unterzeichnen kann. Diese Unterschrift könnten dann Beispielsweise als zusätzliche HTTP Headerzeile oder in einer TCP Option als Passierschein für Filter genutzt werden welche Reservekapazitäten vor unerwünschter Nutzung frei hält. Schwierig ist, wie man dafür sorgt, das der Private Schlüssel der Software nicht geklaut wird.

Juristen haben bisher im Internet wenig gerissen, so das ein Rechtlicher Schutz nur bedingt was bringen wird. Illegale Videodistributoren dürften sich an diesem neuen Illegal auch nicht wirklich stören. Schon eher Wirksam dürfte es sein, wenn Hersteller von Malware Detektoren Software welche gestohlene Schlüssel verwendet wie Viren diskriminiert. Das würde den Missbrauch vermutlich auf einzelne Rechner zurückdrängen, welche dann per "Statistical Fair Queing" gebremst werden können. Was sich so fatal auswirkt ist ja die Tatsache, das der Hintergrundverkehr wie die kosmische Hintergrundstrahlung aus allen Richtungen kommt.

Bleibt zu klären, ob dies das Internet belastet. Im Normalbetrieb mit vertretbaren Antwortzeiten brauch ein Browser auch für eine Anfrage nach einer HTML Seite keine Vorranganfrage zu stellen. Nur im Wiederholungsfall wegen Zeitüberschreitung wäre es nötig, den Digitalen Passierschein den Anfrage beizulegen.

Lohnt denn der ganze Aufwand? Glasfasern verführen aus Kommerziellen Gründen, die Anbieter dazu die Netze im kleinen Skalen die Netze sternförmig aufzubauen. Physikalischer Leitungsbau ist wegen des hohen Lohnniveaus und der technischen Ausführungsbestimmungen extrem viel teurer als die Nutzung aufwendigerer Peers an den enden von Lichtleitern. Wenn also eine irgendwie geartete Verbindung besteht, ist es in der Regel billiger einen riesigen Umweg zu Routen als nur wenige Kilometer neue Leitung zu verlegen. Zwar sind die Installationen Redundant aufgebaut, in dem Sinne das mehrere Lichtleiter gebündelt werden. Damit werden zum Beispiel Ausfälle einzelner Laserdioden abgefangen. Da diese nur eine begrenzte Lebenszeit haben, ist das auch bitter nötig. Wenn es aber zu ein Bauplanungsfehler kommt, und ein Bagger ein großes Bündel Lichtleiter erwischt oder ein Wichtiger Knoten schlicht z.B. Unfall bedingt abbrennt, dann bleibt, wenn überhaupt, nur sehr wenig Restkapazität zum Beispiel durch Satellitengestützte Anbieter übrig. Hat man so einen Algorithmus nicht, ist ein angeschlagenes Internet ein totes Internet, mit den entsprechenden Wirtschaftlichen Konsequenzen.

Keine Kommentare:

Kommentar veröffentlichen