Was ist ein Meshnetz
Heutige Kommunikationsnetze haben ein sehr stark zentralisierte Struktur. Es wird von einer sternförmigen leitungsgebundenen Infrastruktur ausgegangen, an deren Enden sich die Endgeräte befinden. Das gilt auch für die Drahtlosen Netze, bei denen nur die letzte Verbindung durch eine Funkverbindung ersetzt wurde. Diese Netze unterscheiden sich neben den technischen Details der Übertragung nur in der Zellen. In Absteigender größe sind das GPRS, UMTS, LTE, WLAN.In den Anfängen des Internets war das Internet ein Meshnetz aus Festverbindungen. Die Verbindungsleitungen der Knoten waren wie ein richtiges Netz angeordnet. Wenn eine Leitung ausgefallen ist, dann hat die Software der Router - den Knotenrechnern - automatisch eine Umleitung gefunden, so das der Ausfall nicht aufgefallen ist. Die war Entwicklungsvorgabe, weil man das Internet benutzen wollte, einen atomaren Gegenschlag zu Organisieren. Da Internet ist auch heute noch so aufgebaut, allerdings nur noch im internationalen Maßstab. Der Grund dafür ist in der überragenden Transportkapazität von Glasfasern zu suchen. Es ist oftmals billiger ein Signal durch die halbe Republik oder noch weiter zu scheuchen, als eine neuen Leitung von 5km Länge zu bauen. Kein Wunder, 100-2000€ pro Meter kommt eine ganze Menge zusammen.
Durch die Vielzahl von Geräten welche Senden und Empfangen können stellt sich die Frage, ob auch ein Internet ohne Kabel existieren kann und was es Leisten kann. Ich selbst stelle, weil ich verhindern wollte das die Bürger meines Stadtteils mir bei den Frequenzen ins Gehege kommen, unter anderem auch Internetzugänge zur Verfügung, die auf die Aneinanderreihung von WLAN Zellen beruhen, und kann in soweit einiges dazu aus erster Hand berichten.
Solche Netze wären sehr Nützlich, weil sie durch eine Vielzahl von Wegen wesentlich robuster gegen die Einwirkung von Kriegen und Naturkatastrophen sind. Es müssen "nur" genügend Knoten aktiv bleiben, um Verbindung zu halten weil die Daten wie in einer Eimer-kette von Gerät zu Gerät weitergegeben werden. Die zentralisierten Netze sind dagegen hochgradig Gefährdet durch politische Intervention abgeschaltet zu werden. Beispielsweise war Syrien im Bürgerkrieg tagelang Offline. Wie sich kurioserweisse Raustellte war es aber weder Assat noch die ISIS die eines Ihrer Massaker unter Ausschlus der Öffentlichkeit durchziechen wollten, sondern die grössenwahsinnige und stehts omnineugierige Neue Stasi Ameriks, die NSA, die bei einem Hack einen zentralen Router in Syrien mit ihren Trojanern lahmgelegt hat.
Was können Meshnetze Leisten
Ein Meshnetz bekommt Probleme, wenn es um Fernverkehr geht. Nehmen wir zum Beispiel an, ein Knoten kann 1 Megabyte pro Sekunde Senden, ohne damit Radiointerferenzen mit den Aussendungen der anderen Knoten zu Produzieren. Nehmen wir des Weiteren an, das das Netz von den Teilnehmern heftig genutzt wird und die Ressourcen fair aufgeteilt werden. Dann kann jeder im Mittel nur so viele Aussendungen veranlassen wie er selbst zum Netzwerk beiträgt. Ich kann also 1.000.000 Byte/s direkt von meinen Nachbarn beziehen, 500.000 Byte/s von dem übernächsten Nachbarn, 333.333 Bytes pro Sekunden wenn drei Links gebraucht werden und so weiter. Mann erkennt, dass wenn ganze Landstriche auf ein Meshnetz angewiesen sind, man sehr schnell auf Chat Nivau ankommt.Erschwerend kommt hinzu, das die aktuelle Entwicklung gerade voll gegen das Internet als Meshnetz läuft. Es gibt sehr gute Software welche die Inhalte von Webseiten zwischenspeichert und diese dann weiter verteilt. So kann diese Software per Multicast - eine Nachricht die sich wie eine Rundfunkansage an jeden wendet der Zuhört - bei den Nachbarinstanzen nachfragen ob ein bestimmter Inhalt vorliegt, und diesen dann von dort beziehen. Das Problem ist nur, das immer mehr Inhalte so angeboten werden, das es nicht mehr möglich ist zu erkennen das der selbe Inhalt vorliegt.
Das fängt mit Google an, das jetzt beschlossen hat, Webseite zu fördern die per https erreichbar sind. Sie bekommen Extrapunkte für das Ranking im Verzeichnis, tauchen also vermehrt vorne auf und werden dann auch per https verlinkt. Eine solche Verbindung kann nicht mehr Lokal gecachet werden. Microsoft hat httpi vorgeschlagen, welches nur die Authentizität sicherstellt, aber Caching zulässt.
Zuvor haben schon die Video Anbieter massiv an der Wirtschaftlichkeit von Cacheinfrastrukturen gesägt. Alle legalen Anbieter von Videofilmen verwenden individuell verschlüsselte Verbindungen zu ihren Abonnenten und sorgen dafür, das diese Inhalte dort nicht zwischengespeichert werden. Ich vermute mal, das dies eine Lizenzbedingung seitens wichtiger Filmstudios ist. Wenn man für 3€ einen HD Film übers Wochenende auf iTunes leiht und sich mehrere Familienmitglieder den Film zu unterschiedlichen Zeiten ansehen, dann wird der Film jedes mal in epischer HD Breite durch das Internet gezerrt. Das zwingt selbst die Telekom in die Knie und veranlasst Sie die echte Flatrate aus den Verkehr zu ziehen.
Technische Probleme
Ein weiteres Problem das man nicht unterschätzen darf, ist das Routing in einem Meshnetz. Dafür gibt es verschiedene Ansätze. Um Kompatibilität mit einem Normalen Netz zu erreichen und dem notorischen Ärger mit dem Zusammenwirken von WLAN Bridges unterschiedlicher Hersteller aus dem Weg zu gehen, habe ich mein Netz beginnend seit 2001 immer so aufgebaut, das ich die einzelnen Funkbrücken per LAN Switches und Router verknüpft habe. Dabei wurden die alten Verbindungen als Reserve der neueren, schnelleren Verbindungen konfiguriert. Damit ist das eigentliche Zugangs Netz ein normales WLAN Netz in dem die Accespoints eben über "WLAN-Kabel" angebunden sind und ich kann Clients aller Hersteller ohne Umstellung einbinden. Durch die vollständige Abschaltung vieler Verbindungen wird das Arbitrationsproblem - also die Funkdisziplin wer wann Senden darf - erheblich entschärft. Dazu muss man wissen, das Frequenztrennung der WLAN Chips sehr bescheiden ist. Da etliche Accesspoints über "Airview" verfügen, mit denen eine Spektrogramm des gesamten Bands angezeigt wird, gehe ich davon aus, das weite Teile des Empfanges und des Sendens per Software gemacht werden. Das führt dazu, das ein Sender der Zeitgleich im benachbarten Kanal sendet eine erhebliche Mindestentfernung haben muss, damit er nicht mehr stört, weil die Dynamik der Wandler recht begrenzt ist. Wie groß oder kein diese Nachbarkanaldämpfung ist, das haben die Hersteller trotz Support Anfrage über meinen Händler nie raus gerückt.Mit dieser Nachbarkanaldämpfung kann es aber nicht weit her sein. So bietet der Netzwerkausrüster Ubiquity beispielsweise Spezielle Geräte welche unter Zuhilfenahme von GPS Synchronisation dafür sorgen, das sich verschiedene Zellen nicht gegenseitig Stören, wenn mehrere Geräte an einem Mast montiert sind. Viele Smartphones verfügen auch über GPS ... ob mit der physikalischen API der Chip auch eine zeitliche Synchronisation im µs Bereich möglich ist, vermag ich aber nicht zu sagen. Die Tendenz der WLAN Sendeverfahren geht in jedem Fall aber zu einer Trennung der Stationen durch die Zeit. Bei 802.11n mit seinen 40MHz Kanälen gibt es im 2,4GHz Band nur noch einen Kanal. Mit der Nachfolgenorm 802.11ac mit seinen 160MHz breiten Kanälen ist das ebenfalls schon so, das die gesamte Breite des Internationalen Indoor bereichs ausgeschöpft ist. Benutzt man die nationalen speziefischen Erweiterungen so gibt es 2 Indoor und 3 Outdoor uns einen weiteren Kanal für ISP.
Auch bei den Normen für den Mobilfunk lässt sich diese Tendenz beobachten. Zwar steigt auch dort durch neuartige Verfahren auch die Pro Hertz Bandbreite übertragene Datenmenge an, aber längst nicht so stark wie das der Fortschritt in der ausgewiesenen Übertragungskapazität vermuten lässt. Vielmehr sind die neuesten LTE Evolutionsstufen welche mehr als 1Gbit verspricht in der Lage, unterschiedliche Frequenzressourcen des Providers zu bündeln, so das ein einzelnes Telephon gleichzeitig Daten aus verschiedenen Sendeanlagen beziehen kann.
Die Verwaltung von Verbindungen durch degradieren zum Standbeibetrieb mit Hilfe von zum Beispiel STP ist aber nur bei einem fest Eingerichteten und Verwalteten Meshnetz sinnvoll, bei der es durch den Ausbau auch klare Präferenzen für den optimalen Transportweg gibt. Außerdem ist dieses Verfahren nur in der Lage Totalausfälle wie Stromausfall oder Blitzschlag gut zu behandeln. Sollen diese Netz dynamisch zu Stande kommen und verwaltet werden, dann werden Verfahren gebraucht, welche unter Ausnutzung der funktechnischen Messwerte wie Störspannungsabstand und Störungswahrscheinlichkeit beim Empfang die optimale Route berechnen. 802.11s sollte eine Offizielle Norm für diese Form eines Netz innerhalb des MAC Layers werden, was aber wegen technischer Probleme und Streit über die zu erreichenden Ziele immer wieder vertagt wurde. Bis zur Verabschiedung von etwas Konkreten hat es rund ein Jahrzehnt bis 2011 gedauert. Eine andere Alternative ist B.A.T.M.A.N., bei der die Parameter abgefragt werden und in einer höheren Ebene behandelt werden.
Für die Applikationen wirken auch bei diesen Verfahren das gesamte Mesh Netz wie eine einziges großes LAN und es wird für jedes einzelne Gerät wichtige MAC Routen vorgehalten. Es ist augenscheinlich klar, das bei großen Netzen mit einer zunehmenden Zahl von Teilnehmer entweder der Leerlaufverwaltungsaufwand immer größer wird oder aber die Zeit die für einen Verbindungsaufbau für das erstellen der nötigen Routen immer länger wird.
Neueste technische Entwicklungen können hier einen Ausweg aus der Sackgasse aufzeigen. Mit MPTCP ist es möglich, transparent von einem IP Netz in ein ganz anderes zu migrieren ohne das dies von der Applikation zur Kenntnis genommen weden muss und einen Neuaufbau einer TCP Verbindung erfordern würde. So kann zum Beispiel ein Stream in der Bahn über LTE begonnen werden und mit Ankunft im eigenem Heim auf das heimische WLAN umsteigen. Damit wird es also für ein Gerät möglich die IP unabhängig von den Applikationen zu wechseln. Da in einem IPv6 Netz eine einfaches LAN bereits einen 64 Bit großen Adressraum hat und 2 32 Bit Nummern für Geo Koordinaten mehr als Ausreichend sind, kann in Zukunft die IP die Geografische Position sein. Damit kann dann in einem Meshnetz der optimale nächste Knoten für ein beliebiges Ziel analytisch aus lokal zugänglichen Größen berechnet werden. Das wäre ein gewaltiger Fortschritt zu den jetzigen Ansätzen, weil der Verwaltungsaufwand weitestgehend flach fällt. Stellt ein Smartphone über das GPS eine Veränderung der Position fest, so wird eine neue IPv6 Adresse mit der veränderten Position erstellt, neue sup TCP's initiiert, so das die alte IPv6 Adresse wenn sie nicht mehr zu erreichen ist problemlos aufgegeben werden kann.
Ein weiterer Punkt der Bedacht werden will, speziell bei Mobilen Mesh Netzen, ist der Energieverbrauch. Die Hersteller setzen Himmel und Hölle in Bewegung, um mit der Software immer so viel Hardware wie möglich auszuschalten damit die Akkulaufzeit verbessert wird. Das geht zum Beispiel bei WLAN unter anderem so weit, das sich die Geräte mit der Basisstation einigen, wann sie wieder nach neuen Paketen lauschen, damit sie sogar den Empfänger ausschalten können. Laptops schalten beim Schliessen des Lids einfach gleich komplett in den Standby. Wenn eine Mobiles Gerät jetzt Hintergrundprozesse hat, die andauernde oder zumindest eine sehr häufige Präsens erfordern, dann wird dies die Batterie des Gerätes im erheblichen Ausmaß zusätzlich belasten so das die Laufzeit deutlich leidet. Das kann jeder an seinem Smartphone selber beobachten, wenn man irgendwelche dauerpräsenten Apps installiert, wie ein Messgerät der Sportlichkeit, das die Täglich absolvierte Bewegung ermittelt und statistisch auswertet. Und so eine App muss nicht Senden, also elektromagnetische Energie in die Umwelt abgeben. Das wird insbesondere dann zum relevanten Problem, wenn man Meshnetze als Katastrophenhelfer einsetzen will, weil dann eine neue Ladung für den Akku mitunter schwer zu bekommen sein kann. Verfahren wie 802.11s die im MAC Layer arbeiten sind hier im Vorteil, weil sie eine Gesamtstragie zur Ersparnis von Strom fahren können. Das Grundproblem bleibt aber.
Meshnetze in Konkurrenz zu herkömmlichen Internetanschlüssen
Solange die herkömmlichen Anschlüsse in Ihrer Leistung begrenzt sind, so das Sie nicht in der Lage sind einen WLAN Kanal vollständig zu fluten, sind sie Unkritisch. Das ändert sich aber schlagartig, wenn der Engpass für eine Datenübertragung nicht mehr der Zugang ist sondern das konventionelle WLAN ist. In dem Moment kann bei einem Download der Funkraum vollständig in Benutzung sein, und Routen müssen sich im Meshnetz verändern. Da die Konventionellen Funkzellen kleiner sind, typischerweise nach außen auch noch durch Wände partiell abgeschirmt, werden ihre Übertragungen immer Vorrang vor dem Mesh haben, dessen Restsignale im inneren der Wohnung mit dem konkurrierenden Zugang mitunter gar nicht mehr wahrgenommen werden. Das gilt in verschärfter Form dann, wenn für das Mesh Antennen mit Gewinn eingesetzt werden.Hier kann gesagt werden, das gerade bei größeren Netzen der daraus resultierende Aufwand jeden vernünftigen Rahmen sprengen kann. Eine Software die in einem Areal wie dem australischen Outback eine brauchbares Internet erzeugt, muss daher in einer Stadt noch lange nicht gut funktionieren. Ein Teil der Bürger welcher schlicht die Ausgaben begrenzen muss kann das dort nicht durch den Rückgriff auf ein Meshnetz machen, insoweit das nicht alle in einer Region machen.
Welche Normen werden gebraucht, damit Meshnetze Prosperieren können
In den Anfängen des Internets wurde dieses von dem Telephonetz getragen. Es gab Verbindungen, die sehr schwach waren. Aus dieser Zeit stammen noch die technischen Grundkonzepte des Internets mit seinen lokalen Caches. Das fängt bei den DNS Namen an, geht über die Http Caches bis hin zu den Caches für die Realtimeprotokolle.Es gibt 2 Arten von Internetprovider. Da sind zum einen jene, die über eine eigenständige physikalische Leitung jedem ihrer Kunden haben wie das beim DSL System der Telekom der Fall ist. Dank der Konkurrenzangebote hat die Bundesnetzagentur der Telekom in vielen Orten erlaubt, ihre Netze wieder exklusiv zu betreiben. Das hat für die Kunden der Telekom den Vorteil, das die Elektronik die Störungen der anderen Anschlüsse beim Senden berücksichtigen kann, diese Kompensieren kann und damit mehr Frequenz nutzen kann. So wird es möglich, über alte Kupferkabel die für 300-3300 Hz ausgelegt sind 100 MBit pro Sekunde an Daten zu übertragen. Ab den Anschaltpukten liegt das sternförmige Glasfasernetz vor, das was Performance angeht, kaum wünsche offen lässt. Das ist allenfalls eine Kostenfrage, und die Telekom wird im Wege der Drosselflat die Diensteanbieter in die Zange nehmen, mit ihr so zusammenzuarbeiten das die Kosten vertretbar sind. Sie sind eben genötigt, über die Telekomeingene Plattform Entertain ihre Werke anzubieten, welche vermutlich über eine Verteilte Serverarchitektur verfügen dürfte. Auch der Modem Dail up als die erste Version des Massen tauglichen Internet und die Anbindung über eine Standleitung gehört in diese Kategorie der Anbindung über eine einzelne Leitung.
Alle andere Angebote sind allesamt die Ausnutzung von Rundfunktechnologie zur individuellen Versorgung mit Internet. Das gilt für Satelliten, Googel Drohnen basiertes Funknetz, WLAN und Mobilfunkinternet, aber auch für die Angebote im Fernsehkabel. Diese Angebote zeichnen sich nur dadurch aus, das sie über ihren eigenen abgeschotteten Funkraum im inneren der Kabel verfügen, sind aber ansonsten von der Funktion her so aufgebaut wie der Funk in der Atmosphäre. Diesen Übertragungskanälen ist allesamt gemeinsam, das sie eigendlich dafür prädestiniert sind, Inhalte ein einem Vorgang parallel an viele Stationen zu senden. Diese Eigenschaft wird, bis auf bei wenigen life Anwendungen, von den im Internet eingesetzten Anwendungen aber nicht ausgenutzt.
Wenn wir nicht langfristig wieder in eine Monopolabhängigkeit von der Telekom hineinschlittern wollen, dann werden für das Internet neue Protokolle gebraucht, welche die rundfunkartige Verteilung von Content auf Vorrat ermöglichen. Meine Vorschlag: bhttp und mhttp als broadcast hyper text transport protokoll respektive multicast hyper text transport protokoll. Heutige Festplatten speichern 4TB für 125€. Das ist viel mehr als viele Nutzer je brauchen werden. Mit 1TB kann man einen Datenstrom von 50 MBit 44 Stunden lang aufzeichnen. Es gibt also jede Menge Raum für eine Vorratscontentspeicherung, und damit kann zum Beispiel vermieden werden das jede einzelne Windowsmühle ihre immer größer werdenden Service Pack für sich durch das Medium zerrt und damit die Netzwerke verstopft.
Technisch würde das so aussehen, das ein jedes cachefähige Device auf per Multicast oder Broadcast verbreitete Anouncemect von "Sendefächigen" Proxiserver lauscht. Würde es so einen finden, würde das Gerät den angezeigten Proxy Autoconfig File herunterladen und seine Anfragen dann an die verzeichneten Proxys richten. Diese haben dann die Möglichkeit, anhand von statistischen Kriterien zu ermitteln, welche Inhalte für viele Kunden von Interesse sind. Diese Inhalte werden von dem Server zu einem Bucket zusammengestellt das eine vordefinierte, von den Eigenschaften des Funknetz abhängige, Maximalbandbreite ausfüllt. Diese würden dann im Wege eines mit Forward Error Correction versehenen UDP Streams per Broadcast oder Multicast versendet, so das bei einer Aussendung der Inhalt via Stream Decoder in jedem Cache landet der Online ist. Wird bei einem erstmaligen Aufruf gleich festgestellt, das ein Inhalt an alle gehen soll, so müsste ein neuer HTTP Status darauf hinweisen, damit der Server im stream sucht.
Auch sinnvoll ist, das Hintergrundaktivität wie das Abfragen und Laden von Betriebsystemupdates von der Software mittels eines neuen HTTP Headers mit einem zumutbaren Zeithorizont versehen wird, der es gestattet wichtigeres, auf das ein Nutzer am Bildschirm wartet, vorzuziehen. Durch das aussenden von häufig gebrauchten Inhalten würde es auch in Zukunft möglich sein mit Funknetzen gutes Internet zu bekommen. Bedingt durch moderne Mimo Übertragungen ist die One to All Kommunikation zwar um ein mehrfaches langsamer als Punkt zu Punkt Kommunikation, aber all das, was mehr als zehn mal in einer Funkzelle abgerufen wird, das ist im Rundfunkmodus definitiv effektiver verteilt. Das wären dann so Dinge wie Betriebssystemupdates, aber auch aktuelle Medieninhalte wie Nachrichten aller Art oder eben aktuelle Filme.
Die Zukunftsfähigkeit von Meshnetzen im Speziellen und Funknetzen im Allgemeinen steht und fällt damit, das Große Objekte vernünftig cachebar und verteilbar sind. Ein solcher großer Inhalt darf nur an einer Stelle publiziert werden und muss dann von überall her her gleich verlinkt sein, damit er von der Software als Identisch erkannt werden kann. Es dürfen auch keine Trakingparameter übergeben werden, wie das seit der idiotischen Cookie Verordnung der EU immer mehr in Mode kommt, um ohne Cookie tracen zu können. Eine url http://www.monster.org/monsterobjekt?session=2354983924 wird von einem cache nicht als identisch zu http://www.monster.org/monsterobjekt?session=2354983925 erkannt, und in epischer Breite wieder durch das Netz gezogen. Ein cache kann solche Parameter aber auch nicht ignorieren, weil diese auch durch die Eingaben eines GET FORM entstehen, und in diesem Zusammenhang auch unterschiedlichen Content abrufen.
Ein billiges effektives Internet steht aber in Diametralen Gegensatz zu den Interessen der Unterhaltungsindustrie. Das muss man so sehen. Je teurer ein Medium ist, desto teurer können auch die Inhalte sein. Mit dem Preisverfall für die Verteilung von Content begannen auch die Probleme den Preis für Content zu rechtfertigen. In diesem Kontext muss man die in Spanien eingeführte Linksteuer sehen, die ein offensichtlicher Versuch ist das Internet als kostenfreie Quelle für Wissen zu torpedieren. Schon 2007 gab es darum einen Disput in Grossbritanien zwischen der BBC und den Internetprovidern um die Form der Zugänglichmachung von Videomatherial. Ohne eine Regulation wie Videos schonend im Internet zu publizieren sind sowie Ausnahmen bei der Netzneutralität welche es gestatten, das man spezielle Inhalte auf ein verträgliches Nivau drosselt um zum Beispiel als Provider die Auflösung von Videos zu begrenzen werden Mesh und Mobilfunknetze langfristig nicht richtig nutzbar bleiben und hoffnungslos verstopfen. Es werden jetzt schon die ersten Filme in Super HD - also 3640 punkte statt der jetzt bei HD üblichen 1820 Punkte. Das ergibt 4 mal so viele Daten! Und das, so die Vorstellung der Anbiehter, wie bisher bei jedem Betrachten. Unangenehme Nebenwirkung dieser Technik: Staatliche stellen können in erfahrung bringen, wer welche Sendungen gesehen hat.
Eine solche Vorratsverteilung von Videodaten müsste im Übrigen nicht notwendigerweise das Geschäftsmodell der Contentindustrie der Geltendmachung einer Gebühr für die reine Kenntnisnahme von einem Inhalt betreffen, auch wenn es theoretische Argumente gibt, die gegen dieses Sprechen. Wenn das Massive Objekt verschlüsselt ist, unter der Zugriffscode dann sicher verteilt wird so wie das bei der Blue Ray Disk der Fall ist, dann wäre der Verstopfung der Netze auch wirksam entgegengwirkt.
Ein weiteres Problem für die Leitungskapazität stellen Backuplösungen zu zentralisierten Cloudspeichern dar. Diese sind in der gegenwärtigen state of the Art Form des Verschlüsselten Hinterlegens so konstruiert, das wieder eine sehr großer Datenstrom zu einem sehr weit entfernten Ziel transportiert werden muss. Selbst wenn das Backup in der Nachbarschaft erfolgt, ist die schiere Masse der Daten aber dennoch verheerend. Ich biete meinen Kunden einen Backupserver kostenfrei und unlimitiert lokal an. Das ist billiger als der Traffic ins Internet. Als einer meiner Kunden mit großem Datenbestand die Seine Festplatte wegen Verschleiß wechseln musste, hat die Applikation des Backup neu synchronisiert und damit Wochenlang den Funkraum wüst belastet. Hier könnte ein Medium wie Freenet für Abhilfe sorgen, welches so konstruiert ist, das die Daten verteilt in der Umgebung hinterlegt werden. Besonders clever daran ist, das der gleiche Datensatz immer gleich, mit seinem eigenen Hashwert verschlüsselt unter dem Hashwert des Verschlüsselten Files als Zugriffscode abgelegt wird, so das die Vielen GB zum Beispiel des Betriebssystem oder beliebter Medien eben nicht jedes mal mitgeschleppt werden müssten, private Dateien auf der anderen Seite aber Privat bleiben. Nur wer beiden Schlüssel kennt, kann den Inhalt wiederbekommen. Die Sache mit Remotebackups hat generell den Hacken, das sich viele Kunden nicht darüber im klaren sind, wie lange es Dauert, bis ihre Daten wieder da sind und sie dann Weiterarbeiten können. Richtig rund wird die Sache mit den Remotebackups überhaupt erst wenn so etwas wie ein Welt File System implementiert wird, in dem so etwas was wir wie Freenet aufgebaut ist als Backup eines lokalen Dateisystem eingeblendet wird, welches es dann erlauben würde, zwar deutlich langsamer als gewohnt aber dafür sofort, los zulegen. Langsamer weil die Inhalte eben erst zusammengetragen werden müssten. Dafür müsste man nicht Warten, bis die Platte wiederhergestellt ist, so wie das bei einer klassischen Backupanwendung immer der Fall ist. Nur um Offline Arbeiten zu können muss man Warten bis die Wiederherstellung komplett ist.
Ich stimme völlig von diesem Blog-Post, auch große Details, die Sie über die neuesten Nachrichten und Wirtschaft geteilt haben.
AntwortenLöschenHalten Sie es weiter.
danke
Zeilengeist.de