03 September 2012

Lobbywünsche eines ISP an die Piratenpartei

Wie der eine oder andere Pirat im Mumble & Co schon erfahren hat, bin ich unter anderem als ISP tätig. Angefangen im Internet habe ich 1996 mit einer auf ISDN basierenden Monopolübertragungsweg von 64 kBit. Zum einen brauchte ich für meine wissenschaftliche Arbeit Internet, zum anderen habe ich auch ein Portal aufgebaut, um die Leitung symmetrisch Auslasten zu können. Mit fortschreitenden Erfolg bin ich dann auf einen 2MBit Monopolübertragungsweg umgestiegen.

Da die Werbeerlöse pro Klick im Internet in der folge aber doch immer weiter gefallen sind, bin ich zu der Erkenntnis gekommen, das ich Traffic billiger haben muss. Ich habe dann mit meinem ISP einen selbstabholertarif ausgemacht und eine W-Lan strecke in die nächste, 10km entfernte Stadt erstellt. Das was 2001.

Von Anfang an stand auch zur Debatte, die anderen Bürger unseres Stadtteils in des Netz zu lassen, das scheiterte aber zunächst an den Paragrafenwust. Die Telekommunikationsgesetze aus den neunziger Jahren erforderten eine Lizenz, deren Erwerb mit tausenden Euro Investitionen nur in Papierkram erfordert hätte. Ich habe damals sogar eine Petition gemacht, und gefordert eine Geringfügigkeitsgrenze in die Regulierung aufzunehmen. Begründet habe ich das mit einem Gleichbehandlungsvergleich zwischen Stadt und Land.

Ausschlaggebend für die Lizenzpflicht war die Überschreitung von Grundstücksgrenzen. Darauf baute die Argumentation auf, das in einer Stadt sehr wohl ein "Wohnblockprovider" ohne Lizenz arbeiten könne, weil er z.B. eine 2MBit Leitung dann mit anderen Technologien, z.B. Wlan, im Gebäude verteilen könne. WLan hatte damals zwar auch nur 2 MBit, aber das war in der damaligen Zeit schon echt hyperschnelles Internet. Das gleiche Geschäftsmodell scheitert aber auf dem Land an den horrenden Bürokratie kosten. Meine Petition wurde im Ausschuss behandelt, und im wesentlichen abgeschmettert, mit der Begründung das die Rechtslage gut sei wie sie ist. Man wollte wohl schon damals den Überblick für Überwachungsmastnahmen behalten.

Allerdings machte man mir Hoffnung, das die EU eine Liberalisierung durchsetzen wolle, die dann auch mit der üblichen Verspätung in nationales Recht umgesetzt wurde. Von da an musste man es nur Anzeigen, das man als Telekommunikationsprovider tätig ist, und von da an konnte es dann loslegen.

Das Hauptproblem das man als kleiner Provider hat, ist die Beschaffung des Zugangs zum Internet zu konkurrenzfähigen Preisen. Man hat im wesentlichen 4 Kostenpunkte die Typisch sind für das Geschäft:
  1. Stromkosten
  2. Die Technik der Verteilung am Ort des Vertriebs
  3. Den Transport des selben zum Ort des Vertriebs
  4. Den Zugang zum Internet


Stromkosten

Die Stromkosten sind in den letzten Jahren erheblich gestiegen. Dieser Kostenanstieg lies sich aber durch moderne Technik deutlich über kompensieren. Am Anfang hatte ich einen 96h Zähler, ich habe also elektrische Leistung und elektrische Arbeit getrennt bezahlt. Da die Geräte aber 24h an 365 Tagen im Jahr am Netz sind, ergibt sich daraus ein deutlicher Kostenvorteil. Mit der Liberalisierung des Strommarkts wurde der "Leistungspreis" durch Rot-Grüne Agitation aus dem Bewusstsein der Marktteilnehmer verdrängt. Das war Politisch motiviert, nach dem Motto, es ist egal ob die Abgase auf einmal oder langsam Freigesetzt werden. Die Leistungsaufnahme lies sich auf die Hälfte reduzieren, wobei ich den alten Kisten aber immer noch etwas nachtrauere, denn in den neunziger Jahren waren die Update auslösenden Hard und Softwareprobleme deutlich geringer. Was waren das noch für Zeiten, als ein Gerät von Anfang an lief und nie ein Update brauchte.

Jetzt wo die Einspeisevergütung von Solarstrom unterhalb des Strompreises liegt, wird dieser überproportional Rentabel, solange die Solar Anlage weniger Leistung als die Leistungsaufnahme der Anlage hat. Schauen wir mal, was sich da in den nächsten Jahren tut.


Die Technik der Verteilung am Ort des Vertriebs

Auch dieser Punkt macht Freude. Es gibt mittlerweile Geräte für ca 50€ mit denen man locker 2km mit 5GHz WLAN überbrücken kann. In Häusern kann man dLAN auf Strom oder Antennenkabel benutzen, so das keine aufwändigen Installationen anfallen. Auch Router mit DDWRT für den Kundenzugang sind ebenfalls für 50€ zu haben, so das eine Anschaltgebühr von 99€ darstellbar ist. Dies ist ein noch sozial verträglicher Wert, wenn ich bedenke das ich für meine 64K Leitung damals 2000€ Anschaltgebühr bezahlt habe.


Den Transport des selben zum Ort des Vertriebs

Hier gibt es 2 Verschiedene Optionen. Entweder lasse ich mir das Internet liefern. Dann sind die Kosten unter Punkt 4 subsumiert. Aber wenn das Aufwändig ist, dann sind die Kosten dafür auch wieder hoch. Um die Kosten im Rahmen zu halten, muss man eine sehr begrenze Bandbreite ordern.

Problematisch ist auch, das man Längere Verträge abschließen muss, weil der Anbieter selbstredend erhebliche Gelder vorschießen muss. Oder aber man muss selber eine sehr erhebliche Anschaltungsgebühr in Kauf nehmen.

Allerdings hat die Bundesnetzagentur ein schönes Schmankerl für Provider. Wenn man als Telekommunikationsprovider für die Öffentlichkeit arbeitet, dann darf man 5 weitere WLAN Kanäle benutzen, und das sogar mit der vierfachen Sendeleistung. Das Programm läuft unter dem Kürzel BFWA. Da dieses Kanäle sind, die in anderen Erdteilen mit dem 5GHz WLan belegt sind, haben die Geräte die das Können ein gutes Preis Leistungsverhältnis. Insoweit kann man gut sein Internet selber mit über 100MBit abholen, und damit die Anschaltungskosten erheblich reduzieren, wenn man einen Punkt erreicht, an dem es schon Leistungsfähiges Internet zum Wiederverkauf gibt.


Den Zugang zum Internet

Jetzt sind wir an der Stelle angekommen, die für kleine Provider das größte Problem darstellt. An vielen Orten gibt es gutes Internet, das Technisch hervorragend geeignet wäre, weiter verteilt zu werden.


Es gibt kaum noch Tarife für den Wiederverkauf im kleinen Umfang

Beispielsweise gibt es im Nachbarort, keine 2km entfernt, Fernsehkabel mit mittlerweile 150MBit Maximalgeschwindigkeit. Das Problem ist, beim Fernsehkabelbetreiber gibt es nur Flatrates für Endverbraucher. Es gibt kein Volumentarif oder sonstigen Tarif zum Wiederverkauf. Das gleiche gilt auch für das LTE. Die dortigen Provider nehmen für sich in Anspruch, flächendeckend zu Arbeiten, aber ich weiß, das es bei uns im Umkreis mit 800 MHz UKW auch nicht hinkommt, trotz bis zu 2kW Sendeleistung, weil extreme Topographie zu viel Schatten wirft. Ein Pflicht für einen Tarif zum Wiederverkauf gibt es schon theoretisch durch die Pflicht zur Netzzusammenschaltung im Telekommunikationsgesetz, aber eine Klarstellung, das eine "Regulärer" Einzelkundenflattarif für den Wiederverkauf missbraucht werden darf, solange der Anbieter keinen dafür vorgesehenen fairen Volumentarif vorhält, wäre Hilfreich.

Wenn man denn Glück hat ein einen Volumentarif ergattert hat, der eine hinreichend geringen €/GB Preis beinhaltet, seht man vor dem Problem, das man ein Gutes System von Caches braucht, um möglichst viele Daten nur einmal zu laden und mehrfach ausliefern zu können.

Aber leider gibt es in der Entwicklung des Internets immer weitergehende Entwicklungen, die den Betrieb von Caches immer schwerer machen. Insofern wünsche ich mir von der Piratenpartei im Interesse abgelegener Gegenden Unterstützung beim Betrieb des Internets auch dort, wo sich die Installation von Glasfasern bei den üblichen Internetpreisen auch in hunderten von Jahren nicht lohnt.


Wünsche an die technologische Entwicklungen von Normen

Hash Codes im Header zur Identifizierung identischer Dateien

In der Anfangszeit des Internets hat sich eingebürgert, große Download auf verschiedene Server, die Mirrors, zu verteilen, damit die Nutzer diese in Ihrer Nähe finden können um so die Backbones des Internets zu entlasten und einen schnellen Download zu ermöglichen. Mittlerweile gibt es auf den Fernverbindungen so viel Kapazität, das es fast egal ist, von wo man einen Download startet. Das führt heutzutage aber dazu, das gängige große Downloads wie zum Beispiel die Iso Images der Linux Installations-DVD oder die Microsoft Reperaturdisks für Windows aus allen möglichen Quellen geladen werden und jedes mal neu in den Cache geladen werden müssen. Das Kostet unnötig Traffic und verschwendet überdies Platz auf den Festplatten.

Insoweit wäre es sehr sinnvoll, wenn HTTP Server bei Dateien mit einer Größe ab einem Megabyte einen Zusätzlichen SHA512 Header zurückgeben, mit deren Hilfe ein Cache in der Lage ist festzustellen, ob er das Objekt aus andere Quelle schon in seinem Portfolio hat. Hash Codes sind zwar nicht eindeutig, aber da die Zahl der möglichen Codes groß ist gegen die Zahl der Atome im Universum, ist eine zufällige Falschzuordnung nur akademisch möglich. Außerdem kann dann HTTP selber die Integrität einer Datei testen, weil bei eine 16 Bit Prüfsumme jeder 65000 senste Fehler nicht erkannt wird, bei 32 Bit wird jeder 4000000000 Fehler nicht erkannt, weil zufällig der richtige Prüfwert entsteht. Das kann bei großen Dateien und gestörten Verbindungen schon mal passieren.


Codes im Header zur Identifizierung von live Streams

HTTP Streams werden von den Server mit Cache Disable gesendet. Das macht auch Sinn, weil der Inhalt ja keine Datei ist, sondern der jeweils Aktuelle Inhalt. Da immer mehr live Services mit http streaming arbeiten, wäre es eine Sinnvolle Erweiterung des Standards, einen Content als Life Stream zu labeln, damit ein Proxy Cache in der Lage ist, den einlaufenden Stream ohne Speicherung an verschiedene Clients zu verteilen. Für RSTP gibt so eine Proxy Funktion, nur ist dieses Protokoll eher selten in der Anwendung.


Kompression vor dem Verschlüsseln

Heute gibt es Server im Rechenzentrum mit inklusive Traffic im Terra-Byte Bereich für kleines Geld. Es macht also Sinn, das das Lokale Cache System einen vorgelagerten Cache Server im Rechenzentrum bekommt, über den er seine Daten holt und mit dem er über eine komprimierende Tunnel-Strecke verbunden ist. Das Prinzip kann dank NAT und IPv6 in IPv4 auch auf den gesamten Traffic erweitert werden.

Das klappt ganz hervorragend, außer natürlich, eine Verbindung ist Verschlüsselt. Die künstliche Entropie der Verschlüsselung macht jede Kompression unmöglich. Insoweit sollten alle Applikationen die eine Verschlüsselung vornehmen, erst eine Kompression vornehmen. Zumindest sollten die Applikationen so erstellt werden, das defaultmäßig vor dem Verschlüsseln etwaige komprimierbare Teile auch komprimiert werden.


Authentifizierendes Protokoll ohne Verschlüsselung

Wenn eine Verbindung verschlüsselt ist, dann kann man natürlich auch nicht Cachen. Es sei denn, der Proxyserver bekommt eine Man in the Middle Rolle mir ent- und wiederverschlüsseln. Wegen der Integrität von zum Beispiel Transaktion mit der Bank für einen Provider eine völlig inakzeptable Lösung.

Trotzdem wäre es wünschenswert, möglichst wenn alles was nicht Vertraulich sein muss, auch extra übertragen wird. Mitunter überträgt man Dateien die an sich öffentlich sind per https, weil dieses Protokoll auch sicherstellt, das die Datei nicht verändert wurde. Microsoft hat ein Protokoll vorgeschlagen, das diese Autentifikation ohne Verschlüsselung zur Verfügung stellt. Dieses HTTPi genannte Verfahren soll es einem Webcache ermöglichen, z.B. die konstanten Grafiken einer Oberfläche bei einer Bank- oder Businessseite zu liefern, wobei der Webrouwser nach wie vor feststellen kann, das er das Objekt unverändert erhalten hat. Das ist ausnahmsweise mal ein richtig guter Vorschlag von Microsoft.

Zu tadeln ist hier das Verfahren Spdy von Google, das Grundsätzlich verschlüsselt ablaufen soll und in der die Cachebarkeit beim Provider nicht mehr Gegenstand der Überlegungen beim Design waren. Einziges Trostpflaster, es wird vor dem Verschlüsseln Komprimiert.


Konkrete Wünsche an die Legislative

Ladbarkeit von Video On Demand via Rundfunk

Ein nicht ganz unwesentlicher Teil des Traffics aus dem Internet machen heutzutage zeitnahe Video on Demand abrufe von Inhalten der öffentlich rechtlichen und privaten Fernsehsender. Die öffentlich rechtlichen wollen auf diese Weiße erreichen, das Sie die Leute mit der GEZ die Ihr fades Programm nicht mehr sehen können. Die privaten Fernsehstationen leben von ihrer Reichweite über die Werbung. Das ist natürlich Wünschenswert, wenn die Menschen verpasste Folgen im Internet nachholen können, um das Interesse aufrecht zu erhalten.

Wie dem auch sei, das nachezu jede Sendung kann heute im Nachhinein für eine Reiche von Tagen auf den Webseiten der Anbieter abgerufen werden. Es wäre für ISP mit begrenzter Zugangskapazität sehr nützlich, wenn die Rundfunkanstalten verpflichtet würden, für solcherlei Inhalte die auch im Rundfunk ausgestrahlt werden in der URL so zu codieren, das Maschinen lesbar codiert ist, wo der entsprechende Inhalt im Rundfunk hätte aufgezeichnet werden können.

http://www.adr.de/video/Sendung_mit_der_Maus_123.mp4?TV@rFsfGsE4Rw24sfefRtdkTdf

Damit können solche URL mittels einer regulären Expression erkennen und auf einen Speziellen Extracache lenken. Dieser kann dann die Anfragen analysieren und anhand von Statistiken berechnen, welche Zeiten in der Woche die besten Chancen haben, später abgerufen zu werden.

Dabei würden die Zeichen hinter dem @ in dem Beispiel die URL einer XML Datei Kodieren, welche Kodiert um was für einen Inhalt es sich handelt, wie er und mit welcher Auflösung er zu Kodieren ist und über welche Rundfunktechniken er wie gesendet wird. Das kann durchaus etwas länger werden, denn es sind die Quellen als Liste darzustellen. DVB-S SD und DVB-S2 HD Satelliten auf unter Umständen verschiedenen Orbital positionen, DVB-T SD und DVB-T2 HD terrestrisches Fernsehen das an verschiedenen Lokalionen gesendet werden, sowie verschiedene DVB-C und DVB-C2 Kabel Signale zusammen mit den zugehörigen Sendezeiten und Sendekennungen. Viele Sendungen bei den Privatsendern werden auch mehrfach gesendet, einmal Tagsüber und einmal in der Nacht

Wenn also Serien oder bestimmte Genre Anhänger unter den Kunden des Provider finden, dann kann eine geeignete Software basierend aus den Daten einen speziellen Cache aus dem Rundfunk beladen und anschließend bei Treffern den Nutzer mit Daten aus der Rundfunkaussendung versorgen.

Aber um das machen zu können, sind zwei Dinge nötig. Zum einen müssen die Sender die Wegweiser Daten liefern, zum anderen muss klargestellt werden, das diese Form der Speicherung wie ein Proxy Server eine Nutzung nach §44a UHG ist.


Cachebarkeit von "Video on Demand" regulatorisch ermöglichen

Ein ganz ähnliches Problem gibt es bedauerlicherweise mit dem legalen Filmverlei im Internet. Dienste wie zum Beispiel MaxDome habe ihr eigenes Poperitäres, durch individuelle Verschlüsselung geschütztes Verfahren, das Sie mit Settop Boxen, PC und MAC Programme implementieren. Diese Form der Übertragung macht naturgemäß jeden versuch eines Caching unmöglich. Wenn man die Produktmanager auf das Problem anspricht, dann sieht man gleich die <($)><($)>-Zeichen in den Augen auf blitzen, und die Leute Texten einen mit Wiederverkaufsoptionen zu. Völlig inakzeptabel, da helfen einen nur die Vertragsbedingung weiter, die nicht cache-baren Content mengenmäßig limitieren, was die Nutzung allerdings auf einige Trailer begrenzen.

Dabei wäre es durchaus Möglich, die Interessen dieser Anbieter mit den Interessen der ISP zusammenzuführen. So könnten Filme geschnitten werden, so das wichtige Passagen in Bild und Ton fehlen. Dieser an sich schon nicht mehr sinnvolle Film, der dann sagen wir mal 96% des Datenmaterials ausmacht, kann dann mit einem statischen Schlüssel Verschlüsselt werden so das dieses Objekt dann gecached werden kann. Mit dem Hochsicherheitsverfahren wird dann der Rest übertragen, der den Film komplettiert. Dieser Teil kann auch als sehr langer Schlüssel für den Cachebaren Teil des Film verwendet werden. Damit währen dann 96% eines Films cache-bar, ohne das dieser Inhalt zu irgend etwas anderes genutzt werden könnte als das Internet, seine Backbonverbindungen und den Server des Anbieters zu entlasten. In Großbritannien gab es bereits eine Diskussion um die Folgen exzessiven Video on Demand für das Internet.


Reizthema Netzneutralität

Wir Piraten haben uns schon des öfteren für die Netzneutralität ausgesprochen. Solange es nur darum geht, zu verhindern, das bestimmte Anbieter wie z.B. Google sich Vorfahrt für Ihre Daten Pakete zu erkaufen, und so ihre Monopolstellung zu festigen, ist das OK.

Aber es gibt gute Gründe, in den Datentraffic ordnend einzugreifen. Werden RFC konforme TCP/IP Stacks verwendet, so verteilt sich die Bandbreite gleichmäßig auf die Verbindungen. Das heißt, die Datenübertragungen werden gleichmäßig so gekürzt, das eine gerechte Verteilung der Kapazität auf die Verbindungen stattfindet. Fordern einzelne Verbindungen weniger, wird deren Kontingent auf die Verteilt, die Mehr nutzen können. Jede Verbindung liefert, insoweit Daten zur Sendung bereitstehen, so viel Bandbreite wie das Minimum der Teilstrecken liefert.

Jetzt gibt es Anwendungen, die zum Beispiel hergehen, und eine große Datei in mehreren parallelen http byte ranges teilabrufen runter laden. Mal abgesehen, das diese Vorgehensweise das Caching behindert, ist es so, das der Nutzer der Applikation aber Mehrfachzuteilungen stattfinden weil jeder Übertragung eine Scheibe zugeteilt wird. Das ist eine Form des Vordängelns, das in seiner exzessiven Form dann nicht mehr Akzeptabel ist.

Aber es geht noch übler. Der Spiele Downloadservice Steam zum Beispiel verwendet einen frisierten TCP/IP Stack. Normalerweise versucht das TCP/IP Adaptiv festzustellen, wie viel Pakete genau ohne Verlust übertragen werden können. Gehen Pakete verloren, dann werden weniger Pakete gesendet. Nach einer gewissen festgelegten Zeit wird dann die Menge der der Daten langsam gesteigert, bis sich der Zyklus wiederholt. Steam aber sendet grundsätzlich 10% Mehr Daten als Übertragen werden. Damit werden bei den Konkurrenten Packverluste induziert, was diese veranlasst, weniger zu übertragen. Damit hat Steam wieder mehr Platz zum Senden, und natürlich sendet Stream wider 10% mehr. Das wiederholt sich so lange, bis der Download durch die schwächste Leitung vom Nutzer zu Steam begrenzt ist. Da Steam an vielen Orten seinen Content vorhält ist das Typischerweise die DSL-Leitung des Nutzers.

Diese Services, auch bei einigen Usenet Provider habe ich das Verfahren beobachtet, werben auch damit, das ihre Technik sicherstelle, das die Kapazität des Internetanschluss des Nutzers zu 100% genutzt wird. Wenn jetzt aber z.B. eine lange Funkstrecke die Strecke mit der geringsten Kapazität ist, dann Blockiert Steam ohne mit der Wimper zu zucken das gesamte Netz, und die anderen Nutzer schauen in die Röhre. Das extra fiese an Steam ist jetzt, das wenn man es auf ein Sozial verträgliches Maß drosselt, dann schickt es bei kleinen Datenraten sogar einen noch größeren Überschuss mit bis zu weit über 25% Überschuss. Da man diese verworfenen Pakete auch bezahlen muss, ist das fast schon so was wie eine Nötigung, Steam nicht zu drosseln. Das Einzige was hier hilft, ist den Downstream zu messen und bei Überschreitung des Sollwerts den Upstream zu drosseln. So kann man verhindern, das Steam sein Asoziales Wesen entfaltet und 10% mehr Kosten als Nötig zu verursachen.


Maschinenlesbarer Pflichthinweis auf das Leistungsschutzrecht für Verlage

Wenn schon nicht verhindert werden kann eine Demokratische Mehrheit von offline Politiker das Leistungsschutzrecht für Presseverlage durchsetzen, dann muss auf jeden Fall durchgesetzt werden, das Presseverlage gezwungen werden eine Maschinenlesbare Norm zu nutzen ("robots.txt"), um Ihre Seiten als solche von Verlage zu kennzeichnen, damit nicht jeder Service alle Verlage recherchieren muss, sondern diese Inhalte algorithmisch excludieren kann. Nur so können in Deutschland dann weiterhin neue Portale und Bots entwickelt werden.


Konkrete Wünsche an die Judikative

Durchsuchungen bei eingetragenen Telekommunikationsanbietern bitte als Zeugendurchsuchung und nicht als Beschuldigte

Wenn man als Internetprovider tätig ist, ist es keine Frage des ob, sondern nur des wann irgend ein Flachhirn einen illegalen Inhalt durch die Server jagt. Wenn das der Justiz zur Kenntnis gerät, dann stellt ein Richter ein Durchsuchungsbefehl aus, in dem vereinfacht dargestellt drinsteht, das alle digitalen Geräte einzusammeln sind und dem Betroffenen vorher kein vorheriges rechtliches Gehör zu gewähren ist, damit keine Beweise vernichtet werden können. Dieses wird dann während der Durchsuchung nachgeholt.

Das finde ich, angesichts der Tatsache das Leute in Belgien schon Staatsanwalt geworden sein sollen um legal in den zweifelhaften Genuss des Beweismaterial zu kommen, auch angemessen. Mit einer wesentlichen Einschränkung; In meinem Fall, und der leitende Kommissar verriet mir das ihm dies regelmäßig mit keinen Anbietern wie mir passiert, wurde eine Durchsuchung als Beschuldigter nach §102 StPO angesetzt. Das heißt, es gab natürlich auch ein formales Ermittlungsverfahren gegen mich. Bei einem Telekommunikationsanbieter einen Anfangsverdacht zu bejahen halten ich gelinde gesagt für eine Frechheit.

Eine Durchsuchung nach §103 StPO in einem Verfahren gegen Unbekannt wäre meines Erachtens in diesem Fall die angebrachte Maßnahme. Ein Polizeibeamter der bei einer Zeugenvernehmung den Eindruck hat, das dieser Zeuge selber in Straftaten verwickelt ist, ist meiner Meinung nach sowieso berechtigt und verpflichtet die Befragung in eine Beschuldigtenvernehmung umzuwandeln. Insoweit wäre durch eine routinemäßige Anwendung Durchsuchung nach §103 StPO im Fall von Telekommunikationsanbietern die Strafverfolgung in kleinster weiße behindert.

Denn die Strafverfahren wurden, nach entsprechender Beschwerde meinerseits, nach §170 Abs 2 eingestellt, aber es gibt eine Datei in der alle Verfahren gelistet sind. Und dieser Eintrag bleibt wohl erhalten, genaues ist darüber nicht in Erfahrung zu bringen. Dabei muss man gar nicht Richter oder Staatsanwalt sein, um festzustellen ob jemand ein Telekommunikationsanbieter ist. Das kann jeder, die Liste ist öffentlich Zugänglich. Ich habe die Nummer 04/081. Auf Papier kostet's halt 20€. Das muss drin sein, wenn unsere Beamten keinen Computer haben, was aber bei Onlinerecht eh wenig sinnvoll ist.




Keine Kommentare:

Kommentar veröffentlichen