Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

23 Juli 2015

Jetzt ist er Realität, der erste potentiell tödliche Hack aus der Ferne.

Zwei Hackern ist es in den USA gelungen, einen Waagen in voller fahrt zu Hacken. Sie haben die IP des Waagen bestimmt, sind in das Entertainment-System eingedrungen und haben sich von dort durch die Steuerung des Wagens gearbeitet bis sie das Gaspedal auf 0 setzten konnten und so den Journalist, der den Wagen als teil des Experiments gesteuert hat zum stehen gebracht.

Natürlich war die Sache vorher Abgesprochen und ein Experiment. Aber es zeigt auf, das man jemand über das Internet ermorden kann, während man sich selber auf der anderen Seite der Erde befindet. Denn die Steuerung kann Dinge bewirken, welche der Fahrer gar nicht kann. Zum Beispiel einzelne Räder abbremsen. Das wird gebraucht, um so nützliche Dinge wie das ABS oder das ASR zu implementieren. Und wer das Gaspedal liften kann, der kann es auch ganz durch treten. Im Rechner ist der Unterschied nur der Wert einer Zahl. Vollgas geben und dann beide linken Räder voll Bremsen, und der Einschlag in den Gegenverkehr ist für den Fahrer nicht mehr abzuwenden.

Aber es geht ja noch viel Direkter. Viele Moderne Autos haben zum Beispiel Parkassistenten. Damit hat der Bordrechner die Mittel, einem überraschten Fahrer ins Steuer zu greifen. Da die modernen Entertainment-System im Auto meist eine Navigationsfunktion haben, kann der Angreifer ganz genau Festellen, wo sich ein Auto befindet. Das bedeutet, das er das Automobil auch einfach über eine Klippe in einen Abgrund lenken kann ... ohne das Bremsspuren dabei entstehen. Was wird die Polizei sagen ... klarer Fall je nach Szenario Selbstmord oder "Bitte nicht Stören Fahrer träumt vom ..."

Was ist Nötig? Nun die Software eines Fahrzeugs ..(und ich meine damit nicht nur Autos sondern auch Flugzeuge und Boote). und nicht nur Bremsen und althergebrachte mechanische Komponenten sind einer tiefgreifenden Sicherheitsüberprüfung bei der Musterzulassung zu unterziehen. Diese Überprüfung muss sich auch an geeignete überschaubare Sicherheitsstandards ausrichten. Es reicht nicht das mit dem ISO9000 Mist gezeigt wird, das die Software nur dann die Motoren der Lenkung einschaltet, wenn sich das Auto im Modus "Automatisches Parken" befindet, sondern solche Funktionen gehören mit einem Guten alten Schalter abgeschaltet.

Warum so altmodisch? Weil ein Angriff eben einfach nicht Ausgeschlossen werden kann. Alles was weniger ist als ein mathematischer Beweis, das jede beliebige Folgen von Bits die über eine Schnittstelle reinkommt keinen Schaden anrichtet, ist mir zu wenig, insbesondere die heuristischen Verfahren der ISO9000 Qualitätssicherung. Alle durchrechnen geht nicht, den schon nach 282 Bit gibt es mehr Folgen als Atome im Universum. Bei den heutigen Mobilfunkstandards entspricht das ms.

Also bedarf es einen Beweises durch mathematisch Deduktion. Das ist aber , in Anbetracht der Komplexität der Komponenten eine sehr lange Beweiskette. Solche langen Beweisketten gibt es durchaus, beispielsweise für das Theorem das man jede politische Karte immer mit nur vier Farben immer so färben kann, das benachbarte Länder unterschiedlich gefärbt sind. Bei diesen länglichen Beweisen mathematischer Theoreme haben sich aber immer wieder Fehler eingeschlichen. Mit andren Worten, Menschen sollen und dürfen solche Beweise nicht erstellen. Und allgemeine automatische Deduktionsschema die so etwas feststellen können und von denen Bewiesen ist das sie Richtig funktionieren gibt es schlicht noch nicht.

Bis auf weiteres wird man also nur durch eine super strikte Trennung zwischen Entertainment-System und Fahrerassistenz wie Navigation und Sicherheitsrelevantem wie dem ABS, ASR, Autonomen Fahren wie z.B. jetzt schon das automatische Einparken. Das Sicherheitssystem kann dem Entertainment-System unidirektional Daten zur Verfügung stellen. Das kann alles Mögliche sein, Kurvenradius und Geschwindigkeit aus der Drehzahlen der Räder, oder auch die Drehzahl der Räder als Rohdaten, Daten zum Zustand des Motors für das "Ölwarnlämpchen" oder auch für Ferndiagnosen einer Werkstatt und vieles andere Mehr.

Was stringent zu Regulieren ist, sind die Funktionen welche die Entertainmentzone in der Sicherheitszone bewirken kann.
Dafür sollte es Pro Funktion ein Logisches Signal geben. Die notwendige Verriegelungen und zeitliche Begrenzungen der Anwendung sollten in jedem Fall per Hardware realisiert sein müssen. Wenn also das Klimamanagement im Sicherheitsbereich angesiedelt sein sollte, so müssten Analoge Signale die gewünschten Temperaturen einspeisen und ein TTL Signal das "Standheizung Starten" damit der Autobesitzer seinen Wagen per iPhone vorheizen kann.

Wer die Bedingungen der Serienfertigung von Automobilen kennt, der weiß das die Firmen mit jedem zentel Cent kämpfen, den die Konstruktion eines Automobils an kosten erfordert, der wird Zustimmen das hier eine stringente Gesetzliche Zulassungsordnung erforderlich ist, um konservative Designs zu erreichen. Viel zu groß die Verlockung, durch ein allumfassendes Softwarekonzept Bauteile einzusparen und noch viel Wichtiger, eventuell auftretende Probleme mit der größt möglichen Wahrscheinlichkeit per im Vergleich zu Mechanik sehr billigen Softwarepatch zu beheben.

Aber nicht nur eine solche Trennung ist nötig. Auch müssen die Komponenten im Sicherheitsbereich Konstruktionsbedingungen erfüllen, um Übergriffe auf die Nutzer eines Autos per Software zu verhindern. Heutige Motorsteuerungen enthalten wie selbstverständlich Flash Bausteine, um Anpassungen über eine Schnittstelle vornehmen zu können. Das bedeutet aber auch, das ein Automobil nicht über das Ausschalten des Stromes in einen Definierten zustand gebracht werden kann.

Um das zu erreichen sollten Sicherchcheitssteurungen die nicht für die Entwicklung dienen sondern in der Serienproduktion veVwendung finden nur Ram und Prom enthalten. Der nur einmal programmierbare Speicher sollte im Übrigen so physikalisch angesteuert werden, das die Dinge welche in den Speicher geschrieben worden sind, nie wieder verändert werden können. Wird also eine neue Version der Software geladen, so bleiben die alten auf jeden Fall lesbar, sie werden vom Starter nur nicht mehr angesprungen.

Warum ist so etwas nötig? Ein digitaler Angriff auf einen Autofahrer muss nicht zwingend online erfolgen.Das ist nur die spektakulärste aller Optionen. Viel einfacher ist es, sich des Automobil in einer Werkstatt zu bemächtigen und eine Flash basierte Steuereinheit in einen Zustand zu bringen, in den sie eine Mission erfüllt und sich anschließend wieder in eine ganz normale Einheit zurücksetzt. Wie würde so ein Mordanschlag ablaufen?

  • Als erstes würde ein Angreifer eine einer Straße ausmachen, die seine Zielperson regelmäßig befährt, beispielsweise den Weg vom Wohnsitz der Person zu dem ihrer Eltern
  • Dann müsste auf dieser Straße eine Stelle gefunden werden, an der harte Ziele für einen heftigen Einschlag vorhanden sind. In Frage kommen Alleebäume, Betonwände, und ähnliche stabile Strukturen.
  • Dann müsste ein Weg gefunden werden, wie die zu manipulierende Elektronik diese Stelle erkennen kann. Mit GPS ist das Trivial, aber es geht auch durch eine Unverwechselbare Sequenz von Kurven, welche anhand der ABS Daten erkannt werden kann.
  • Eine Prozedur ist zu erstellen, mit der das Steuergerät ohne fallen nach der Triggersequenz sucht.
  • Eine weitere Prozedur ist zu erstellen mit welcher der Abflug in Richtung Ziehl eingeleitet und bestätigt wird. Etwa: Beschleunige und bremse dann zum Rechten Zeitpunkt mit beiden rechten Rädern.
  • Eine dritte Prozedur ist zu erstellen, mit der das Steurgerät mittels eines Komprimierten Backup wieder in seinen Auslieferungszustand zurückversetzt wird
  • Diese Drei Prozeduren werden in das zu beeinflussende Steuergerät Appliziert. Entweder per Online Hack, oder in einer Werkstatt durch ein manipuliertes Programmiergerät.

Bei dem, was Geheimdienste heute so alles wissen, ist das eine viel zu einfache und nicht nachweisbare Methode, um eine Person sehr geräuschlos loszuwerden. Im Gegenteil, die Reputation der betroffenen Person kriegt noch einen drauf, nach dem Motto "schaut euch diesem verantwortungslosen Raser an". Zu viel Phantasie? Ich befürchte schon seit langen, das dieses bereits passiert sein könnte. Einmal im Fall des Jörg Heider und einmal in Fall des Staatsanwalt Hillinger, der den CSU Parteispenden Waffendealsumpf hartnäkig untersuchte. Beides Fälle in denen einem oder sogar mehreren Geheimdiensten eine intensive Motivlage attestiert werden kann. Zumindest der Fall des Jörg Hillinger wurde sehr umfangreich untersucht, aber wie gesagt, bei einer Bestückung mit Flash verschwinden die Beweise in Millisekunden im nichts ... im Gegensatz zur angesägten Bremsleitung.


17 Juli 2015

Festplatte voll? Wegen Videos? Überführen sie ihre Videos in .h265.mp4 und die Festplatte ist fast leer!

Ihre Festplatte ist voll und Sie haben Videos drauf? Dann würde eine bessere Codierung die Videos verkleinern und Platz auf der Platte schaffen. Das ist vor allem dann wichtig, wenn man ein Laptop oder Tablet hat, wo der Tausch der Festplatte nicht oder nur mit Sachkenntnis möglich ist

Es gibt neue Verfahren der Codierung von Videos, welche Videos extrem eindampfen kann ohne das Bildqualität verloren geht. Eine klassische DVD aus einem Videorekorder kann auch 350MByte, das ist eine halbe CD, eingekocht werden. Unter Linux, das nicht den Einschränkungen des kourtauo der Softwareindustrie vor der Filmindustrie unterliegt kann man die Private Videosammlung mit dieser neuen Software extrem handlich machen. Es ist klar, das die Filmindustrie fürchtet das ihr das gleiche Passiert was in den 1990 mit der Musikindustrie passiert ist: Die physikalische Marginalisierung ihres Produkts. Man muss sich vor Augen halten, das wenn man 99¢ für den download eines Musikstück bezahlt wie es sich die Musikindustrie vorstellt, eine typische 100€ Festplatte mit 3.000.000.000.000 Byte Speicherkapazität einen Wert von einer Million Euro aufnehmen kann. Da müssten die Festplatten eigendlich in Gehäusen der Flugzeug Blackboxen geliefert werden. Aus diesem Grund wird klar, warum Apple z.B. für Videotelefonate das neue h265 verwendet, während die Verteilung von Filmen mit h264 erfolgt. Dabei wird ganz nebenbei das Internet so verstopft, das die Flatrate deals gefärdet sind und "überholspuren" für "Premium Content" durchgesetzt werden können.

Welche Programme werden gebraucht


  1. VLC version 3
  2. x265
  3. ffmpeg
  4. MP4Box
  5. perl5
  6. find


Wie vorgehen?

Die Programme können aus den Distributionen des verwendeten Linux bezogen werden. Bei konservativen Distributionen kann es nötig sein, auf spezielle repositorys mit Software die sich noch in der Entwicklung befindet zurückzugreifen. Mit dem VLC version 3 können die Videos betrachtet werden. Die anderen Programme werden verwendet, um die Konversion durchzuführen. In einem Script das unter /usr/local/bin/uhvc abgelegt wird ist Festgelegt, wie ein einzelner Film behandelt wird.


#! /usr/bin/sh
# 

qfile="$1"
sfile=`basename "$qfile"`
spath=`dirname "$qfile"`

ffmpeg 2>/dev/null -i "$1" -f yuv4mpegpipe -pix_fmt yuv420p - | \
  x265 -p slow --y4m -o "/tmp/zzz-$sfile.265" -
ffmpeg -i "$1" -vn -r 128000 "/tmp/zzz-$sfile.aac"

MP4Box -add  "/tmp/zzz-$sfile.aac" -add "/tmp/zzz-$sfile.265" "$2"

rm "/tmp/zzz-$sfile.265"
rm "/tmp/zzz-$sfile.aac"


Mit dem Befehl uhvc wird ein einzelner Film gewandelt. Will man jetzt eine Platte voller Filme umwandeln, so braucht man ein weiteres Script, welches die Festplatte nach konvertierbaren Filme durchsiht, die noch nicht umgewandelt sind. Um zu wissen welche Dateien noch nicht umgewandelt sind, werden die gewandelten Filme mit der Endung .h265.mp4 angelegt. Abgelegt wird das Script unter /usr/local/bin/uhvcd und Aufgerufen mit uhvcd .. Es werden alle Filme in dem Directory und seinen Unterdirectorys.


#! /usr/bin/perl
 
($dir) = @ARGV ;

if ($dir eq "") 
{
  $dir = "." ;
} ;

if (open(X,"find \"$dir\" -type f |"))
{
  while ($file = ) 
  {
    chop ($file) ;
    if (($file =~ m!\.((mp4)|(avi)|(mov)|(flv))$!) &&
        ($file !~ m!\.h265\.mp4$!))
    {
      $sfile=`basename "$file"` ;
      $spath=`dirname "$file"` ;
      chop ($sfile) ;
      chop ($spath) ;
      $dfile=$sfile ;
      $dfile=~s!\.[^.]*$!.h265.mp4! ;
      print "$sfile to $dfile at $spath\n" ;
      unlink "$spath/$dfile" ;
      if (0 == system ("uhvc \"$spath/$sfile\" \"$spath/$dfile\""))
      {
        print "OK\n" ;
        unlink "$spath/$sfile" ;
      } ;
    } ;
  } ;                         
  close (X) ;                    
} ;      
                                                                                                                             

09 Juni 2015

Wann werden die Piraten sich des Themas wissenschaftliche Urteilsbegründung in Strafprozessen annehmen?

Dieser traurige Fall (Bildquelle: www.harrywoerz.de) einer Fehlverurteilung von Harry Wörtz wirft eine von mir schon andiskutierte Problematik wieder auf, weil in der Zwischenzeit exakt nichts passiert ist.

Es dürfe bei einer Verurteilung kein vernünftiger Zweifel an der Schuld des Angeklagten bestehen. So etwas sagen Juristen wenn man diese zu den Grundlagen einer Verurteilung befragt. Aber es bleibt bei Worten, nichts was man festmachen kann. Ein zweifel besteht immer, da man immer eine Haarsträubende Geschichte erfinden kann die alles erklärt. Böse Agenten einer Feindlichen macht ... so wie vermutlich bei dem Wikileaks Gründer Assange zum Beispiel. .... intrigante Nebenbuhler ... im Extremfall bei der Polizei ... der große Unbekannte .... Zufallsopfer sonstiger finsterer Machenschaften ... oder einfach nur Ermittlungsmurks ...

Die Gesellschaft kann also eigentlich gar nicht umhin eine Rate von Fehlurteilen zu Akzeptieren, wenn sie nicht will, das Bestrafung von Fehlverhalten zur absoluten Ausnahme wird oder gar nicht mehr stattfindet.

Damit ist aber untrennbar verbunden eine numerische Definition des Berechtigten Zweifels. Ein Mal pro 100 Fälle also 1:100 also jeder 100 JVA Knakie sitzt zu unrecht, oder 1:1000 ... oder 1:10000.

Oder aber so, das die Eintrittswahscheinlichkeit eins pro Zeitraum und Definitionsbereich ist. Also z.B. 1 : Anzahl der Urteile des letzten Jahres in Deutschland. Damit wäre dann sichergestellt - wenn alle den Qualitätsstandart einhalten - das es im Mittel nur zu einer Fehl-Verurteilung pro Zeitraum im Vergebenen geografischen Bereich kommt. Für Deutschland hieße das rund 1:800000 wären nötig

Selbstkritische Juristen sprechen von einer Fehlerrate - halten sie sich fest - von 1:4. Das wäre mir allerdings definitiv viel zu viel und schon ein Skandal verdächtiges Versagen. Hier ist ein Untersuchungsausschuss "Qualitätssicherung in der Justiz" dringend nötig

Juristen mauern gewaltig. Ich habe da so meine Erfahrungen aus etlichen Diskussionen. Dabei wird die Welt im Innersten durch Wahrscheinlichkeitstheorie beschrieben. Schlimmer noch, man kann zeigen, das dieses nicht auf Unfähigkeit beruht sondern das sich das Universum gar nicht anderes als durch die Gesetze der Wahrscheinlichkeit beschreiben lässt. beschreiben lässt. Wir reden bei Zufällen also nicht über eine fiktive Wissenschaft, wie ich das von Juristen schon gehört habe, sondern um die direkte Realität unserer Umgebung.

Das würde aber bedeuten, das Juristen wie Versicherungsmathematiker Rechnen müssten. Das das funktioniert beweisen Versicherungen durch ihre bloße Existenz jeden Tag. Würden sie sich nach unten Verrechnen, wären sie schnell Pleite. Wenn sie zu sehr zu ihren Gunsten rechnen würden, wären sie zu teuer. Nur mit dem Rechnen und den Juristen ist das eine sehr schwierige Sache. Ich habe schob Urteil mit Aussagen wie 100€ + 50DM = 150€ gesehen. Hier müsste ein ganzer Satz von Vorlesungen in die Ausbildung von Juristen aufgenommen werden.



Das wäre aber gar nicht so falsch. Wenn man so manches DNA Gutachten liest, da tauchen dann mitunter Aussagen wie "Die DNA des später Angeklagten wurde am Tatort mit einer Wahrscheinlichkeit für eine zufällige Übereinstimmung von 1 : Billionen festgestellt. Das ist eine Zahl mit viel mehr Nullen als sich ein Jurist vorzustellen vermag. Beispiel 1 : 1.000.000.000.000. Für mich als Physiker keine Problem. Das ist rund das Verhältnis von einem Meter zum Abstand Erde Jupiter wenn beide auf verschiedene Seiten der Sonne sind.

Als Mathematiker muss ich aber einwenden, das ein Urteil alleine auf diese Tatsache gestützt mit Nichten eine nur verschwindend kleine Fehler Wahrscheinlichkeit hat, weil ja die DNA auf die unterschiedlichsten Weißen dort hingekommen sein kann. Beispielsweise könnte es ein Potentieller eineiger Zwilling gewesen sein, der unbekannt ist. Blödsinn? Mitnichten! Es gibt dokumentierte Fälle, in denen Menschen aufgrund gemeinsamer Vorlieben ihrem Zwilling begegnet sind, von dem sie gar nichts wussten. Ohne das ausgeschlossen wurde, das mehr als ein Kind geboren wurden, kann also nur eine Aussagekraft von Anzahl der Zwillingsfälle : Anzahl der Bevölkerung gewertet werden. Mit diesem Link also weniger als 1 : Erdbevölkerung = 1 6.000.000.000. Ein unterschied der Beweiskraft von über Faktor hundert, aber immer noch hoch genug ist, um weniger als eine Fehlverurteilung pro Jahr sicherzustellen. Die Summe der allgegenwärtigen Unzulänglichkeiten lässt sich vertafeln, ähnlich wie es etwas für "Unvorhergesehenes" in der Versicherungsmathematik gibt.

Auch kam es immer wieder vor, das die Auswertung von Spuren in Bezug auf ihre Signifikanz hin verändert werden musste, weil sich herausstellte, das die Variation in der Realität sehr viel geringer war als Angenommen. So mussten Beispielsweise in den USA verfahren in denen Haaranalysen oder Isotopen vergleiche verwendet wurden revidiert werden.

Aus der anderen Seite kann eine Wahrscheinlichkeitstheoretische Betrachtung eines Falls auch vor teile für den Staatsanwalt bringen. Weil dieser dann für sich genommen nicht Aussagekräftige Teilaspekte wie Indizien wissenschaftlich fundiert zusammenfassen kann, bis ein Niveau erreicht ist das ein gesellschaftlich akzeptiertes Maß an Sicherheit beinhaltet. Da die Justiz weitgehend Ländersache ist, wäre das doch mal ein interessantes Betätigungsfeld für unsere Piraten in den Länderparlamenten ... den die anderen Parteien und Naturwissenschäften?

05 Juni 2015

Leibe türkisch stämmigen Bürger, bitte redet mit euren Verwandten. Mit einem alleinigen Machthaber Erdoğan kann die Türkei nicht in der Nato bleiben

Es geht um Ihn: Recep Tayyip Erdoğan (Bildquelle Wikipedia). Nach dem Betrachten etlicher Dokumentationen kann ich verstehen, das viele Menschen ihn verehren. Allein das jeder Bürger in der Türkei eine wirksame Krankenversorgung hat, ist ein sehr existenzieller Grund ihn zu wählen. Er hat das gemacht, was die Sekularen Parteien vor ihm nicht gemacht haben: Politik für alle Bürger des Landes. Und das auch sonst mit erfolg, wenn man sich zum Beispiel die Wirtschaftliche Entwicklung ansieht.

Ob Religion eine Rolle in der Öffentlichkeit spielen soll und sich alles anderen Menschen nach den vorgaben der einen oder anderen Religion richten sollen, das muss jede Nation im Rahmen der über die Uno festgelegten Menschenrechte selber entscheiden. Als Ausländer geht einen das über die Tatsache das man dazu die eine oder andere Meinung haben kann hinausgehend nichts an. Das ist innere Angelegenheit eines jeden Landes.

Aber wenn man mit Miteinander Verträge ... existenziell wichtige Verträge wie den Gegenseitige Schutz vor äußeren Feinden wie den Nato vertrag hat, dann kann es einem nicht mehr egal sein, wenn der führende Politiker des Landes, der zu allen Überfluss auch noch ein Präsidialsystem anstrebt, sich in Pachtasien über Eroberungsfeldzüge ergeht.

Zitat Recep Tayyip Erdoğan: "Eroberung heißt Mekka. Eroberung heißt Sultan Saladin, heißt, in Jerusalem wieder die Fahne des Islams wehen zu lassen." Eroberung bedeute, das Erbe Sultan Fatih Mehmeds zu wahren. "Eroberung bedeutet, die Türkei wieder auf die Beine zu bringen. Eroberung ist 1994, Eroberung ist der 7. Juni."

Hallo, das geht ja wohl nur mit einem Angriffskrieg gegen Israel. Angriffskriege sind aber ein Kriegsverbrechen, sie sind nicht mit der UN-Karte in Einklang zu Bringen, und natürlich auch nicht mit den Werte welche der Nato zugrunde liegen. In Artikel 1 und 2 des Nato vertrages heißt es unmissverständlich:

Artikel 1

Die Parteien verpflichten sich, in Übereinstimmung mit der Satzung der Vereinten Nationen, jeden internationalen Streitfall, an dem sie beteiligt sind, auf friedlichem Wege so zu regeln, daß der internationale Friede, die Sicherheit und die Gerechtigkeit nicht gefährdet werden, und sich in ihren internationalen Beziehungen jeder Gewaltandrohung oder Gewaltanwendung zu enthalten, die mit den Zielen der Vereinten Nationen nicht vereinbar sind.


Artikel 2

Die Parteien werden zur weiteren Entwicklung friedlicher und freundschaftlicher internationaler Beziehungen beitragen, indem sie ihre freien Einrichtungen festigen, ein besseres Verständnis für die Grundsätze herbeiführen, auf denen diese Einrichtungen beruhen, und indem sie die Voraussetzungen für die innere Festigkeit und das Wohlergehen fördern. Sie werden bestrebt sein, Gegensätze in ihrer internationalen Wirtschaftspolitik zu beseitigen und die wirtschaftliche Zusammenarbeit zwischen einzelnen oder allen Parteien zu fördern.


Eine Türkei, die von einem Recep Tayyip Erdoğan mit solche Wünschen und Zielen präsidial Regiert wird ohne das es ein starkes parlamentarisches Gegengewicht gibt, ist mit den Natoverträgen nicht zu vereinbaren. Für mich heißt das ... wie vermutlich für fast alle anderen Deutschen auch - wenn man mal vom Nazibodensatz absieht - es ist unhaltbar ein solches Land militärisch zu unterstützen. Weder durch Waffenlieferungen, noch durch die Entsendung von Truppen wie den Patriot Raketenwerfern zur Luftraumverteidigung. Einesteils wegen der historischen schuld gegenüber Israel und andererseits weil man wegen der Angriffskriegsambitionen des Bündnispartners Österreich-Ungarn in den ersten Weltkrieg gezogen wurde.

Aber Deutschland ist nicht das einzigste Land, das mit einem angestrebten Angriffskrieg seine speziellen Problem hat die über die grundsätzliche Verwerflichkeit solchen Handelns hinausgeht. Auch die USA werden es kaum innenpolitisch vertreten können, sich derart gegen Israel zu stellen. Man kann dazu stehen, wie man will, die USA sind nun mal tonangebend in der Nato. Einen Verweis erst im Ernstfall auszusprechen ist katastrophal für die Reputation eines Militärbündnisses. Insoweit wird es zu einem proaktiven Ausschluss kommen müssen, wenn Recep Tayyip Erdoğan in der Türkei alleine Tonangebend werden sollte. Aber auch die anderen Staaten werden sich kaum für einen illegalen islamischen Antikreuzzug einspannen lassen wollen.

Kann es einem egal sein, wenn die Türkei ihren eigenen Weg geht? Zur Not wird man damit Leben müssen. Besser wäre es aber, wenn die Türkei sich weiterhin an die UN-Karta hält und Mitglied der Nato bleiben kann. Deshalb meine Bitte an alle die Beziehungen in die Türkei haben, redet mit den Menschen das Sie nicht AKP wählen, und damit die Macht von Recep Tayyip Erdoğan wirksam begrenzt werden. Auch in ihrem eigenen Interesse, denn der Mann hält es ja nicht mal für nötig, seinen Präsidentenpalast legal zu errichten. Und ob er überhaupt Kalif werden kann anstelle des Kalifen oder ob der Kalif nicht doch danke sagt, muss auch erst noch geklärt werden.

23 Mai 2015

Wie verschlüsselung gegen Massenüberwachung auch Massen tauglich werden kann

Versuche den Überwachungswahn politisch in den Griff zu bekommen muss man als zumindest kurzfristig als gescheitert betrachten. Es mag sein, das irgendwann mal die eine oder andere Verfassungsinstitution hier und da mehr oder weniger laut auf den Tisch haut, aber das wird wenig Bringen, weil das ja dann immer nur ein Land betrifft. In Amerika wollen die Abgeordneten zum Beispiel zur Zeit der NSA klar machen, das sie die Amerikaner unbeobachtet lassen soll. Das hilft uns also erst mal überhaupt nicht. Wie sich aktuell im NSA Untersuchungsausschuss zeigt, kriecht unsere Regierung der US-Administrion ja so weit in den Arsch, das sie durch Zahnlücken winken kann. Das ist alles höchst unerfreulich, und Besserung ist nicht in Sicht.

Leider sind die Regierungen aber auch ein enormes Hindernis bei der Beseitigung des Übels. Da Regierungen ihre Ansichten immer mal wieder mit wie auch immer gestalteter durchzusetzen geruhen, sind Sie natürlich auch der Meinung das der Bürger nicht freien Handel im Ausland mit solchen Technologien treiben dürfe, weil das potentiellen Gegnern von nutze sein kann. Ein völlig neues Verfahren das sich gegen die Regierungskriminalität im Bereich Datenschutz richtet läuft also immer Gefahr mit einer Handelsbeschränkung belegt zu werden, so das es für die globale Comunity nicht mehr sinnvoll nutzbar ist.

Es gab von großen E-Mail Providern die Initiative, die E-Mails nur noch mit einer Transportverschlüsselung zu übertragen. Ich weiß aber aus eigener Anschauung das alleine diese an sich Simple Änderung einen enormen Aufwand an Support nach sich gezogen hat.

Wie kann man besehende Verfahren Massen tauglich machen und welche sind das?

Wenn es nur um das Passive belauschen geht, gibt es mit dem Diffi-Hellman-Schlüsseltausch bereits das Ideale Verfahren. Wenn man dieses in den TCP/IP Stack im Wege einer TCP/IP Option einbaut, dann wären alle auf einfaches Lauschen beruhenden Aktionen mit einem Schlag hinfällig. Warum ist diesem Verfahren dann so ein Schattendasein auferlegt? Das liegt daran, das die Wissenschaft der Kryptografie als Grundaufgabe hat eine ganz konkrete Nachricht sicher von Alice zu Bob zu transportieren. Kann sich die böse Mallory aber in die Verbindung einklinken, dann ist das Verfahren hinfällig:

Bildquelle Wikipedia
Während man bei der Übertragung einer dezidierten Nachricht immer fürchtet, das genau diese Nachricht in falsche Hände gerät, will man bei der Verhinderung der Massenüberwachung ja nur Verhindern, das ein systematisches Screening heimlich möglich ist. Jetzt wird gelauscht. Funk aufgezeichnet, Lichtleiter mit halb durchlässigen Spiegeln angezapft. Das ist sehr einfach und braucht nur sehr wenig oder gar keine Energie. Ganz anderes sieht das bei einem Man in the Middle Angriff aus. Nehmen wir an, eine 100GByte Glasfaser trägt TCP Ströme vom in Durchschnitt 1 Megabit. Dann wären von einem Angreifer 100.000 Kanäle zu entschlüsseln und neu zu verschlüsseln. Dafür bedarf es nicht unerheblich Rechenleistung am Ort des Eingriffs oder aber das Signal muss weitläufig umgeleitet werden, was sich aber wiederum in der Pingzeit niederschlägt. Bei einer Funkanwendung würde das aussenden der veränderten Signale auf jeden Fall unangenehm auffallen, weil sich die Übertragungskapazität halbiert.

Verschlüsselte Daten lassen sich nicht mehr Komprimieren. Aus diesem Grunde sollte ein solches Verfahren in jedem Fall die Daten vor dem verschlüsseln adaptiv Komprimieren. Wenn man die Daten für den Schlüsseltausch auch durch den Kompressor laufen lässt, dann hängt der Datenstrom vom Schlüssel ab und der Man in the Middle Angreifer Mallory alles entpacken und neu komprimieren. Dazu würden bei 1 Megabyte Kompressinsbuffer für unser obiges Beispiel 200 GByte RAM gebraucht, so das auch nicht mal eben auf ein Stromsparendere ASIC zurückgegriffen werden kann.

Allein diese Maßnahme würde meines Erachtens der NSA schwer auf den Magen schlagen. Wie viele Softwarepakete müsste man Ändern? Wenn man die Kerne der Open Source Linux, FreeBSD, Opensolaris und Darvin im Mainstream ändert, dann wären annähernd alle Server damit ausgerüstet, die Apple Produkte die auf Darvin aufsetzen, Alle Produkte die auf Linux aufsetzen insbesondere alle Android Smartphones und auch Router. Das Mobile Internet wäre damit sehr weitgehend geschützt. Beim stationären Internet wären die ganzen Windows Arbeitsplätze ungeschützt ... nur ob sich Microsoft das auf Dauer wird leisten können, hier nichts zu unternehmen und nicht mitzuziehen?

Installationsaufwand für die Verschlüsselung

Was wäre bei der Installation zu beachten? Nichts! der neue Kernel könnte als Sicherheitsupdate eingespielt werden. Einzig und allein die Rechenleistung für eine Anwendung würde steigen. Da dieses aber ebenfalls vom Beitriebsystem verwaltet wird, wüsste es auch in welchen ausnahmen eine Abschaltung unbedingt nötig ist. Dieses Wartungsfreie einfügen in die Produktion meine ich, wenn ich von Massen tauglicher Verschlüsselung spreche.

Kann man Massen Iterceptions erkennen?

Aber es geht noch besser. Da es für diese Verfahren keinen breit verwendeten Code gibt mein Vorschlag: Die Verwendung von TLS. TLS dekt soweit bekannt fast alle Problem ab. Auch Snowden hat keine hinweise geliefert, das alle TLS Verfahren von der NSA unterwandert sind. Zumal im TLS auch Chipher verschiedener Länder verbaut sind. (USA, Russland, Japan, Süd-Korea). TLS hat eine Schwachstelle, und das ist die das die Länge eines Datentransfers exakt nachvollzogen werden kann. Das ist dem Streben nach Effizienz geschuldet, führt aber dazu, das bei öffentlichen Content der Bezug nachvollzogen werden kann. Aber das gilt für fast alle Verfahren, und TLS hat den entscheidenden Rechtlichen Vorteil das es überall öffendlich zugänglichen Code gibt und sehr viel SSL/TLS übertragungen im Internet vorhanden sind.

Der Systemkern erzeugt beim Booten sein Selbst signiertes Zertifikat und sperrt den privaten Schlüssel per MMU möglichst gut weg, so das ja keine Anwendung irgendwie Zugriff darauf erlangt. Der Schlüssel sollte im Ram liegen, so das dieser nach dem Ausschalten oder der alle 24h stattfindenden Neuerstellung für immer Weg ist. Damit haben dann alle Chipher zumindest eine verzögerte Perfect Forward Security. Das ist wichtig, wenn man Hardwarekomponenten nutzen will. Bei eingehenden Verbindungen werden Datensätze aus IP, Ziel Port, Fingerprint des präsentierten öffentlichen Key im Logfile gespeichert. Wird die TCP Option ignoriert und es kommt eine normale Verbindung zu Stande so wird ein spezieller Fingerprint wie 00:00:00...00:00 eingetragen

Diese Daten werden dann turnusmäßig gesammelt und per regulärem https sicher verschlüsselt an eine Gruppen von Zentralinstanzen gesendet, welche die Daten statistisch auswerten. Interceptions zeichnen sich dadurch aus, das die Fingerprints von verschiedenen Locations aus gesehen nicht identisch sind. Werden bestimmte Verbindungen Intercepted, zum Beispiel der Port 80 durch eine anti Virus und Cache Firewall, dann kann diese Instanz ein solches Firewallcache diagnostizieren, und allgemeinverständliche Kommunikees generieren. Manchmal will man ja oder muss man auch eine Verkehrskontrolle haben. Das mag auch für ganze Nationen gelten, nur das die Regierungen sich dann in Zukunft immer dafür in der Öffentlichkeit verantworten müssen. Und ob Wegelagerer wie die Briten dann noch Kabelkapazität verkaufen können wird sich Zeigen. Die Provider die solche Strecken nutzen werden nicht umhin können, einen VPN Tunnel zu konfigurieren.

Auch wichtig wird sein, das Verfahren zeichnet sich dadurch aus, das man wichtige Werkzeuge wie den wireshark so umbauen kann, das sie auch Weiterhin mit Interception funktionieren. Das Debuggen mit konventioneller Verschlüsselung ist nervtötend, weil geringste Fehler sich so auswirken, das nichts mehr geht. Bekommt man keine vernünftige Fehlermeldung - und jeder der länger mit Computern zu tun hat weiß, wie schlecht die oft sind - dann steht man erst mal völlig auf der Leitung, wenn man sich die Kommunikation nicht mehr ansehen kann. Ich habe oft von Entscheidern in der wirtschaft hören müssen, das sie keine Kryptografischen Algorithmen haben wollten, weil Sie - leider nicht ganz zu Unrecht - Produktionsausfälle befürchten.






17 Mai 2015

Der unsachgemäße Umgang mit Fragen der Netzneutralität ...

Zur Zeit wird auf EU Ebene eine Gesetz verhandelt, in dem es darum geht, das regeln soll wie in Zukunft die Geschäftsmodelle rund um das Internet aussehen sollen. Das dabei extrem viel Mist erzählt wird, zeigt eine Video eines Piraten



Aber das ist nur die Halbe Wahrheit. Denn ich bin selber Internetanbieter. Ich betreibe eine Kleines WLAN das einen Stadtteil mit breitbandigen Internet versorgt. Erstanden ist dieses Netz im September 2001 weil ich mit die Kosten meinens Monopolübertragungsweges nicht mehr leisten konnte und wollte, und so habe ich einen Großteil der Entwicklung des Internets an vorderster Front mitbekommen.

Das Internet und seine Anwendungen waren in der Vergangenheit immer auch eine Maximal effektive Ausnutzung knapper Ressourcen hin ausgelegt. Es haben auch immer alle Mitgemacht, weil sich Anbieter und Konsumenten die Kosten für das Internet geteilt haben. Jeder bezahlte den Teil des Weges bis zum Austauschpunkt, an dem die Daten von einem Anbieter zum nächsten weitergeben werden. So hatte jeder einen Ansporn zu sorgfältigem Umgang mit den Ressourcen.

Das hat sich aber im Laufe der Jahre extrem gewandelt. Anbieter - bezogen auf das Verkehrsaufkommen - gibt es kaum noch. Das sind im Wesentlichen die Großen Konzerne wie Apple, Microsoft, Google, Facebook, ... sowie die Medienanstalten, öffentlich Rechtliche wie Private. Diese haben längst Standleitungen zu den Austauschpunkten, sind also wenn man so will ihr eigener Internetprovider. Die Leistungsfähigkeit der Glaskabel und der dazugehörigen Router ist in den letzten Jahren so explodiert, das die Kosten für sehr viel mehr Verkehr verschwindend gering sind gegenüber denen, die nötig sind die Effizienz der Dienste zu verbessern. Sehr schön lässt sich das im Videobereich belegen, bei dem eben nicht versucht wird, das Optimum an Kompression aus den Vorhandenen Codecs herauszuholen oder sogar auf neue Entwicklungen zurückzugreifen, welche mit nur einem Bruchteil der Übertragenen Daten das gleiche erreichen.

Und genau an dieser Stelle muss ... soll sinnvolles Wirtschaften für Internetprovider überhaupt noch möglich sein, dieses ein Mittel an die Hand gegeben werden, mit dem sie auf Anbieter einwirken können, eben doch Geld in die Hand zu nehmen, um die Effizienz ihrer Systeme zu Steigern. Diese Effizienz kann zum Beispiel in der Cachebarkeit der Daten liegen. Konnte ich am Anfang meiner Tätigkeit als ISP noch über 80% des Traffic aus dem Proxy Cache bestreiten, sind es heute nicht mal 20% Prozent. Das ist ganz wesentlich vier Entwicklungen geschuldet:

  1. Durch den Fortwährenden Spionageterror durch die NSA gehen immer mehr Anbieter dazu über, Software per https:// zu verteilen. Dabei nutzt das nichts, weil sich aus IP und der Menge der übertragenen Daten welche vom https nicht geschützt ist, sich schon eindeutig Festellen lässt wer welchen öffentlich zugänglichen Inhalt heruntergeladen hat. Neben dem Vermeidlich Vorteil der Verschlüsselung erspart es den Anbieter aber auch den Aufwand, die Integrität der Übertragung gesondert zu überprüfen ... verhindert aber das Caching.

    Microsoft - hier muss ich sie mal ausnahmsweise und auch noch öffentlich lobend erwähnen - hat deshalb eine Initiative gestartet für ein httpi:///, das die Integrität der Übertragung sichert aber Caching zulässt. Nur Leider ist Verschlüsselung durch in die Prozessoren eingelassene Hardware so billig geworden und so viele Kunden bei Ex Monopolanbieter, das dieses keine Resonanz gefunden hat.
  2. Durch die super idiotische Vorgabe der EU, das Benutzer vom Inhalteanbieter über das Setzen von Cookies zu Informieren sind, sind viele Anbieter denen die EU aus welchen gründen auch immer nicht Arsch vorbeigeht um die Benutzer nicht mit Blödsinnigen Juristensültz zu vergraulen dazu übergegangen, ihre Angebote so zu erstellen, das es sie im Internet unendlich oft gibt. Wo es früher http://server.domain.de/path/file.xxx gab wird der Webserver so Programmiert das er auf http://server.domain.de/besuchernummer/path/file.xxx weiterleitet, und jeder Besucher so seine eigene Kopie des Content vorgesetzt bekommt. Damit ist aber die Cachebarkeit beim Teufel, weil das ist nicht Standardisiert ist.

    Die Behandlung der Cookies ist Sache der Software. Dummerweise wenn man wie ich z.B. eine Funktion Nutzt alle Cookies am ende einer Session zu entsorgen, dann wird man bei vielen Anbieter jedes mal mit dem Jurasülz der Hausjuristen dieser Anbieter belästigt. Die Technologie jedem Besucher seine eigene Suppe zu kochen ist auch in sofern ein Problem, als das dann die Einheitlichkeit des web nicht mehr gegeben sein muss. Wer sagt denn, das sich die Inhalte nur in den Besuchernummern in den internen Links unterschieden? Das könnten zum Beispiel für IP aus Muslimischen Ländern bestimmte Dinge im Wege der Sebstzensur entsorgt werden (Alkohol, Schinken, ...) und vieles andere Mehr.
  3. Die Ideologische Ablehnung von jeder Form der Kopie die kein Geld in die Kasse bringt seitens der Content Industrie. Ausnahmslos alle bezahl Video on Demand Dienste Senden Ihr Material so, das es nirgendwo gecached wird, nicht mal im Endgerät. Jeder Schnippsel wie eine DNS Anfrage wird aus Traditionellen gründen lokal gecached ... was auch Probleme macht weil immer wieder Regierungen versuchen diese Caches wenn möglich manipulieren zu lassen ... nur die HD und 4kHD Videos sollen bei jedem Ansehen in epischer Breite durch das Netz geprügelt werden? Dazu werden dann proprietäre Protokolle verwendet, die obendrein noch verschlüsselt sind.

    Würde ein Film verschlüsselt an einer Stelle publiziert, und die Lizenznehmer alle auf diese url Bezug nehmen und nur noch ihren Schlüssel zum Entschlüsseln des Materials individuell verschlüsselt übertragen ... so wie es auf der Blu Ray Disk gemacht wird ... könnten sehr wohl die Interessen der Content Anbieter mit denen der ISP in Einklang gebracht werden. Da aber Filmbosse bei dem Wort Kopie Pickel am Gesäß bekommen, bedarf es hier eine über den §§44a UHRG hinausgehende Hilfestellung durch den Gesetzgeber.
  4. Ideal für die Verbreitung von Videos wäre, wenn es einen optimalen Videostandart gäbe. Optimaler weiße sollte der sogar so aufgebaut sein, das es für die Unterschiedlichen Qualitäten eine Basisdatei und weitere zur Stufenweise Erhöhung der Auflösung geben sollte. Praktisch würde das dann so aussehen, das bei begrenzter Kapazität Filme um so genauer Aufgelöst wird, je öfters er angesehen wird, weil sich immer mehr Stufen auf der Leiter zu höheren Auflösungen im Cache sind. Bedingt durch Pantentzickereien zwischen den Großen Anbietern sieht die Realität ganz anderes aus. Im Gegensatz zu Bildern braucht man so ziemlich für jedes Gerät eine Eigne Version des an sich gleichen Inhalts. Auch ein eklatanter Missstand!
Ein weiteres Wesentliches Problem der Netzneutralität ist die Verträglichkeit der Anwendungen. Auch hier gibt es Leute, die nichts von Netzneutralität halten und versuchen mit allerlei Tricks sich einen Vorteil zu verschaffen. Wird kein weiteres Management wie das statistical Fair queing getroffen, so ist die Einfachste alle Masnamen, in einem Programm einfach 100 TCP/IP Parallel zu öffnen. Dann bekommt an in einem Nadelöhr eben auch 100 Anteile anstatt nur einen. Noch sehr viel effektiver ist es, einen speziellen modifizierten TCP/IP Stack zu benutzen, der mittels zusätzlicher Forward Error Correction einzelne Pakete ohne sie erneut Anzufordern Rekonstruieren kann. Da dieser mit Paket Verlust leben kann, kann er die anderen Rausdrücken. Als Beispiel für eine gelungene Vordrängelimplementierung kann die Downloadplattform Steam betrachtet werden. Ein Netz in dem ein Download mit Steam läuft, ist für die anderen Nutzer tot.

Folglich muss ein Provider der wie ich auf Einheitlichen Verbindungen beruht, den Zugang einzelner Benutzer zu den Ressourcen künstlich sehr weit verringern, damit an jeder Verzweigung kein "Kanal voll mit Steamdaten" auftreten kann. Schade, denn wenn das Netz zum Beispiel Nachts leer ist könnte ein Benutzer auch mit allen Ressourcen beglückt werden. Das setzt aber im Interesse der anderen Nutzer aus, das Ego-Anwendungen wie Steam auf ein Sozial verträgliches Maß gedrosselt werden können.

Noch ein paar Worte zu dem Arzt der eine Fern-Op macht. Da wird man hoffentlich Mietleitungen verwenden. Aber ich hatte einen Arzt als Kunden, der Radiologe ist. Der hatte Bereitschaftsdienste, die er per Remote Desktop Anwendung gemacht hat. Diese Anwendung reagiert ziemlich schlecht auf Überlastungen im Netz. Für ihn war es in die der Beurteilung wichtig, einen Ebene des CT durch den Körper bewegen zu könne. Da aber kein video Runtergeladen wurde sondern dieses nur per Remote Desktop gemacht wurde, ging das nur bei relativ leerem Netz. Es kam also vor, das er wegen großem Datenverkehrsaufkommen in die Klinik fahren musste, und das kann unter extrem unglücklichen Umständen Tatsächlich zum Tod eines Patienten führen. Er ist dann auch - sobald das möglich war - vermutlich zu LTE at Home umgestiegen, die einen Vorrangtransport machen können. Und jeden Arzt der Bereitschaftsdienst hat mit einer Standleitung auszustatten, das können sich die Kliniken nicht Leisten. Netzneutralität erfordert auch eine gewisse Disziplin bei der Erstellung von Software, so das diese mit Kapazitätsengpässen adäquat umgeht.

Es wäre sehr wünschenswert, wenn administrative Maßnahmen dazu führen würden, das Content wieder mehr Cachebar ist. Mit Satelliten kann man einen sehr schnellen Zugang zum Internet herstellen, der auch jeden Winkel abdeckt. Aber das setzt voraus, das großer und beliebter Content per Multicast an Tochter Proxy verteil wird. So funktioniert sky Video on Demand. Ansonsten muss das Kontingent streng rationiert werden. Wer sein X-GB verballert hat, kriecht den Rest des Monats. Und Videoanwendungen die wenn möglich Full oder 4K HD senden, saugen so ein Kontingent binnen Minuten Leer. Da ist manch einer froh um ein automatisches Management, das solche Anwendungen zur Sparsamkeit anhält. Im LTE Steigen die maximalen Datenraten sehr viel schneller an als es die Gesamtübertragungskapazität in der Funkzelle tut. Sollen diese Netze nicht hoffnungslos verstopfen, muss es auch zu einer Verbreitung von häufig nachgefragten Content in die Caches der Geräte kommen. Dafür eignen sich ... das beweist dbv-t jeden Tag, die terrestrischen TV-Frequenzen besonderes gut.

Zum Schluss möchte ich noch auch die Cloud Backup und Sync Services eingehen. Android zum Beispiel: Backup zu Google, Sync über Google. Überall ist automatisch NSA und FISA mit drin. Hier muss eine Gesetzliche Reglung her, die es dem Kunden ermöglicht lokales Equipment zu nutzen. Sei es eine FTP-NAS in der einen Wohnung (z.B. Friz-Box) oder sei es ein lokaler Speicher mit Profi Raid beim lokalen ISP-Knoten. Je näher der Speicher am Kunden dran ist, desto besser, werden doch bei einem Recover binnen kurzer Zeit Tausende Giga Byte an Traffic gebraucht.

Nachtrag 22.05: Unfassbar wie mache Inhalte Anbieter mit den Ressourcen eines Netzwerks Umgehen. Blizzard.com hat die Unverschämtheit, im ms Sekundentakt neue Verbindungen auf zumachen um dann grosse Dateien in ungefähr KB großen Happen zu holen. So kann man jeden Proxyserver zu lasten aller anderen Nutzer blockieren.

Ich habe auch schon Transfers auf Port 179 - das ist der des BGP mit dem das Internet gesteuert wird - gesehen. Netneutralität kann es nicht ohnne strege Regulierung für Downloadprogramme geben, denn ohne müsse ISP solche Penner bremsen können.


1432229171.458     55 172.16.20.165 TCP_MISS/206 1127 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.252     18 172.16.20.165 TCP_MISS/206 1129 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.253     18 172.16.20.165 TCP_MISS/206 1285 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.303     51 172.16.20.165 TCP_MISS/206 1285 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.308     55 172.16.20.165 TCP_MISS/206 1129 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.353     49 172.16.20.165 TCP_MISS/206 1285 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.486     12 172.16.20.165 TCP_MISS/206 1315 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.492     15 172.16.20.165 TCP_MISS/206 4544 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229172.543     50 172.16.20.165 TCP_MISS/206 1145 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.283     16 172.16.20.165 TCP_MISS/206 1287 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.290     23 172.16.20.165 TCP_MISS/206 1800 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.347     63 172.16.20.165 TCP_MISS/206 3836 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.347     57 172.16.20.165 TCP_MISS/206 3097 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.397     49 172.16.20.165 TCP_MISS/206 1131 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.645     14 172.16.20.165 TCP_MISS/206 7159 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream
1432229173.650     13 172.16.20.165 TCP_MISS/206 4524 GET http://llnw.blizzard.com/tpr/d3/patch/88/f6/88f62cb4d073b55d0393ee1213d11a06 - FIRST_UP_PARENT/127.0.0.1 application/octet-stream

20 April 2015

Was ist ein "Vernünftiger Zweifel" in einem Strafprozess?

Habe Freundin, die Juristin ist, gefragt, was "kein vernünftiger Zweifel" ist. Das was ich als Mathematiker hören wollte, eine Zahl zwischen 0 und 1 für die akzeptable Wahrscheinlichkeit einer Bestrafung eines Unschuldigen, habe ich nicht bekommen. Sie fing dann davon an, das es so was nicht geben dürfe. Wenn ein Zweifel besteht, müsse Freigesprochen werden. Das ist aber so Unfug.

Warum? Für eine Bewertung einer Erkenntnislage muss ich alle theoretisch mögliche Erklärungen auf ihre Plausibilität gewertet werden. Wenn ich nun festlege, das gar keine Fehler möglich sind, dann muss jede noch so Unwahrscheinliches entlastendes Szenario herangezogen werden. Beispiel: Es liegt eine Delikt vor, eine mit dem Angeklagten identische DNA wurde am Tatort gefunden, der Angeklagte hätte sich am Tatort nicht aufhalten dürfen. In der Justizpraxis an sich ein Glasklarer Fall. Oder?

Zum einen können die Spuren von einem Täter mit Forensik Kenntnissen gelegt wurden sein. Zum einen, um seinen Sündenbock für die Tat zu haben, oder um den Angelklagen gezielt zu diskreditieren. Zum anderen können die Spuren auch normal entstanden sein, der Täter aber ein eineiiger Zwilling verübt worden sein. Es haben schon erwachsene Menschen feststellen müssen, das Sie einen eineiigen Zwillings-bruder oder -Schwester haben. Ohne durch Aussagen von Ärzten und Auswertung von Medizinischen Unterlagen den Beweis anzutreten, das ein Mensch kein Zwillingsbruder hat, kann die Signifikanz eines "DNA Beweis" nach den Gesetzen der Wahrscheinlichkeitstheorie nie höher sein als die Wahrscheinlichkeit das eine Person kriminell ist multipliziert mit der Anzahl der Fälle "Habe Festellen müssen ich habe einen Zwilling" geteilt durch die Anzahl der Menschen auf der Welt. Da ich in verschiedenen Publikationen von wiedergefundenen Zwillingen gelesen habe, dürfte diese Signifikanz mit einer Größenordnung von 500 000 000 : 1 bewertet werden. Das ist deutlich weniger als die Werte die such aus einer Zufälligen Übereinstimmung bei Unabhängigen Zeugungen ergibt, die Regelmäßig bei 300 000 000 000 000 000 000 000 liegt.

Würde also die Wahrscheinlichkeit für eine Verurteilung eines Unschuldigen auf weniger als 1 zu 1 000 000 000 festgelegt, dann würden ein DNA Beweis alleine wegen der Zwillingsoption nicht ausreichen. Von der Fälschung einer Spur wurde dabei gar nicht drüber geredet.

Ein solche Grenzvorgabe wären wichtig, weil damit eine quantitative Bewertung in die Rechtsprechung einführen würde. Damit müsste jedes Verfahren eine Wahrscheinlichkeit des Irrtums- durch zufällige Übereinstimmung - liefern. Und das ist Wichtig. Das FBI hat Jahrzehnte Lang sogenannte Haarvergleiche durchgeführt. Dabei wurde aber nicht geprüft, wie groß die Aussagekraft einer vermeidlichen Übereinstimmung ist. Dadurch kam es zu einer massiven Häufung von Fehlurteilen:

FBI und Justizministerium haben laut Washington Post bislang 268 Gerichtsurteile untersucht, in denen die FBI-Forensiker eine Haaranalyse vorlegten. Die Ergebnisse sind erschütternd:

In 95 Prozent dieser Fälle war die Haaranalyse fehlerhaft.
32 Angeklagte wurden unter anderem wegen fehlerhafter FBI-Gutachten zum Tode verurteilt. 14 von ihnen wurden hingerichtet oder sind im Gefängnis gestorben.
26 von 28 Forensikern haben fehlerhafte Gutachten geschrieben.

Die Gerichtsurteile stammen aus den Jahren 1985 bis 2000. Insgesamt sollen 2500 Gerichtsurteile untersucht werden.


Eine Numerische Definition der Irrtumswarscheinlichkeit hätte aber weiterreichende Konsequenzen für Staatliches Handeln. Das FBI hat die Methodik ohne Absicherung durch weiterführende Analysen trotz bekannter Zweifel weitergeführt. Das bedeutet also das unzureichendes Handeln des Staates per se für sich genommen zu einem Fehlurteil führt. Wäre also das Produkt aus der zu zulässigen Fehlerwahrscheinlichkeit mal Anzahl der Verfahren in einem Analysezeitraum der lang genug ist größer als die Zahl der erwiesenen Fehlurteile, so wäre nur aus der Ursache des schlampigen Handelns des Staates eine "In Dubio pro Reo" Freispruch fällig. Mit anderen Worten, eine Generalamnestie mit einem Kompletten Neustart des Justizapparates.

Es ist höchste Zeit, das Warscheinlichkeitstheorie bestandteil der Juristischen ausbildung wird.