24 Oktober 2014

Probleme mit Datenspeichern und Garantieleistungen.

Meine erste Festplatte mit eingebauten Controller wie es bei ATA, SATA, SCSI und ähnlichen Architekturen üblich ist, hat von 1991 bis 2006 im Dauerbetrieb gehalten. Das war noch echte Qualitätsarbeit. Heutzutage habe ich das Problem, das ich es kaum mehr schaffe den gesamten Datenbestand synchron zu halten. Ursächlich dafür ist eine viel zu hohe Ausfallrate. Das Festplatten kaum noch die 2 Jahre Garantie im Dauerbetrieb überstehen ist das eine, aber das SSD schon nach weniger als 100 Tagen in die Grütze gehen, das zerrt an den Nerven. Das ist auch kein Einzelfall, ich weiß von einem Kunden das er seinen PC kurz 3 Mal kurz hintereinander mit je neuen SSD wieder aufsetzen musste.

Der Gesetzgeber will Konsumenten vor allzu mangelhaften Produkten schützen. Das machen sie, indem Sie eine Garantieren der Hersteller europaweit eingeführt haben. Zwei Jahre Lang läuft die Garantie innerhalb derer der Lieferant Ersatz leisten muss. Innerhalb des ersten viertel Jahr muss im Streitfall der Hersteller beweisen, das das Produkt wegen unsachgemässer Handhabung ausgefallen ist, danach muss der Konsument beweisen, das der das Produkt sachgemäß benutzt hat und es dennoch vorzeitig ausgefallen ist. So weit so Gut. Bei einem defekten Eierkocher tauscht der Konsument das Gerät beim Händler um, und gut ist es.

Problem: Nebenkosten des Austausches


Viele Konsumenten haben aber das Problem, das sie gar nicht in der Lage sind, einen Datenträger auszutauschen. Dann muss das betreffende Betriebssystem wieder aufgespielt werden. Für etliche Konsumenten ein Haariges Problem, für das sie einen externen Experten zu rate ziehen und bezahlen müssen. Oder wenn der Datenträger Bestandteil eines Computers ist und ausfällt, dann wird der Computer wieder vom Händler wieder in den Ausgangszustand zurückversetzt. Wenn das Sachgemäß gemacht wird, dann muss der Konsument seine Sicherheitskopien einspielen. Wir nehmen jetzt mal an, das diese existieren - was bei weiten nicht der Fall ist. Auch das ist nicht so ganz easy und bedarf des öfteren mal externe Hilfe.

Problem: Zeit die zum Recover gebraucht wird


Auch nimmt das zurück landen der eigenen Daten eine nicht unerheblich Zeitspanne in Anspruch. Das gilt insbesondere bei der Nutzung von Onlinebackups. Diese sind zwar sehr benutzerfreundlich. Man muss keinen Strom für eigene Infrastruktur aufwenden. Ein Hintergrundprozess schaufelt die Daten, wenn sonst nichts anliegt, über die Internetleitung auf einen Backupserver. Normalerweise erzeugen Benutzer wenig Daten, so das die Leitung locker ausreicht die Daten zu übertragen. Selbst eine kleine billige Platte hat heute 400GByte, grösse sogar 4000GByte. Nehmen wird an, das die Platte zu 50% gefüllt ist. Will mann 2000GByte aus dem Internet Zurück laden, dann dauert das bei einem 50MBit VDSL Anschluss stolze 4 Tage in denen die Internetleitung verstopft ist und man nicht Arbeiten kann, weil der Recovery läuft. Das gilt aber nur für den Fall, das der Nutzer noch einen der alten unlimitierten DSL verträge hat. Wenn z.B. nach 100Gbyte im Monat ab geregelt wird. dauert es 20 Monate, also ein Jahr und 8 Monate. Da kann es einen Passieren, das die Festplatte in der Zwischenzeit wieder ausfällt. Alternativ muss der Nutzer Extratraffic beim ISP einkaufen.

Problem: Strom für Lokale NAS oder sonstige Backups


An einem Lokalen Backup Speicher geht so kein Weg vorbei. Bei einem Sogenannten NAS wird ein Spezieller Computer in einen anderen Raum aufgestellt, der über LAN zu erreichen ist. Mit solch einem System ist der Gleiche Komfort wie mit der Lösung im Intern möglich - wenn man man davon Absieht das man sich selber um Monitorring und Wartung des Gerätes kümmern muss. Der Nutzer der Datenspeicher brauchen noch einen Arbeitstag zum zurück transferieren. Mit einem erheblichen Ausfall an Arbeitszeit ist also in jedem Fall zu rechen, wenn der Kunden nicht auf eine hochverfügbare Lösung setzt. Diese braucht aber erheblich mehr Strom, weil die Komponenten mehrfach vorhanden sein müssen. Werden Mobile Geräte wie Laptops verwendet, ist es nicht immer möglich mehrere Festplatten zu verbauen. Fast alle Geräte sind verfügen über nur einen Diskslot, weil der Stromlaufzeit über die Akkulaufzeit von besonderer Bewandtnis ist. Hochverfügbarkeit ist also auch nur in Rechenzentren welche als Großkunden einen preiswerten Zugang zu Strom haben eine einfache Lösung.

Problem: NSA, GHQC & Co


Die Aktivitäten der NSA sind ein Übel für sich. Erhält der Hersteller ein defektes Laufwerk zurück, um das Problem zu erkennen, dann kann er unter Umständen eine Komplette Kopie der Festplatte erhalten, wenn es gelingt das Gerät instand zu setzen. Aus diesem Grund ist zu erwarten, das in der Garantieabwicklung von Laufwerkshersteller sich gesox dieser Organisationen abhängen.

Wegen der Berichte vom Abfangen von Hardware und entsprechenden ersetzen durch manipulierte Produkte ist sogar zu befürchten, das es zu den Praktiken gehört defekte Datenträger in Umlauf zu bringen, die nach einer bestimmten Zahl von Zugriffen oder nach einer bestimmten Zeit einfach so tut, als wäre das Teil defekt. Damit wäre das beschaffen einer kompletten Kopie der Daten auch von super hart geschützten Zielen möglich. Kaum denkbar, das sich die Datengeier so eine Option entgehen lassen.

In jedem Fall muss ein Nutzer entscheiden, ob er seinen Garantieanspruch aufgibt, oder aber ob alle seine Schlüssel und Passworte verbrannt sind. Das kann zu einem erheblichen Mehraufwand für die Reparatur eines defekten Datenträgers darstellen, der Extra in Ansatz zu bringen ist. Dieses Problem ergibt sich auch bei hochverfügbare Lösungen wie Raid 1 5 oder 6.

Problem: Markenbewusstsein bringt nichts


Man wird jetzt anführen: Kaufen sie nicht einfach den billigsten Mist, dann halten die Datenträger auch länger. Kaufen sie nur Marken, die Sie kennen. Meine eigene Berufliche Praxis zeigt, es bringt nichts außer das man Abgezockt wird. Die Hersteller schieben immer wieder Herstellungen hin und her, kaufen ganze Firmen auf und verkaufen die Produkte unter dem eigenen Namen. Das führt dann dazu, das der eine Plattentyp hervorragend ist, der andere aber neuwertiger Schrott. So haben ich 2TByte platten nach dem Herauskommen gekauft, die heute noch gehen. Später vom selben Hersteller unter dem gleichen Label gekaufte 3Tbyte Platten sind schon innerhalb der Garantiezeit kaputt.

Hinzu das kriminelle Händler ziemlich einfach billigen Ramsch kaufen können und als vorgeblich hochwertige Ware verkaufen können. Die Mehrzahl der Nutzer braucht nur einzelne Datenträger, so das sie keine Chance haben zu erkennen, das Sie Geld für nichts zum Fenster raus werfen.

Wie könnte man Produkt Hersteller dazu bringen, mehr auf Qualität zu achten?


Mit der geltenden Garantie Gesetzgebung ist das jedenfalls offensichtlich nicht mehr der Fall. Ausschlaggebend ist unter anderen der Preisverfall der einzelnen Geräte. Um das zu Ändern müsste entweder ein Nutzer eines solchen Produkts nicht nur einen Anspruch auf Austausch oder eine Reparatur haben, sondern eben auch auf Ausgleich für die entstandenen Nebenkosten. In manchen Industrien, die sich durch ein hohes Qualitätsniveau auszeichnen, ist das schon heute auf freiwilliger Basis der Fall. So geben heute Autokonzerne schon heute "Mobilitätsgarantien". Das bedeutet, das dem Kunden während einer Reparatur oder Wartung sofort ein Ersatzfahrzeug gestellt wird und so die Funktion des Produkts auch bei Ausfall fast ununterbrochen bestehen bleibt.

Dem Hersteller von Datenträgern zur Übernahme der Individuellen Mehrkosten des Kunden zu zwingen, ist aber grob unfair, weil der Hersteller keine Kontrolle darüber hat, in welchen Kontext seine Produkte Eingesetzt werden. Damit könnten die Kosten für einen Ausfall jede Grenze übersteigen, insbesondere diejenigen, welche eine hochverfügbare Lösung erfordern werden.

Problemlösung Pauschaler Schadensersatz


Würde man aber bei Produkten deren Ausfall für die Volkswirtschaft sind eine pauschale Schadensersatzzahlung festlegen, so würden die Hersteller zu einem sorgfältigeren Umgang mit der Qualität ihrer Produkte zwingen. Denn diese fahren in aller Regel einen statistischen Ansatz zur Optimierung des Gewinns. Werden Fehler teurer für das Unternehmen, liegt das Optimum bei qualitativ hochwertigeren Produkten. Damit steigt auch das Preisniveau etwas an, aber nicht viel, weil die Konkurrenz in diesem Bereich richtig hart ist.

Auf der anderen Seite steigt die Qualität wieder so weit an, das nicht mehr so viele Instanzen für Redundanz nötig sind. Bis jetzt hielt ich drei über LAN und WAN vernetzte Speicherungen für das Minimum für eine einigermaßen sichere Speicherung von Daten zu gewährleisten. Wie ich aufgrund der Erfahrung mit den eigenen Daten sagen kann, ist das in Zukunft nicht mehr zu halten. Von den drei Instanzen hatte ich jetzt nur noch eine die Intakt war. Meine neueste Installation für Kunden hat jetzt 2 x Raid1 über LAN + 1 Instanz über WAN. Nur das alles kostet Strom ... und der macht CO2 Ausstoß. Trotz Modernisierung.

Problemlösung Notar


Was das Problem mit NSA & Co lässt sich nur dadurch in den Griff bekommen, das bei einem Garantiefall nur eine Bescheinigung eines Notars einzuholen ist, das das Produkt einen Defekt hat. Der Hersteller darf aber nicht mehr das Recht haben, für das neue Produkt im Austausch das defekte Produkt zurückzuerhalten, damit der Nutzer seine Daten durch eine Vernichtung seines Vertrauens schützen kann. Alles andere ist nicht zumutbar, jedenfalls so lange bis den Geheimdiensten akzeptable Schranken auferlegt wurden.

Keine Kommentare:

Kommentar veröffentlichen