Zahlen, Restrisiko und die Zuverlässigkeit technischer Systeme ...
Hallo ins Forum:
Leider fallen Ereignisse, die hochemotional diskutiert werden, immer wieder in Zeiten, in denen eine sachliche Diskussion in den Hintergrund gerät - seien es nun Bundestagswahlen, seien es Landtagswahlen.
Ich daher versuchen, einige Punkte möglichst ohne Emotionen zu schildern. Zum Thema Stromerzeugung gibt es vom Statistischen Landesamt Baden-Württemberg 2010 folgende Zahlen für die Stromanteile 2009 (Zahlen gelten für BaWü - Danke für Hinweise an ibmthink - hatte den Zusatz vergessen):
- Kernkraft 52%
- Steinkohle 23%
- Erdgas 5%
- Energie aus erneuerbaren Energieträgern 15%
-- Steigerung von 2008 zu 2009 von 14% auf 15%
--- Photovoltaik +44%
--- Biomasse +9%
--- Windkraftanlage -11%
--- regenerative Wasserkraftanlagen -5%
Soweit die Zahlen zum Thema Strom.
Mich bewegt - oder wundert, bei der gesamten Diskussion immer das Thema "Sicherheit" bzw. "Risiko". Es gibt kein technisches System, das 100% sicher ist bzw. bei dem es kein Risiko gibt (bitte korrigiert mich, wenn Ihr ein derartiges System kennt). 100%ige Sicherheit würde bedeuten, dass das Ereignis "Risiko" im Sinne der Wahrscheinlichkeitstheorie das "unmögliche Ereignis" mit der Wahrscheinlichkeit 0 darstellen würde. Wer sich einmal mit Methoden befasst hat, die z.B. im Ingenieursbereich dazu verwendet werden, Systemrisiken zu minimieren (FMEA, FTA, DoE, ...), der wird feststellen, dass es ein "Risiko = 0" nicht gibt.
D.h. es gibt immer eine Abwägung, ob man bereit ist, ein Risiko zu tragen oder auf Dinge zu verzichten und durch den Verzicht das Risiko zum "unmöglichen Ereignis" zu machen.
Auf "unseren" Bereich bezogen (unser = IT, Software), müssen wir uns bewusst sein, dass wir Systemen vertrauen, von denen wir wissen(!), dass sie fehlerhaft sind. Und diese Systeme steuern nicht nur Kraftwerke, sondern prägen auch unseren ganz normalen Alltag (von den Steuergeräten in Fahrzeugen bis hin zu Systemen in Flugverkehr, im Finanzwesen oder in der Medizintechnik).
Zuverlässigkeit in technischen Systemen bedeutet Restrisiko, das, auch wenn es minimal ist, immer > 0 ist. Kein Ingenieur, kein Informatiker wird wissentlich (hoffe ich zumindest), ein System bauen oder entwickeln, dass fehlerbehaftet ist. Er wird versuchen, die Fehler zu vermeiden. Ich gehe davon aus, dass sich hier im Forum auch einige Kollegen befinden, die Systeme bauen oder entwickeln. Und - wir versuchen Fehler zu eliminieren, indem wir Systeme testen. Aber jeder Test ist nur in der Lage festzustellen, ob ein System für den konkreten Testfall ein iO oder niO liefert - mehr nicht. In der Informatik gibt es theoretische Ansätze, die darauf abzielen, Fehler nicht nur zu minimieren, sondern Fehlerfreiheit i.S. der mathematischen Logik zu beweisen (z.B. VDM - Literatur: Bjorner & Jones: Formal Specification & Software Development). Faszinierend, aber für die Praxis hinsichtlich des Aufwands nur bedingt tauglich. Selbst wenn ein System, bzw. der Programmcode eines Systems, formal fehlerfrei ist, dann muss dieses System immer noch compiliert werden, dann muss dieses System immer noch auf einem Zielsystem ablaufen. Würde aber erfordern, dass Compiler, dass Betriebssystem und alle weiteren Komponenten ebenfalls fehlerfrei (d.h. die Fehlerfreiheit wurde bewiesen - nicht getestet) sind. Die Komplexität dieser Tatsache wäre - theoretisch - zu bewältigen. Aber der Aufwand (= Kosten) würde den Rahmen des Tragbaren sprengen.
Also, wenn Ihr heute ins Auto, in die Bahn oder in ein Flugzeug steigt, dann vertraut Ihr darauf, dass das jeweilige System "sicher" ist.
In diesem Sinne, für Euch einen schönen Tag.
Grüße, Ingolf.
P.S.: Bzgl. der Sicherheit bzw. des Restrisikos empfehle ich Euch "Lauren Ruth Wiener, Digitales Verhängnis". Ist zwar schon ein wenig älter, zeigt aber auch, dass es Fehler gibt, von denen wir heute(!) vielleicht meinen, "das hätte man doch entdecken können". Und gerade diese Fähigkeit sollte den Menschen auszeichnen - Dummheit bedeutet nicht keine Fehler zu machen - Dummheit bedeutet aus Fehlern nichts zu lernen.