Kommentar zur Nutzung des Begriffes „Sicher“ und Nichtnutzung des Begriffes „Risiko“ im Konzept zur Durchführung der vorläufigen Sicherheitsuntersuchungen
In einem vorherigen Kommentar hatte ich angemerkt, dass im Konzept „sicher“ 380mal auftaucht, „Risiko“ dagegen überhaupt nicht.
„Wahrscheinlich“, „Vorhersage“ kommen auch nicht vor, „Zuverlässig“ 1mal (Zitat aus dem StandAG).
Der Rahmen wird dagegen damit gesteckt: „Untersuchung“ 365mal, „Bewertung“ 125mal, „ungewiss, Ungewissheit“ 90mal, „Barriere“ 76mal, „Bedarf“ 72mal, „Erkundung“ 65mal, „spezifisch“ 60mal, „Aspekt“ 47mal, „wesentlich“ 39mal, „Relevanz, relevant“ 38mal, „Eignung, geeignet“ 31mal, „umfassend“ 22mal, „Prioritäten, Priorisierung“ 19mal, usw.
In anderen Bereichen der geologischen Exploration sind der richtige Umgang mit Risiko und Wahrscheinlichkeit die Grundlage dafür, nicht insolvent zu werden, und keine Schäden zu verursachen. Wenn dabei Mängel auftreten, erscheint man in den überregionalen Nachrichten.
Deshalb hatte ich in einem vorherigen Kommentar ein Beispiel aus der Kohlenwasserstoffindustrie zur Illustration für die Verwendung von Wahrscheinlichkeiten genutzt. Je nach Vorwissen kann die Relevanz dieses Beispiels für die Kommentierung des Konzepts möglicherweise nicht direkt nachvollzogen werden. Ich möchte es deshalb erläutern.
Das Beispiel war: Um ein Ölfeld zu finden, und mit der Förderung des Öls Geld zu verdienen, werden folgende Einflussfaktoren (vereinfacht dargestellt) genutzt:
Eine Struktur im Untergrund, in der sich das Öl fangen kann, ein Speichergestein, in dem das Öl lagert, eine Abdeckung, die verhindert, dass es zur Oberfläche der Erde entweicht, ein Muttergestein, was das Öl produziert hat, die richtige Reihenfolge der Abläufe (die Struktur war vorhanden, als das Öl gebildet wurde), und die Möglichkeit, mit der Förderung Geld zu verdienen.
Es gibt also sechs Faktoren. Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft, und die Wahrscheinlichkeit dafür mit jeweils 0,8 annimmt (in 4 von 5 Fällen recht hat), dann liegt die Wahrscheinlichkeit, dass bei einem Versuch ein wirtschaftlich förderbares Ölfeld gefunden wird bei ungefähr 0,26 (0,8 x 0,8 x 0,8 …).
„Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft“ bedeutet dies, dass sie entsprechende Kenntnisse haben: harte Daten, Wissen, …
In der Regel zeigen die harten Daten, das Wissen etc. jedoch, dass die notwendigen Eigenschaften, ein Ölfeld zu finden sehr wahrscheinlich nicht vorhanden sind. Daraus ergibt sich dann die Begründung, warum dies eher kein Prospekt ist, was mit einer Bohrung getestet werden sollte.
Ohne Bohrung wird man zwar nicht sicher wissen, ob die Einschätzung stimmt, die Bohrung (teuer!) hat aber das hohe Risiko, nicht erfolgreich zu sein.
In der Präferenz ist dies sicher nicht eine Bohrung, die gegenüber einer anderen, die ein weniger risikoreiches Prospekt testen soll, vorgezogen wird.
Um so etwas ähnliches geht es im Konzept. Die BGE wird nicht die Hälfte der Bundesrepublik auf eine mögliche Eignung beurteilen können. Es müssen Präferenzen gebildet werden können.
Dabei können Fehler gemacht werden. In der Kohlenwasserstoffexploration kann man dies gut nachvollziehen, wenn in bereits mehrfach explorierten Gebieten mit neuen Erkenntnissen erfolgreich neue wirtschaftliche Lagerstätten gefunden werden. Jeder meinte zur jeweiligen Zeit, alles Notwendige für eine Beurteilung zu wissen.
Das Beispiel war zur Kohlenwasserstoffexploration war stark vereinfacht. Jeder der genutzten Faktoren setzt sich wiederum aus Faktoren zusammen. Desto vollständiger die Betrachtung aller vorhandenen Faktoren, desto zuverlässiger die Einschätzung des Risikos (kein Ölfeld zu finden).
Das könnte auch anders formuliert werden. Desto vollständiger die Betrachtung aller vorhandenen Faktoren, desto zuverlässiger die Einschätzung der Sicherheit (ein Ölfeld zu finden).
Übertragen auf das Konzept und Anlage 1 bedeutet dies, dass es vorteilhaft sein könnte, das Konzept von Risiko zu nutzen, so wie es in anderen geologischen Explorationsvorhaben genutzt wird.
Damit dieser Kommentar nicht missverstanden wird, hole ich etwas aus.
Risiko (damit es beim Lesen keine Mehrdeutigkeiten gibt) ist der Zustand der Unsicherheit, Ungewissheit, wo einige der Möglichkeiten einen negativen Einfluss auf die Erreichbarkeit der Ziele haben (Verlust, Katastrophe, oder andere unerwünschte Ergebnisse, beziehungsweise Ereignisse). Aus der Ungewissheit in einem bestimmten Sachverhalt kann ein Schaden entstehen. Grundsätzlich immer, und in seiner einfachsten Form, wird ein Risiko mit einer Gleichung beschrieben (es werden Zahlen verwendet):
Risiko = (Wahrscheinlichkeit des Auftretens von Schadensereignissen) x (Höhe des jeweiligen Schadens)
Die zwei grundsätzlichen Faktoren der Gleichung sind immer vorhanden: die Wahrscheinlichkeit des Auftretens der Schadensereignisse, und die Höhe der Schäden, die bei diesen Ereignissen auftreten.
Im Kontext der Endlagersuche sind Schäden Konsequenzen von Ereignissen, die verhindert werden sollen.
Die Einschätzung von sowohl der Wahrscheinlichkeit der Schadensereignisse, als auch von der Höhe der jeweiligen Schäden lässt sich in der Regel nicht mit einer einzelnen Zahl abbilden. Die möglichen Schäden haben unterschiedliche Größenordnungen. Deshalb werden für jeden Faktor Zahlenintervalle genutzt. Ein Schaden einer bestimmten Größe (Radionuklide in der Biosphäre) wäre ein Risiko, was nicht eingegangen werden darf.
Zahlen für die Wahrscheinlichkeit der Schadensereignisse (über die ganze Größenordnung möglicher Schäden) können ohne Nachforschen nicht zuverlässig einschätzt werden. Deshalb werden Modelle erstellt, und (soweit wie möglich) nachgeprüft.
Mit den beiden grundsätzlichen Faktoren (Schadensereignisse, Schäden) allein kann ein Risiko in der Regel nicht zuverlässig verstanden werden. Jeder dieser beiden Faktoren muss solange in seine einzelnen Faktoren weiter zerlegt werden, bis das Risiko nachvollziehbar eingeschätzt werden kann. Die Zerlegung ermöglicht, alle bekannten Faktoren in einem Sachverhalt (möglichst zuverlässig) zu berücksichtigen.
Ein Beispiel:
Der Faktor „Wahrscheinlichkeit von Schadensereignissen“ besteht aus zwei Faktoren: „Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen“ und „Verwundbarkeit“. Wenn die möglichen Schäden jemand nicht bedrohen, dann hat er kein Risiko. Wenn er durch diese Art von Schaden nicht verletzt werden kann, dann hat er kein Risiko.
Manchmal wird dies aber nicht genau gewusst.
„Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen“ und „Verwundbarkeit“ sind dann immer noch sehr zwei grobe, nur eingeschränkt nutzbare Faktoren. Die „Wahrscheinlichkeit des Auftretens von (irgendwelchen) Bedrohungsereignissen“ sagt nur sehr wenig darüber aus, wie man persönlich davon betroffen sein kann. Vielleicht kommen diese Ereignisse im Wesentlichen nur dort vor, wo man nicht ist.
Deshalb muss dieser Faktor weiter zerlegt werden. Vor einer Bedrohung betroffen zu sein, bedeutet, sich der Bedrohung bewusst (oder unbewusst) auszusetzen. In dem Moment, wo man (zum Beispiel) am Straßenverkehr teilnimmt, setzt man sich den dort vorhandenen Bedrohungen aus.
Auch der Faktor „Verwundbarkeit“ besteht aus mindestens zwei Faktoren. Zum einen ist da der Faktor, der die Fähigkeiten des Angreifers definiert, der einem einen Schaden zufügen könnte, und zum anderen ist da der Faktor, der die Schutzmaßnahmen beschreibt, die der Angreifer überwinden muss.
Möglicherweise sitzt man in einem modernen Fahrzeug mit den neuesten Sicherheitsvorkehrungen, um Bedrohungen der körperlichen Unversehrtheit durch andere Verkehrsteilnehmer möglichst erfolgreich abwehren zu können. Wenn man jedoch am Stau-Ende steht, und von hinter nähert sich ungebremst ein 40t LKW, dann werden die Sicherheitsvorkehrungen des PKWs sicher überwunden werden.
Auf der Autobahn kann man einem Stau-Ende nur ausweichen, indem man vorher irgendwo anders anhält, oder rechtzeitig eine Ausfahrt nimmt.
Damit mit diesen Faktoren Berechnungen gemacht werden können, müssen ihnen Wahrscheinlichkeitswerte in Zahlen zugeordnet werden.
Wie geht man nun bei der Bestimmung der Höhe der jeweiligen Schäden vor? Eine Unterteilung in direkte und indirekte Schäden schafft mehr Klarheit.
Direkte Schäden sind die, die einem selbst zugefügt werden, und die man selbst beseitigen muss und kann. Dies sind Schäden, bei denen man weitgehend selbst bestimmt, wie man damit umgeht.
Indirekte Schäden entstehen, wenn zusätzlich auch andere Parteien tätig werden, die in das Schadensereignis involviert sind. Zusätzlich zur Beseitigung des Schadens muss auch noch eine Strafe bezahlt werden.
Dies sind Schäden, bei denen andere Parteien bestimmen, wie die behoben werden müssen. Es empfiehlt sich deshalb, diesen Faktor weiter zu erlegen: in den Anteil der Schadensereignisse, die indirekte Effekte haben und die Schadenshöhen, die durch zusätzlich involvierte Parteien entstehen können.
Damit gerechnet werden kann, müssen diesen Faktoren Werte in Zahlen zugeordnet werden.
Oft ist man unsicher, welches Zahlenintervall den Sachverhalt zuverlässig beschreibt. Aber genau deswegen macht man das ja. Man überlegt sich das Zahlenintervall, das mögliche Werte abbildet, so, wie sie auch in der Wirklichkeit vorkommen (können). Sehr weite Intervalle zeugen von wenig genauem Wissen und viel Unsicherheit, enge Intervalle drücken sehr viel Wissen und meist wenig Unsicherheit aus.
Wichtig ist zunächst, ob man versteht, wie häufig Schäden auftreten können, und was passiert, wenn ein Schadensfall eintritt. Man will sich sicher sein, dass man dieses Risikos bewältigen kann.
Dies wird nicht immer zur Zufriedenheit aller Beteiligter gelingen. Jedoch ist jeder halbwegs zuverlässig eingeschätzte Sachverhalt, und jeder dadurch vermiedene Schaden, ein Gewinn.
Ein einfaches Beispiel:
Die bis jetzt entstandene Schadenshöhe für einzelne Hersteller, die als Ergebnis der Softwaremanipulation bei Dieselpersonenkraftwagen entstanden ist, ist ungefähr bekannt.
Das vorher vorhandene Risiko für einen Hersteller dieser Fahrzeuge ist:
Mehrere Millionen dieser Fahrzeuge fuhren überall auf der Welt herum. Jedes Fahrzeug hatte in sich fest eingebaute Hardware mit Software als ein gerichtsverwertbarer Nachweis, dass gegen geltende rechtliche Bestimmungen verstoßen wurde.
Betrachtet man zunächst die Wahrscheinlichkeit, dass ein Schaden eintritt. In diesem Fall ist das Schadensereignis, dass jemand die Softwaremanipulation entdeckt, nachweist, und dann mit dieser Information handelt.
Die Wahrscheinlichkeit von Bedrohungsereignissen erscheint gering, da die möglichen Hacker das notwendige Knowhow haben müssen. Außerdem müssen sie Zeit und Geld investieren, um an die entsprechenden Systeme, und damit an gerichtverwertbare Nachweise der Manipulation heranzukommen. Die Verwundbarkeit des Herstellers ist jedoch sehr hoch, weil jedes Fahrzeug mit einem solchen Nachweis herumfährt.
Die Wahrscheinlichkeit von Bedrohungsereignissen setzt sich zusammen aus: der Wahrscheinlichkeit, dass der Hersteller von einem Bedrohungsereignis selbst betroffen ist, und der Wahrscheinlichkeit, dass er die Bedrohung erfolgreich abwehren kann.
Die Wahrscheinlichkeit, dass er von einem Bedrohungsereignis selbst betroffen ist, erscheint sehr gering, da mögliche Hacker viele Fahrzeugtypen und Hersteller zu Auswahl haben, und sie mehr dazu brauchen, als nur ein Notebook mit Internetanschluss. Es gibt attraktivere Ziele für Hacker, mit denen leichter Geld zu verdienen ist.
Andererseits gibt es unterschiedliche Arten von Hackern. Manche arbeiten lediglich daran, Sicherheitslücken und andere Softwaredefizite aufzudecken, um Schäden durch kriminelle Elemente zu verhindern.
Die Wahrscheinlichkeit, dass der Hersteller die Bedrohung erfolgreich abwehren kann, ist verschwindend gering, da der Nachweis in jedem Fahrzeug vorhanden ist, und der mangelhaft authentifizierte und unautorisierte Zugang zu diesen Informationen und Nachweisen für technische Experten möglich ist. Bei Automobilkomponenten handelt sich um industrielle Massengüter an deren Gestaltung und Herstellung eine Vielzahl unterschiedlicher Personen beteiligt sind. Zudem gibt es Standards, damit unterschiedliche Zulieferer preisgünstige Komponenten anbieten können.
Faktoren der Verwundbarkeit sind die Fähigkeiten des Angreifenden und die Schutzmaßnahmen, die der Angreifer überwinden muss. Technische Experten mit unterschiedlichsten Interessen gibt es in allen Teilen der Welt. Sowohl die Hardwarekomponenten der Fahrzeuge, als auch die Fahrzeuge mit der darauf installierten Software sind fast überall auf der Welt frei verfügbar.
Die Schutzmaßnahmen können nicht unüberwindbar sein, da ein Fahrzeug nach der Herstellung durch unabhängige Dritte gewartet werden können muss, Software Updates eingespielt werden können, und weitere Arbeiten am Fahrzeug vorgenommen werden müssen.
Zudem kann man sich ein Fahrzeug besorgen und mit aller Zeit der Welt ausprobieren, wie die Fahrzeugsoftware auf äußere Umstände reagiert.
Direkte Schäden bedeuten, dass auf Kosten des Herstellers nachgebessert werden muss, die Reputation und der Wettbewerbsvorteil leiden, der Absatz möglicherweise zurückgeht, und vieles andere mehr.
Indirekte Schäden sind der Anteil der Ereignisse, die indirekte Effekte haben, und die Schadenshöhen, die dadurch entstehen. Die Klagemöglichkeiten sind je nach Ort der Gerichtsbarkeit auf der Welt sehr unterschiedlich. Die in unterschiedlichen Ländern jeweils zuständigen Behörden haben teilweise eine große Macht, erfolgreich riesige Strafzahlungen zu fordern, vor allem, wenn das schuldige Unternehmen dies wirtschaftlich verkraften kann. Massenhafte (zumindest teilweise erfolgreiche) Klagen von Einzelpersonen waren auch zu erwarten.
Man kann nun überall Zahlenintervalle (Wahrscheinlichkeiten, Eurosummen) einsetzen, die die Unsicherheit eines der oben spezifizierten Faktoren ausdrücken. Als Ergebnis erhält man eine Spannbreite der Wahrscheinlichkeit des Auftretens von möglichen Schadensereignissen, und der Höhe der Schäden, die jeweils dabei auftreten.
Man wird leicht zu dem Ergebnis kommen, dass es sehr unwahrscheinlich ist, dass kein Schaden eintritt. Zudem wird die Schadenshöhe in keinem Fall niedrig sein. Wie sich in Gerichtsverhandlungen herausgestellt hat, war dieses Risiko beim Hersteller bekannt. (Allerdings nicht das Ergebnis der Risikoeinschätzung.)
Beim Hersteller handelt es sich um Personen, die eine Leitungsverantwortung in den Unternehmen haben (Weisungsbefugnisse). Oft ist nicht hinreichend eindeutig festgelegt, wer genau was darf, so dass es dazu ein eigenes Forschungsgebiet gibt, wo die strukturelle Verantwortungslosigkeit in Systemen (Verantwortungsdiffusion) analysiert wird.
Welches allgemeine Risiko existiert bei der Einlagerung von hochradioaktiven Abfällen in Deutschland? Wenn man die fünf allgemeinen Faktoren von oben nutzt:
1. Die Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen: Gefährliche Radionuklide treten aus dem eingelagerten hochradioaktiven Abfall aus, und verschaffen sich einen unkontrollierten Zutritt zur Biosphäre. Es entsteht ein Schaden an dem Ort, wo eingelagert wurde.
2. Die Fähigkeiten des Angreifers, der einem einen Schaden zufügen könnte: Die Geologie zeigt auf, dass sich alles mit der Zeit ändert, nichts statisch ist, und im Untergrund chemische und physikalische Gesetzmäßigkeiten wirken, die dazu führen können, dass der Schaden eintritt.
3. Die Schutzmaßnahmen, die der Angreifer überwinden muss: Das sind die Eigenschaften des geologischen Endlagers, die einen Schaden zuverlässig verhindern.
4. Direkte Schäden: Das ist das selbstbestimmte Umgehen Deutschlands mit Schäden im eigenen Land, fehlende Reversibilität (ein Schaden kann nicht einfach beseitigt werden).
5. Indirekte Schäden: Das ist die Höhe der Ausgleichszahlungen für Schäden. Die sind zurzeit keiner vorhandenen Kontrolle unterworfen.
Indirekte Schäden (5.) sind hier nicht zu erwarten. Durch die Gesetzgebung ist geregelt, dass man als Bürger Deutschlands die Endverantwortung hat. Die Ausübung dieser Verantwortlichkeit ist über die öffentliche Verwaltung Deutschlands an die Bundesgesellschaft für Endlagerung delegiert. Das Bundesamt für die Sicherheit der nuklearen Entsorgung nimmt die Aufsicht war. Wenn es nicht funktioniert, tragen alle Bürger (beziehungsweise ihre Nachkommen) die Verantwortung für die Beseitigung des Schadens. Es gibt keinen externen solventen Betreiber, der den hochradioaktiven Abfall nach (zum Beispiel) 200 Jahren wieder auf seine Kosten birgt, weil die jetzt gewählte Lösung nicht funktioniert hat.
Weder direkten noch indirekten Schäden kann ausgewichen werden. Laut Gesetz sind Schäden in der Biosphäre durch den unkontrollierten Zutritt von Radionukliden aus hochradioaktivem Abfall so hoch, dass dies für den Zeitraum der nächsten 1 Million Jahre verhindert werden soll.
Dies bedeutet nicht, dass Deutschlands Nachbarländer in diesem Sachverhalt die gleichen Ansichten haben, oder haben müssen.
Der Fokus der Analyse liegt daher auf dem Faktor: „Wahrscheinlichkeit von Schadensereignissen“. Mögliche Schadensereignisse sind bekannt. Deshalb adressiert die Suche nach einem Endlager für hochradioaktive Abfälle im Wesentlichen den Faktor Verwundbarkeit: Kann das Endlager undicht werden, und Schäden verursachen?
Der Faktor muss mindestens in zwei Faktoren zerlegt werden: die chemischen und physikalischen Gesetzmäßigkeiten, die einen Schaden auslösen können, und die Schutzmaßnahmen, die die Auslösung eines Schadens verhindern.
Die chemischen und physikalischen Gesetzmäßigkeiten, die einen Schaden auslösen können, können nachvollzogen werden. Man weiß, dass die Erde kein statisches Gebilde ist. In dem Moment, wo man etwas tun, erfolgt eine Reaktion. Es gelten die Gesetzmäßigkeiten, wie man sie aus den Naturwissenschaften kennt.
Die sind aber nicht alle auch jetzt schon bekannt.
Hier ist es so, dass hochradioaktiver Abfall in ein natürliches Gestein eingelagert wird. Radionuklide aus dem Abfall sollen nicht im Zeitraum der nächsten 1 Million in die Biosphäre gelangen.
Die vorgesehene Lösung ist eine Einlagerung in der Erdkruste. Dort sind Flüssigkeiten vorhanden (wenn auch zum Teil in verschwindend geringen Mengen). Der Abfall und der Abfallbehälter sind zu einem gewissen Grad (über geologische Zeiträume) löslich, und wässrige Lösungen tauschen sich so lange aus, bis (temporäre) Gleichgewichte einstellen.
In einem Endlager haben Sie sehr viel Zeit dazu.
Dieser Faktor wird (hoffentlich) bei der Erforschung des Risikos durch die Nutzung dynamischer Modelle adressiert. Dort wird für ein Wirtsgestein mit spezifischen Eigenschaften im Hinblick auf eine Einlagerungskonzept analysiert, und es wird simuliert, was über welchen Zeitraum wie geschehen könnte. Es gibt bereits erste rudimentäre Modelle mit einer sehr eingeschränkten Qualität der Darstellung.
Die Wahrscheinlichkeit, dass die Naturgesetze (chemische und physikalische Gesetzmäßigkeiten) nicht außer Kraft gesetzt werden, ist sehr, sehr hoch. Der Faktor „Verwundbarkeit“ ist eindeutig nachvollziehbar vorhanden.
Um die Wahrscheinlichkeit des Auftretens eines Schadens gering zu halten, und weil jeder potentielle Schaden hoch ist, muss der Faktor „Schutzmaßnahmen“ daher durch Maßnahmen sehr, sehr gut bestimmt werden: ein Standort mit der bestmöglichen Sicherheit.
Um diesen Faktor richtig zu verstehen, muss er so lange in weitere Faktoren zerlegt werden, bis er verstanden worden ist, und quantitativ dargestellt werden kann.
Bis jetzt konnte anhand von existierenden Daten unterschieden werden in: Gebiete, wo so viele Daten und Interpretationen vorliegen, dass sie schon jetzt sicher als ungeeignet bewertet werden können, und Gebiete, wo dies nicht der Fall ist.
Diese verbleibenden Gebiete werden untersucht.
(Wenn hinreichend zuverlässige Daten zu den Kriterien vorliegen, die anzeigen, dass ein bestimmtes Gebiet nicht geeignet ist, wird es nicht weiter untersucht.)
Ein Beispiel:
In der Vergangenheit standen Salzstöcke (steilstehendes Salzgestein) im Fokus der Erkundung (Gorleben). Sie sind einfach zu finden und haben einige Vorteile. Es lassen sich kostengünstig große Hohlräume schaffen, deren Einsturzgefahr bei geeigneter Gestaltung gering ist. Zudem ist Salzgestein oft relativ trocken (zumindest dann, wenn die Einlagerung beginnt). Es gibt große, relativ homogene Bereiche. Dies wird an vielen Stellen in Deutschland gezielt genutzt, sowohl um eine bestimmte Art von Salz abzubauen, als auch um danach dort etwas einzulagern, wie (zum Beispiel) Erdgas oder Sonderabfälle.
Seit über 50 Jahren ist bekannt, worauf bei der Erforschung für die Einlagerung von Wärme erzeugendem Abfall in Salzgestein geachtet werden soll. Stark vereinfacht ist dies etwa so: Eine Wärmequelle wird in das Salzgestein gestellt, und die Flüssigkeiten, die im Salz vorhanden sind, wandern in Richtung der Wärmequelle (Gase wandern von ihr weg). Salzgestein enthält Wasser und Gase, wenn auch meist in sehr, sehr geringen Mengen.
Die Gesteine um den Salzstock herum enthalten Flüssigkeiten, zum Teil weit mehr als im Salzgestein vorhanden sind. Zudem stehen diese Flüssigkeiten unter Druck. Sie könnten daher möglicherweise dem auf die Wärmequelle zuwandernden Wasser Nachschub liefern. Dadurch wird dann eine fortgesetzte Migration von Wasser hin zur (eingelagerten) Wärmequelle unterstützt. In dem migrierenden Wasser können sich unterschiedliche chemische Elemente lösen, so dass korrosive Flüssigkeiten entstehen.
Da geologische Zeiträume zur Verfügung stehen, können in der Natur selbst dichte Gesteine (mit einem sehr, sehr geringen Porenvolumen und spektakulär niedrigen Gebirgsdurchlässigkeiten) eindrucksvolle Ergebnisse schaffen (Erdöl- und Erdgasfelder).
Bei der Bestimmung des Einlagerungsstandortes sind sicherlich Simulationsmodelle notwendig, die, ähnlich wie in der Ölindustrie, quantitativ das Migrationsverhalten und Volumen von Stoffen über bestimmte Zeiträume modellieren.
Ein Problem ist die Konstruktion des geologischen Modells. Die interne Auflösung eines Salzstocks mit reflexionsseismischen Methoden ist unzureichend. Damit man auf reflexionsseismischen Daten etwas sieht, was man interpretieren kann, müssen Unterschiede in der Impedanz vorhanden sein, und die Gesteinskörper eine bestimmte Größe haben.
Da in einem Salzstock außer Steinsalz auch andere Gesteine vorhanden sind, die zusammen mit dem Steinsalz stark verformt und zerbrochen wurden, ist eine zuverlässige Vorhersage der internen Geometrie im Meter-Bereich nicht möglich. Salzbergwerke werden deshalb von innen erkundet: man bohrt, schaut sich an, was vorhanden ist und „tastet“ sich vor.
Wenn man ein Beispiel studieren will, wo ein Schaden bereits eingetreten ist, dann exploriert man vom Schreibtisch aus den Sachverhalt der Einlagerung von radioaktivem Abfall im Bergwerk Asse.
Die „sicherheitsgerichtete Abwägung“ erfolgt anhand der Anlagen zum Gesetz (1 bis 11). Diese Kriterien können alle als Risikofaktoren gelesen werden.
Faktor 1 ist die Bewertung des Transportes radioaktiver Stoffe durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich.
Faktor 2 ist die Konfiguration der Gesteinskörper (Barrieremächtigkeit).
Faktor 3 ist die räumliche Charakterisierbarkeit, kurz: wie sicher kann vorhergesagt werden, welcher Typ von Gestein vorhanden ist.
Faktor 4 ist die Bewertung der langfristigen Stabilität der günstigen Verhältnisse.
Faktor 5 bewertet die gebirgsmechanischen Eigenschaften.
Faktor 6 ist die Neigung zur Bildung von Fluidwegsamkeiten.
Faktor 7 ist die Neigung zur Gasbildung.
Faktor 8 adressiert die Temperaturverträglichkeit.
Faktor 9 ist die Bewertung des Rückhaltevermögens im einschlusswirksamen Gebirgsbereich.
Faktor 10 ist die Bewertung der hydrochemischen Verhältnisse.
Faktor 11 ist die Bewertung des Schutzes des einschlusswirksamen Gebirgsbereichs durch das Deckgebirge.
Jeder dieser Faktoren kann entweder als Angriff, oder als Schutzmaßnahme betrachtet werden. Faktor 1 kann (zum Beispiel) formuliert werden als: „Es darf keinen Transport von radioaktiven Stoffen durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich geben.“ Das ist dann eine Schutzmaßnahme.
Er kann aber auch formuliert werden als: „Es kann einen Transport von radioaktiven Stoffen durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich geben.“ Das ist dann eine Bedrohung.
Für die Bewertung ist der Blickwinkel nicht relevant, da bekannt ist, was erreicht werden soll.
Die elf Faktoren sind nicht völlig unabhängig voneinander. Aus den ersten vier Faktoren (plus Faktor 11) können Rückschlüsse zur Relevanz der Faktoren fünf bis zehn gezogen werden.
Oder eben auch nicht: Die Wahrscheinlichkeit, dass der Standort im Fokus den Ansprüchen genügt, kann dann nicht sehr hoch sein.
Analog zu den Beispielen oben können Wahrscheinlichkeiten ermittelt werden, die ausdrücken, wie zuverlässig der individuelle Sachverhalt in einem bestimmten Teilgebiet verstanden worden ist. Dies bedeutet, dass dort Vorhersagen gemacht werden können, die dann nachprüfbar zutreffen.
Damit kann auch Außenstehenden ermöglicht werden, die Beurteilung nachzuvollziehen.
Wenn man etwas nicht weiß, dann ist die Wahrscheinlichkeit immer 0,5 (kann so sein, oder so sein). Das ist dann ein Faktor, der die Gesamtwahrscheinlichkeit, eine zuverlässige Einschätzung angefertigt zu haben, halbiert. Das wird in der Regel vermieden werden wollen.
Um auf den Anfang zurückzukommen. In der Industrie sind diejenigen Unternehmen erfolgreich, die alle Faktoren analysieren (und dies gut können). Das ignorieren eines wichtigen Faktors, den alle anderen nutzen und beurteilen, kann einen aus dem Geschäft werfen.
Ein einfaches Beispiel:
Bei der Suche nach dem Ölfeld werden alle Faktoren betrachtet, mit der Ausnahme „die Möglichkeit, mit der Förderung Geld zu verdienen“. Als Resultat wird zwar Öl gefunden. Man wird aber sehr schnell insolvent, weil man es nicht wirtschaftlich fördern kann.
In Bezug auf das Konzept und die Kriterien (inkl. Indikatoren) bedeutet dies, dass ein Versagen bei einem beliebigen dieser Faktoren (Indikatoren) für ein unsicheres Endlager verantwortlich sein kann.
Bei dem Konzept ist teilweise sichtbar, dass die Problematik erkannt wurde und adressiert wird. Allerdings muss man sich diese Informationen zusammensuchen, und (weil sie verstreut sind), ist sich dann nicht sicher, ob man alles gefunden hat (oder nicht), und alles korrekt zugeordnet hat (oder nicht).
Wie bei dem vorherigen Kommentar zur Lesbarkeit angeregt, könnte eine andere Struktur der Dokumentation (bzw. Verfügbarmachen von Informationen) eine effektivere und effizientere Kommentierung (oder andere Formen der Beteiligung) ermöglichen. Die EndlSIUntV hilft dabei nicht.
Durch die Nutzung von Risiko könnte zudem mehr Transparenz darüber erzielt werden, was genau als „sicher“ angesehen wird. Dies ist sicher nicht die einfache Benennung von etwas als „sicher“. Das ist wahrscheinlich die Größe des Risikos, die für einen bestimmten Faktor (Indikator) beim Bau des Endlagers akzeptiert werden muss.
Bei dem Konzept geht es möglicherweise damit los, dass LeserInnen mental „sicher“ in „Risiko“ übersetzen und sich dann denken, dass da etwas nicht transparent gemacht wird. Dies ist kaum geeignet, um Vertrauen aufzubauen.
Im Allgemeinen tun sich MitbürgerInnen mit dem Konzept von Risiko sehr schwer. Das könnte aber geändert werden.
Vielleicht trauen sich dann auch mehr Leute, sich zu beteiligen.
Laut StandAG soll die Endlagersuche in einem „… partizipativen, wissenschaftsbasierten, transparenten, selbsthinterfragenden und lernenden Verfahren“. Im Gegensatz zu anderen Paragraphen im StandAg habe ich dazu keine Verordnung gefunden, die regelt, was das genau bedeuten soll. Bis jetzt habe ich lediglich unterschiedliche Interpretationen wahrgenommen. Die Verwendung von Risiko adressiert alle dies Anforderung. Sie ermöglicht transparent aufzuzeigen, wie Wissenschaft verwendet wird, wie gemessen werden kann, dass gelernt wird, wie Vorgehensweisen du Zwischenergebnisse hinterfragt werden können.
Ein Beispiel (in Anlehnung an die amtliche Kommunikation zu der Corona Pandemie):
Wenn Inhalte der Kommunikation nicht transparent wirken, und nicht verstanden werden und die wahrgenommene Kompetenz als gering eingeschätzt wird (Vertrauen!), dann kann als Resultat jede Form von irrationalem Verhalten erwartet werden, ohne dass dann noch mit Logik etwas zu bewirken ist.
Corona: Man kann sich nur mit Aufwand dagegen schützen, an dem Coronavirus (COVID-19) zu erkranken, und ernste Schäden sowohl davonzutragen/zu sterben, als auch jemandem anderen ernste Schäden zuzufügen/ihn umzubringen (weil man ihn ansteckt). Eine Impfung verhindert dies.
Ist das dann, wenn das weiß, und nichts tut, eine fahrlässige Tötung?
Die Impfungen sind aber nicht verpflichtend.
Sie werden als ein nicht zulässiger Eingriff in die Unverletzlichkeit des eigenen Körpers interpretiert (und nicht als eine Schutzmaßnahme dagegen, jemand unabsichtlich umzubringen). Dabei ist es völlig egal, was mit dieser Unverletzlichkeit des Körpers passiert, wenn er mit einer Corona Erkrankung auf der Intensivstation im Krankenhaus behandelt werden muss. Da darf dann plötzlich alles Mögliche hineingesteckt werden.
Ca. ein Viertel der Bevölkerung hat in diesem Zusammenhang kein Vertrauen mehr in die zuständigen öffentlichen Institutionen. Nach über 2 Jahren Erfahrung im Umgang mit dem Virus sterben jeden Tag ca. 250 MitbürgerInnen daran (als ob nichts getan werden kann).
Im Zusammenhang mit dem Umgang mit Risiko gibt es zahlreiche Denkfallen und Wahrnehmungsverzerrungen. In meinem Berufsleben wurden deshalb Erkenntnisse aus der kognitiven Psychologie genutzt, um deren Einfluss zu minimieren.
Kommentar zu der Definition des Begriffs „Szenarienungewissheiten“ in Kapitel 8.9.2
Auf Blatt 43 wird die Anwendung erläutert. Dabei wird dann auf Kapitel 8.2. in der Anlage 1 verwiesen. (Zu Teilen davon hatte ich bereits einen Kommentar eingestellt.)
Die Verwendung von Szenarien ist sehr zu begrüßen. Es ist zum Teil auch zu erkennen, was in der Bearbeitung stattfindet. Die Struktur und Gestaltung der Szenarien erscheinen entweder nur eingeschränkt dargestellt oder fokussieren nur auf bestimmte Aspekte des Endlagers. Die
Mehr Transparenz würde dem Außenstehenden helfen, die Gestaltung der Szenarien zu verstehen, und die Relevanz einzelner Szenarien selbst einzuschätzen. Da der Begriff „Szenario“ eine umgangssprachliche Bedeutung hat, möchte ich zunächst meine Erwartung schildern. Möglicherweise hat die BGE eine andere Ansicht, was zu Szenarien gehört, und was nicht.
Nach meiner Erfahrung werden Szenarien hauptsächlich zur Risikoidentifikation genutzt. Dabei werden unterschiedliche zukünftige Ereignisse zusammen mit den dazugehörenden Risiken zu beschreiben. Mit dieser Methode werden alternative mögliche Ergebnisse sowohl bei der Analyse, als auch bei der Beurteilung verwendet.
Dies ist teilweise in der Anlage 1 sichtbar. Ich hatte dies schon vorher kommentiert.
Ergebnisse sind Beschreibungen und Analysen von sowohl alternativen zukünftigen Entwicklungen des speziellen Sachverhaltes, der analysiert wurde, als auch des Umfelds, in dem der Sachverhalt existiert (Gesellschaft, Umwelt, Recht, Technik, usw.), und in dem das Risiko vorkommt.
Dabei beschränkt sich die Szenario Analyse nicht auf eine Extrapolation historischer Daten aus der Vergangenheit in die Zukunft, und sie erwartet nicht, dass alle Beobachtungen aus der Vergangenheit auch in der Zukunft noch gültig sind.
Die einzelnen Szenarien enthalten alternative Wege, um das gesetzte Ziel zu erreichen. Zudem stellen sie die Analyse des Zusammenspiels der Ursachen von Ereignissen mit Quellen von Problemen dar. Die produzieren nämlich die unerwünschten Ergebnisse (den Risikoschaden).
Dies ist eine gute Methode, um Risiken bei Sachverhalten zu identifizieren, wo bestimmte Informationen erst in Zukunft verfügbar werden, und wo für Fortschritte (viel) Geld ausgegeben werden muss, ohne dass eine erfolgreiche Zielerreichung garantiert ist.
Nach meiner Ansicht trifft dies auf die Endlagersuche zu, auch wenn die Dokumentation das Gefühl vermitteln soll, dass das Ziel auf jeden Fall erreicht wird.
Die Szenarioanalyse ist sehr gut anwendbar, wenn etwas erreicht werden soll, was noch nicht vorher gemacht wurde.
In der Vergangenheit hat man das in diesem Sachverhalt nicht gemacht (Gorleben, Asse) und als Resultat viel Vertrauen verspielt.
Die Methode ist jederzeit anwendbar, auch dann, wenn schon viel Geld ausgegeben wurde, aber, um das Ziel immer noch erreichen zu können, anscheinend viel mehr Geld ausgegeben werden muss, als es eingeplant wurde. Zudem muss herausgearbeitet werden, welche Schäden in Zukunft noch auftreten können.
Man wünscht sich, dass Szenario Analysen für Großprojekte mit Steuergeldern wie dem Flughafen Berlin/Brandenburg oder Stuttgart 21 verpflichtend vorhanden gewesen wären.
Die Anwendung der Methode ist jedoch nicht vorgeschrieben.
Die durch Szenario Techniken identifizierten Risiken ermöglichen sehr detaillierte Darstellungen zukünftiger möglicher Zustände. Die obligatorischen Komponenten von Sicherheitsmaßnahmen und Risiken werden durch einzelne Faktoren wie handelnde Personen, Bedrohungstypen, Umfeld, Umwelteinflüsse, zeitliche Abläufe, und andere wesentliche Komponenten beschrieben und definiert.
Das sind die Faktoren in der einfachen Gleichung, mit der ein Risiko bestimmt wird. Im Konzept wird bisher allerdings (soweit ich das verstanden habe) über eine verbalargumentative Einschätzung der Erfüllung der Sicherheitsanforderungen gesprochen.
Handelnde Personen sind sowohl Menschen, als auch Gesellschaften, Firmen, Ämter, Behörden, usw., deren Personen etwas Unerwünschtes tun, und dadurch eine Bedrohung für die Realisierung der geplanten Ziele darstellen.
Bedrohungstypen beschreiben die Grundursachen der daraus resultierenden Risiken. Eine Bedrohung kann ein zufälliges Unglück wie eine Naturkatastrophe sein, oder die Anwendung mangelhafter Praktiken in der Gestaltung des Vorhabens, eine ineffektive Ausführung der notwenigen Aufgaben, oder unbefugte Änderungen beim Betreiben des Vorhabens sein. Diese Mängel können zufällig auftreten oder von krimineller Natur sein.
Das Umfeld beschreibt und definiert, wo diese handelnden Personen tätig sind. Bereiche wie Naturschutz, Brandschutz, Klimaschutz, …, wo es in einem Zeitraum von einigen Jahren bei länger andauernden Vorhaben zusätzlich zu berücksichtigende Änderungen gibt (die sich als neu einzuhaltende zusätzliche gesetzliche Anforderungen manifestieren), können nur mit dieser Methode wirksam dargestellt werden.
Szenarien müssen daher sowohl die handelnden Personen, als auch die Umstände, wie sie rechtlich zueinanderstehen, Umfeld, Umwelteinflüsse, zeitliche Abläufe, Terminvorgaben, und vieles andere mehr umfassen.
Ein wichtiges Element der einzelnen Szenarien sind zeitliche Abläufe und Terminvorgaben: wann, und wie, und wie häufig wird ermittelt, wie wahrscheinlich es ist, dass die gesetzten Ziele genauso wie geplant erreicht werden können. Welche Unsicherheit existiert, und wie hoch ist die?
Es muss verbindlich festgelegt sein, was getan werden muss, wenn eine Information nachweist, dass Zwischenziele nicht erreicht wurden. Um das erkennen zu können, müssen Kontrollen betrieben werden. Nur wenn man weiß, was man dann tun muss (vorbereitet ist), dann wird gesteuert.
Wenn nichts vorbereitet worden ist, dann kann auf Ereignisse lediglich reagiert werden.
Risikoszenarien umfassen Bedrohungsereignisse und Schwachstellen. Bedrohungsereignisse sind Situationen und/oder Ereignisse, die eine Spannbreite von möglichen Wahrscheinlichkeiten des Auftretens haben, und Schadenereignisse in unterschiedlichen Größenordnungen auslösen (die einfache Gleichung zur Bestimmung des Risikos).
Schwachstellen sind mangelhafte Schutzmaßnahmen (Verwundbarkeit). Sie sind durch Defekte, schlechte Angewohnheiten und ähnliches charakterisiert. Dies erlaubt die Bestimmung des Umfangs der Größe und Wahrscheinlichkeit von möglicherweise auftretenden Schadenereignissen.
Das Ergebnis ist eine Dokumentation der Spannbreite möglicher Schäden (ungeplante zusätzliche Kosten, Gefährdungen der Gesundheit, und ähnliches). Damit man damit umgehen kann, muss die Wahrscheinlichkeit eingeschätzt werden, dass diese Schäden eintreten werden.
Jede Schätzung der Spannbreite der Schadenswerte muss auf festgelegten Kriterien und Methoden basieren, um eine präzise Dokumentation und Nachprüfbarkeit zu ermöglichen. Beispiele für Kriterien:
• Die Kritikalität definiert die Gesamtauswirkung eines Ereignisses auf die Effektivität und Effizienz bei der Erstellung und Umsetzung eines Vorhabens. Wenn die Kritikalität einzelner Elemente des Vorhabens nicht definiert worden ist, dann wird bei der Bestimmung der Gesamtauswirkung im wirklichen Leben hinter den Ereignissen hergelaufen und reagiert, anstatt zu gestalten.
• Die Kosten sind nicht nur die Kosten, die notwendig sind, um einen Vorgang ausführen zu können, sondern die Gesamtkosten für das ganze Vorhaben, die dann entstehen, wenn die Ausführung des Vorgangs nicht erfolgreich war. Wenn diese Kosten am Ende des Vorhabens nicht entstanden sind, weil alles erfolgreich war, dann sind Einsparungen erzielt worden.
• Die Empfindlichkeit ist in diesem Zusammenhang die Spannbreite der möglichen Kosten, die notwendig sind, um Schäden zu beheben. Wenn man sich das nicht leisten kann, dann sollte man möglicherweise gar nicht erst damit beginnen.
Die Kombination aus den spezifischen Eigenschaften des zu schützenden Gegenstandes (Beispiel: Schutz der Biosphäre, damit dort Nahrungsmittel angebaut werden können), und die Art der Bedrohungstypen (zum Beispiel das unkontrollierte Entweichen von Giftstoffen aus einem undichten Abfalllager), bestimmen die Natur und das Ausmaß der möglichen Schäden.
Bedrohungstypen beeinflussen verschiedene zu schützenden Gegenstände auf unterschiedliche Weise. Bedrohungsereignisse, Verwundbarkeiten, und Größe des Verlustes variieren in Bezug auf die Merkmale des zu schützenden Gegenstandes und seine Nutzung.
Eine Voraussetzung für eine erfolgreiche Risikoidentifikation ist, dass all dies für unterschiedliche mögliche Bedrohungsereignisse und Verwundbarkeiten jeweils separat analysiert und dokumentiert wird. Dies ist aufwändig. Was nur sehr eingeschränkt vollständig ist, kann allerdings auch nur sehr eingeschränkt zuverlässige Ergebnisse liefern.
Laut Konzept finden dazu einige Aktivitäten statt. Es ist aber schwierig einzuordnen, was genau zu was gehört, und womit verbunden ist. Als Bürger würde man sich eine Narrativ wünschen, wo man durch die Szenarien geführt wird. Möglicherweise wird dann klar, wie viel man nicht weiß, und wieviel nicht gewusst werden wird, um warum trotzdem zu einem bestimmten Zeitpunkt ein Endlager notwendig ist. Als Bürger muss man sich in dem Narrativ wiederfinden können.
Es wäre hilfreich, wenn Szenarien im jetzt und heute beginnen. Mit den oben erwähnten Anforderungen und Details könnte dargestellt werden, wie damit umgegangen wird, wenn der Suchprozesse nicht so funktioniert wie geplant, oder die verbleibenden Ungewissheiten weiterhin unbefriedigend hoch sind, oder experimentelle Prüfungen von Annahmen fehlschlagen, oder die Rückholbarkeit nicht gewährleistet werden kann, oder …
Als Bürger ist man weniger an dem passiert, was in über 200 Jahren passiert, sondern an dem, was man selbst, oder die eigenen Kinder, Enkel, Urenkel betreffen wird. Das ist in dem Konzept nur teilweise zu erkennen. Was wäre, wenn (fiktiv) sich der sicherste Standort direkt in Berlin mitten unter dem Regierungsviertel befinden würde? Würde man dann einen weniger sicheren Standort auswählen, und ein höheres Risiko akzeptieren, dass das Endlager undicht wird?
Szenarien führen zu Einsichten.
Desto enger gefasst wird, was in den Szenarien betrachtet wird, desto begrenzter sind die Einsichten.
In der ersten Phase der Beteiligung (zum Zwischenbericht) hatte ich sowohl bei der Darstellung, als auch bei der Beteiligung einen starken Fokus auf die „Betroffenheit“ einzelner Gebiete in Deutschland wahrgenommen. Der Rahmen war gesteckt: Alles irgendwie eine regionale Angelegenheit. Es konnte erklärt werden, wie man dahin gekommen ist. Alle, die woanders wohnen, sind nicht betroffen und können sich zurücklehnen.
Der Rahmen hätte auch anders gesetzt werden können: alle MitbürgerInnen sind betroffen, und neben der Ausgrenzung von Gebieten, die mit guten Gründen aus nicht geeignet eingestuft werden müssen, wird geforscht: nicht nur an Gebieten, sondern auch an Techniken, Einschätzungsmethoden, Modellierungstechniken, Beurteilungsmethoden, …
Die Szenariotechnik erlaubt, die möglichen Auswirkungen von Aktionen zu modellieren. Es ist nicht klar, ob dies bei der Planung der Endlagersuche gemacht wird. Die zugänglichen Informationen deuten eher auf ein festgelegtes, relativ starres Phasenmodell.
Da das Verfahren jedoch laut StandAG „lernend“ und „selbsthinterfragend“ sein muss, können sich leicht auch andere Szenarien mit anderen Phaseninhalten vorgestellt werden.
In dem Zusammenhang mit den NBG Gutachten, die im Konzept über die verlinkten Darstellungen der jetzigen Untersuchungsgebiete zugänglich gemacht wurden, könnte sich gefragt werden: Hätte einer dieser Gutachter bei dieser Art des Auftrags eines dieser Gebiete zuverlässig als ungeeignet einschätzen können? Das ist sehr, sehr unwahrscheinlich.
Sind die Berichte deshalb ein Gütesiegel für die vorgeschlagene Vorgehensweise? Definitiv auch nicht. Sie enthalten eine Menge Empfehlungen, von denen im Konzept nicht erkannt werden kann, dass sie umgesetzt werden.
Werden die Inhalte in diesen Berichten von LeserInnen immer gleich verstanden? Das ist sehr, sehr unwahrscheinlich. Ein Beispiel:
In der Empfehlung 3 zum Teilgebiet im Wirtsgestein Tongestein heißt es: „… Es fehlt jedoch eine moderne, hochauflösende sequenzstratigraphische Analyse, …“. Diese Art der Analyse gibt es seit den 1980er Jahren. Sie ist nur modern im Vergleich zu dem, was der Gutachter zu sehen bekam. Den Wert und die Bedeutung können LeserInnen im Zweifel nicht nachvollziehen. Der deutsche Wikipedia-Artikel ist besonders wenig hilfreich. Wenn man die Analysetechnik aus dem Berufsleben kennt, erscheint die Nutzung zwingend. Wenn man nicht weiß, was das ist, erscheint dies als esoterisches Extra.
In dem Konzept kann nicht erkannt werden, inwieweit die jetzige Vorgehensweise die Vorgabe des StandAG vollumfänglich adressiert, dass das Verfahren transparent sein muss.
In einem vorherigen Kommentar hatte ich angemerkt, dass im Konzept „sicher“ 380mal auftaucht, „Risiko“ dagegen überhaupt nicht.
„Wahrscheinlich“, „Vorhersage“ kommen auch nicht vor, „Zuverlässig“ 1mal (Zitat aus dem StandAG).
Der Rahmen wird dagegen damit gesteckt: „Untersuchung“ 365mal, „Bewertung“ 125mal, „ungewiss, Ungewissheit“ 90mal, „Barriere“ 76mal, „Bedarf“ 72mal, „Erkundung“ 65mal, „spezifisch“ 60mal, „Aspekt“ 47mal, „wesentlich“ 39mal, „Relevanz, relevant“ 38mal, „Eignung, geeignet“ 31mal, „umfassend“ 22mal, „Prioritäten, Priorisierung“ 19mal, usw.
In anderen Bereichen der geologischen Exploration sind der richtige Umgang mit Risiko und Wahrscheinlichkeit die Grundlage dafür, nicht insolvent zu werden, und keine Schäden zu verursachen. Wenn dabei Mängel auftreten, erscheint man in den überregionalen Nachrichten.
Deshalb hatte ich in einem vorherigen Kommentar ein Beispiel aus der Kohlenwasserstoffindustrie zur Illustration für die Verwendung von Wahrscheinlichkeiten genutzt. Je nach Vorwissen kann die Relevanz dieses Beispiels für die Kommentierung des Konzepts möglicherweise nicht direkt nachvollzogen werden. Ich möchte es deshalb erläutern.
Das Beispiel war: Um ein Ölfeld zu finden, und mit der Förderung des Öls Geld zu verdienen, werden folgende Einflussfaktoren (vereinfacht dargestellt) genutzt:
Eine Struktur im Untergrund, in der sich das Öl fangen kann, ein Speichergestein, in dem das Öl lagert, eine Abdeckung, die verhindert, dass es zur Oberfläche der Erde entweicht, ein Muttergestein, was das Öl produziert hat, die richtige Reihenfolge der Abläufe (die Struktur war vorhanden, als das Öl gebildet wurde), und die Möglichkeit, mit der Förderung Geld zu verdienen.
Es gibt also sechs Faktoren. Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft, und die Wahrscheinlichkeit dafür mit jeweils 0,8 annimmt (in 4 von 5 Fällen recht hat), dann liegt die Wahrscheinlichkeit, dass bei einem Versuch ein wirtschaftlich förderbares Ölfeld gefunden wird bei ungefähr 0,26 (0,8 x 0,8 x 0,8 …).
„Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft“ bedeutet dies, dass sie entsprechende Kenntnisse haben: harte Daten, Wissen, …
In der Regel zeigen die harten Daten, das Wissen etc. jedoch, dass die notwendigen Eigenschaften, ein Ölfeld zu finden sehr wahrscheinlich nicht vorhanden sind. Daraus ergibt sich dann die Begründung, warum dies eher kein Prospekt ist, was mit einer Bohrung getestet werden sollte.
Ohne Bohrung wird man zwar nicht sicher wissen, ob die Einschätzung stimmt, die Bohrung (teuer!) hat aber das hohe Risiko, nicht erfolgreich zu sein.
In der Präferenz ist dies sicher nicht eine Bohrung, die gegenüber einer anderen, die ein weniger risikoreiches Prospekt testen soll, vorgezogen wird.
Um so etwas ähnliches geht es im Konzept. Die BGE wird nicht die Hälfte der Bundesrepublik auf eine mögliche Eignung beurteilen können. Es müssen Präferenzen gebildet werden können.
Dabei können Fehler gemacht werden. In der Kohlenwasserstoffexploration kann man dies gut nachvollziehen, wenn in bereits mehrfach explorierten Gebieten mit neuen Erkenntnissen erfolgreich neue wirtschaftliche Lagerstätten gefunden werden. Jeder meinte zur jeweiligen Zeit, alles Notwendige für eine Beurteilung zu wissen.
Das Beispiel war zur Kohlenwasserstoffexploration war stark vereinfacht. Jeder der genutzten Faktoren setzt sich wiederum aus Faktoren zusammen. Desto vollständiger die Betrachtung aller vorhandenen Faktoren, desto zuverlässiger die Einschätzung des Risikos (kein Ölfeld zu finden).
Das könnte auch anders formuliert werden. Desto vollständiger die Betrachtung aller vorhandenen Faktoren, desto zuverlässiger die Einschätzung der Sicherheit (ein Ölfeld zu finden).
Übertragen auf das Konzept und Anlage 1 bedeutet dies, dass es vorteilhaft sein könnte, das Konzept von Risiko zu nutzen, so wie es in anderen geologischen Explorationsvorhaben genutzt wird.
Damit dieser Kommentar nicht missverstanden wird, hole ich etwas aus.
Risiko (damit es beim Lesen keine Mehrdeutigkeiten gibt) ist der Zustand der Unsicherheit, Ungewissheit, wo einige der Möglichkeiten einen negativen Einfluss auf die Erreichbarkeit der Ziele haben (Verlust, Katastrophe, oder andere unerwünschte Ergebnisse, beziehungsweise Ereignisse). Aus der Ungewissheit in einem bestimmten Sachverhalt kann ein Schaden entstehen. Grundsätzlich immer, und in seiner einfachsten Form, wird ein Risiko mit einer Gleichung beschrieben (es werden Zahlen verwendet):
Risiko = (Wahrscheinlichkeit des Auftretens von Schadensereignissen) x (Höhe des jeweiligen Schadens)
Die zwei grundsätzlichen Faktoren der Gleichung sind immer vorhanden: die Wahrscheinlichkeit des Auftretens der Schadensereignisse, und die Höhe der Schäden, die bei diesen Ereignissen auftreten.
Im Kontext der Endlagersuche sind Schäden Konsequenzen von Ereignissen, die verhindert werden sollen.
Die Einschätzung von sowohl der Wahrscheinlichkeit der Schadensereignisse, als auch von der Höhe der jeweiligen Schäden lässt sich in der Regel nicht mit einer einzelnen Zahl abbilden. Die möglichen Schäden haben unterschiedliche Größenordnungen. Deshalb werden für jeden Faktor Zahlenintervalle genutzt. Ein Schaden einer bestimmten Größe (Radionuklide in der Biosphäre) wäre ein Risiko, was nicht eingegangen werden darf.
Zahlen für die Wahrscheinlichkeit der Schadensereignisse (über die ganze Größenordnung möglicher Schäden) können ohne Nachforschen nicht zuverlässig einschätzt werden. Deshalb werden Modelle erstellt, und (soweit wie möglich) nachgeprüft.
Mit den beiden grundsätzlichen Faktoren (Schadensereignisse, Schäden) allein kann ein Risiko in der Regel nicht zuverlässig verstanden werden. Jeder dieser beiden Faktoren muss solange in seine einzelnen Faktoren weiter zerlegt werden, bis das Risiko nachvollziehbar eingeschätzt werden kann. Die Zerlegung ermöglicht, alle bekannten Faktoren in einem Sachverhalt (möglichst zuverlässig) zu berücksichtigen.
Ein Beispiel:
Der Faktor „Wahrscheinlichkeit von Schadensereignissen“ besteht aus zwei Faktoren: „Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen“ und „Verwundbarkeit“. Wenn die möglichen Schäden jemand nicht bedrohen, dann hat er kein Risiko. Wenn er durch diese Art von Schaden nicht verletzt werden kann, dann hat er kein Risiko.
Manchmal wird dies aber nicht genau gewusst.
„Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen“ und „Verwundbarkeit“ sind dann immer noch sehr zwei grobe, nur eingeschränkt nutzbare Faktoren. Die „Wahrscheinlichkeit des Auftretens von (irgendwelchen) Bedrohungsereignissen“ sagt nur sehr wenig darüber aus, wie man persönlich davon betroffen sein kann. Vielleicht kommen diese Ereignisse im Wesentlichen nur dort vor, wo man nicht ist.
Deshalb muss dieser Faktor weiter zerlegt werden. Vor einer Bedrohung betroffen zu sein, bedeutet, sich der Bedrohung bewusst (oder unbewusst) auszusetzen. In dem Moment, wo man (zum Beispiel) am Straßenverkehr teilnimmt, setzt man sich den dort vorhandenen Bedrohungen aus.
Auch der Faktor „Verwundbarkeit“ besteht aus mindestens zwei Faktoren. Zum einen ist da der Faktor, der die Fähigkeiten des Angreifers definiert, der einem einen Schaden zufügen könnte, und zum anderen ist da der Faktor, der die Schutzmaßnahmen beschreibt, die der Angreifer überwinden muss.
Möglicherweise sitzt man in einem modernen Fahrzeug mit den neuesten Sicherheitsvorkehrungen, um Bedrohungen der körperlichen Unversehrtheit durch andere Verkehrsteilnehmer möglichst erfolgreich abwehren zu können. Wenn man jedoch am Stau-Ende steht, und von hinter nähert sich ungebremst ein 40t LKW, dann werden die Sicherheitsvorkehrungen des PKWs sicher überwunden werden.
Auf der Autobahn kann man einem Stau-Ende nur ausweichen, indem man vorher irgendwo anders anhält, oder rechtzeitig eine Ausfahrt nimmt.
Damit mit diesen Faktoren Berechnungen gemacht werden können, müssen ihnen Wahrscheinlichkeitswerte in Zahlen zugeordnet werden.
Wie geht man nun bei der Bestimmung der Höhe der jeweiligen Schäden vor? Eine Unterteilung in direkte und indirekte Schäden schafft mehr Klarheit.
Direkte Schäden sind die, die einem selbst zugefügt werden, und die man selbst beseitigen muss und kann. Dies sind Schäden, bei denen man weitgehend selbst bestimmt, wie man damit umgeht.
Indirekte Schäden entstehen, wenn zusätzlich auch andere Parteien tätig werden, die in das Schadensereignis involviert sind. Zusätzlich zur Beseitigung des Schadens muss auch noch eine Strafe bezahlt werden.
Dies sind Schäden, bei denen andere Parteien bestimmen, wie die behoben werden müssen. Es empfiehlt sich deshalb, diesen Faktor weiter zu erlegen: in den Anteil der Schadensereignisse, die indirekte Effekte haben und die Schadenshöhen, die durch zusätzlich involvierte Parteien entstehen können.
Damit gerechnet werden kann, müssen diesen Faktoren Werte in Zahlen zugeordnet werden.
Oft ist man unsicher, welches Zahlenintervall den Sachverhalt zuverlässig beschreibt. Aber genau deswegen macht man das ja. Man überlegt sich das Zahlenintervall, das mögliche Werte abbildet, so, wie sie auch in der Wirklichkeit vorkommen (können). Sehr weite Intervalle zeugen von wenig genauem Wissen und viel Unsicherheit, enge Intervalle drücken sehr viel Wissen und meist wenig Unsicherheit aus.
Wichtig ist zunächst, ob man versteht, wie häufig Schäden auftreten können, und was passiert, wenn ein Schadensfall eintritt. Man will sich sicher sein, dass man dieses Risikos bewältigen kann.
Dies wird nicht immer zur Zufriedenheit aller Beteiligter gelingen. Jedoch ist jeder halbwegs zuverlässig eingeschätzte Sachverhalt, und jeder dadurch vermiedene Schaden, ein Gewinn.
Ein einfaches Beispiel:
Die bis jetzt entstandene Schadenshöhe für einzelne Hersteller, die als Ergebnis der Softwaremanipulation bei Dieselpersonenkraftwagen entstanden ist, ist ungefähr bekannt.
Das vorher vorhandene Risiko für einen Hersteller dieser Fahrzeuge ist:
Mehrere Millionen dieser Fahrzeuge fuhren überall auf der Welt herum. Jedes Fahrzeug hatte in sich fest eingebaute Hardware mit Software als ein gerichtsverwertbarer Nachweis, dass gegen geltende rechtliche Bestimmungen verstoßen wurde.
Betrachtet man zunächst die Wahrscheinlichkeit, dass ein Schaden eintritt. In diesem Fall ist das Schadensereignis, dass jemand die Softwaremanipulation entdeckt, nachweist, und dann mit dieser Information handelt.
Die Wahrscheinlichkeit von Bedrohungsereignissen erscheint gering, da die möglichen Hacker das notwendige Knowhow haben müssen. Außerdem müssen sie Zeit und Geld investieren, um an die entsprechenden Systeme, und damit an gerichtverwertbare Nachweise der Manipulation heranzukommen. Die Verwundbarkeit des Herstellers ist jedoch sehr hoch, weil jedes Fahrzeug mit einem solchen Nachweis herumfährt.
Die Wahrscheinlichkeit von Bedrohungsereignissen setzt sich zusammen aus: der Wahrscheinlichkeit, dass der Hersteller von einem Bedrohungsereignis selbst betroffen ist, und der Wahrscheinlichkeit, dass er die Bedrohung erfolgreich abwehren kann.
Die Wahrscheinlichkeit, dass er von einem Bedrohungsereignis selbst betroffen ist, erscheint sehr gering, da mögliche Hacker viele Fahrzeugtypen und Hersteller zu Auswahl haben, und sie mehr dazu brauchen, als nur ein Notebook mit Internetanschluss. Es gibt attraktivere Ziele für Hacker, mit denen leichter Geld zu verdienen ist.
Andererseits gibt es unterschiedliche Arten von Hackern. Manche arbeiten lediglich daran, Sicherheitslücken und andere Softwaredefizite aufzudecken, um Schäden durch kriminelle Elemente zu verhindern.
Die Wahrscheinlichkeit, dass der Hersteller die Bedrohung erfolgreich abwehren kann, ist verschwindend gering, da der Nachweis in jedem Fahrzeug vorhanden ist, und der mangelhaft authentifizierte und unautorisierte Zugang zu diesen Informationen und Nachweisen für technische Experten möglich ist. Bei Automobilkomponenten handelt sich um industrielle Massengüter an deren Gestaltung und Herstellung eine Vielzahl unterschiedlicher Personen beteiligt sind. Zudem gibt es Standards, damit unterschiedliche Zulieferer preisgünstige Komponenten anbieten können.
Faktoren der Verwundbarkeit sind die Fähigkeiten des Angreifenden und die Schutzmaßnahmen, die der Angreifer überwinden muss. Technische Experten mit unterschiedlichsten Interessen gibt es in allen Teilen der Welt. Sowohl die Hardwarekomponenten der Fahrzeuge, als auch die Fahrzeuge mit der darauf installierten Software sind fast überall auf der Welt frei verfügbar.
Die Schutzmaßnahmen können nicht unüberwindbar sein, da ein Fahrzeug nach der Herstellung durch unabhängige Dritte gewartet werden können muss, Software Updates eingespielt werden können, und weitere Arbeiten am Fahrzeug vorgenommen werden müssen.
Zudem kann man sich ein Fahrzeug besorgen und mit aller Zeit der Welt ausprobieren, wie die Fahrzeugsoftware auf äußere Umstände reagiert.
Direkte Schäden bedeuten, dass auf Kosten des Herstellers nachgebessert werden muss, die Reputation und der Wettbewerbsvorteil leiden, der Absatz möglicherweise zurückgeht, und vieles andere mehr.
Indirekte Schäden sind der Anteil der Ereignisse, die indirekte Effekte haben, und die Schadenshöhen, die dadurch entstehen. Die Klagemöglichkeiten sind je nach Ort der Gerichtsbarkeit auf der Welt sehr unterschiedlich. Die in unterschiedlichen Ländern jeweils zuständigen Behörden haben teilweise eine große Macht, erfolgreich riesige Strafzahlungen zu fordern, vor allem, wenn das schuldige Unternehmen dies wirtschaftlich verkraften kann. Massenhafte (zumindest teilweise erfolgreiche) Klagen von Einzelpersonen waren auch zu erwarten.
Man kann nun überall Zahlenintervalle (Wahrscheinlichkeiten, Eurosummen) einsetzen, die die Unsicherheit eines der oben spezifizierten Faktoren ausdrücken. Als Ergebnis erhält man eine Spannbreite der Wahrscheinlichkeit des Auftretens von möglichen Schadensereignissen, und der Höhe der Schäden, die jeweils dabei auftreten.
Man wird leicht zu dem Ergebnis kommen, dass es sehr unwahrscheinlich ist, dass kein Schaden eintritt. Zudem wird die Schadenshöhe in keinem Fall niedrig sein. Wie sich in Gerichtsverhandlungen herausgestellt hat, war dieses Risiko beim Hersteller bekannt. (Allerdings nicht das Ergebnis der Risikoeinschätzung.)
Beim Hersteller handelt es sich um Personen, die eine Leitungsverantwortung in den Unternehmen haben (Weisungsbefugnisse). Oft ist nicht hinreichend eindeutig festgelegt, wer genau was darf, so dass es dazu ein eigenes Forschungsgebiet gibt, wo die strukturelle Verantwortungslosigkeit in Systemen (Verantwortungsdiffusion) analysiert wird.
Welches allgemeine Risiko existiert bei der Einlagerung von hochradioaktiven Abfällen in Deutschland? Wenn man die fünf allgemeinen Faktoren von oben nutzt:
1. Die Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen: Gefährliche Radionuklide treten aus dem eingelagerten hochradioaktiven Abfall aus, und verschaffen sich einen unkontrollierten Zutritt zur Biosphäre. Es entsteht ein Schaden an dem Ort, wo eingelagert wurde.
2. Die Fähigkeiten des Angreifers, der einem einen Schaden zufügen könnte: Die Geologie zeigt auf, dass sich alles mit der Zeit ändert, nichts statisch ist, und im Untergrund chemische und physikalische Gesetzmäßigkeiten wirken, die dazu führen können, dass der Schaden eintritt.
3. Die Schutzmaßnahmen, die der Angreifer überwinden muss: Das sind die Eigenschaften des geologischen Endlagers, die einen Schaden zuverlässig verhindern.
4. Direkte Schäden: Das ist das selbstbestimmte Umgehen Deutschlands mit Schäden im eigenen Land, fehlende Reversibilität (ein Schaden kann nicht einfach beseitigt werden).
5. Indirekte Schäden: Das ist die Höhe der Ausgleichszahlungen für Schäden. Die sind zurzeit keiner vorhandenen Kontrolle unterworfen.
Indirekte Schäden (5.) sind hier nicht zu erwarten. Durch die Gesetzgebung ist geregelt, dass man als Bürger Deutschlands die Endverantwortung hat. Die Ausübung dieser Verantwortlichkeit ist über die öffentliche Verwaltung Deutschlands an die Bundesgesellschaft für Endlagerung delegiert. Das Bundesamt für die Sicherheit der nuklearen Entsorgung nimmt die Aufsicht war. Wenn es nicht funktioniert, tragen alle Bürger (beziehungsweise ihre Nachkommen) die Verantwortung für die Beseitigung des Schadens. Es gibt keinen externen solventen Betreiber, der den hochradioaktiven Abfall nach (zum Beispiel) 200 Jahren wieder auf seine Kosten birgt, weil die jetzt gewählte Lösung nicht funktioniert hat.
Weder direkten noch indirekten Schäden kann ausgewichen werden. Laut Gesetz sind Schäden in der Biosphäre durch den unkontrollierten Zutritt von Radionukliden aus hochradioaktivem Abfall so hoch, dass dies für den Zeitraum der nächsten 1 Million Jahre verhindert werden soll.
Dies bedeutet nicht, dass Deutschlands Nachbarländer in diesem Sachverhalt die gleichen Ansichten haben, oder haben müssen.
Der Fokus der Analyse liegt daher auf dem Faktor: „Wahrscheinlichkeit von Schadensereignissen“. Mögliche Schadensereignisse sind bekannt. Deshalb adressiert die Suche nach einem Endlager für hochradioaktive Abfälle im Wesentlichen den Faktor Verwundbarkeit: Kann das Endlager undicht werden, und Schäden verursachen?
Der Faktor muss mindestens in zwei Faktoren zerlegt werden: die chemischen und physikalischen Gesetzmäßigkeiten, die einen Schaden auslösen können, und die Schutzmaßnahmen, die die Auslösung eines Schadens verhindern.
Die chemischen und physikalischen Gesetzmäßigkeiten, die einen Schaden auslösen können, können nachvollzogen werden. Man weiß, dass die Erde kein statisches Gebilde ist. In dem Moment, wo man etwas tun, erfolgt eine Reaktion. Es gelten die Gesetzmäßigkeiten, wie man sie aus den Naturwissenschaften kennt.
Die sind aber nicht alle auch jetzt schon bekannt.
Hier ist es so, dass hochradioaktiver Abfall in ein natürliches Gestein eingelagert wird. Radionuklide aus dem Abfall sollen nicht im Zeitraum der nächsten 1 Million in die Biosphäre gelangen.
Die vorgesehene Lösung ist eine Einlagerung in der Erdkruste. Dort sind Flüssigkeiten vorhanden (wenn auch zum Teil in verschwindend geringen Mengen). Der Abfall und der Abfallbehälter sind zu einem gewissen Grad (über geologische Zeiträume) löslich, und wässrige Lösungen tauschen sich so lange aus, bis (temporäre) Gleichgewichte einstellen.
In einem Endlager haben Sie sehr viel Zeit dazu.
Dieser Faktor wird (hoffentlich) bei der Erforschung des Risikos durch die Nutzung dynamischer Modelle adressiert. Dort wird für ein Wirtsgestein mit spezifischen Eigenschaften im Hinblick auf eine Einlagerungskonzept analysiert, und es wird simuliert, was über welchen Zeitraum wie geschehen könnte. Es gibt bereits erste rudimentäre Modelle mit einer sehr eingeschränkten Qualität der Darstellung.
Die Wahrscheinlichkeit, dass die Naturgesetze (chemische und physikalische Gesetzmäßigkeiten) nicht außer Kraft gesetzt werden, ist sehr, sehr hoch. Der Faktor „Verwundbarkeit“ ist eindeutig nachvollziehbar vorhanden.
Um die Wahrscheinlichkeit des Auftretens eines Schadens gering zu halten, und weil jeder potentielle Schaden hoch ist, muss der Faktor „Schutzmaßnahmen“ daher durch Maßnahmen sehr, sehr gut bestimmt werden: ein Standort mit der bestmöglichen Sicherheit.
Um diesen Faktor richtig zu verstehen, muss er so lange in weitere Faktoren zerlegt werden, bis er verstanden worden ist, und quantitativ dargestellt werden kann.
Bis jetzt konnte anhand von existierenden Daten unterschieden werden in: Gebiete, wo so viele Daten und Interpretationen vorliegen, dass sie schon jetzt sicher als ungeeignet bewertet werden können, und Gebiete, wo dies nicht der Fall ist.
Diese verbleibenden Gebiete werden untersucht.
(Wenn hinreichend zuverlässige Daten zu den Kriterien vorliegen, die anzeigen, dass ein bestimmtes Gebiet nicht geeignet ist, wird es nicht weiter untersucht.)
Ein Beispiel:
In der Vergangenheit standen Salzstöcke (steilstehendes Salzgestein) im Fokus der Erkundung (Gorleben). Sie sind einfach zu finden und haben einige Vorteile. Es lassen sich kostengünstig große Hohlräume schaffen, deren Einsturzgefahr bei geeigneter Gestaltung gering ist. Zudem ist Salzgestein oft relativ trocken (zumindest dann, wenn die Einlagerung beginnt). Es gibt große, relativ homogene Bereiche. Dies wird an vielen Stellen in Deutschland gezielt genutzt, sowohl um eine bestimmte Art von Salz abzubauen, als auch um danach dort etwas einzulagern, wie (zum Beispiel) Erdgas oder Sonderabfälle.
Seit über 50 Jahren ist bekannt, worauf bei der Erforschung für die Einlagerung von Wärme erzeugendem Abfall in Salzgestein geachtet werden soll. Stark vereinfacht ist dies etwa so: Eine Wärmequelle wird in das Salzgestein gestellt, und die Flüssigkeiten, die im Salz vorhanden sind, wandern in Richtung der Wärmequelle (Gase wandern von ihr weg). Salzgestein enthält Wasser und Gase, wenn auch meist in sehr, sehr geringen Mengen.
Die Gesteine um den Salzstock herum enthalten Flüssigkeiten, zum Teil weit mehr als im Salzgestein vorhanden sind. Zudem stehen diese Flüssigkeiten unter Druck. Sie könnten daher möglicherweise dem auf die Wärmequelle zuwandernden Wasser Nachschub liefern. Dadurch wird dann eine fortgesetzte Migration von Wasser hin zur (eingelagerten) Wärmequelle unterstützt. In dem migrierenden Wasser können sich unterschiedliche chemische Elemente lösen, so dass korrosive Flüssigkeiten entstehen.
Da geologische Zeiträume zur Verfügung stehen, können in der Natur selbst dichte Gesteine (mit einem sehr, sehr geringen Porenvolumen und spektakulär niedrigen Gebirgsdurchlässigkeiten) eindrucksvolle Ergebnisse schaffen (Erdöl- und Erdgasfelder).
Bei der Bestimmung des Einlagerungsstandortes sind sicherlich Simulationsmodelle notwendig, die, ähnlich wie in der Ölindustrie, quantitativ das Migrationsverhalten und Volumen von Stoffen über bestimmte Zeiträume modellieren.
Ein Problem ist die Konstruktion des geologischen Modells. Die interne Auflösung eines Salzstocks mit reflexionsseismischen Methoden ist unzureichend. Damit man auf reflexionsseismischen Daten etwas sieht, was man interpretieren kann, müssen Unterschiede in der Impedanz vorhanden sein, und die Gesteinskörper eine bestimmte Größe haben.
Da in einem Salzstock außer Steinsalz auch andere Gesteine vorhanden sind, die zusammen mit dem Steinsalz stark verformt und zerbrochen wurden, ist eine zuverlässige Vorhersage der internen Geometrie im Meter-Bereich nicht möglich. Salzbergwerke werden deshalb von innen erkundet: man bohrt, schaut sich an, was vorhanden ist und „tastet“ sich vor.
Wenn man ein Beispiel studieren will, wo ein Schaden bereits eingetreten ist, dann exploriert man vom Schreibtisch aus den Sachverhalt der Einlagerung von radioaktivem Abfall im Bergwerk Asse.
Die „sicherheitsgerichtete Abwägung“ erfolgt anhand der Anlagen zum Gesetz (1 bis 11). Diese Kriterien können alle als Risikofaktoren gelesen werden.
Faktor 1 ist die Bewertung des Transportes radioaktiver Stoffe durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich.
Faktor 2 ist die Konfiguration der Gesteinskörper (Barrieremächtigkeit).
Faktor 3 ist die räumliche Charakterisierbarkeit, kurz: wie sicher kann vorhergesagt werden, welcher Typ von Gestein vorhanden ist.
Faktor 4 ist die Bewertung der langfristigen Stabilität der günstigen Verhältnisse.
Faktor 5 bewertet die gebirgsmechanischen Eigenschaften.
Faktor 6 ist die Neigung zur Bildung von Fluidwegsamkeiten.
Faktor 7 ist die Neigung zur Gasbildung.
Faktor 8 adressiert die Temperaturverträglichkeit.
Faktor 9 ist die Bewertung des Rückhaltevermögens im einschlusswirksamen Gebirgsbereich.
Faktor 10 ist die Bewertung der hydrochemischen Verhältnisse.
Faktor 11 ist die Bewertung des Schutzes des einschlusswirksamen Gebirgsbereichs durch das Deckgebirge.
Jeder dieser Faktoren kann entweder als Angriff, oder als Schutzmaßnahme betrachtet werden. Faktor 1 kann (zum Beispiel) formuliert werden als: „Es darf keinen Transport von radioaktiven Stoffen durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich geben.“ Das ist dann eine Schutzmaßnahme.
Er kann aber auch formuliert werden als: „Es kann einen Transport von radioaktiven Stoffen durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich geben.“ Das ist dann eine Bedrohung.
Für die Bewertung ist der Blickwinkel nicht relevant, da bekannt ist, was erreicht werden soll.
Die elf Faktoren sind nicht völlig unabhängig voneinander. Aus den ersten vier Faktoren (plus Faktor 11) können Rückschlüsse zur Relevanz der Faktoren fünf bis zehn gezogen werden.
Oder eben auch nicht: Die Wahrscheinlichkeit, dass der Standort im Fokus den Ansprüchen genügt, kann dann nicht sehr hoch sein.
Analog zu den Beispielen oben können Wahrscheinlichkeiten ermittelt werden, die ausdrücken, wie zuverlässig der individuelle Sachverhalt in einem bestimmten Teilgebiet verstanden worden ist. Dies bedeutet, dass dort Vorhersagen gemacht werden können, die dann nachprüfbar zutreffen.
Damit kann auch Außenstehenden ermöglicht werden, die Beurteilung nachzuvollziehen.
Wenn man etwas nicht weiß, dann ist die Wahrscheinlichkeit immer 0,5 (kann so sein, oder so sein). Das ist dann ein Faktor, der die Gesamtwahrscheinlichkeit, eine zuverlässige Einschätzung angefertigt zu haben, halbiert. Das wird in der Regel vermieden werden wollen.
Um auf den Anfang zurückzukommen. In der Industrie sind diejenigen Unternehmen erfolgreich, die alle Faktoren analysieren (und dies gut können). Das ignorieren eines wichtigen Faktors, den alle anderen nutzen und beurteilen, kann einen aus dem Geschäft werfen.
Ein einfaches Beispiel:
Bei der Suche nach dem Ölfeld werden alle Faktoren betrachtet, mit der Ausnahme „die Möglichkeit, mit der Förderung Geld zu verdienen“. Als Resultat wird zwar Öl gefunden. Man wird aber sehr schnell insolvent, weil man es nicht wirtschaftlich fördern kann.
In Bezug auf das Konzept und die Kriterien (inkl. Indikatoren) bedeutet dies, dass ein Versagen bei einem beliebigen dieser Faktoren (Indikatoren) für ein unsicheres Endlager verantwortlich sein kann.
Bei dem Konzept ist teilweise sichtbar, dass die Problematik erkannt wurde und adressiert wird. Allerdings muss man sich diese Informationen zusammensuchen, und (weil sie verstreut sind), ist sich dann nicht sicher, ob man alles gefunden hat (oder nicht), und alles korrekt zugeordnet hat (oder nicht).
Wie bei dem vorherigen Kommentar zur Lesbarkeit angeregt, könnte eine andere Struktur der Dokumentation (bzw. Verfügbarmachen von Informationen) eine effektivere und effizientere Kommentierung (oder andere Formen der Beteiligung) ermöglichen. Die EndlSIUntV hilft dabei nicht.
Durch die Nutzung von Risiko könnte zudem mehr Transparenz darüber erzielt werden, was genau als „sicher“ angesehen wird. Dies ist sicher nicht die einfache Benennung von etwas als „sicher“. Das ist wahrscheinlich die Größe des Risikos, die für einen bestimmten Faktor (Indikator) beim Bau des Endlagers akzeptiert werden muss.
Bei dem Konzept geht es möglicherweise damit los, dass LeserInnen mental „sicher“ in „Risiko“ übersetzen und sich dann denken, dass da etwas nicht transparent gemacht wird. Dies ist kaum geeignet, um Vertrauen aufzubauen.
Im Allgemeinen tun sich MitbürgerInnen mit dem Konzept von Risiko sehr schwer. Das könnte aber geändert werden.
Vielleicht trauen sich dann auch mehr Leute, sich zu beteiligen.
Laut StandAG soll die Endlagersuche in einem „… partizipativen, wissenschaftsbasierten, transparenten, selbsthinterfragenden und lernenden Verfahren“. Im Gegensatz zu anderen Paragraphen im StandAg habe ich dazu keine Verordnung gefunden, die regelt, was das genau bedeuten soll. Bis jetzt habe ich lediglich unterschiedliche Interpretationen wahrgenommen. Die Verwendung von Risiko adressiert alle dies Anforderung. Sie ermöglicht transparent aufzuzeigen, wie Wissenschaft verwendet wird, wie gemessen werden kann, dass gelernt wird, wie Vorgehensweisen du Zwischenergebnisse hinterfragt werden können.
Ein Beispiel (in Anlehnung an die amtliche Kommunikation zu der Corona Pandemie):
Wenn Inhalte der Kommunikation nicht transparent wirken, und nicht verstanden werden und die wahrgenommene Kompetenz als gering eingeschätzt wird (Vertrauen!), dann kann als Resultat jede Form von irrationalem Verhalten erwartet werden, ohne dass dann noch mit Logik etwas zu bewirken ist.
Corona: Man kann sich nur mit Aufwand dagegen schützen, an dem Coronavirus (COVID-19) zu erkranken, und ernste Schäden sowohl davonzutragen/zu sterben, als auch jemandem anderen ernste Schäden zuzufügen/ihn umzubringen (weil man ihn ansteckt). Eine Impfung verhindert dies.
Ist das dann, wenn das weiß, und nichts tut, eine fahrlässige Tötung?
Die Impfungen sind aber nicht verpflichtend.
Sie werden als ein nicht zulässiger Eingriff in die Unverletzlichkeit des eigenen Körpers interpretiert (und nicht als eine Schutzmaßnahme dagegen, jemand unabsichtlich umzubringen). Dabei ist es völlig egal, was mit dieser Unverletzlichkeit des Körpers passiert, wenn er mit einer Corona Erkrankung auf der Intensivstation im Krankenhaus behandelt werden muss. Da darf dann plötzlich alles Mögliche hineingesteckt werden.
Ca. ein Viertel der Bevölkerung hat in diesem Zusammenhang kein Vertrauen mehr in die zuständigen öffentlichen Institutionen. Nach über 2 Jahren Erfahrung im Umgang mit dem Virus sterben jeden Tag ca. 250 MitbürgerInnen daran (als ob nichts getan werden kann).
Im Zusammenhang mit dem Umgang mit Risiko gibt es zahlreiche Denkfallen und Wahrnehmungsverzerrungen. In meinem Berufsleben wurden deshalb Erkenntnisse aus der kognitiven Psychologie genutzt, um deren Einfluss zu minimieren.
Kommentar zu der Definition des Begriffs „Szenarienungewissheiten“ in Kapitel 8.9.2
Auf Blatt 43 wird die Anwendung erläutert. Dabei wird dann auf Kapitel 8.2. in der Anlage 1 verwiesen. (Zu Teilen davon hatte ich bereits einen Kommentar eingestellt.)
Die Verwendung von Szenarien ist sehr zu begrüßen. Es ist zum Teil auch zu erkennen, was in der Bearbeitung stattfindet. Die Struktur und Gestaltung der Szenarien erscheinen entweder nur eingeschränkt dargestellt oder fokussieren nur auf bestimmte Aspekte des Endlagers. Die
Mehr Transparenz würde dem Außenstehenden helfen, die Gestaltung der Szenarien zu verstehen, und die Relevanz einzelner Szenarien selbst einzuschätzen. Da der Begriff „Szenario“ eine umgangssprachliche Bedeutung hat, möchte ich zunächst meine Erwartung schildern. Möglicherweise hat die BGE eine andere Ansicht, was zu Szenarien gehört, und was nicht.
Nach meiner Erfahrung werden Szenarien hauptsächlich zur Risikoidentifikation genutzt. Dabei werden unterschiedliche zukünftige Ereignisse zusammen mit den dazugehörenden Risiken zu beschreiben. Mit dieser Methode werden alternative mögliche Ergebnisse sowohl bei der Analyse, als auch bei der Beurteilung verwendet.
Dies ist teilweise in der Anlage 1 sichtbar. Ich hatte dies schon vorher kommentiert.
Ergebnisse sind Beschreibungen und Analysen von sowohl alternativen zukünftigen Entwicklungen des speziellen Sachverhaltes, der analysiert wurde, als auch des Umfelds, in dem der Sachverhalt existiert (Gesellschaft, Umwelt, Recht, Technik, usw.), und in dem das Risiko vorkommt.
Dabei beschränkt sich die Szenario Analyse nicht auf eine Extrapolation historischer Daten aus der Vergangenheit in die Zukunft, und sie erwartet nicht, dass alle Beobachtungen aus der Vergangenheit auch in der Zukunft noch gültig sind.
Die einzelnen Szenarien enthalten alternative Wege, um das gesetzte Ziel zu erreichen. Zudem stellen sie die Analyse des Zusammenspiels der Ursachen von Ereignissen mit Quellen von Problemen dar. Die produzieren nämlich die unerwünschten Ergebnisse (den Risikoschaden).
Dies ist eine gute Methode, um Risiken bei Sachverhalten zu identifizieren, wo bestimmte Informationen erst in Zukunft verfügbar werden, und wo für Fortschritte (viel) Geld ausgegeben werden muss, ohne dass eine erfolgreiche Zielerreichung garantiert ist.
Nach meiner Ansicht trifft dies auf die Endlagersuche zu, auch wenn die Dokumentation das Gefühl vermitteln soll, dass das Ziel auf jeden Fall erreicht wird.
Die Szenarioanalyse ist sehr gut anwendbar, wenn etwas erreicht werden soll, was noch nicht vorher gemacht wurde.
In der Vergangenheit hat man das in diesem Sachverhalt nicht gemacht (Gorleben, Asse) und als Resultat viel Vertrauen verspielt.
Die Methode ist jederzeit anwendbar, auch dann, wenn schon viel Geld ausgegeben wurde, aber, um das Ziel immer noch erreichen zu können, anscheinend viel mehr Geld ausgegeben werden muss, als es eingeplant wurde. Zudem muss herausgearbeitet werden, welche Schäden in Zukunft noch auftreten können.
Man wünscht sich, dass Szenario Analysen für Großprojekte mit Steuergeldern wie dem Flughafen Berlin/Brandenburg oder Stuttgart 21 verpflichtend vorhanden gewesen wären.
Die Anwendung der Methode ist jedoch nicht vorgeschrieben.
Die durch Szenario Techniken identifizierten Risiken ermöglichen sehr detaillierte Darstellungen zukünftiger möglicher Zustände. Die obligatorischen Komponenten von Sicherheitsmaßnahmen und Risiken werden durch einzelne Faktoren wie handelnde Personen, Bedrohungstypen, Umfeld, Umwelteinflüsse, zeitliche Abläufe, und andere wesentliche Komponenten beschrieben und definiert.
Das sind die Faktoren in der einfachen Gleichung, mit der ein Risiko bestimmt wird. Im Konzept wird bisher allerdings (soweit ich das verstanden habe) über eine verbalargumentative Einschätzung der Erfüllung der Sicherheitsanforderungen gesprochen.
Handelnde Personen sind sowohl Menschen, als auch Gesellschaften, Firmen, Ämter, Behörden, usw., deren Personen etwas Unerwünschtes tun, und dadurch eine Bedrohung für die Realisierung der geplanten Ziele darstellen.
Bedrohungstypen beschreiben die Grundursachen der daraus resultierenden Risiken. Eine Bedrohung kann ein zufälliges Unglück wie eine Naturkatastrophe sein, oder die Anwendung mangelhafter Praktiken in der Gestaltung des Vorhabens, eine ineffektive Ausführung der notwenigen Aufgaben, oder unbefugte Änderungen beim Betreiben des Vorhabens sein. Diese Mängel können zufällig auftreten oder von krimineller Natur sein.
Das Umfeld beschreibt und definiert, wo diese handelnden Personen tätig sind. Bereiche wie Naturschutz, Brandschutz, Klimaschutz, …, wo es in einem Zeitraum von einigen Jahren bei länger andauernden Vorhaben zusätzlich zu berücksichtigende Änderungen gibt (die sich als neu einzuhaltende zusätzliche gesetzliche Anforderungen manifestieren), können nur mit dieser Methode wirksam dargestellt werden.
Szenarien müssen daher sowohl die handelnden Personen, als auch die Umstände, wie sie rechtlich zueinanderstehen, Umfeld, Umwelteinflüsse, zeitliche Abläufe, Terminvorgaben, und vieles andere mehr umfassen.
Ein wichtiges Element der einzelnen Szenarien sind zeitliche Abläufe und Terminvorgaben: wann, und wie, und wie häufig wird ermittelt, wie wahrscheinlich es ist, dass die gesetzten Ziele genauso wie geplant erreicht werden können. Welche Unsicherheit existiert, und wie hoch ist die?
Es muss verbindlich festgelegt sein, was getan werden muss, wenn eine Information nachweist, dass Zwischenziele nicht erreicht wurden. Um das erkennen zu können, müssen Kontrollen betrieben werden. Nur wenn man weiß, was man dann tun muss (vorbereitet ist), dann wird gesteuert.
Wenn nichts vorbereitet worden ist, dann kann auf Ereignisse lediglich reagiert werden.
Risikoszenarien umfassen Bedrohungsereignisse und Schwachstellen. Bedrohungsereignisse sind Situationen und/oder Ereignisse, die eine Spannbreite von möglichen Wahrscheinlichkeiten des Auftretens haben, und Schadenereignisse in unterschiedlichen Größenordnungen auslösen (die einfache Gleichung zur Bestimmung des Risikos).
Schwachstellen sind mangelhafte Schutzmaßnahmen (Verwundbarkeit). Sie sind durch Defekte, schlechte Angewohnheiten und ähnliches charakterisiert. Dies erlaubt die Bestimmung des Umfangs der Größe und Wahrscheinlichkeit von möglicherweise auftretenden Schadenereignissen.
Das Ergebnis ist eine Dokumentation der Spannbreite möglicher Schäden (ungeplante zusätzliche Kosten, Gefährdungen der Gesundheit, und ähnliches). Damit man damit umgehen kann, muss die Wahrscheinlichkeit eingeschätzt werden, dass diese Schäden eintreten werden.
Jede Schätzung der Spannbreite der Schadenswerte muss auf festgelegten Kriterien und Methoden basieren, um eine präzise Dokumentation und Nachprüfbarkeit zu ermöglichen. Beispiele für Kriterien:
• Die Kritikalität definiert die Gesamtauswirkung eines Ereignisses auf die Effektivität und Effizienz bei der Erstellung und Umsetzung eines Vorhabens. Wenn die Kritikalität einzelner Elemente des Vorhabens nicht definiert worden ist, dann wird bei der Bestimmung der Gesamtauswirkung im wirklichen Leben hinter den Ereignissen hergelaufen und reagiert, anstatt zu gestalten.
• Die Kosten sind nicht nur die Kosten, die notwendig sind, um einen Vorgang ausführen zu können, sondern die Gesamtkosten für das ganze Vorhaben, die dann entstehen, wenn die Ausführung des Vorgangs nicht erfolgreich war. Wenn diese Kosten am Ende des Vorhabens nicht entstanden sind, weil alles erfolgreich war, dann sind Einsparungen erzielt worden.
• Die Empfindlichkeit ist in diesem Zusammenhang die Spannbreite der möglichen Kosten, die notwendig sind, um Schäden zu beheben. Wenn man sich das nicht leisten kann, dann sollte man möglicherweise gar nicht erst damit beginnen.
Die Kombination aus den spezifischen Eigenschaften des zu schützenden Gegenstandes (Beispiel: Schutz der Biosphäre, damit dort Nahrungsmittel angebaut werden können), und die Art der Bedrohungstypen (zum Beispiel das unkontrollierte Entweichen von Giftstoffen aus einem undichten Abfalllager), bestimmen die Natur und das Ausmaß der möglichen Schäden.
Bedrohungstypen beeinflussen verschiedene zu schützenden Gegenstände auf unterschiedliche Weise. Bedrohungsereignisse, Verwundbarkeiten, und Größe des Verlustes variieren in Bezug auf die Merkmale des zu schützenden Gegenstandes und seine Nutzung.
Eine Voraussetzung für eine erfolgreiche Risikoidentifikation ist, dass all dies für unterschiedliche mögliche Bedrohungsereignisse und Verwundbarkeiten jeweils separat analysiert und dokumentiert wird. Dies ist aufwändig. Was nur sehr eingeschränkt vollständig ist, kann allerdings auch nur sehr eingeschränkt zuverlässige Ergebnisse liefern.
Laut Konzept finden dazu einige Aktivitäten statt. Es ist aber schwierig einzuordnen, was genau zu was gehört, und womit verbunden ist. Als Bürger würde man sich eine Narrativ wünschen, wo man durch die Szenarien geführt wird. Möglicherweise wird dann klar, wie viel man nicht weiß, und wieviel nicht gewusst werden wird, um warum trotzdem zu einem bestimmten Zeitpunkt ein Endlager notwendig ist. Als Bürger muss man sich in dem Narrativ wiederfinden können.
Es wäre hilfreich, wenn Szenarien im jetzt und heute beginnen. Mit den oben erwähnten Anforderungen und Details könnte dargestellt werden, wie damit umgegangen wird, wenn der Suchprozesse nicht so funktioniert wie geplant, oder die verbleibenden Ungewissheiten weiterhin unbefriedigend hoch sind, oder experimentelle Prüfungen von Annahmen fehlschlagen, oder die Rückholbarkeit nicht gewährleistet werden kann, oder …
Als Bürger ist man weniger an dem passiert, was in über 200 Jahren passiert, sondern an dem, was man selbst, oder die eigenen Kinder, Enkel, Urenkel betreffen wird. Das ist in dem Konzept nur teilweise zu erkennen. Was wäre, wenn (fiktiv) sich der sicherste Standort direkt in Berlin mitten unter dem Regierungsviertel befinden würde? Würde man dann einen weniger sicheren Standort auswählen, und ein höheres Risiko akzeptieren, dass das Endlager undicht wird?
Szenarien führen zu Einsichten.
Desto enger gefasst wird, was in den Szenarien betrachtet wird, desto begrenzter sind die Einsichten.
In der ersten Phase der Beteiligung (zum Zwischenbericht) hatte ich sowohl bei der Darstellung, als auch bei der Beteiligung einen starken Fokus auf die „Betroffenheit“ einzelner Gebiete in Deutschland wahrgenommen. Der Rahmen war gesteckt: Alles irgendwie eine regionale Angelegenheit. Es konnte erklärt werden, wie man dahin gekommen ist. Alle, die woanders wohnen, sind nicht betroffen und können sich zurücklehnen.
Der Rahmen hätte auch anders gesetzt werden können: alle MitbürgerInnen sind betroffen, und neben der Ausgrenzung von Gebieten, die mit guten Gründen aus nicht geeignet eingestuft werden müssen, wird geforscht: nicht nur an Gebieten, sondern auch an Techniken, Einschätzungsmethoden, Modellierungstechniken, Beurteilungsmethoden, …
Die Szenariotechnik erlaubt, die möglichen Auswirkungen von Aktionen zu modellieren. Es ist nicht klar, ob dies bei der Planung der Endlagersuche gemacht wird. Die zugänglichen Informationen deuten eher auf ein festgelegtes, relativ starres Phasenmodell.
Da das Verfahren jedoch laut StandAG „lernend“ und „selbsthinterfragend“ sein muss, können sich leicht auch andere Szenarien mit anderen Phaseninhalten vorgestellt werden.
In dem Zusammenhang mit den NBG Gutachten, die im Konzept über die verlinkten Darstellungen der jetzigen Untersuchungsgebiete zugänglich gemacht wurden, könnte sich gefragt werden: Hätte einer dieser Gutachter bei dieser Art des Auftrags eines dieser Gebiete zuverlässig als ungeeignet einschätzen können? Das ist sehr, sehr unwahrscheinlich.
Sind die Berichte deshalb ein Gütesiegel für die vorgeschlagene Vorgehensweise? Definitiv auch nicht. Sie enthalten eine Menge Empfehlungen, von denen im Konzept nicht erkannt werden kann, dass sie umgesetzt werden.
Werden die Inhalte in diesen Berichten von LeserInnen immer gleich verstanden? Das ist sehr, sehr unwahrscheinlich. Ein Beispiel:
In der Empfehlung 3 zum Teilgebiet im Wirtsgestein Tongestein heißt es: „… Es fehlt jedoch eine moderne, hochauflösende sequenzstratigraphische Analyse, …“. Diese Art der Analyse gibt es seit den 1980er Jahren. Sie ist nur modern im Vergleich zu dem, was der Gutachter zu sehen bekam. Den Wert und die Bedeutung können LeserInnen im Zweifel nicht nachvollziehen. Der deutsche Wikipedia-Artikel ist besonders wenig hilfreich. Wenn man die Analysetechnik aus dem Berufsleben kennt, erscheint die Nutzung zwingend. Wenn man nicht weiß, was das ist, erscheint dies als esoterisches Extra.
In dem Konzept kann nicht erkannt werden, inwieweit die jetzige Vorgehensweise die Vorgabe des StandAG vollumfänglich adressiert, dass das Verfahren transparent sein muss.