Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
Arbeitsstand zu den Methoden rvSU
#1
Sehr geehrte Damen und Herren,

hier können Sie uns Ihre Vorschläge und Anmerkungen zu unserem Arbeitsstand des Konzepts zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen mitteilen.

Sie finden den Arbeitsstand hier:

Konzept zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen gemäß Endlagersicherheitsuntersuchungsverordnung (Stand: 28.03.2022)

Nach einer einmaligen Registrierung (siehe Posting "Willkommen im Forum") können Sie kommentieren und auch eigene Themen eröffnen. Diese Diskussionsstränge können von weiteren Teilnehmer*innen an der Konsultation aufgegriffen werden. Die BGE wird Fragen, so weit im Konsultationszeitraum möglich, beantworten. Je nach Komplexität der Fragen geht das schneller oder langsamer – aber auf jeden Fall wird es Rückmeldungen geben. Wer Stellungnahmen abgeben will, kann dies über dialog@bge.de tun. Der Konsultationszeitraum endet am 31. Mai 2022.

Vielen Dank für die Teilnahme,

Ihre BGE
#2
Ihre beiden zentralen "Methoden .pdf" - hahahaha

Selten so einen "verkopften" Schwachsinn gesehen

Die echten Bauplaner biegen sich vor Lachen

Alles nur Gorleben 1970 abschreibe ...


Thema verfehlt - Note 6
#3
Kommentar zu Abschnitt 8.5 Geosynthese (§ 5 EndlSiUntV)
 
In dem Abschnitt wird dargestellt: „Die Grundlage für die Geosynthese sind geowissenschaftliche Daten, die die BGE in erster Linie von den Staatlichen Geologischen Diensten abfragt und anschließend sichtet und aufbereitet. Dies sind beispielsweise Bohrungsinformationen, geologische Karten, bohrlochgeophysikalische sowie reflexionsseismische Messungen und vorhandene 3D-Modelle. ... In Phase I erhebt die BGE keine eigenen Daten in den Teilgebieten. Dies geschieht erst in Phase II durch die übertägige Erkundung der durch den Gesetzgeber festgelegten Standortregionen (§ 16 StandAG). Eine detailliertere Darstellung der Methodik zur Geosynthese inklusive Erläuterung anhand von Beispielen ist Anlage 1, Kapitel 5 zu entnehmen.
 
In der referenzierten Anlage 1 wird in Abschnitt 5.1.2 Bewertung der Datenlage und der geologischen Rahmenbedingungen auf den Umgang mit Bohrungen eingegangen. Bohrungen werden als direkte Nachweise angesehen, und durch zwei Kennzahlen beschrieben (DQL, DQN). Es ist nicht zu erkennen, wie die im Konzept beschriebene Sichtung und Aufbereitung stattfindet, beziehungsweise, was darin geschieht. Es ist daher nicht vollständig transparent, auf welcher Basis die Zahlen für DQL ermittelt werden. Die Vergabe von DQL ist schematisch dargestellt (Bildung von Mittelwerten).
 
DQN wird anhand der geographischen Lokation mathematisch ermittelt. Da Bohrungen jedoch in der Regel aus wirtschaftlichen Gründen abgeteuft werden, besteht das Risiko, dass lediglich von ähnlichen speziellen strukturellen Sachverhalten Informationen bereitgestellt werden. Die Anzahl und räumliche Nähe würden dann nicht die Variabilität im Gebiet abbilden.
 
Es ist nicht klar zu erkennen, wie mit dieser Vorgehensweise die vorhandenen geologischen Ungewissheiten effizient und effektiv reduziert werden, oder sich mit der Anwendung dieser Vorgehensweise auf Phase 2 vorbereitet wird.
 
Da die Wirtsgesteine nicht das Ziel der Bohrtätigkeit waren, wurden die ursprünglichen Daten und Interpretationen auch nicht erstellt, um zuverlässige Aussagen über das Wirtsgestein zu erstellen.
Das, was durch diese Bohrungen an Daten verfügbar ist, wird jetzt allerdings genutzt (da es nichts anderes gibt).
 
Das ist nicht das gleiche, als wenn das Wirtsgestein Ziel der Aktivität (im Fokus der Aufmerksamkeit) gewesen wäre.
 
Es besteht deshalb das Risiko, dass diese Informationen nicht hinreichend repräsentativ sind, um das Wirtsgestein im Untersuchungsgebiet ausreichend zu charakterisieren.
 
Es wird daher angeregt, aus Bohrungsdaten den größtmöglichen Nutzen zu ziehen. Diese Aktivität könnte in diesem Abschnitt von Phase 1 stattfinden, um so optimal auf Phase 2 vorbereitet zu sein.
 
Es wird angenommen, dass für ein definiertes Gebiet nur bedeutsame Bohrungen betrachtet werden, das heißt: Bohrungen, die relevant sind, weil sie das Wirtsgestein durchteuft haben (oder hätten durchteufen sollen), ohne Probleme zugänglich (effizient) sind, die dazugehörigen Daten und Interpretationen verstanden werden können, und dass sie rechtzeitig zur Verfügung stehen, um sie in der Bewertung nutzen zu können.
Eine Information aus einer Bohrung ist zuverlässig, wenn sie bedeutsam ist, das gewünschte/erforderliche Maß an Präzision hat, genau, gültig, und vollständig ist.
 
Bohrungen sind bedeutsam, weil sie das Äquivalent eines wissenschaftlichen Experimentes darstellen. Durch Anwendung wissenschaftlicher Prinzipien wird eine geologische Hypothese aufgestellt (Prognose). Diese Hypothese wird durch die Bohrung getestet.
Im Gegensatz zu einem naturwissenschaftlichen Experiment im Labor ist das Ergebnis nicht lediglich eine vollständige Bestätigung oder vollständige Wiederlegung der geologischen Prognose. Das Ergebnis drückt aus, inwieweit vorhandene Ungewissheiten im Untergrund reduziert wurden.  
 
Ein erstes Anzeichen, wie gut die Geologie zum Zeitpunkt der Prognose verstanden worden war, ergibt sich aus dem Verhältnis von erfolgreichen zu nicht erfolgreichen Bohrungen.
Dies kann je nach Datenlage detaillierter betrachtet werden. Während im wirtschaftlichen Sinne „ein knapp vorbei“ in der Regel als Misserfolg deklariert werden muss, kann es sich geologisch um ein „kaum daneben“ handeln.
 
Ein erstes Ziel sollte eine 1D Darstellung des Wirtsgesteins in einem Maßstab sein, der es erlaubt, alle Eigenschaften darzustellen, die einen kritischen Einfluss auf die Eignung als Wirtsgestein haben. (Im Falle von Tongesteinen könnten dies (zum Beispiel) seltene, leicht zu übersehende 0,5cm mächtige höherpermeable Einlagerungen sein, die als Fluidwegsamkeiten dienen könnten.) Die geologischen Abwägungskriterien (StandAG §24) bilden eine gute Orientierung zu den Inhalten.
 
Dazu soll dokumentiert werden, wie zuverlässig dieses 1D Modell ist (Quelle der Daten, Interpretationen, Details werden weiter unten erläutert).
 
Es wird erwartet, dass keine direkten Nachweise in Form von Bohrkernen vorliegen.
 
Die einzigen direkten Nachweise sind daher Spülungsproben. Damit verbunden sind zahlreiche Interpretationsprobleme. Wie genau, vollständig und gültig ist die Beschreibung dieser Proben? Hat der Bearbeiter die Beschreibung lediglich zur Orientierung genutzt, wo er sich in der Prognose befindet, um Aussagen zum geologischen Bohrfortschritt machen zu können?
Die Probennahme ist nicht kontinuierlich. Hat er etwas übersehen (können)?
Wie zuverlässig ist die Beschreibung? Je nach Qualifikation ist die Detailtiefe beim Vorhandensein von (zum Beispiel) lediglich Splittern von Tongesteinen unterschiedlich. Diagenetisch umgewandelte Intrusivgesteine können unter einem Binokular wie marine Tonsteine aussehen. Sehr geringmächtige Einlagerungen werden oft übersehen, da sie nur einen sehr geringen Anteil in der Spülungsprobe bilden, oder beim Zeitpunkt der Entnahme vollständig fehlen.
Zudem werden relevante Eigenschaften, die nur im cm bis dm Bereich erkannt werden können, nicht verfügbar gemacht. Kristallingesteine sind nur schwierig zuverlässig zu identifizieren, wenn es sich zum Beispiel um Granite mit einer identischen Zusammensetzung wie Gneise handelt.
 
Elektrische Bohrlochmessungen liefern indirekte (petrophysikalische) Daten. Dies Daten werden interpretiert, um sie als geologische Information darstellen zu können. Die damit verbundenen Möglichkeiten, etwas nicht zuverlässig zu interpretieren, können Bücher füllen.
Über die letzten 50 Jahre hat sich die Präzision (Auflösung) und die Auswahl der Eigenschaften, die gemessen werden können, stark verbessert. Es kann trotzdem sein, dass dies weiterhin nicht ausreicht, um Wirtsgesteine zuverlässig charakterisieren zu können.
 
(Bei Gesteinen, die nirgendwo an der Oberfläche ausstreichen, werden deshalb in der Kohlenwasserstoffindustrie Gesteinskerne genutzt. Die Auswertung der Kerne erfolgt nicht nur in Form von Berichten mit Bildern, oder durch Laboruntersuchungen von Porosität und Permeabilität. Bearbeiter lernen am Kern selber Gesteinseigenschaften zu erkennen, zum Beispiel mehrere cm mächtige zementierte Bereiche, die auf den Bohrlochmessungen von Speichergesteinen nicht zu erkennen sind, Ichnofacies, die eine Einordnung in Ablagerungsmilieus ermöglichen, obwohl keine Fossilien vorhanden sind, und vieles andere mehr.)
 
Falls angenommen wird, dass in der entsprechenden Phase des Endlagersuchprozesses ausreichende Angebote für Messdienstleistungen vorhanden sein sollten, wird empfohlen, diese Hypothese sobald wie möglich zu testen. Das Angebot von Dienstleistern hat andere Zielgruppen mit anderen Anforderungen im Fokus.
 
Zusätzlich können weitere Daten vorliegen. Für eine Einschätzung der Ausdehnung einzelner Gesteinskörper in tonigem Wirtsgestein sind dies biostratigrafische Daten, die zusammen mit reflexionsseismischen Daten für sequenzstratigrafische Interpretationen genutzt werden. Vitrinitreflektionsmessungen lassen Rückschlüsse auf die diagenetische Geschichte zu.
In anderen Wirtgesteinen kann die Analyse von Flüssigkeits- und Gaseinschlüssen, Klüften, usw. bedeutsame Hinweise liefern.
 
Für jede bedeutsame Bohrung im Untersuchungsgebiet sollte daher eingeschätzt werden, wie zuverlässig die Informationen aus der Bohrung sind. Welche Präzision ist vorhanden: Auflösung im cm Bereich? dm Bereich? m Bereich? Gröber?
Wie vollständig ist die Information (die Formation ist nachgewiesenermaßen ungestört und vollständig durchteuft)?
Wie genau ist die Information (ein anderer Bearbeiter würde bei einer Bearbeitung zu denselben Ergebnissen kommen)?
Wie gültig ist die Information (inwieweit stimmt die Beschreibung mit der Wirklichkeit überein)?
Die Einschätzungen für Präzision, Vollständigkeit, … sind jeweils getrennt begründet zu dokumentieren. Dies ist zeitaufwändig, vor allem, wenn standardisierte Arbeitsprozesse erst erarbeitet werden müssen, mit denen die Gültigkeit der Ergebnisse überprüft werden kann. Ohne diese Einschätzungen kann die Qualität des vorhandenen Wissens leicht überschätzt werden. Als Resultat werden dann Prognosen erstellt, die deutlich unsicherer sind, als angegeben.
 
Die Ergebnisse dieser Arbeit bilden die Basis einer nachvollziehbaren Einschätzung der Ungewissheit über die Eigenschaften des Wirtsgesteins an der Lokation der Bohrung (ein lokales 1D Profil). Desto unzuverlässiger die Information, desto weniger Nutzen hat sie für die Bestimmung der Eignung eines Teilgebietes.
Ein besonders unangenehmes Problem sind fehlerhafte Beschreibungen, die nicht erkannt werden, weil sie den Vorstellungen des Bearbeiters/der Bearbeiterin entsprechen und deshalb als gültig bewertet werden.
 
Es wird angeregt, für die jeweilige einzelne Einschätzung Wahrscheinlichkeitswerte zu verwenden. Damit kann ausgedrückt werden, wie sicher sich der jeweilige Bearbeiter/die Bearbeiterin drüber ist, dass die Einschätzung gültig ist.
Da keine Kalibration möglich ist (die Bohrung wird nicht wiederholt, die Bohrungsdatenanalyse wird nicht wiederholt, es kann nicht herausgefunden werden, wie zutreffend die individuelle Einschätzung ist), wird empfohlen, zumindest auszugsweise Bohrungen durch eine oder mehrere BearbeiterInnen unabhängig voneinander einschätzen zu lassen.
Eine geringe Streuung würde auf eine erfolgreiche Umsetzung von standardisierten Arbeitsprozessen schließen lassen.
Der Vorteil dieser Vorgehensweise ist, dass im Arbeitsalltag das Bayes Theorem angewendet werden kann, um quantitativ darzustellen, ob, und wenn ja, wie sich die Ungewissheiten durch den Erwerb von Daten und den darauf aufbauenden Tätigkeiten reduziert haben.
 
Falls das Wirtsgestein in der geografischen Nähe aufgeschlossen ist (Steinbruch, Tongrube, Bergwerk) kann die Zuverlässigkeit durch detaillierte geologische Gesteinsaufnahmen kalibriert werden. Dabei werden Bohrungen simuliert. In der Regel wird dabei so vorgegangen, dass in dem Aufschluss an einer Lokation ein 1D Profil angefertigt wird. Mit diesem 1D Profil wird eine Vorhersage gemacht, wie ein 1D Profil an einer anderen Stelle in dem Aufschluss aussieht.
Zusätzlich wird eingeschätzt, wie zuverlässig diese Vorhersage ist.
Danach wird durch einen anderen Mitarbeiter/ eine andere Mitarbeiterin an dieser anderen Stelle ein weiteres 1D Profil angefertigt. Das Resultat wird mit der Vorhersage verglichen.
Die Unterschiede werden analysiert. Handelt es sich um andere Gesteine, oder sprechen die unterschiedlichen BearbeiterInnen das gleiche Gestein anders an?
Dies ermöglicht eine erste Aussage zur Gültigkeit der Einschätzung der Zuverlässigkeit. Im Anschluss wird erneut eine Vorhersage gemacht, wie ein weiteres 1D Profil an einer anderen Stelle in dem Aufschluss aussieht. Es wird wieder ein anderer Mitarbeiter/ eine andere Mitarbeiterin eingesetzt, um das neue 1D Profil zu erheben.
Danach wird erneut ausgewertet. Als Resultat wird ein Eindruck davon gewonnen, wie gültig Einschätzungen und Vorhersagen sind.
In der Praxis ist dies oft schwierig umzusetzen, weil die Aufschlüsse relativ klein sind, und die Abstände zwischen den Profilen nicht ausreichend groß sind, um Unsicherheiten zu adressieren. Veröffentlichungen, die dieses Problem adressieren, nutzten daher in der Regel kilometerlange Klippen, oder kilometerlange Stollen in Bergwerken. Die Darstellungen sind sehr detailliiert, damit die Einschätzungen nachvollzogen werden können, ohne vor Ort zu sein.
Weil schwierig sein kann, in Deutschland Aufschlüsse für Wirtsgesteine zu finden, die diesen Ansprüchen genügen, sollte frühzeitig damit begonnen werden, sich zu überlegen, wie dies umgesetzt werden könnte.
Eine enge Kollaboration mit KollegInnen der jeweils zuständigen Landesämter (inkl. Teilnahme an der praktischen Umsetzung) würde sicherstellen, dass nach einiger Zeit alle wissen, was der/die jeweils andere meint, wenn er/sie über den Sachverhalt spricht.
 
Falls das Wirtsgestein in der geografischen Nähe nicht aufgeschlossen ist, müssen analoge Vorkommen in anderen Teilen der Welt genutzt werden.
In allen Fällen muss die Zuverlässigkeit der Daten und Interpretationen eingeschätzt werden können. Dies ist deutlich unzuverlässiger, da Fragestellungen nicht im Dialog geklärt werden können.
 
Die Ergebnisse dieser Art der Betrachtung würden außerdem sequenzstratigrafische Reinterpretationen der vorhandenen reflexionsseismischen Daten unterstützen.
 
Aufgrund der relativ geringen Bohrtätigkeit in Deutschland wird angenommen, dass viele Daten nicht in einem lesbaren digitalen Format vorliegen. Die Digitalisierung könnte direkt beginnen, nachdem man weiß, was später genutzt werden soll, und wie zuverlässig dies wohl ist (zum Beispiel für Szenarien in einer Monte Carlo Simulation).
 
Aus den Einschätzungen der Zuverlässigkeit könnte zudem abgeleitet werden, welcher Art von Datenerwerb notwendig ist, um in Phase 2 eine hinreichende Sicherheit dafür zu erlangen, dass die geologischen Eigenschaften des Wirtsgesteins für einen Standort hinreichend zuverlässig vorhergesagt werden können.
 
Die Geschichte der Lagerstättenexploration enthält zahlreiche Beispiele dazu, wo als Konsequenz fehlender Detailarbeit das wirtschaftliche Potential eines Gebietes nicht gut genutzt wurde, weil die notwendigen Erkenntnisse erst dann gewonnen wurden, als der Zeitraum der Explorationslizenz fast oder ganz abgelaufen war.
 
Durch die Nutzung von öffentlich zugänglichen Aufschlüssen könnte zudem die Art der Bürgerbeteiligung verbessert werden. Das können auch Salzbergwerke sein. Ein Wirtgestein kann dadurch unmittelbar erfahrbar sein, und nicht ein abstrakter theoretischer Begriff in einer schwer lesbaren Dokumentation.
Die BürgerInnen können selbst entscheiden, in welche Richtung sie in dem Aufschluss sehen wollen, wohin sie gehen wollen, und was sie angesprochen und erklärt haben wollen. Direkt vor Ort kann gelernt werden, wie das beschrieben wird, was gesehen wird, so dass ein anderer an einer anderen Stelle weiß, wovon gesprochen wird.
Es könnten Fragen beantwortet, und Missverständnisse beseitigt werden. Es kann erklärt werden, wie sich das Gestein an der Oberfläche (Verwitterung etc.) von dem unter Tage unterscheidet.
 
Es folgt nun zur Illustration ein kurzer fiktiver Sachverhalt (Stichworte: Bohrlochdaten, Interpretation, Beobachtung, Orientierung, Beurteilung, Entscheidung). Das reale Leben ist sehr viel detaillierter und komplizierter.
 
Sie sind mit einer Dateneinsicht beauftragt, damit Ihr Arbeitgeber sich entscheiden kann, ob er ein Beteiligungsangebot in der Ölindustrie annimmt. Sie erhalten vom Betriebsführer Einsicht in Daten von drei Bohrungen, in denen in einer 250 Meter mächtigen Speichergesteinsformation, die zu 80% aus grauen und graubraunen Tongesteinen besteht, in 10 bis 20 Meter mächtigen Sandsteinlagen erfolgreich Öl-Zuflüsse getestet wurden. Die Sandsteinlagen sind vollständig mit Öl gefüllt. Bohrlochmessungen, und reflexionsseismische Daten werden zur Verfügung gestellt. Auf den reflexionsseismischen Daten kann die Formation kartiert werden, nicht aber die einzelnen Sandsteinlagen.
Dies sind Daten und Interpretationen, die direkt beobachtet werden können.
 
Sie wissen aus Scoutinformationen, dass sich in dem Lizenzgebiet eine vierte Bohrung befindet.  Auf Nachfrage ergibt sich, dass die Formation dort in einer anderen Fazies (grüne und grünbraune Tongesteine) vorkommt, und keine Sandsteinlagen angetroffen worden sind. Alle Bohrungen werden bis zu der gleichen Formation abgeteuft, die auf den reflexionsseismischen Daten zuverlässig zu identifizieren ist.
Auf Nachfrage stellt sich heraus, dass die verfügbaren biostratigrafischen Daten keine Gewissheit darüber bringen, ob die identisch aussehenden Sandsteinlagen zur gleichen Zeit abgelagert wurden.
Anhand der reflexionsseismischen Daten vermuten Sie, dass das ursprüngliche Explorationsziel eine unterlagernde Struktur war, die sich in den Bohrungen als wasserführend herausgestellt hat.
Dies sind Daten und Interpretationen, die Ihnen helfen, sich in dem Sachverhalt orientieren zu können.
 
Um den Sachverhalt beurteilen zu können, entscheiden Sie sich dazu, eine eigene sequenzstratigrafische Interpretation zu erstellen. Neben den reflexionsseismischen Daten nutzen Sie dazu Änderungen in der Impedanz und der natürlichen Radioaktivität in der Speichergesteinsformation, wie sie durch die Bohrlochmessungen aufgezeichnet wurden.
Nach ihrer Einschätzung hat die vierte Bohrung nicht die Formation in einer anderen Fazies durchteuft, sondern einen Intrusivkörper, dessen Geometrie nicht ermittelt werden kann, da er die gleichen reflexionsseismischen Eigenschaften wie die Lagerstättenformation hat.
Als Ergebnis der sequenzstratigrafischen Interpretation schätzen Sie das ursprüngliche Ablagerungsmilieu, und basierend darauf, die möglichen Dimensionen der lateralen Ausdehnung der einzelnen Sandsteinlagen ein. Dies ermöglicht Ihnen eine Abschätzung möglicher Speichergesteinsvolumen und basierend darauf, eine Abschätzung der Menge des vorhandenen Öls.
Damit ausgerüstet begutachten Sie die Zufluss-Testdaten. Die dort beobachteten Druckänderungen unterstützen Ihre Einschätzung, dass das mit jeder Bohrung verbundene Ölvolumen gering ist.
 
Sie beurteilen daher den Einstiegspreis in dieses Vorhaben als nicht gerechtfertigt. Sie präsentieren Ihre Ergebnisse dem Entscheidungsgremium Ihres Arbeitgebers, zusammen mit der Art und Größe der eingeschätzten Ungewissheiten, damit dieses eine Entscheidung über das weitere Vorgehen treffen kann.
#4
Kommentar zu 8.7.2 Ableitung der zu erwartenden und abweichenden Entwicklungen des Endlagersystems (§ 7 Abs. 6 Nr.1 EndlSiUntV)
 
Um den Kommentar zu verstehen, muss etwas ausgeholt werden. Als Naturwissenschaft ermöglicht Geologie Erklärungen und Vorhersagen. Erklärungen beziehen sich auf das, was in der Vergangenheit geschehen ist. Diese Erklärungen enthalten ein gewisses Maß an Unsicherheit. Mit dem Wissen aus Erklärungen (Verstehen eines Sachverhaltes zusammen mit der Dokumentation der vorhandenen Unsicherheit) werden dann Vorhersagen über die Zukunft gemacht. Zum Beispiel nutzt die Suche nach Lagerstätten Erklärungen der Vergangenheit.
Alle notwendigen Voraussetzungen für die Bildung einer Lagerstätte können beschrieben und erklärt werden. Alle verfügbaren Daten können ausgewertet werden, ob sie Hinweise für eine solche Lagerstätte an einem bestimmten Ort liefern. Wie gut diese Auswertungen, Interpretationen und Erklärungen sind, kann daran abgelesen werden, wie oft wirklich das gefunden wurde, wonach gesucht wurde (Tipp: mehr Misserfolge als Erfolge).
 
In den klassischen Naturwissenschaften können Dinge vorausgesagt werden: Gesetzmäßigkeiten lassen sich experimentell überprüfen. Eine Ursache und die Auswirkung daraus lassen sich mehr oder weniger direkt beobachten, beschreiben, definieren. Experimente lassen sich beliebig wiederholen und ergeben immer das vorausgesagte Resultat. Bei einer chemischen Reaktion ist es egal, wie das Reagenz hergestellt wurde, solange es die erforderten Eigenschaften besitzt.
 
Die Geologie kann das nur eingeschränkt. Sie kann (zum Beispiel) beschreiben, welche Eigenschaften Flüsse charakterisieren, welche Überformungen von Landschaften durch Flüsse vorgenommen werden können, wie Ablagerungen von Flüssen erkannt werden können, und vieles andere mehr.
Geologie kann aber nicht voraussagen, was ein konkret vorhandener Fluss in Zukunft genau tun wird. Stattdessen kann die Geologie Vorhersagen machen, was der Fluss in Zukunft tun könnte.
(Das kann ziemlich erschreckend sein.)
 
Kenntnisse darüber, wie eine Lagerstätte entsteht, ermöglichen keine Aussagen über die Zukunft, wie zum Beispiel, dass sich in den nächsten 20 Millionen Jahren in einem bestimmten Gebiet eine bestimmte Lagerstätte bilden wird.
 
Vorhersagen zur Lösung von Umweltproblemen (Klimakrise, Hochwasserschutz, Lokationen von Deponien, Suche nach einem Endlager, usw.) zielen auf eine Erklärung der Zukunft. Dabei werden Erkenntnisse aus der Vergangenheit interpretiert, um Zustände auf der Erde zu einem zukünftigen Zeitpunkt vorherzusagen.
(Deichschutzprogramm, Einlagerung von Problemabfall in Salzstöcken)
 
Als Ergebnis gibt es eine Vielzahl möglicher Zustände. Eine Prognose, welcher dieser vielen möglichen Zustände wahrscheinlicher ist, als ein anderer, hat nur einen sehr eingeschränkten Nutzen Es kann nicht nachgeprüft werden, ob die Vorhersage gültig ist. Alles, was gewusst wird ist: Sie trifft irgendwann in der Zukunft ein, oder auch nicht.
Dies ist eine schwache Basis für eine verbindliche Handlungsanleitung.
 
Zusammengefasst: Als Naturwissenschaft ermöglicht Geologie Erklärungen und Vorhersagen. Erklärungen beziehen sich auf das, was in der Vergangenheit geschehen ist. Es gibt zwei Arten von Vorhersagen.
Die eine Art bezieht sich auf das, was man meint, dass es in der Vergangenheit an einem bestimmten Ort geschehen ist. Diese Vorhersagen können nachgeprüft werden. Damit kann die Zuverlässigkeit der einzelnen Vorhersagen ermittelt werden. Dies bildet die Basis für gültige Handlungsempfehlungen.
Die andere Art bezieht sich auf das, was man meint, dass es in der Zukunft an einem bestimmten Ort geschehen wird. Das kann alles Mögliche sein. Die Gültigkeit von Handlungsempfehlungen kann erst nachgewiesen werden, wenn eines dieser vielen möglichen Ereignisse eingetreten ist. Möglicherweise passiert dies nie.
 
Sowohl im Konzept, als auch in der referenzierten Anlage 1 Kapitel 8.2 (Seiten 456 – 511) wird beschrieben, wie die Anforderung der EndlSiUntV umgesetzt werden sollen, die verlangt, dass detaillierte Prognosen erstellt werden sollen. Abbildung 170 unterscheidet zwischen Plausiblem Auftreten und Nicht auszuschließendem Auftreten (jeweils in einer voraussichtlichen Ausprägung und einer möglichen Ausprägung), was zu „zu erwartenden Entwicklungen“ und „abweichenden Entwicklungen“ führt.
Die Resultate sollen das jeweilige Sicherheitskonzept optimieren.
 
Auf Blatt 462 in Kapitel 8.2.2 Einleitung – Entwicklungen des Endlagersystems wird dokumentiert: „Da eine Angabe von statistischen Wahrscheinlichkeiten für z. B. das Auftreten von Prozessen selten tatsächlich möglich ist, wird so explizit ein Rahmen für begründete Experteneinschätzungen geschaffen.“
Es ist unklar, in welchen seltenen Fällen eine Angabe von statischen Wahrscheinlichkeiten für das Auftreten von Prozessen, wie sie hier im Fokus sind, möglich ist. Nach dem jetzigen Verständnis der Geowissenschaften kann dies nie der Fall sein. Es gibt nicht nur zu viele Variablen, die Erde als System reagiert komplex.
Es ist nicht erklärt, wie „so explizit ein Rahmen für begründete Experteneinschätzungen geschaffen“ wird, oder was genau der Inhalt dieser Einschätzungen sein wird.
„Die Optimierung basiert vorrangig auf den zu erwartenden Entwicklungen, ergänzend auf den abweichenden. Die hypothetischen Entwicklungen, die in Phase II erstmals abgeleitet werden, werden nur nachrangig in die Optimierung einbezogen.“
 
Basierend auf dem jetzigen Verständnis der Geologie kann sich eine Vielfalt von möglichen Entwicklungen vorgestellt werden. Das Kapitel in Anlage 1 bietet dazu leicht verständliche Beispiele.
 
Dabei kann der Eindruck eines katastrophalen Versagens entstehen.
 
Hier könnte eine Darstellung des Kontextes hilfreich sein. Bei dem Endlager handelt es sich um eine (verglichen mit anderen Betrieben) sehr kleine Anlage. Durch die Umsetzung der Vorgaben des StandAG kann auch nichts anderes als ein begrenzter lokaler Schaden entstehen.
In direkter geografischer Nähe (den Nachbarländern mit dem gleichen Problem) wird es ähnliche Anlagen geben, über die Deutschland keinerlei Kontrolle hat.
Wenn der schlimmste anzunehmende Schaden eintritt (ein unkontrollierter Eintritt von gesundheitsschädlichen Nukliden in die Biosphäre) kann es sein, dass dann schon keine Menschen mehr da sind, um dies wahrzunehmen.
Falls welche da sein sollten, dann sind die vielleicht dabei, Endlager zu öffnen, weil sie wissen, wie sie den Abfall als Rohstoff für wirtschaftliche Prozesse nutzen können. (Beispiele zur Exploration in Abraumhalden gibt es auch aus der Geschichte des Bergbaus in Deutschland.)
 
Wer sich die Änderungen im Wissenstand der Geowissenschaften über den Zeitraum der letzten 200, 100, 50 Jahren anschaut, wird erstaunt sein, was sich alles geändert hat. (Vor 60 Jahren war die Plattentektonik eine esoterische akademische Theorie.)
Es gibt keine Grundlage dafür, anzunehmen, dass diese Weiterentwicklung der Geologie jetzt im Wesentlichen aufhört, weil alles Notwendige so ziemlich sicher gewusst wird. Zu jedem Zeitpunkt in der Vergangenheit bestand die Gewissheit, so ziemlich alles Notwendige ziemlich sicher gewusst zu haben.
Die Qualität von Prognosen dazu, was in Zukunft geschehen wird, war jedoch in der Regel unbefriedigend. Im direkten Bezug kann sich die Geschichte des Betriebes des Bergwerks Asse von 1894 bis heute durchgelesen werden.
 
Fußnote: Gerade in der Geologie gab es oft eher Bewahrer falscher Ansichten, als Anerkennung notwendiger Veränderungen. Eine schöne Illustration bietet Roy Livermore (2018): The Tectonic Plates are Moving! Oxford University Press. (Es gibt natürlich keine tektonischen Platten, es ist die Tektonik, die „plattenartig“ ist.)
#5
Kommentar zu 8.7.6 Relevanz der geowissenschaftlichen Abwägungskriterien (§ 7 Abs. 4 EndlSiUntV)
 
In dem Kommentar wird darauf verwiesen, dass „Eine detailliertere Darstellung der Methodik zur Ermittlung der Relevanz der geoWK ist Anlage 1, Kapitel 8.8 zu entnehmen“. In Kapitel 8.8.2 ist die „Mögliche Vorgehensweise zur Bearbeitung der geowissenschaftlichen Abwägungskriterien Relevanz“ dargestellt.
 
Jedes der geologischen Abwägungskriterien stellt ein Risiko für den sicheren Betrieb des Endlagers dar. Es ist nachvollziehbar, dass die Erarbeitung mit den Kriterien 1 bis 4 begonnen wird, da die restlichen Kriterien nicht betrachtet werden müssen, wenn diese Einschätzung ergibt, dass ein Teilgebiet diese Kriterien nicht erfüllt.
Für eine zuverlässige Einschätzung des Transportes radioaktiver Stoffe durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich, der Konfiguration der Gesteinskörper (Barrieremächtigkeit), der räumliche Charakterisierbarkeit (wie sicher kann vorhergesagt werden, welcher Typ von Gestein in welcher Ausprägung vorhanden ist) und der langfristigen Stabilität der günstigen Verhältnisse sind allerdings zuverlässige geologische Kenntnisse notwendig.
Die sind häufig deshalb nicht vorhanden, weil Gebiete nur deshalb ausgeschlossen werden konnten, weil ausreichend Daten, und darauf basierend, hinreichend verlässige Kenntnisse (Bohrungen, Reflexionsseismik) vorhanden waren, mit den die fehlende Eignung bestimmt und begründet werden konnte.
 
Bohrungen durch wirtschaftliche Betriebe zielen in der Regel auf Gesteine mit einer hohen Gebirgsdurchlässigkeit, in Strukturen, die nur deshalb vorhanden sind, weil das Gebiet tektonisch verformt ist. Dies bedeutet in der Regel eine Verletzung der Mindestanforderungen 4 und 5.
 
Ein Gebiet ohne Struktur und ohne wirtschaftliche Ziele (Öl, Gas, Mineralbrunnen, …) bietet keine Grundlage für eine wirtschaftliche Exploration. Selbst der Erwerb von reflexionsseismischen Daten ist nur zu rechtfertigen, wenn damit Strukturen so weit definiert werden können, dass eine Prospektbewertung (inkl. Volumenabschätzung) durchgeführt werden kann.
Wissenschaftliche Tiefbohrungen sind in Deutschland rar.
 
Bei mangelnden Kenntnissen muss es daher für jedes Wirtsgestein eine andere Herangehensweise geben. Da für die Kriterien 1 bis 4 in allen Fällen die geologischen Verhältnisse zuverlässig bestimmt werden müssen, könnte auch eine Bestimmung des Kriterium 11 (des Schutzes des einschlusswirksamen Gebirgsbereichs durch das Deckgebirge) gleich mit erledigt werden.
 
Beispiele:
 
Teilgebiete im Tongestein sollten möglicherweise eher im Fokus der Untersuchung sein, wenn sie keine oder kaum geologischen Daten aus Bohrungen und Reflexionsseismik enthalten, weil jemand anderes das Gebiet schon vorher bewertet hat (unter Nutzung des Gegenteils der Mindestanforderungen) und sich als Ergebnis entscheiden hat, in diesem Gebiet keine Explorationstätigkeiten (Datenerwerb) durchzuführen.
 
Bei Teilgebieten im Kristallin ist die Zuverlässigkeit von Vorhersagen gering, weil reflexionsseismischen Daten nichts über die interne Struktur in der Tiefe verraten. Andererseits ist dies auch nicht im Fokus, sondern die Vorhersage der Klüftigkeit. Dazu gibt es seit über 40 Jahren Projekte in Deutschland, die dies im Kristallin untersucht haben (Geothermie). Die projekte haben wiederum Gebiet im Fokus gehabt, wo bekannt war, dass viel Klüfte vorhanden sind: nicht das, was ein Endlager auszeichnen sollte. Wie beim Tongestein, sollte überlegt werden, ob Gebiete mit kaum oder keinen Daten eher die Anforderungen erfüllen würden, weil sie jemand (unter Nutzung des Gegenteils der Mindestanforderungen) kein wirtschaftliches Potential erkannt hat.
 
Bei Teilgebieten in Salzgesteinen (steile Lagerung) sind zwar reflexionsseismische Daten vorhanden, die ermöglichen aber keine Interpretation der internen Geometrie. Zudem gab es in der Regel eine fortlaufende Beeinflussung der überlagernden Schichten und daher keine zuverlässig nachweisbare Abdeckung über dem Salzstock (Kriterium 11 wird verletzt). Die Daten von Gorleben haben gezeigt, wie fundamentale Defizite bestätigt werden können. Eine Kartierung der Oberflächengeologie und einfache Modellierung der Grundwasserbewegungen ergab, dass es nur einige 10.000 Jahre dauert, bis Wasser direkt von oberhalb des Salzstockes die wasserführenden Schichten erreicht, die in einem direkten Kontakt mit der Biosphäre sind (möglicherweise dauert es auch ein paar 1000 Jahre länger).  Das kostet weniger als 0,1 Prozent dessen, was dann für die Erkundung von ausgegeben wurde.
 
Bei Teilgebieten mit flachlagernden Salzgesteinen könnte alles funktionieren, wenn die Mächtigkeitsabfolgen der einzelnen Lagen zuverlässig bestimmt werden können. Es ist damit natürlich nicht gesagt, dass sich daraus mögliche Endlagerstandorte ergeben können.
Dazu müssen die anderen Kriterien zuverlässig beurteilt werden können. Die können aber nur mit geologischen Kenntnissen der Kriterien 1 bis 4 und einer Modellierung ermittelt werden, weil sie alle durch die Ausgestaltung des Endlagers und dessen Einfluss auf das Wirtsgestein bestimmt werden:
-       die gebirgsmechanischen Eigenschaften (ändern sich durch das Erstellen von Hohlräumen)
-       die Neigung zur Bildung von Fluidwegsamkeiten (ändert sich durch das Erstellen von Hohlräumen und subsequenter Eintrag von Wärme)
-       die Neigung zur Gasbildung (ändert sich durch den subsequenten Eintrag von Wärme)
-       die Temperaturverträglichkeit (ändert sich durch das Erstellen von Hohlräumen und subsequenter Eintrag von Wärme)
-       die Bewertung des Rückhaltevermögens im einschlusswirksamen Gebirgsbereich (ändert sich durch das Erstellen von Hohlräumen und subsequenter Eintrag von Wärme)
-       die Bewertung der hydrochemischen Verhältnisse (ändert sich durch das Erstellen von Hohlräumen und subsequenter Eintrag von Wärme).
 
Dieser Sachverhalt ist wahrscheinlich sehr unsicher, weil es bisher möglicherweise kein Modell gibt, was anschließend durch die Wirklichkeit bestätigt wurde. Ich habe keine Unterlagen dazu gefunden, dass eine Wärmequelle von der Größe eines realen Abfallbehälters (ohne Abfall, aber mit der Eigenschaft, Wärme abzugeben) in einem der Wirtsgesteine eingelagert wurde, und die Auswirkungen auf die Kriterien 5 bis 10 beobachtet und gemessen wurden, und dies mit den Vorhersagen dazu verglichen wurde, was hätte eintreten und beobachtet werden sollen. Vielleicht ist dies ja in Gorleben geschehen. Platz und Zeit gab es genug.
 
In diesen Sachverhalt greift die EndlSiUntV ein, die verlangt, zu bestimmen, welche Relevanz die einzelnen Indikatoren der einzelnen Abwägungskriterien nach den Anlagen 1 bis 11 des Standortauswahlgesetzes für die Beurteilung des jeweiligen Endlagersystems haben.
 
Für die Sicherheitsfunktion sind alle relevant, weil sie jeweils ein bestimmtes Risiko abbilden, dass ein Endlager undicht werden kann. Dies ist wie eine Kette. Es reicht aus, wenn das schwächste Glied reißt.
 
Die EndlSiUntV motiviert jedoch, Begründungen dafür zu finden, warum Auswahlen getroffen werden.
Je nach mentalem Modell, welche Explorationsstrategie vielversprechender ist, sind Gebiete mit geringem Kenntnisstand oder mit gutem Kenntnisstand relevanter als jeweils andere Gebiete.
 
Es ist sehr unwahrscheinlich, dass die vorhandenen Daten für zuverlässige Vorhersagen ausreichen.  
 
Zudem kann die Relevanz des Potenzials zum Erkenntnisgewinn erst ermittelt werden, wenn in der Exploration bereits etwas gelernt wurde. Es wurden Vorhersagen gemacht, die durch Ereignisse bestätigt werden konnten (oder nicht).
 
Dies bedeutet, dass Wahrscheinlichkeiten ermittelt und dokumentiert werden müssen, die darstellen, wie zuverlässig die jeweiligen Vorhersagen sind. Wenn 5 Vorhersagen gemacht wurden, und die Wahrscheinlichkeit, dass die jeweilige Vorhersage zuverlässig ist, mit jeweils 0,8 angegeben wurde (man ist sich ziemlich sicher), die Vorhersage jedoch nur in 3 Fällen zutraf, dann wird der Kenntnisstand überschätzt.
Vorhersagen unter 0,8 sind ziemlich ineffektiv, weil man schnell in die Richtung rutscht, wo die Ergebnisse auch zufällig richtig oder falsch sein können.
Ohne eine Rückmeldung aus einem Ergebnis meint man aber, alles richtig zu machen.
 
Die Relevanz des Potenzials zum Erkenntnisgewinn kann daher erst dann bestimmt werden, wenn herausgearbeitet wurde, welche Aktivität (Datenerwerb etc.) die Zuverlässigkeit der Vorhersagen erhöhen kann, wie sie dies tut, und wie dies die Qualität Kriterien 5 bis 10 für die Modellierung erhöht.


(Da der Platz nicht ausreicht, wird der Beitrag im nächsten Eintrag fortgesetzt.)

--> Kommentar zu 8.7.6 Relevanz der geowissenschaftlichen Abwägungskriterien (§ 7 Abs. 4 EndlSiUntV) - Teil 2

Tabelle 78 (Blatt 591) stellt Klassen zur Darstellung der Relevanz eines Indikators bzw. geowissenschaftlichen Abwägungskriteriums dar. „Die Bewertung der Relevanzaspekte erfolgt in Analogie zur Vorgabe bei der Abwägung mit den geowissenschaftlichen Abwägungskriterien verbalargumentativ. Es wird ein möglichst formalisiertes Vorgehen gewählt, um eine gute Nachvollziehbarkeit und Vergleichbarkeit der Bewertung zu ermöglichen. Das Vorgehen zur Bewertung der drei Relevanzaspekte wird im Folgenden beschrieben. Für alle drei Relevanzaspekte wird jeweils eine Bewertung in i) gering, ii) mittel oder iii) hoch durchgeführt.“

Auf der nächsten seite wird dies dann erläutert.

Der beschriebene Prozess könnte deutlich an Transparenz gewinnen, wenn hier an einem Beispiel dargestellt würde, wie bei einem Indikator zwischen einer hohen Bedeutung und einer anderen Bedeutung (mittel, gering) unterschieden wird. Dem StandAG ist dies nicht zu entnehmen.

Ein Beispiel:
Kriterium 3 (Bewertung der räumlichen Charakterisierbarkeit) enthält die folgenden Indikatoren:
-       Variationsbreite der Eigenschaften der Gesteinstypen im Endlagerbereich
-       Räumliche Verteilung der Gesteinstypen im Endlagerbereich und ihrer Eigenschaften
-       Ausmaß der tektonischen Überprägung der geologischen Einheit
-       Gesteinsausbildung (Gesteinsfazies)

Wie oben beschrieben, reicht eine beliebige Einstufung in eine ungünstige Wertungsgruppe, um ein erhebliches Risiko dafür zu erzeugen, dass Modelle, die die Indikatoren und geologischen Abwägungskriterien 5 bis 10 ermitteln, unzuverlässige Ergebnisse liefern.

Nach den verfügbaren Informationen wurde in der BGE bisher allerdings auf der Basis von zugelieferten Daten und Interpretationen gearbeitet.
Es ist in der Beschreibung nicht zu erkennen, inwieweit aus diesen zugelieferten Daten und Interpretationen eine Beurteilung und Bewertung dazu vorgenommen werden kann, in welchem Maße bestimmte einzelne Daten und Interpretationen der Indikatoren es zulassen, die Bedeutung zuverlässig in hoch, mittel, oder niedrig einzustufen.
 
Einen kleinen Einblick geben die für jedes Teilgebiet angefertigten Sachverständigen-Berichte für das NBG: die Gutachten zu den Auswahlkriterien für das Gebiet zur Methodenentwicklung
(GzM) und deren Eignung des ausgewählten GzM für die Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen (rvSU) in den jeweiligen Wirtsgesteinen (verlinkt im Konzept zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen gemäß Endlagersicherheitsuntersuchungsverordnung: Kapitel 3 Vorgehen zur Methodenentwicklung für die Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen: …Diese sogenannten Gebiete zur Methodenentwicklung sind: • Teilgebiet 001_00 (Tongestein, Opalinuston) • Teilgebiet 035_00 (Steinsalz in steiler Lagerung, Salzstock Bahlburg) )…)
 
Zum Beispiel führt das Gutachten für das Wirtsgestein „Tongestein“ 25 Empfehlungen auf. Elf davon adressieren den Umgang mit den Indikatoren in diesem Abwägungskriterium. 

Es ist in der Beschreibung der Vorgehensweise in Anlage 1 nicht zu erkennen, ob, oder inwieweit diese Empfehlungen umgesetzt wurden.
 
Es ist lediglich angegeben, dass: „die Bewertung der Relevanzaspekte erfolgt in Analogie zur Vorgabe bei der Abwägung mit den geowissenschaftlichen Abwägungskriterien verbalargumentativ“.
 
Für die Transparenz wäre es sehr hilfreich, wenn zumindest einige Beispiele der verbalargumentativen Entscheidungsfindung dokumentiert zur Verfügung gestellt würden. (Es wird davon ausgegangen, dass alle Details einer verbalargumentativen Entscheidungsfindung in geeigneter Form dokumentiert worden sind, damit bei Bedarf schnell alle diejenigen Entscheidungen neu bewertet werden können, in denen Argumente verwendet wurden, die sich zu einem zukünftigen Zeitpunkt im Verfahren als fehlerhaft herausgestellt haben. Ansonsten wäre es schwierig, zu verhindern, dass der Fehler wiederholt wird.)
 
Ohne diese Darstellung ist das Konzept zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen gemäß Endlagersicherheitsuntersuchungsverordnung nicht nachzuvollziehen.



 
Sicherlich machen gute Kenntnisse es einfacher möglich, eine zuverlässige Einstufung in die Bewertungsgruppen vorzunehmen.
#6
Hallo MartinW,

danke für Ihre Beiträge im Forum. Unser Fachbereich freut sich über den substanzreichen Input und wertet diesen jetzt aus.

Viele Grüße,
Ihre BGE
#7
Kommentar zu Kapitel 8.7.6 Relevanz der geowissenschaftlichen Abwägungskriterien (§ 7 Abs. 4 EndlSiUntV)
 
In dem Kommentar wird darauf verwiesen, dass „Eine detailliertere Darstellung der Methodik zur Ermittlung der Relevanz der geoWK ist Anlage 1, Kapitel 8.8 zu entnehmen“. Da es sich hier um für die Diskussion notwendige Details handelt, wird Kapitel 8.8.2.4 kommentiert. Dort ist das „Potenzial für den Erkenntnisgewinn“ dargestellt.

"Im zweiten Schritt werden ...

...Potential für den Erkenntnisgewinn gering."

Fußnote 28 https://gem-db.bgr.de

Fußnote 29 Weitere Quellen für mögliche zu bewertende Erkundungsmethoden sind in (Haneke et al. 2021) und (Kock et al. 2021) dokumentiert.

Die Fußnote 28 https://gem-db.bgr.de ist für Außenstehende nicht zugänglich.
Die Literaturreferenz zu Kneuker et al. (51 Seiten) ist nicht hilfreich, außer dass darin die Ziele dieser Datenbank GeM-DB beschrieben werden.
 
Es ist kein Beispiel vorhanden, mit dem illustriert wird, wie bestimmte Indikatoren und Faktoren mit sehr gut oder lediglich gut geeigneten Methoden adressiert werden (können), und wie die Ungewissheit zunimmt, wenn lediglich wenig geeignete Methoden vorliegen.
Es ist nicht zu erkenne, ob spezifische Forschungsvorhaben stattfinden, mit den Messmethoden entwickelt werden, die Schwächen in dem derzeitigen Angebot ausgleichen.
Die Bedeutung der Geochemie ist kaum zu erkennen.
 
Der Bericht von Haneke et al. (278 Seiten) ist für bestimmte Sachverhalte hilfreich, weil nicht nur eine Zusammenstellung der vorhandenen Erkundungsmethoden für Ausschlusskriterien (Grundwasseralter), Mindestanforderungen (Gebirgsdurchlässigkeit, Erhalt der Barrierewirkung) und Geowissenschaftliche Abwägungskriterien 1,2,4,6,7,9,10,11) geliefert wird, sondern auch Hinweise zu ungenauen/unvollständigen Begriffsdefinitionen im StandAG dokumentiert werden.
Es ist nicht angegeben, ob die Inhalte des Berichts in die Inhalte der GeM-DB integriert wurden.
Für das oben gewählte Beispiel des Kriterium 3 wird nichts gesagt, obwohl es dazu geologische Erkundungsmethoden gibt. Die sind möglicherweise jedoch nicht standardisiert verfügbar, und benötigen lediglich Lupen, Zollstöcke, Hammer, Binokulare, …
In der Regel bilden geologische Arbeiten und deren Ergebnisse die Voraussetzung dafür, um festlegen zu können, an welcher Lokation die im Bericht vorgestellten Erkundungsmethoden eingesetzt werden.
 
Der Bericht von Kock et al. (270 Seiten) ist für eine erste Orientierung hilfreich, weil zusammengestellt ist, was es so alles gibt. Außerdem wird zumindest sehr allgemein beschrieben, was für die Umsetzung des StandAG angewendet werden könnte.
 
Dies ist jedoch noch sehr weit davon weg, zu erkennen, (zum Beispiel) welche Messung welche Ungewissheit in welchem Indikator adressiert.
 
Dies soll an einem Beispiel illustriert werden, wo die vorhandenen Daten anscheinend dazu ausgereicht haben, um einen Indikator als „Günstig“ einzustufen.

In Kapitel 5.7.4.4 Beispiele zur Bearbeitung des Indikators 3.1b „Räumliche Verteilung der Gesteinstypen im Endlagerbereich und ihrer Eigenschaften“ wird für das Anwendungsbeispiel im GzME „Opalinuston“ (01_00UR) gesagt: " Die räumliche Verteilung der Gesteinsstufen ...
... (Frank und Nitsch 2009)."
Abbildung 123 zeigt die Räumliche Korrelation von Bohrungen im GzME „Opalinuston“

Die Einschätzung dazu: „Flächendifferenziert: Im Bereich der Uracher Tuffschlote „ungünstig“, sonst „günstig““.
 
Beobachtungen
1. Wenn die Formationsgrenzen nicht eingezeichnet worden wären, dann würden sie auf der Messung nicht erkannt werden können. Sie sind nicht eindeutig ausgeprägt.
2. Die Darstellung der gemessenen Gamma Ray (GR) Werte ist nicht optimiert. Die gemessenen Werte liegen alle in einem engen Intervall. Es ist kaum etwas zu erkennen. Statt eine Skala von 0 - 300, sollte ein Skala von 0 – 100 verwendet werden. Dadurch wäre es einfacher möglich, die Messkurven aller 3 Bohrungen übereinanderzulegen, um direkt visuell prüfen zu können, ob es identische Abfolgen gibt. Die Kurven für VSHGR und VCLGR (rechnerisch abgeleitet aus den GR Werten) illustriert dies sehr schön.
3. Es ist unklar, ob die Messsonden in allen Fällen die gleiche Auflösung haben.
4. Die lithografische Darstellung im PETRO Log korreliert nur sehr eingeschränkt mit den Darstellungen von VSHGR und VCLGR. Die elektrischen Messungen zeigen eine höhere Variabilität in den Tongesteinen.
5. Die Aussage: „sehr geringe lithologische räumliche Variabilität …, was durch die vorhandenen bohrlochgeophysikalischen Daten bestätigt wird“ kann nicht nachvollzogen werden.
6. Es treten scheinbar keine Lagen nicht einer höheren natürlichen Strahlung auf. Das passt zu dem angegebenen Ablagerungsmilieu.
 
Eignung der Gamma Ray Messungen für die Qualität der Einschätzung
Gamma Ray Messungen in Bohrlöchern gibt es seit 1939. Jeder Anbieter hat die im Angebot. Damit Messungen unterschiedlicher Anbieter vergleichbar sind, gibt es eine offizielle Institution für eine Kalibration. Die Qualität der Messung hat sich in den letzten 80 Jahren deutlich verbessert. Die vertikale Auflösung liegt heute bei ca. 0,3m, die Messtiefe bei bis zu ca. 0,6m und die Genauigkeit bei ca. 5%.
Die Messungen sind sehr beliebt, weil sie relativ preiswert sind, und erlauben, sich schnell zu orientieren, wenn sowieso gewusst wird, wo man ungefähr ist. Damit werden so gut wie keine Geheimnisse preisgegeben. Kock et al. (Referenz oben) handelt dies in ca. 150 Wörtern ab. Wenn in einer Bohrung die Tongesteine unwichtig sind, dann reichen GR Messungen oft zur Identifizierung von Tongesteinen aus.
Dies ist hier möglicherweise nicht der Fall, da für die Eignung als Endlager kleinräumig unteranderem die Geometrie hochpermeabler Einlagerungen, natürlicher Klüfte, unerwünschter Stoffbeimischungen (organisches Material), … vorhergesagt werden soll.
In erster Annäherung wird oft in einer separaten Darstellung der Anteil des Urans herausgerechnet, um zu einer angenommenen zuverlässigeren Darstellung des Gehalts an Tonmineralien zu kommen. Das kann im besten Fall eine Annäherung an die geologischen Verhältnisse sein. Es wird dabei angenommen, dass die Tonmineralien in den Tongesteinen, Sandsteinen, Kalksteinen, … die gleichen Eigenschaften bezüglich der Messung haben. Dies ist jedoch in der Regel nicht der Fall.
 
Wenn Tongesteine wichtig sind, dann werden in der Regel Spektrale Gamma-Strahlungsmessungen durchgeführt (siehe oben Kock et al. wiederum ca. 150 Wörter). Bei diesen Messungen wird zwischen den einzelnen natürlichen Radionukliden Kalium, Thorium und Uran unterschieden. Die Qualität heutiger Messungen: Die vertikale Auflösung liegt bei ca.0,2 bis 0,3m, die Messtiefe bei bis zu ca. 0,2m und die Genauigkeit ist erheblich höher, als bei einfachen GR Messungen.
Da in Tongesteinen alles Mögliche vorkommt, werden dadurch erheblich bessere Möglichkeiten geschaffen Tongesteine spezifischer zu charakterisieren. Sequenzstratigrafische Interpretationen profitieren davon, wenn man Lagen identifizieren kann, die auf lange Perioden sehr geringer Sedimentation hinweisen. Ohne eine geeignete Analyse von Gesteinsproben (Cuttings, SWCs) ist die Auswertung hier allerdings auch lediglich eine Annahme der geologischen Verhältnisse.
Zum Beispiel geht die Anwesenheit erhöhter Beimengungen von organischem Material marinen Ursprungs oft mit höheren Messwerten einher. Dies könnte eine Bedeutung für die Bewertung des Kriterium Faktor 7 (Neigung zur Gasbildung) haben.
Das, was in der Bohrlochmessung identisch erscheint, kann aus unterschiedlichen zeitlichen Perioden stammen, in denen jeweils das gleiche Ablagerungsmilieu vorhanden war. Deshalb sollten zusätzlich biostratigrafische Ergebnisse genutzt werden.
Hilfreich ist zudem eine allgemeine Kenntnis der Geometrie einzelner Gesteinskörper (Länge, Höhe, Breite, Form, …) aus analogen Vorkommnissen. (Diese ist allerdings meist nur in ausreichender Qualität vorhanden, wenn ein wirtschaftliches Interesse daran bestand dies zu erarbeiten.)
Die Bohrungen stehen lediglich etwas über 30 km auseinander. In vergleichbaren Becken ist in der Regel über diese Distanz eine gleichförmigere Ausbildung zu erkennen, so dass nach der Korrelation von 40 bis 100 Bohrungen die typische GR Messungskurve aus dem Kopf gezeichnet werden kann.
 
In der Darstellung im Bericht sind die Sandgesteinslagen durch Linien verbunden, womit wahrscheinlich angezeigt werden soll, dass es sich um ein regional verbreitetes Vorkommen handelt. Ohne ergänzende Nachweise ist dies zunächst lediglich genauso wahrscheinlich, wie dass es sich hier um einzelne Sandsteinablagerungen handelt, deren Ausdehnung geringer als der Abstand zwischen den Bohrungen ist. Ergänzende Nachweise müssten erläutern, welche Interpretation mit welcher Ungewissheit behaftet ist.
Das gleiche trifft auf die eingelagerten Karbonatgesteine zu. Tongesteinsschichten mit erkennbaren Muschelschalen sind etwas anderes, als Einlagerungen gröberen klastischen Materials, dass mit Karbonatzement verfestigt wird.
 
Weil es nicht besonders teuer ist, wird in der Praxis oft zusammen mit der GR Messung ein Sonic Log angefertigt.  Die Unbestimmtheit wird dadurch bereits erheblich reduziert.
 
Für die Identifizierung geringmächtiger Lagen sind wahrscheinlich Formation (Micro) Imaging Messungen geeigneter (Kock et. al. Ca.260 Wörter). Da sich damit viel Geld verdienen lässt, sind die Darstellungen bei den Anbietern auch umfangreicher. Mit diesen Messungen können nicht nur Lagen im cm Bereich erkannt werden, sondern auch Klüfte und ähnliches. Sie liefern die beste Analogie zu einem Aufschluss über Tage.
 
In Anbetracht der sehr dünnen Datenlage könnte untersucht werden, ob zurzeit in Deutschland eine Bohrung abgeteuft wird, die den Opalinuston durchbohrt. Wenn ja, könnte mit dem Betriebsführer ein Kooperationsabkommen geschlossen werden, wo die BGE den Datenerwerb von Spektrale Gamma-Strahlungsmessungen und Formation (Micro) Imaging Messungen finanziert. Mit diesen Daten könnten dann erste Einschätzungen dazu gemacht werden, ob diese Art von Messungen zu einer zuverlässigeren Einschätzung des Indikators führen.
 
Vielleicht ist das ja auch bereits gemacht worden. Bei einer erfolgreichen Anwendung könnte eine Einordnung in „Sehr gut geeignete Methoden“ dann leicht nachvollzogen werden.
 
Für jeden Indikator jedes Abwägungskriteriums hat jedes Wirtsgestein andere Anforderungen an die Messtechnik. Auch bei der Interpretation der Messdaten gibt es große Unterschiede dazu, ob es sich um weitverbreitete Standartauswertungen handelt, oder um selten durchgeführte Einzelanwendungen.
 
Weitere Beispiele zu anderen Indikatoren und Abwägungskriterien sind möglich. Durch das Konzept (inkl. Anlage) sind jedoch zu wenig Details zugänglich, was in diesem Bereich der Endlagererkundung genau geschieht.
 
 




„Die räumliche Verteilung der Gesteinstypen
#8
Kommentar zu Kapitel 8.9 Bewertung von Ungewissheiten
 
Das Kapitel verweist auf Kapitel 10 in der Anlage 1: 10 Bewertung von Ungewissheiten.
 
(Eine Anmerkung zu Kapitel 10.2 in der Anlage 1: Jede Sprache geht mit dem Konzept von Ungewissheit anders um. Was im deutschen Umgangssprachgebrauch in „Unsicherheit“ zusammengefasst ist, wird in Englisch je nach Kontext durch feasibility, chance, likelihood, plausibility, presumption, probability, uncertainty, insecurity, precariousness, tentativeness, unstableness, unsteadiness, unsureness und incertitude ausgedrückt. Dadurch kann präzise formuliert werden, was in Deutsch in ganzne Sätzen ausgedrückt werden muss.)
 
Ungewissheit enthält neben Mehrdeutigkeit (mehrdeutig aus welchen Gründen auch immer, ) auch noch das Konzept des Zweifels. Da Deutschland sich im Umgang mit Ungewissheit sehr schwertut, ist es sehr zu begrüßen, dass die Bedeutung von Begriffen im Kontext dieses Vorhabens festgelegt werden.
 
Es könnte zudem hilfreich sein, sich der eigenen Position in Bezug auf das verwendete Wissen bewusst zu sein.  Meist reichen dafür vier Kategorien:
Die erste Kategorie enthält das, man weiß, und was auch wirklich wahr und richtig ist, - ohne dass man das immer selbst direkt nachprüfen kann (zum Beispiel: gesicherte wissenschaftliche Erkenntnisse wie Schwerkraft und Endgeschwindigkeit).
Die zweite Kategorie enthält das, was man wissen will, aber aus irgendeinem Grund noch nicht weiß. Man weiß, dass es eine Antwort auf eine Frage gibt, man hat diese Antwort aber (noch) nicht.
Die dritte Kategorie enthält Informationen, wovon man nicht weiß, dass man es nicht weiß. Davon gibt es sehr viel. Dazu gehören auch alle die Informationen, die man einmal im Kurzzeitgedächtnis hatte, und wo sich Ihr Gehirn entschieden hat, sich die erst gar nicht zu merken.
Dazu gehören auch Ergebnisse einer Exploration: Informationen, die man erhält, weil man etwas gesucht hat, und dabei als Überraschung auch noch etwas anderes gefunden hat.
Die vierte Kategorie enthält das, wo man sich sicher sind, dass es wahr und richtig ist, man jedoch damit falsch liegt.
Mit den ersten beiden Kategorien man beim Einschätzen der Ungewissheit gut umgehen.
Die dritte Kategorie ist die Quelle zukünftiger Überraschungen, Bestätigungen, Einsichten, und Erkenntnissen.
Die vierte Kategorie bereitet echte Probleme und führt zu Fehlern. Man überschätzt sich selbst. Man fügt sich und anderen einen Schaden zu.
 
Im Prinzip ist die Suche nach einem Endlagerstandort nicht anders als andere geologische Explorationen: Es soll im Untergrund ein Gesteinskörper mit spezifischen Eigenschaften gefunden werden.
Dies wurde und wird in den unterschiedlichsten Vorhaben millionenfach überall auf der Erde erfolgreich/nicht erfolgreich gemacht.
Das StandAG adressiert dies nicht. Stattdessen werden geologische Kriterien hauptsächlich dazu verwendet, Gebiete auszuschließen. Danach wird dann eine eher materialwissenschaftliche Analyse zur Beurteilung der Eignung angefordert.
Wie der Gesteinskörper mit den spezifischen geeigneten Eigenschaften hinreichend sicher identifiziert wird, so dass materialwissenschaftliche Analysen die Eignung dann sehr wahrscheinlich bestätigen, ist nicht adressiert.
 
In anderen Wirtschaftsbereichen ist diese Anforderung Grundlage der Exploration.
 
Ein vereinfachtes Beispiel aus der Praxis: In einem Gebiet wird eine Exploration auf Öllagerstätten durchgeführt. Nach sieben erfolglosen Explorationsbohrungen (Kosten jeweils ca. 10 Millionen Euro) findet eine Bohrung Öl und es werden erfolgreiche Zufluss-Tests durchgeführt. Je nach Interpretation der vorhandenen Daten schwankt die Abschätzung der förderbaren Reserven zwischen 15 und 150 Millionen Barrel Öl. Die Kosten der Entwicklung der Lagerstätte liegen je nach Größe zwischen 1000 und 2000 Millionen Euro. Jede weitere Bohrung kostet weiterhin ca. 10 Millionen Euro, reduziert aber die vorhandene Unsicherheit, wieviel für die Entwicklung zu investieren ist.
Desto mehr vorab investiert wird, desto später (in Jahren) werden Gewinne realisiert. Wenn nicht genug investiert wird (verbleibende Unsicherheiten), werden die späteren Gewinne reduziert, da teuer Nacharbeiten abfallen. Wenn sich nach weiteren Bohrungen herausstellt, dass lediglich 15 Millionen Barrel Öl als Reserven vorhanden sind, dann ist das Vorhaben unwirtschaftlich.
 
Da solche Vorhaben kapitalintensiv sind, werden sie von Konsortien finanziert. Die Mitglieder im Konsortium (Konkurrenten in diesem Wirtschaftszweig) müssen sich darüber einigen, inwieweit sie die weitere Reduzierung der Unsicherheit finanzieren müssen/wollen, um eine hinreichende Sicherheit darüber zu haben, Milliarden von Euro zu investieren. Dabei müssen sie zusammenarbeiten, auch wenn sie außerhalb des spezifischen Vorhabens miteinander in Wettbewerb stehen.
 
Die Vorgehensweise funktioniert, weil alle ständig lernen müssen. Selbst mit sehr guten Kenntnissen, viel Wissen, und viel Erfahrung finden regelmäßig Fehleinschätzungen statt. Das wird nur deshalb wahrgenommen, weil jede Einschätzung durch eine Aktion getestet wird, und das Ergebnis bekannt wird.
 
Eine geologische Exploration verwendet Messdaten, geologische Interpretationen dieser Messdaten, und Erkenntnisse aus der kognitiven Psychologie, um mit Denkfallen, Wahrnehmungsverzerrungen und allen anderen möglichen Einschränkungen des menschlichen Gehirns beim Umgang mit Ungewissheit umzugehen.
Den Erwerb und die Interpretation von Messdaten kann gelernt werden (verfügbare Literatur und Praxis). Der gewinnbringende Umgang mit Ungewissheit in Explorationsvorhaben ist die nicht öffentlich verfügbare Kernkompetenz einzelner Unternehmen.
 
Ein Wirtsgestein im Sinne des Endlagersuchprozess ist ein natürliches Produkt mit bestimmten Eigenschaften. Es ist kein Werkstoff mit zuverlässig bekannten Eigenschaften.
 
Um bei dem obigen Beispiel zu bleiben: Anhand von drei erfolgreichen und einer nicht erfolgreichen Erweiterungsbohrung ist die Förderplattform ge- und aufgebaut worden. Nach vier Produktionsbohrungen ist die Zuverlässigkeit der vorhergesagten Eigenschaften deutlich verbesserungsbedürftiger als es nach neuen Bohrungen in diesem sehr begrenzten Gebiet der Fall sein sollte.
Bevor weitere Produktionsbohrungen abgeteuft werden, muss das Modell daher nicht nur angepasst, sondern deutlich überarbeitet werden. Bei der Öllagerstätte ist bekannt, was, warum, wie und wann gemacht wird. Auf keinen Fall wird weiter investiert, ohne eine hinreichende Sicherheit darüber zu haben, was diese Investitionen bewirken.
 
Es hilft sich das so vorzustellen: Auf einer Fläche von Peine existieren jetzt (neben reflexionsseismischen Daten) neun Standorte mit Messungen, die jeweils ca. einen Quadratmeter abdecken. Wieviel Prozent der Fläche ist durch Messungen abgedeckt? Wie erlaubt dies, zuverlässig vorherzusagen, wo Straßen, Häuser, Kirchen, Parks (grobe Einheiten) usw. sind, beziehungsweise Aussagen darüber zu treffen, was in den Häusern drin ist (detaillierte Einheiten).
Die Art der Analyse ist auch für die Wirtsgesteine notwendig, auch wenn die, verglichen mit anderen Gesteinen, sowohl lateral als auch in der vertikalen Abfolge als eher homogen angenommen werden.
Bei den unterschiedlichen Wirtgesteinen sind jeweils unterschiedliche Aspekte zu berücksichtigen.
 
Es ist sicherlich nicht vorteilhaft, dass es keine Lehrbücher gibt, und eine Ausbildung in der Exploration (nach einem Hochschulstudium) mehrere Jahre in Anspruch nimmt. Manche können es danach dann besser als andere. Es ist nicht hilfreich, dass es kaum geologische Explorationstätigkeiten in Deutschland gibt (wenig öffentlich sichtbare Aktivitäten).
 
Dies bedeutet nicht, dass die Fragestellungen nicht allgemein verstanden werden können. Dies bedeutet auch nicht, dass die Antworten nicht verstanden werden können.
Es bedeutet lediglich, dass es da etwas gibt, was man vorher nicht wusste.
 
In der Kohlenwasserstoffindustrie sind die wesentlichen Elemente beim Umgang mit Ungewissheit eine sehr gute Kenntnis der Einflussfaktoren auf das Ergebnis und das Ausdrücken von Unsicherheiten in Zahlen.
Um bei dem obigen Beispiel zu bleiben: Um ein Ölfeld zu finden, und mit der Förderung des Öls Geld zu verdienen, werden folgende Einflussfaktoren (vereinfacht dargestellt) genutzt:
Eine Struktur im Untergrund, in der sich das Öl fangen kann, ein Speichergestein, in dem das Öl lagert, eine Abdeckung, die verhindert, dass es zur Oberfläche der Erde entweicht, ein Muttergestein, was das Öl produziert hat, die richtige Reihenfolge der Abläufe (die Struktur war vorhanden, als das Öl gebildet wurde), und die Möglichkeit, mit der Förderung Geld zu verdienen.
Es gibt also sechs Faktoren. Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft, und die Wahrscheinlichkeit dafür mit jeweils 0,8 annimmt (in 4 von 5 Fällen recht hat), dann liegt die Wahrscheinlichkeit, dass bei einem Versuch ein wirtschaftlich förderbares Ölfeld gefunden wird bei ungefähr 0,26 (0,8 x 0,8 x 0,8 …).
Wenn die BearbeiterInnen alles richtig gemacht haben, dann ist im Durchschnitt einer von vier Versuchen erfolgreich.
Oder nicht, oder die BearbeiterInnen haben kein Geld für vier Versuche, oder es gibt keine vier Strukturen, die erbohrt werden können.
 
In der Realität wird eine Wahrscheinlichkeit von 0,8 oder höher erst im Rahmen der Entwicklung eines Ölfeldes erreicht. Um bei jedem Faktor eine Wahrscheinlichkeit von 0,8 annehmen zu können, müssen sehr zuverlässige Daten und Interpretationen verfügbar sein.
 
Was ist, wenn für jeden Faktor eine Wahrscheinlichkeit von 0,7 angenommen werden muss? Die Wahrscheinlichkeit, dass ein wirtschaftlich förderbares Ölfeld zu finden liegt dann bei ungefähr 0,11.  Wenn der Kenntnisstand noch geringer ist, dann ist auch die Wahrscheinlichkeit noch geringer. In unbekannten Gebieten ist dies durchweg der Fall.
Wie viele erfolglose Versuche kann man sich leisten? Wenn es genug Strukturen gibt, und genug Geld für zehn Versuche vorhanden ist, und dies auch investiert wird, und deshalb auch nach 7 Misserfolgen weitergemacht wird, dann bleibt man im Geschäft.
Mit der Bewältigung der Klimakrise wollen wir weg von fossilen Rohstoffen. Die in der Industrie in mehr als 150 Jahren entwickelten Methoden ist jedoch weiterhin gültig und übertragbar. Der interessierte Betrachter kann dabei auch etwas für den eigenen Alltag lernen.
 
Das StandAG beschreibt Einflussfaktoren auf die Sicherheit. Mit §22 Ausschlusskriterien und §23 Mindestanforderungen werden geologisch begründet offensichtlich ungeeignete Standorte „aussortiert“. In §24 sind die geologischen Abwägungskriterien definiert. Es wird dort nicht definiert, wie ein möglicher Standort geologisch „einsortiert“ wird.
Die elf geologischen Abwägungskriterien sind in Anlagen zum Gesetz präzisiert. Sie repräsentieren Risikofaktoren. (Es wird ein Einlagerungsraum benötigt, in dem keine ätzenden Flüssigkeiten die Abfallbehälter zerstören und dann unerwünschte Radionuklide in die Biosphäre transportieren.)
 
Die Gesteine, die als Einlagerungsraum dienen, sind Naturprodukte. Bei Vorhersagen zu der Ausprägung sind immer Überraschungen möglich. Die genauen Eigenschaften eines Endlagerstandortes sind nicht bekannt, bevor er erschlossen wird. Entsprechend dem obigen Beispiel kann für jeden Faktor (geologisches Abwägungskriterium) eine Wahrscheinlichkeit bestimmt werden, die den jetzigen Kenntnisstand abbildet.
 
Wenn die BearbeiterInnen bestimmte Anzeichen für die Eignung eines Gebietes haben (das könnte so sein, weil es sich um ein Wirtsgestein handelt, was von einer anderen Stelle bekannt ist), dann könnte eine Wahrscheinlichkeit von 0,75 angenommen werden (in drei von vier Fällen haben sie recht). Dies ergibt dann bei 11 Faktoren eine Wahrscheinlichkeit von ca. 0,04, dass ein geeigneter Standort vorliegt (0,75 x 0,75 x 0,75 …). Das bedeutet, dass von ca. 25 untersuchten Gebieten (mit Bohrungen, um Messdaten zu erwerben), wahrscheinlich ein Gebiet die Anforderungen erfüllt.
Oder eben nicht.
 
In der privatwirtschaftlichen geologischen Exploration wird Unsicherheit quantifiziert, damit Kontrollen betrieben werden können. Wenn die BearbeiterInnen sich überschätzen, und annehmen, in drei von vier Fällen recht zuhaben, dies in Wirklichkeit jedoch nur in der Hälfte aller Fälle stimmt, sind sie schnell insolvent.
 
Ein Explorationsprogramm ist deshalb so ausgelegt, dass gelernt wird. Aufgrund der Daten und Interpretationen wird eine Hypothese aufgestellt. Dies Hypothese wird getestet. Aus dem Ergebnis wird gelernt. Bei jeder Testaktion wird quantifiziert, wie damit die vorhandenen Ungewissheiten reduziert werden.
Solche Tests sind nicht direkt der Erwerb seismischer Daten und das Abteufen von Bohrungen. Zunächst muss begründet werden können, warum sich das lohnen soll. Das bildet auch die Grundlage der Planung des Datenerwerbs
 
Der Zwischenbericht Teilgebiete beruht auf einem Modell der geologischen Wirklichkeit Deutschlands. Die Darstellungskraft des Modells erscheint bisher meist nur dort als hinreichend, wo Gebiete begründet ausgeschlossen werden konnten. (Eine Einschätzung der Darstellungskraft bedeutet, dass Zuverlässigkeit, Stimmigkeit, Ausdruckskraft, Leistungsfähigkeit, Eignung, Willkür, und Wirksamkeit des Modells eingeschätzt wird.)
Nach meiner ersten Einschätzung war deshalb auch eine Beteiligung in diesem Stadium des Suchprozesses verfrüht. Es fehlen die Daten für eine Auseinandersetzung, Begutachtung und Kollaboration, wie sie in einer geologischen Exploration vorkommt, an der unterschiedliche Parteien beteiligt sind.
 
Für einen Außenstehende ist der Zwischenbericht keine hinreichende Grundlage für eine Meinungsbildung. Es fehlten sämtliche Informationen zur Lokation von Messdaten. Schon ein Vergleich der Anzahl der erfolgreichen Bohrungen mit denen, die entgegen der Vorhersage nicht erfolgreich haben, zeigt, wie viel interpretiert, und wie wenig sicher gewusst wird.
 
Während meiner Berufstätigkeit hat sich die geologische Interpretation in einzelnen Gebieten (alle im Ausland) durch eine intensivere Exploration substantiell geändert. Das kann auch in Deutschland der Fall sein.
 
In meinem Berufsleben wurde ein geologisches Risiko nicht mit Worten beschrieben. Stattdessen wurde definiert, mit welcher Wahrscheinlichkeit welche geologischen Eigenschaften wo und wie vorhanden sind.
Es wird detailliert beschreiben, wie die BearbeiterInnen zu der Einschätzung gekommen sind. Jemand anders prüft (Kontrollen), ob die Einschätzung nachvollzogen werden kann.
Wenn nicht, dann wird die Einschätzung mit neuen Informationen überarbeitet (Bayes Theorem in Aktion).
Ein Beispiel: Die angenommene Barrieremächtigkeit eines tonigen Wirtsgesteins (StandAG Faktor 3) wird (da keine Bohrungen vorhanden sind) aufgrund regionalgeologischer Interpretationen als um die 130 Meter angenommen. Reflexionsseismischer Messungen helfen nicht, dies genauer zu bestimmen (es sind allerdings keine größeren Störungen sichtbar).
Die vorhandenen Aufschlüsse (Tongruben) erfassen jeweils nur einen Teil der geologischen Formation, die maximale Länge einzelner Aufschlüsse ist einige hundert Meter. Es ist unklar, wie repräsentativ die Tongruben als Aufschlüsse die geologische Formation abbilden. Wenn die geologische Formation in einem Gebiet nämlich nicht in der gewünschten Ausprägung angetroffen wird, dann wird dort erst gar keine Tongrube (Aufschluss) eröffnet.
Die Einschätzung, wie sicher eine laterale Kontinuität von 100 m über das gesamte Untersuchungsgebiet ist, soll ausdrücken, wie wahrscheinlich es ist, dass dies für das ganze Gebiet zutrifft. In dem Beispiel in der Abbildung 123 ist die Formation in 2 der 3 Bohrungen scheinbar fast gleich mächtig, in der 3 Bohrung jedoch deutlich geringer. Die Formation wird in Subformationen unterteilt, die in allen 3 Bohrungen wahrnehmbar unterschiedliche Mächtigkeiten haben.
Zunächst würde erarbeitet werden müssen warum dies der Fall ist. Oft sind dazu zusätzliche Daten und Interpretationen notwendig:
Hypothesenbeispiele:
Es fehlt etwas durch Störungen in den Bohrungen. Prüfung mit reflexionsseismischen Daten.
Die Korrelation ist falsch: Prüfung mit biostratigrafischen Daten.
Das geologische Modell ist falsch: Entwicklung alternativer Modelle.
Oft ist es für eine Hypothese nicht möglich, sie zuverlässig zu bestätigen, oder zu widerlegen. Es kann aber erarbeitet werden, wie wahrscheinlich etwas sein kann.
 
Die Ungewissheit wird deshalb in der Bearbeitung durch Wahrscheinlichkeiten ausgedrückt. Für den Opalinuston scheint die Teufelsloch-Subformation zwar günstigere Eigenschaften für ein Endlager zu haben, als die Zillhausen-Subformation, allerdings ist sie allein maximal 100m mächtig, und nimmt in Richtung Nordosten deutlich an Mächtigkeit ab.
Je nach betrachtetem einzelnem Gebiet könnte für die Barrieremächtigkeit eine Wahrscheinlichkeit von 0,3 geschätzt werden, dass sie weniger als 80 Meter beträgt, von 0,3 für um die 90 Meter, und von 0,4 für um die 100 Meter.
Für diese Zahlen brauchen die BearbeiterInnen Daten, geologisches Wissen und Modelle, damit von anderen Beteiligten nachvollzogen werden kann, wie die Werte ermittelt wurden.
Oder andere Personen können einem nachvollziehbar erklären, warum eine andere Einschätzung besser begründet sein könnte. (Dazu muss aber gewusst werden, dass die Frage/Hypothese existiert: Transparenz)
Die Arbeit muss für alle geologischen Abwägungskriterien (Risikofaktoren, Einflussfaktoren) gemacht werden.
 
Oder sie wird nicht gemacht. Oder es wird etwas anderes gemacht.
 
Nur Zahlen ermöglichen Interpretationen, die konkreten Auseinandersetzungen ermöglichen. Zahlen ermöglichen nachvollziehbare Hypothesen/Vorhersagen, die getestet werden können. Als Ergebnis des Tests kann gemessen werden, wie zuverlässig die Vorhersage war.
 
Nur Messungen der Zuverlässigkeit ermöglichen Kontrollen, dazu, ob sich das Verständnis verbessert hat. Ohne Kontrollergebnisse kann nicht gemessen werden, ob wirklich ein Lernen stattfindet, oder dies nur so scheint.
 
In meinem Berufsleben waren nur diejenigen Vorhaben erfolgreich, die Sachverhalte mit Wahrscheinlichkeiten dargestellt haben.
Ein Grund ist, dass verbal ausgedrückte Wahrscheinlichkeiten für jede individuelle Person etwas anderes bedeuten. Ein anderer Grund ist, dass damit von vorschnellen Aktionen Abstand genommen werden kann. Mit dem Bayes Theorem kann der Wert von Daten für die Reduzierung der Unsicherheit ermittelt werden. Es kann gemessen werden.
 
Besonders bei kapitalintensiven Vorhaben (wie in der Kohlenwasserstoffindustrie) ist es wirtschaftlicher, mit einem Verlust von mehreren Millionen Euro aus einem Vorhaben auszustiegen, als noch mehr zu investieren, ohne dass sich wirtschaftliche Erfolge einstellen. In Deutschland gibt es dazu nach meiner Erfahrung wenige Vorbilder. Man war eher gewillt, sich ganz aus dem Geschäft zu verabschieden, weil es einfacher erscheint, die benötigten Produkte (zum Beispiel Gas) zu kaufen. Sie sind anscheinend immer ohne Probleme verfügbar.
 
In der Anlage 1 zum Konzept scheint der Fokus sehr stark darauf zu liegen, was andere Unternehmungen in Bezug auf Endlager machen/gemacht haben. Aus diesen Sachverhalten sind allerdings nur eingeschränkte Erfahrungen verfügbar. Im Bereich Endlager für hochradioaktive Abfälle sind (zum Glück, nach meiner Kenntnis) noch keine offensichtlichen Misserfolge bekannt geworden (im Bereich der Einlagerung schon: Asse).
#9
Kommentar zu Kapitel 8.9 Bewertung von Ungewissheiten
Das Kapitel verweist auf Kapitel 10 in der Anlage 1. 10 Bewertung von Ungewissheiten.

In Kapitel 10.4.3ff wird auf Modellungewissheiten eingegangen. Dies ist zu begrüßen, weil in dem Dokument bereits eine große Anzahl von Modellen und Modellierungen vorgestellt wird. Ich habe aber nicht erkennen können, wie alle diese unterschiedlichen Modellierungen systematisch bewertet werden, oder bewertet werden können, um so eine Gewissheit über die jeweilige Zuverlässigkeit erlangen zu können. Ich hatte allerdings angenommen, dass dies das Ziel des jetzigen zweiten Teils der Phase 1 ist.
Da so etwas passiert (passieren soll) ist zu erkennen. Möglicherweise würde es der Lesbarkeit helfen, wenn die Darstellung der Modelle etwas anders strukturiert würde.
Generell werden in diesem Kontext zwei Herangehensweisen genutzt. Eine davon ist das Erstellen realistischer Modelle, wo durch das Weglassen von unnötigen Details alles so vereinfacht ist, dass das Modell genutzt werden kann, weil alles das, was wichtig ist, erhalten geblieben ist. Eine zweite sind Analogien. Hier wird ein abstraktes Modell erstellt in dem der Wesenskern der Untersuchung, das System, das Phänomen richtig dargestellt werden.
Welche Modelle im Konzept (inkl. Anlage 1) fallen in die jeweiligen Kategorien?
 
In meinem Berufsleben wurde in einzelnen Bereichen manchmal beobachtet, dass, wenn man zu viel modelliert, dies irgendwann für das wirkliche Leben hält. Deshalb auch meine Anregungen zu Tests gegen die Realität.
 
Für ein Modell muss das, was betrachtet werden soll, formalisiert und definiert werden. Das Modell, und die Vorgänge darin, müssen logisch erklärbar, nachvollziehbar, und handhabbar sein.
Dies bedeutet, dass die Vorgänge sich durch Berechnungen darstellen lassen. Es muss in der Regel Mathematik und Logik genutzt werden, um etwas zu beschreiben.
Bei der Geologie ist dies nur sehr eingeschränkt möglich. Natürlich steht eine Menge geostatistischer Methoden zur Verfügung, um alles Mögliche zu berechnen. Dabei kommt auch immer ein Ergfebnis heraus.
Das kann aber falsch sein, ohne dass dies direkt erkannt werden kann.
 
In Modellen wird das Wissen über den Sachverhalt dadurch ausgedrückt, wie zuverlässig korrelative, kausale, und logische Beziehungen verstanden worden sind. Die vorhandene Unsicherheit wird deshalb durch Verwendung von Wahrscheinlichkeitsverteilungen und Präferenzen (abgebildet als Rangfolgen) dargestellt. Die Wahrscheinlichkeit hilft dabei, die Ungewissheit zuverlässig mit in die Darstellung einzubeziehen. Die Präferenzen adressieren den Wissensstand (so wie im Konzept: die Arbeit beginnt mit den geowissenschaftlichen Erwägungen 1 bis 4).
 
Ich hatte bereits in vorherigen Kommentaren versucht, die Bedeutung der Verwendung von Wahrscheinlichkeit zu erläutern. Möglicherweise findet dazu auch etwas in den erwähnten Forschungsvorhaben statt. Was darin mit welchem Zweck stattfindet, ist allerdings nicht erläutert oder über verlinkte Informationsquellen zugänglich.
 
Je nach der Art des zu lösenden Problems werden möglicherweise für denselben Sachverhalt mehrere unterschiedliche Arten von Modellen benötigt. Je nachdem, was gewusst werden soll, erfüllt ein Modell eine bestimmte Aufgabe, zum Beispiel es simuliert oder optimiert etwas, und ermöglicht damit eine Reihe von Vorhersagen. Nach der Aufgabenstellung:
 
Es soll etwas begründet werden.
In dem Modell werden die Verhältnisse in einem Sachverhalt identifiziert, und daraus logische Schlussfolgerungen gezogen. Es wird beschreiben, was vorhanden ist, wer etwas macht, und warum etwas geschieht. Je nach Unsicherheit werden bestimmte Annahmen genutzt.
Durch logisches Denken wird bestimmt, was möglich ist, und was nicht. Damit kann entdeckt werden, unter welchen Bedingungen die vorhandenen Einsichten funktionieren, und unter welchen nicht. In der Regel können die logischen Schlussfolgerungen als mathematische Beziehungen ausgedrückt werden (und müssen es auch).
Dies ist in diesem Sachverhalt bei der Planung der Reduzierung der Ungewissheit über die geologischen Verhältnisse relevant.
 
Es soll etwas erklärt werden.
Das Modell stellt überprüfbare Erklärungen für empirisch erfasste Phänomene bereit. Ein Beispiel sind Experimente aus Physik und Chemie, und die Gesetzmäßigkeiten, die daraus abgeleitet werden können.
In geologischen Sachverhalten ist dies nur eingeschränkt zuverlässig möglich. Am Ende der Endlagersuche sollte allerdings erklärt werden können, warum die Lösung funktioniert.
 
Es soll etwas entworfen werden.
Das Modell ermöglicht das Auswählen von Gestaltungselementen für Maschinen, Abläufe … Es werden unterschiedliche Gestaltungselemente konstruiert, deren Funktionalität miteinander verglichen werden kann. Dann wird modelliert, wie sich diese Elemente auf den Sachverhalt auswirken.
Dies findet bereits in großem Maße statt (Beispiel: Endlagerauslegung)
 
Es soll etwas kommuniziert werden.
Das Modell übermittelt Wissen und Einsichten in einem Format, dass sicherstellt, dass es zu keinen Missverständnissen kommt. Die in dem Sachverhalt vorhandenen Gegenstände und Beziehungen können genau und präzise ausgedrückt werden.
Modelle, die nicht kommuniziert werden können, können nicht angewendet werden. Sie können auch nicht genutzt werden, um die gewonnenen Einsichten und Methoden auf andere Sachverhalte übertragen zu können.
Es wird zurzeit zwar kommuniziert. Es ist aber unklar, wie effektiv und effizient die Kommunikation ist. Die Einschätzung der Qualität der Darstellung liegt dabei bei denen, die sich die verfügbar gemachten Berichte anschauen und Feedback geben (das braucht die nicht zu tun, sie werden dafür nicht bezahlt).  
 
Jemand soll handeln.
Das Modell leitet an, wie aus Leitlinien und zwischen strategischen Aktionen ausgewählt werden kann. Modelle werden erstellt, um bei Sachverhalten mit Unsicherheit zu simulieren, welche Ergebnisse welche Art von Handlung haben wird, und wie wahrscheinlich es ist, dass Probleme bestimmter Größenordnungen auftreten.
Daraus werden Leitlinien dazu entwickelt, wer, was, wann, und wo tun darf, und wer nicht.
Im Zusammenhang mit der Endlagersuche habe ich diese Leitlinien bisher nicht gefunden. Vielleicht gibt es sie aber.
 
Es soll etwas vorhergesagt werden.
Das Modell erstellt numerische und kategorische Vorhersagen von zukünftigen (auch unbekannten) Phänomen. In diesem Fall ist dies die Sicherheit eines Endlagers für hochradioaktive Abfälle über einen bestimmten Zeitraum.
Ein Modell ermöglicht das Erforschen von Möglichkeiten und Hypothesen. Möglichkeiten beschreiben das, was mit einem bestimmten Wissen aus den Daten und Informationen für einen Sachverhalt abgeleitet werden kann, es dabei aber nicht sicher ist, ob die Ableitung richtig oder falsch ist. Der wahre Zustand des Sachverhaltes ist unbekannt, soll aber gewusst sein.
Deshalb werden Hypothesen aufgestellt, die daraufhin getestet werden, ob das Modell bestätigt werden kann oder verworfen werden muss.
Dazu habe ich im Konzept nichts gefunden. Vielleicht habe ich das allerdings in der Darstellung nicht erkannt.
 
Da Modelle die mehr oder weniger vereinfachte Darstellung der Realität sind, enthalten Sie Ungewissheiten. Wenn ein Modell erstellt wird, dann wird angenommen, dass alle Details der Wirklichkeit, die weglassen werden, nicht wichtig sind. Manche Sachen werden auch einfach nicht gewusst, und Annahmen müssen deshalb gemacht werden. (Wenn alle diese Kenntnisse vorhanden wären, dann brauchte kein Modell erschaffen und genutzt werden.)  Als ich mir vor einem Jahr öffentlich verfügbare Modellstudien angeschaut habe, hatte ich nicht den Eindruck, dass alle Details, die weggelassen wurden, unwichtig sind. Ich hatte dies auch kommuniziert (allerdings keine zügie Antwort bekommen).
 
Die Dokumentation aller dieser Informationen (Ungewissheiten, Gesetzmäßigkeiten, wissenschaftliche Erkenntnisse, Annahmen, Eingangsdaten, Abläufe, usw.) für das Modell ermöglicht eine anschließende Beurteilung der Ergebnisse, die durch die Anwendung dieses Modells erzielt wurden.
Dies bildet die Basis für die kontinuierliche Verbesserung des Modells. Die Zuverlässigkeit von Informationen kann eingeschätzt werden.
Es ist anzunehmen, dass dies passieren wird. Ich habe in dem Konzept nicht erkennen können. In welchen spezifischen Stadien der jeweiligen Phase dies passiert, und ob es dazu eine Beteiligung gibt.
 
Zur Einschätzung eines beliebigen Modells sind weitere Kriterien notwendig: Stimmigkeit, Ausdruckskraft, Leistungsfähigkeit, Eignung, Willkür, und Wirksamkeit. Damit wird die Qualität der Darstellung beurteilt. Ich habe dazu nichts gefunden. Da eine reine Auflistung dieser <Begriffe möglicherweise missverstanden wird, hole ich jetzt etwas aus.
 
Stimmigkeit
Die Stimmigkeit ist das Ausmaß, zu dem die einzelnen Teile eines Modells ein Ganzes bilden. Mängel in der Stimmigkeit fallen oft zuerst auf. Es passt etwas nicht zusammen.
Beim Erstellen von Modellen werden Modellierungstechniken verwendet. Modelle, die einen hohen Detaillierungsgrad und eine hohe Genauigkeit aufweisen, obwohl nur eine geringe Menge von Beobachtungen als Eingabeinformation vorhanden ist, sind zu einem bestimmten Grad unstimmig. Hier wurde möglicherweise viel erfunden (phantasiert), ohne dass die dafür notwendigen Eingangsdaten und Informationen vorhanden sind.
Unstimmigkeit tritt auf, wenn etwas nicht zu einander passt: Zum Beispiel die Detailtiefe zur Menge der Beobachtungen, oder die Genauigkeit zur Art der Beobachtungen. Wenn Defizite in der Stimmigkeit beobachtet werden, muss analysiert werden, wie sich dies auf die Eigenschaften des gesamten Modells auswirkt.
Der jetzigen Dokumentation sind dazu sehr wenige Informationen vorhanden. Es ist bei vielen Modellen nicht sicher zu erkennen, wie sie zueinander stehen, abgesehen davon, dass sie sich irgendwie auf ein bestimmtes Wirtsgestein beziehen.
 
Ausdruckskraft
Die Ausdruckskraft ist der Grad, zu dem eine bestimmte Modellierungstechnik in der Lage ist, Modelle von einer beliebigen Anzahl und Art zu gestalten. Modelle der Wirklichkeit sollen die Wirklichkeit so ausdrücken, dass das nachvollzogen werden kann.
Wenn ein Modell nicht verstanden werden kann, dann hat es keine Ausdruckskraft. Es kann nicht genutzt werden.
Oft ist es hilfreich, sich die Frage zu stellen, ob die Darstellung des Modells das ausdrückt, was erklärt werden soll, oder ob eine andere Form der Darstellung geeigneter wäre.
Nach meiner Einschätzung war die Ausdruckskraft der bisher in diesem Zusammenhang vorgestellten Modelle mangelhaft. Das Konzept (inkl. Anlage 1) ist in dieser Hinsicht zwar besser als der Teilbericht (inkl. unterliegende Dokumente), aber immer noch sehr eingeschränkt. Die digitale Bereitstellung von Inhalten über Links könnte die Lesbarkeit verbessern.
 
Leistungsfähigkeit
Die Leistungsfähigkeit ist der Grad, zu dem der Modellierungsprozess die notwendigen Ressourcen wie Zeit und Arbeitskraft nutzt. In der Regel ist die Erstellung eines Modells aufwändig. Natürlich können mit einer geringen Zahl an Beobachtungen und wenig Wissen sehr viele unterschiedliche Modelle gebaut werden. Es kann mit einer geringen Zahl an Beobachtungen und wenig Wissen auch nur ein Modell erstellt werden, um herauszufinden, welche weiteren Beobachtungen besonders wichtig sind, um das Modell leistungsfähiger zu machen.
Da mit einem Modell bestimmte Fragen beantwortet sollen, sollen die Antworten darauf durch die geringste Anzahl der dafür notwendigen Modelle geliefert werden. Dabei sollen jedoch keine Modelle unterschlagen werden, die zur Beantwortung notwendig sind.
Um dies beurteilen zu können, muss das Problem verstanden worden sein, was durch die Nutzung des Modells gelöst werden soll.
Es schient in diesem Sachverhalt dazu unterschiedliche Ansichten zu geben.
Um die Kosten gering zu halten, wird oft versucht, die geringstmögliche Anzahl zu erstellen, die Anzahl, mit der die Aufgabe als abgeschlossen angesehen werden kann. Die Anzahl ist jedoch nicht entscheidend über den Nutzen der einzelnen Modelle. Die Leistungsfähigkeit entscheidet. Erlauben alle Modellvarianten zusammen die Beantwortung aller zu lösenden Fragen? Nur wenn dies der Fall ist, dann sind zunächst keine weiteren Modelle notwendig.
Häufig wird nur ein einziges Modell erstellt, was alle vorhandenen Beobachtungen richtig und vollständig wiedergibt.  Jede weitere Beobachtung validiert dann das Modell, oder erzwingt Änderungen, bis hin zur Erstellung eines neuen, anderen Modells.
Dies ist oft in der Kohlenwasserstoffindustrie der Fall. Ein dreidimensionales geologisches Modell ist aufwändig in der Erstellung. Es dient als Grundlage für eine Reservoir-Simulation, mit der dargestellt wird, wie sich die Lagerstätte bei der Förderung verhält (Vorhersage). Bei der Förderung wird gemessen, wie zuverlässig die Vorhersage zutrifft. In vielen Fällen ist die Zuverlässigkeit bei Beginn nicht ausreichend, weil das geologische Modell Fehler enthält. Dies erfordert dann nicht nur eine Neuinterpretation.
 
Eignung
Die Eignung ist der Grad, zu dem eine gegebene Modellierungstechnik speziell auf eine bestimmte Art von Anforderungen an Modelle zugeschnitten ist. Ein Beispiel: Es soll modelliert werden, weil eine Vorhersage erstellt werden soll. Wenn es die Modellierungstechnik es nicht erlaubt, die dafür notwendigen Faktoren zu berücksichtigen, dann ist sie ungeeignet.
In diesem Bereich können unterschiedliche Fachgebiete voneinander lernen. Das, was in einem bestimmten Fachgebiet (neu) entwickelt wurde und funktioniert, kann möglicherweise auch für völlig andere (ab- und umgewandelt) geeignet sein. Die Verfügbarkeit billiger Rechenkapazität macht vieles möglich, was noch vor wenigen Jahren auf die Anwendung in bestimmten Fachgebieten beschränkt war. Die Nutzung von Wahrscheinlichkeit erfordert oft die Durchführung von Simulationen. Dazu reicht jetzt manchmal die Rechenkapazität eines Notebooks.
 
Willkür
Die Willkür ist der Grad der Freiheit, der bei der Modellierung in ein und demselben Sachverhalt besteht. Wenn auf einer 2-dimensionalen Darstellung etwas Bestimmtes zu sehen ist, wie sieht es davor/dahinter (in 3D) aus? Sind unterschiedliche Interpretationen möglich? Würde eine andere bildgebende Technologie helfen, genauere Informationen zu erhalten? Ist die Freiheit, andere Interpretationen zu machen, dadurch eingeschränkt, indem noch weitere zusätzliche Informationen vorliegen?
Desto weniger von einem Sachverhalt verstanden worden ist, desto schwieriger wird Willkür erkannt werden können.
In dem Konzept sind zu den Sachverhalten zu wenig Daten verfügbar, um dies beurteilen zu können. Dies ist in Vorhaben oft ein großes Risiko: Etwas erscheint völlig plausibel und wird durch vorhandene Daten und Interpretation belegt. Der Erwerb von weiteren Daten zeigt dann, dass die initiale Darstellung falsch war.
 
Wirksamkeit
Die Wirksamkeit ist das Ausmaß, zu dem der Modellierungsprozess sein Ziel erreicht. Wenn das Modell keine Vorhersagen zulässt, die dann in der Realität in irgendeiner Art und Weise zufriedenstellend nachgeprüft werden können, dann kann der Grad der Wirksamkeit nicht nachgewiesen werden.
Dies kann schwierig sein. In diesem Sachverhalt sollen schließlich keine Radionuklide in die Biosphäre gelangen. Es sollte aber zumindest modelliert werden, wie sie dies könnten.
Ohne ein Verständnis von Kausalbeziehungen kann die Zuverlässigkeit der Sicherungsmaßnahmen lediglich angenommen werden.
 
Modelle unterstützen bei der Exploration von Sachverhalten, besonders dann, wenn die Ungewissheit hoch, und das Verständnis eingeschränkt ist.
Ein Modell wird mit dem Ziel genutzt, ein Problem zu lösen. Was zählt ist, ob, oder in wie weit das Modell hilft, das Problem zu lösen. Dabei zählt nicht, dass für die Erstellung eines Modells bereits viel Arbeit geleistet wurde, und nun ein Ergebnis vorliegt. Dieses Ergebnis kann falsch und irreführend sein.
 
Es kann gut sein, dass sich einem Sachverhalt mit mehreren unterschiedlichen Modellen genähert werden muss, um unterschiedliche Aspekte ausleuchten zu können.
 
In allen Modellen, abgesehen von denen, die Naturgesetze kommunizieren, gibt es Modellungewissheiten. Diese müssen bei jedem Modell jeweils separat betrachtet und beurteilt werden. Nach meiner Erfahrung sind die drei wichtigsten:
1. Die Ungewissheit der Modellstruktur beschreibt die Möglichkeit, dass ein Teil der Struktur des Modells falsch ist. Dies tritt häufig auf, wenn die Kenntnisse unvollständig sind, und die Struktur lediglich auf der Grundlage von Beobachtungen interpretiert wurde.
2. Die Ungewissheit der Modellparameter beschreibt die Möglichkeit, dass einige gewählte Parameterwerte nicht von ausreichender Qualität sind. Das resultiert in unzureichend genauen Vorhersagen. Desto weniger belastbare und zuverlässige Informationen in dem Modell genutzt werden, desto häufiger tritt dies auf.
3. Die Messungewissheit bezieht sich auf die Verwendung falscher Eingabewerte. Dies ist besonders beim Umgang mit großen Datenmengen ein Problem. In der Regel sind einige Daten fehlerhaft. Es wird jedoch nicht gewusst, welche das sind. Wenn dies nicht entdeckt wird, dann werden falsche Ergebnisse produziert. Wenn Daten entfernt werden, weil angenommen wird, dass sie fehlerhaft sind, diese Annahmen jedoch nicht stimmen, dann werden falsche Ergebnisse produziert.
 
Bei jedem Modell ist es notwendig, die Modellungewissheiten zu dokumentieren. Damit wird die Grundlage für eine Beurteilung der Ergebnisse geschaffen, bei der entschieden werden soll, ob die Modellungewissheit reduziert werden muss, um zuverlässigere Ergebnisse zu erzielen.
Wenn die Modellungewissheit nicht reduziert werde kann, können die resultierenden Unsicherheiten möglicherweise so groß sein, dass das Modell keine verwertbaren Aussagen liefern kann.
Wenn gar keine Modellungewissheit dokumentiert wurde, ist eine Einschätzung der Qualität eines Modells (zum Beispiel bezüglich Sicherheitsanforderungen) nicht zuverlässig möglich.
 
In ihrer einfachsten Form vergleichen Beurteilungen der Modellunsicherheit die Vorhersage mit dem tatsächlichen Ergebnis.
Dies ist hier wohl nur eingeschränkt möglich, weil keine „Versuchsendlager“ betrieben werden. Deshalb könnte es vorteilhaft sein, sich sobald wie möglich zu überlegen, was wie und wo getestet werden könnte.
Beispiele: Ich hatte in einem vorherigen Kommentar über einen „Pseudocastor“ in Gorleben spekuliert. In einem anderen Kommentar hatte ich vorgeschlagen, zu testen, wie konsistent geologische Gesteinsbeschreibungen erstellt und genutzt werden. Bei dem Kommentar zu dem Potential, die Unsicherheit durch den Erwerb weiterer Daten zu adressieren hatte ich vorgeschlagen, ein Formation Micro Imaging Tool zu testen.
 
Wenn Vorhersagen lediglich auf Vermutungen beruhen, könnte man versucht sein, Form und Muster von Fehlern dazu zu verwenden, um einige provisorische, mehr „schlecht als recht“ zu nutzende Vorhersageintervalle zu dokumentieren, wie zum Beispiel: Die Vorhersageergebnisse sind bei 3 von 5 Vorhersagen (60% Intervall) nützlich.
Dieses Ergebnis ist sehr nahe an 50%. Das bedeutet, dass die Ergebnisse möglicherweise genauso oft nützlich, wie sie nicht nützlich sind.
Dabei kann eine wichtige Lektion gelernt werden: Ein Modell, das auf Vermutungen basiert, produziert auch lediglich Vermutungen.
Eine Vorhersage ist in der Regel nur nützlich, wenn sie eine Wahrscheinlichkeit von mehr als 0,8 hat zuzutreffen.
 
Die Ergebnisse von Modellen können akzeptabel sein, wenn alle Komponenten des Systems eine streng lineare Beziehung zueinander haben. In allen anderen Fällen wird das Ergebnis der Modellrechnung möglicherweise einen (großen) Fehler haben.
Ein einfaches Beispiel ist ein nicht-lineares System. Bei diesem System hat jeder Ablauf/jede Funktion ein bestimmtes Limit. Sobald das Limit erreicht ist (Kapazität), ändert sich das Systemverhalten plötzlich, und unerwartete Ergebnisse treten auf. In dem Fall des Endlagers wäre dies zum Beispiel die Bildung von unerwarteten Fluidwegsamkeiten und deren Auswirkungen.
 
Ein Beispiel
Drill- Stem-Tests produzieren Druckmessungen. Die werden dann zu Berechnungen genutzt. Die Messergebnisse werden interpretiert.  Das Ergebnis der Berechnung kann intuitiv richtig aussehen. Es muss aber nicht richtig sein. Desto weniger die Geologie verstanden worden ist, desto mehr Möglichkeiten existieren, was das Ergebnis bedeuten könnte. Eine falsch interpretierte Druckmessung führt zu falschen wirtschaftlichen Entscheidungen.
 
Ein häufig genutzter Ansatz zur Schätzung der Modellunsicherheit ist die Analyse der Zuverlässigkeit (Ungewissheiten), die über die Eingangsdaten/Informationen in das Modell einfließen, und welche Ungewissheiten dies in den Ergebnissen (Vorhersagen) auslöst.
Dies ist besonders wichtig bei der Vorhersage von Ereignissen, die noch nicht passiert sind, und von denen geplant ist, dass sie auch niemals passieren werden. Dies ist beim Endlager der Fall.
(Ein anderes Beispiel ist die Rechtfertigung von Schutzmaßnahmen und Risikominderungsmaßnahmen zur Vermeidung von durch Menschen gemachten Katastrophen wie der Klimakrise. Da funktioniert dies auch nicht gut.)
 
Desto größer das Risiko ist, desto mehr empfiehlt sich die Erstellung von Modellen, das Durchführen von Experimenten und Simulationen, und der Erwerb zusätzlicher Informationen, die notwendig sind, um die Zuverlässigkeit von Vorhersagen zu verbessern.
Dies macht auch dann Sinn, wenn dies zunächst mit Ausgaben verbunden ist, die keine direkten Fortschritte unterstützen, sondern lediglich einen Erkenntnisgewinn.
 
Bei vielen Vorgängen ist der Einfluss von Zeit schlecht verstanden. Wenn nicht rechtzeitig begonnen wird, dann ist möglicherweise nicht mehr genügend Zeit vorhanden, um eine Analyse anfertigen zu können, aufgrund derer effektive Schutzmaßnahmen hätten implementiert werden können. Die Endlagersuche ist von diesem Defizit betroffen: Die Castor Behälter halten überirdisch nur für eine realtiv kurze Zeitspanne.
 
Zurzeit wird dargestellt, dass die Endlagersuche in sehr spezifischen Phasen abläuft. Es könnte sich überlegt werden, ob nicht in einigen Bereichen zumindest zeitweise für bestimmte Probleme eine agilere Vorgehensweise genutzt wird, um herauszufinden, ob die geplante Vorgehensweise auch wirklich erfolgreich sein muss. Damit könnten Zweifel (auch eine Komponente von Ungewissheit) adressiert werden.
 
Nach meiner Erfahrung kann im Zusammenhang mit einer Modellierung viel von einer Kollaboration profitiert werden. Dazu muss das Modell für mögliche KollaborteurInnen allerdings leicht identifizierbar sein. Das ist zurzeit nicht der Fall.
Eine leichtere Verfügbarkeit würde eine Entscheidung leichter machen, ob man dazu beitragen könnte, möchte, sollte, oder nicht.

Kommentar zu Kapitel 8.9 Bewertung von Ungewissheiten Das Kapitel verweist auf Kapitel 10 in der Anlage 1. 10 Bewertung von Ungewissheiten.
 
Häufig wird in Vorhaben nur ein einziges geologisches Modell genutzt. Dieses Modell wurde aus der Interpretation aller verfügbaren Daten erstellt. Alle Daten passen in das Modell. Es sieht deshalb plausibel aus.
Besonders für Außenstehende reicht dies oft aus. Wenn dann eine Aktion geschieht (Bohrung, Reflexionsseismik), dann gibt es neue Information, und das Modell wird damit angepasst. Die beteiligten Ingenieure zucken dann mit den Achseln: „Geologie eben. Immer für eine Überraschung gut“.
Es gibt aber regelmäßig auch Informationen, die erfordern, das Modell grundlegend zu ändern. Da wird dann nicht nur mit den Achseln gezuckt. Da sind dann von allen Beteiligten Nacharbeiten und zusätzliche Investitionen notwendig.
 
Deswegen ist es oft von Vorteil, ein etwas detaillierteres Verständnis davon vermitteln, mit welchen Problemen sich die Geologie herumschlägt. In der Regel sind die nicht gut bekannt. Sie sind gut nachzuvollziehen, weil die Medizin im Wesentlichen die gleiche Art der Probleme hat.
 
Zehn (nach meiner Erfahrung wichtige) Probleme der geowissenschaftlichen Arbeit sind unten beschrieben. Zunächst sieht der Text eher abschreckend lang aus (in einer Zeit, wo alles in 4 Sätzen ausgedrückt werden soll, weil die Aufmerksamkeitsspange sonst überfordert ist). Da muss man allerdings durch, weil die Natur darauf keine Rücksicht nimmt.
 
1. Standort
Der Standort ist die Lokation des Sachverhaltes in Bezug zu einem auf der Erde vorkommendem System. Es ist die Stelle in dem System, von dem aus Beobachtungen vorgenommen werden. Beobachtungen von unterschiedlichen Standorten zu einem bestimmten Sachverhalt stellen diesen oft unterschiedlich dar.
In einem Bericht über einen Sachverhalt ist der Standort vorgewählt. Es ist der Bericht von diesem Standort aus.
In der Regel wird nicht versucht, sich vorzustellen, welche anderen Standorte eingenommen werden sollten (müssen), um ein vollständiges Bild von dem Sachverhalt zu bekommen.
Die Probleme mit Standorten beziehen sich nicht auf den Raum, den der beobachtete Sachverhalt einnimmt, sondern auf die Extrapolation der Ergebnisse von einem Standort zu einem anderen Standort, und von einem Sachverhalt zu einem anderen Sachverhalt.
Es gibt zwei wesentliche Aspekte des Problems: zum einen die Abstände zwischen den Sachverhalten, und zum anderen die unabhängig voneinander in unterschiedlichen Sachverhalten beobachtenden Personen, die die Informationen über den jeweiligen Sachverhalt bereitstellen (mit ihrer unterschiedlichen Ausbildung, Einstellung, Lebensgestaltung, usw.).
Das Problem tritt auf, weil auf der Erde bestimmte Sachverhalte an einem beliebigen Zeitpunkt einzeln, zusammen, und mit einer unterschiedlichen Gewichtung auftreten. Das Ergebnis der Beobachtung an einem Ort kann möglicherweise nicht zu dem anderen Ort extrapoliert werden.
Die erfolgreiche Zusammenführung der Datenerfassung, der Analyseergebnisse und der Interpretationen, die durch unabhängig voneinander arbeitende Personen bereitgestellt werden, verlangt eine starke Standardisierung der Vorgehensweise, gemeinsame Sprache, gemeinsame Kontrollen, und weiteres mehr. Es ist unklar, inwieweit dies bei dem Daten und Informationstransfer zwischen der BGE und den jeweiligen zuliefernden Behörden gelingt.
Oft können durch einen mehrfachen Standortwechsel innerhalb des gleichen Sachverhalts neue, zusätzliche Beobachtungen machen. Dadurch kann die Ungewissheit in diesem Sachverhalt reduziert werden.
 
2. Konvergenz
Konvergenz beschreibt die Entstehung ähnlicher Ergebnisse aus unterschiedlichen Ursachen und durch unterschiedliche Prozesse. Sie beschreibt, dass und wie aus unterschiedlichen Ursachen und durch unterschiedliche Prozesse ähnliche Ergebnisse entstehen.
Äquifinalität ist das Prinzip, dass in offenen Systemen ein bestimmtes Endstadium durch eine Vielzahl unterschiedlichster Möglichkeiten erreicht werden kann.
Sobald es offensichtlich ist, dass dies stattfindet (stattgefunden hat, stattfinden wird) ist die Nutzung von Analogien mit Problemen verbunden. Bei der Analyse und Interpretation äußert sich das darin, dass es sehr schwierig sein kann, von einem Ergebnis ausgehend sichere Rückschlüsse auf die beteiligten Ursachen und Prozesse ziehen zu können.
Dies wird oft nicht als mögliches Problem verstanden, wenn eine Erklärung von Beobachtungen als logisch erscheint, und sich keiner (der zur Auseinandersetzung mit diesem Sachverhalt etwas beitragen darf) unterschiedliche Ursachen und Prozesse vorstellen kann.
Im Kontext der Endlagersuche würde dies bedeuten, dass mehr Details zur Einsicht zur Verfügung gestellt würden, so dass es ermöglicht würde, herauszufinden, ob dieses Problem möglicherweise existiert. Danach kann dann entscheiden werden, wie damit umgegangen werden soll.
 
3. Einzigartigkeit (Unbestimmbarkeit)
Einzigartigkeit äußert sich als Unbestimmbarkeit. Es ist die natürliche Variabilität von gleichen Dingen. Einzigartigkeit ist eine Eigenschaft, die eine Sache unterschiedlich von anderen Sachen der gleichen Sorte, Art, oder ähnlichem macht. Einzigartig bedeutet nicht einmalig. Menschen (zum Beispiel) sind sich im Vergleich zu Affen sehr ähnlich. Jeder einzelne Mensch hat jedoch einzigartige Charakteristiken.
Allgemein gesagt ist Einzigartigkeit die Zufälligkeit oder unbestimmbare Variation in einem Datensatz.
Desto mehr visuelle Elemente aus den Beobachtungen in die Charakterisierung und Beschreibung der Daten eingehen, desto problematischer ist die Erstellung gültiger Generalisierungen. Diese erlauben es anderen Personen (als dem Beobachter), dessen Beobachtungen von einem Ort/Ereignis/Ergebnis zu nutzen, um selbst die gleiche Art von Beobachtungen an einem anderen Ort zu machen.
Zur Beschreibung müssen deshalb gut definierte Begriffe genutzt werden, die von allen Beteiligten gleich verstanden werden.
Dies ist oft nicht der Fall, sondern wird lediglich angenommen. Dazu wurde bereits in einem vorherigen Kommentar im Zusammenhang mit der Charakterisierung von Wirtsgesteinen einen Vorschlag gemacht.
 
4. Komplexität
Komplexität ist das Versagen von Vorhersagemöglichkeiten zum Verhalten eines Systems bei Änderungen.
Es kann sein, dass zur Darstellung von Abläufen und Systemen ein so großes Maß an Detail verwendet werden muss, und eine so hohe Vielzahl verschiedener Elemente angezeigt und beschrieben werden muss, so dass man dies nicht direkt alles ganz erfassen können. Es fehlt das Wissen, alles zu verstehen, was wahrgenommen (gesehen, gehören, …) wird. Die Darstellung eines Systems mit vielen Einzelheiten ist deshalb oft kompliziert.
Dies macht einen Vorgang/ein System jedoch nicht komplex.
Etwas ist kompliziert, wenn es anspruchsvoll, aber berechenbar ist. Anspruchsvoll bedeutet, dass es zahlreiche mitwirkende Faktoren gibt, die schwierig gleichzeitig erfasst werden können, und dass sowohl die Faktoren, als auch die Wirkungsmechanismen bekannt sind.
Komplexe Sachverhalte erlauben keine Vorhersagen dazu, wie sich der Sachverhalt entwickelt. Dies ist völlig zufällig. Deshalb machen Vorhersagen auch keinen Sinn.
Dazu wurde bereits in einem früheren Kommentar eingegangen.
 
5. Empfindlichkeit
Empfindlichkeit ist die Anfälligkeit eines Systems für Änderungen, die von außen angestoßen werden. Die Stärke der Änderung muss einen bestimmten Grenzwert überschreiten, damit sich das System nachweisbar nachhaltig ändert.
Das Problem ist, dass der Grenzwert zwar vorhanden ist, jedoch oft nicht zuverlässig ermittelt werden kann. Das gleiche Ereignis löst in einigen Systemen weitgreifende Änderungen aus, während in anderen, vergleichbaren Systemen keine Spuren von Veränderungen zu entdecken oder nachzuweisen sind.
Bei einer Forschungsstudie kann mit der Feststellung eines solchen Ergebnisses natürlich keinen Blumentopf gewonnen werden. Besser ist es, einen Grenzwert festzulegen. Der kann dann als Ergebnis wissenschaftlicher Forschung genutzt werden (und im ungünstigsten Fall missbraucht werden).
Bei einem unzureichenden Verständnis des Systems kann die Festsetzung eines Grenzwertes der Ausdruck bestehender Machtverhältnisse zur Durchsetzung individueller Interessen sein.
In der Darstellung der Klimakrise taucht die Darstellung der Empfindlichkeit eines Systems als Kipppunkt auf. Dies illustriert besser, was passiert, nachdem lange Zeit trotz Veränderungen bisher alles noch gut gegangen ist.
Da die Endlagersuche in einigen Bereichen Neuland betritt, und Prognosemodelle aus der Vergangenheit (siehe Bergwerk Asse) sich nicht mit Ruhm bekleckert haben, wäre es vorteilhaft, wenn in diesem Sachverhalt größtmögliche Transparent ermöglicht würde.
In mancher Hinsicht ist die Medizin ähnlich wie die Geologie: alle hier beschriebenen Probleme treten dort auch auf. In der Medizin gibt es jedoch viel mehr Investitionen. Das bedeutet allerdings nicht notwendigerweise ein besseres Wissen. Deshalb gibt es die vielen Grenzwerte im Gesundheitswesen.
In der Geologie reicht der Wissensstand oft nicht einmal zu Grenzwerten. Selbst wenn es die gibt, sind die schwierig anzuwenden. Ein Beispiel: Beim Faktor 1 (Transport radioaktiver Stoffe durch Grundwasserbewegungen) werden zwischen den Bewertungsgruppen scharfe Grenzen gezogen. Was sagt eine Messreihe aus, wo die Werte alle Kategorien eines Indikators abdecken? Was ist, wenn die untersuchten Proben nicht repräsentativ sind, und deshalb nur den Wertebereich einer Kategorie abdecken ?
 
6. Divergenz (Homologie)
Divergenz beschreibt die Entstehung unterschiedlicher Ergebnisse aus ähnlichen Ursachen und durch ähnliche Prozesse. Sobald es offensichtlich ist, dass dies stattfindet (stattgefunden hat, stattfinden wird) ist die direkte Nutzung von Analogien mit Problemen verbunden. Die Ursache ist oft, dass nicht hinreichend versanden wird, was untersucht und beobachtet werden soll.
Es kann auch sein, dass das System komplex ist. Es ist dann unmöglich, in diesen Sachverhalten zuverlässige Vorhersagen zu machen.
In Sachverhalten, wo Forschung deshalb betrieben wird, weil sichere Vorhersagen gemacht werden sollen (keine Ungewissheit beim erwarteten Ergebnis), ist es sehr schwierig, eine mögliche Divergenz zuzugeben.
Eine behauptete, nicht nachgewiesene Divergenz kann dagegen sehr gut missbraucht werden, um unnötige Zweifel zu sähen.
Nach allem, was ich im Zusammengang mit der Endlagerung in Deutschland erfahren habe, ist dieses Problem seit 50 Jahren vorhanden, und kaum systematisch adressiert worden.
 
7. Effizienz
Effizienz ist das Verhältnis der beobachteten Ergebnisse zur Energie, die notwendig war, um diese Ergebnisse zu erzielen. Sie bezieht sich auf den Einfluss von Ereignissen auf die Ausgestaltung eines Systems.
Da bei Prozessen in Sachverhalten der realen Welt in der Regel mehr als eine Variable mitwirken, ist die Erarbeitung eindeutiger Ursache-Wirkung-Beziehungen (Kausalbeziehungen) oft problematisch. In der Regel gibt es eine unüberschaubare Anzahl von möglichen Einflussfaktoren.
Im Zusammenhang mit der Endlagersuche ist es unklar, inwieweit Effizienz im Fokus steht. Es scheinen (in Relation) riesige Ressourcen zur Verfügung zu stehen, und am Ende  wird ein Ergebnis feststehen.
 
8. Raum
Raum wird durch drei Dimensionen (Länge, Höhe, Breite) beschrieben. Die natürlich vorkommenden Prozesse spielen sich darin ab. Der Untersuchungsgegenstand befindet sich darin. Es gibt zwei wesentliche Aspekte des Problems: zum einen die Größe, und zum anderen die anzuwendende/anwendbare Maßeinteilung.
Die anzuwendende/anwendbare Maßeinteilung bezieht sich auf die Auflösung. Die Betrachtung eines Gegenstandes in einem niedrigen Maßstab ermöglicht die Betrachtung des ganzen Objekts. Die Betrachtung in einem großen Maßstab erlaubt nur die Beobachtung einzelner Teile dieses Objekts. Ein Objekt, das aus großer Entfernung einheitlich aussieht, kann bei naher Betrachtung Unterschiede im Zentimeter- und Millimeterbereich aufweisen. Die weitergehende Untersuchung ermöglicht das Herausarbeiten zusätzliche Einzelheiten im Mikrometerbereich bis zu einer Analyse der atomaren Struktur.
Das Problem der Größe äußert sich darin, dass bei Beobachtungen oft von dem kleinen Bereich auf den großen Bereich geschlossen werden soll, und von dem großen Bereich auf den kleinen Bereich. Es soll sowohl eine Extrapolation als auch Interpolationen möglich sein.
In diesem Zusammenhang sind sowohl Extrapolation als auch Interpolationen mit Ungewissheit behaftet, da es sich hier nicht um mathematische Beziehungen, sondern um natürlich vorkommende Resultate eines oder mehrerer Prozesse handelt.
Alle geologischen Modelle von Wirtsgesteinen haben dieses Problem.
 
9. Vielfältigkeit
Vielfältigkeit beschreibt die die vielfältigen Deutungsmöglichkeiten von möglichen Ursachen für beobachtete Einzelheiten.
Sie bezieht sich darauf, dass viele mögliche Ursachen gleichzeitig und zusammen für ein beobachtetes Ereignis/Ergebnis verantwortlich sein können. Die Annahme einer einzigen Ursache reicht in der Regel nicht aus, um die beobachteten Ereignisse/Ergebnisse abschließend zu erklären. Das Problem ist, die zusammenwirkenden Ursachen zu identifizieren, und ihr Zusammenwirken so zu beschreiben und zu definieren, dass sowohl vergangene Ereignisse erklärt, als auch zukünftige vorhergesagt/vorausgesagt werden können.
Die Klimaforschung bietet sehr gut erforschte und zugänglich dokumentierte Beispiele dafür, wie dieses Problem angegangen werden kann. Die Klimaforschung bietet auch sehr gut zugängliche dokumentierte Beispiele dafür, wie Menschen es ablehnen, sich mit unbequemen Wahrheiten zu befassen.
Die Klimakrise zeigt auch, dass Menschen mit Vielfältigkeit nicht gut zurechtkommen.
In der Endlagersuche zeigt sich dieses Problem bei der Einschätzung, welche materialwissenschaftlichen Forschungsergebnisse wie für die Bestimmung der 11 Abwägungskriterien relevant sind. Das StandAG liest sich eher wie eine Wunschliste.
 
10. Zeit
Zeit ist sowohl die absolute Zeit in der Vergangenheit, als auch die Zeitspanne zwischen einzelnen Ereignissen. Sie ist ein Mittel, um den Grad von Veränderungen zu messen.
Es gibt zwei wesentliche Aspekte des Problems. Der eine Aspekt ist die Verfügbarkeit, und der andere die Variabilität in natürlich vorkommenden Zeitspannen.
Die Verfügbarkeit äußert sich zum Beispiel darin, dass nur eine begrenzte Menge Zeit vorhanden ist, um einen Sachverhalt untersuchen zu können. Die Beobachtungen müssen dann auch noch die Eigenschaft haben, eine Auflösung des Problems zu ermöglichen, das das beseitigt werden soll.
Systeme auf der Erde existieren über die unterschiedlichsten Zeitspannen. Jeder Gegenstand der Betrachtung hat seine eigene Geschichte. Der Vergleich unterschiedlicher Zeitspannen eines einzelnen Systems kann zu unterschiedlichen Beobachtungen, Interpretationen und Vorhersagen über die Eigenschaften des Systems führen.
Zeit ist in der Regel nur in den reinen Naturwissenschaften unproblematisch. Bei einer chemischen Reaktion ist es egal, wie das Reagenz hergestellt wurde, solange es die erforderten Eigenschaften besitzt.
Die Materialwissenschaften sind näher an den reinen Naturwissenschaften wie Physik, Chemie, usw. Wenn (zum Beispiel) ein Salzgestein genutzt wird, dann ist diese Probe in der Regel nur eingeschränkt repräsentativ für alle Salzgesteine in dem Sachverhalt.  Die Frage, inwieweit die Probe repräsentativ ist, muss allerdings von der Geologie beantwortet werden. Häufig ist dazu keine zuverlässige Dokumentation vorhanden.
Es müssen deshalb Annahmen gemacht werden. Dies erhöht die Ungewissheit.
 
Bei dem Umgang mit Ungewissheit könnten Konzept/Anlage 1 mehr Zuversicht vermitteln, dass diese Probleme bekannt sind, und explizit bei der Erarbeitung der Eignung von Teilgebieten adressiert werden.
Dies ist sowohl im Konzept, als auch in der Anlage 1 nur teilweise zu erkennen. Da viele LeserInnen sich möglicherweise von der Fülle des Materials überwältig fühlen, könnte eine andere Strukturierung der Inhalte hilfreich sein.

Ein allgemeiner Kommentar zur Art, wie das Konzept Informationen zum jetzigen Stand der Endlagersuche verfügbar macht.
 
Die jetzige Struktur der Dokumentation unterstützt die Lesbarkeit nur eingeschränkt. Nach meiner Ansicht ist das Konzept (über 60 Seiten) ohne die Nutzung von Anlage 1 nur sehr schwierig nachzuvollziehen. (in meiner Kopie funktioniert nicht einmal der Link auf Anlage 1.) In der Anlage 1 ist auf über 700 Seiten alles Mögliche zum jetzigen Stand zusammengefasst.
Im Prinzip behandelt der gesamte Text die unterschiedlichsten Arten von Modellen. Zu jedem dieser Modelle gibt es weiterführende Informationen, die teilweise nur sehr eingeschränkt oder gar nicht zugänglich sind. Selbst Dokumente, die von öffentlichen Institutionen bereitgestellt werden, sind nur teilweise verlinkt, und müssen mühsam im Internet gesucht werden. Nicht immer wird man fündig.
 
Je nach Art der Vorbildung und des persönlichen Interesses könnten zu dem Konzept (inkl. Anlage) tausende von Fragen gestellt werden, die nach Ansicht des/der jeweils Fragenden alle relevant sind. Diejenigen, die an diesem jeweiligen speziellen Fachgebiet innerhalb der Endlagersuche, auf das die spezielle Frage zielt, nur sehr wenig Interesse haben, bringt dies nichts.
Außerdem kann man latent unsicher sein, ob die spezifische Frage überhaupt gerechtfertigt ist, oder ob man nicht irgendwo in der Dokumentation eine Antwort darauf überlesen hat.
 
Es ist nicht erkennen, dass der Versuch, dieses Problem über ein Forum zu adressieren, bisher sehr erfolgreich ist. (Meine Vorerfahrungen bei der Beteilung zum Zwischenbericht waren nicht dazu geeignet, um mich zu motivieren.) Es gibt eine geringe Zahl angemeldeter Teilnehmer, eine noch sehr viel geringere Zahl an Beiträgen. Eine Diskussion im Sinne von Fragen und Antworten innerhalb von Tagen ist nicht wirklich wahrnehmbar.
 
Zudem bringen die möglichen Beteiligten sehr unterschiedliche Vorkenntnisse mit. Ich kann mir vorstellen, dass meine Kommentare diejenigen, die nicht an den von mir adressierten Themen interessiert sind, abschrecken: viel zu lang, zumindest teilweise unverständlich, und daher von keinem/wenig Nutzen.
 
Zudem können meine Beiträge leicht missverstanden werden. Ein digitales Forum ist eine asymmetrische Form der Kommunikation. Eine schriftliche Darstellung im Forum ist nicht eine Art von Dialog, wo direkt eine Zwischenfrage gestellt werden kann, wenn dies zur Verständnisklärung notwendig ist. Ich kenne meine AdressatInnen nicht. Nicht alle Interpretationen dazu, was wohl wie gemeint ist, werden immer gültig sein.
 
Bei der Beteiligung zum Zwischenbericht gab es nach meiner Erinnerung eine Begrenzung auf eine sehr begrenzte Anzahl von Wörtern, die ein Beitrag umfassen konnte. Damit dies eine Basis für eine Diskussion hätte werden können, hätte allerdings in einen engen Zeitrahmen die Diskussion auch aufgenommen werden müssen. Das ist nicht geschehen.
In der Regel ist es oft schon schwierig, sich nach einer Woche daran zu erinnern, was man genau gefragt hat (außer das Thema hat eine tiefe emotionale Bedeutung). Wenn die erste Reaktion erst nach vielen Monaten erfolgt, dann ist das Thema lange vergessen.
 
Nach der Vorgeschichte des Konzepts wird davon ausgegangen, dass alles, was geschieht, im Rahmen geltender Gesetze und Verordnungen stattfindet. Das Konzept enthält auf etwas über 60 Seiten über 250 Referenzen zu einzelnen Paragraphen des StandAG und der EndlSiUntV. Zudem wird im Konzept Text aus dem StandAG und der EndlSiUntV wiederholt.
Dies macht das Dokument sicherlich rechtssicher, schreckt aber wahrscheinlich Leser ab, die sich nicht seit vielen Jahren hochmotiviert in diesem Thema bewegen (die die Gesetzestexte und Verordnung im Kopf haben und deshalb diese Textteile überspringen können).
Das Konzept hat eher den Charakter einer amtlichen Veröffentlichung. Die Darstellung mancher Sachverhalte erscheint so, als ob (etwas übertrieben gesagt) der Verfasser/die Verfasserin Angst davor hat, plötzlich verständlich zu sein. (Klarheit bedeutet anscheinend, eigene Schwächen zeigen zu müssen. Das muss auf jeden Fall vermieden werden. Man macht sich dadurch möglicherweise angreifbar.) Wichtig ist es wohl, einen bestimmten Ton zu treffen.
Wer das Format als verbesserungsbedürftig darstellt, wird anscheinend als Angreifer der Institution wahrgenommen.
 
Wie schlecht dies bei Bürgern ankommt, konnte in den letzten 2 Jahren in amtlichen Veröffentlichungen zur Corona Pandemie gelernt werden. Als Resultat kann allerdings das Potential für irrationales Verhalten in der Gesellschaft besser eingeschätzt werden. Es ist überraschend hoch. In dem Sachverhalt der Endlagersuche wahr das Potential für ein irrationales Verhalten schon vorher vorhanden.
Zudem hilft es nicht, dass die bisherige Vorgehensweise der öffentlichen Institutionen beim Umgang mit Atomenergie bei vielen Bürgern mit einem massiven Vertrauensverlust verknüpft ist. Die Begründung für die Übernahme von Verantwortung für die Endlagerung ist, dass damals angeblich fast alle Bürger die Atomenergie gewollt haben. Diese Begründung lässt sich nicht mit der Dokumentation über und den Erfahrungen aus dem zivilen Protest dagegen in Einklang bringen. Diese Vorkommnisse waren einer der Auslöser eines deutlichen Vertrauensverlustes in den deutschen Staat, der Demonstranten zu Kriminellen erklärte, um damit den Einsatz von Polizeigewalt zu rechtfertigen.
 
Alle zur Produktion von Atomenergie gehörenden Komponenten (einschließlich der Einlagerungslösungen für Abfälle) mussten und müssen durch starke Sicherungsmaßnahmen und einen aufwändigen Einsatz von Ordnungskräften geschützt werden. Die, die gegen diese Technologie protestierten haben, haben diese Sicherungsmaßnahmen mitfinanziert, und tun dies jetzt auch noch immer. Oft wird das als fortlaufender Machtmissbrauch empfunden.
 
In dem Zusammenhang könnte es hilfreich sein, sich bei der Kommunikation der einzelnen Komponenten von Vertrauen bewusst zu sein. Zur Erinnerung:
 
Wahrgenommene Kompetenz
Die wahrgenommene (Fach)Kompetenz wird damit beurteilt, indem beobachtet wird, wie jemand Informationen (öffentlich) bereitgestellt. Fortschritte (eine neue Erkenntnis, das richtige Eintreten einer Vorhersage) können ohne Probleme nachvollzogen werden.
Bis jetzt ist die wahrgenommene Kompetenz eher gering. Für Gorleben wurden über 1,5 Milliarden Euro ausgegeben, ohne dass dafür adäquate Gegenwerte zu erkennen sind. Die Geschichte der Einlagerung im Bergwerk Asse ist kein Beispiel, um Zuversicht zu erzeugen.
Die bisherige Vorgehensweise bei einer möglichen Bürgerbeteiligung empfinde ich als mangelhaft (Schulnote).
Wahrgenommene Kompetenz kann auch sein, dass jemand zugibt, einen Fehler gemacht zu haben, und erläutert, warum dies geschah. Dies ist in diesem Zusammenhang bisher nach meiner Kenntnis noch nie geschehen.
 
Objektivität
Wenn Informationen in einem Format verfügbar werden, das es ermöglichen, die Zuverlässigkeit dieser Informationen einzuschätzen, dann erscheint die Darstellung in der Regel als objektiv. Objektivität und Subjektivität sind die zwei Enden eines Kontinuums. Was von einem Standort aus als objektiv erscheint, kann von einem anderen als subjektiv empfunden werden.
Möglicherweise wird (je nach Wissensstand) eine Vielzahl von Informationen benötigt, um eine korrekte Einschätzung in diesem Kontinuum vornehmen zu können.
Wenn die notwendigen Informationen zu den unterschiedlichen Standorten zwar vorhanden sind, aber nicht zur Verfügung gestellt werden, dann kann keine zufriedenstellende Einschätzung gemacht werden.
Dies scheint zurzeit der Fall zu sein. Es hilft vielleicht, sich in Erinnerung zu rufen, dass die Mittel für die Aktivitäten nicht unabhängig von der Energieindustrie irgendwie/irgendwo im Ausland erwirtschaftet wurden, sondern von den Bürgern Deutschland über das Bezahlen ihrer Stromrechnung bereitgestellt wurden. Diese Bürger Deutschlands sind die eigentlichen Auftraggeber. Sie haben die Arbeit lediglich an öffentliche Institutionen delegiert.
 
Fairness
Fairness bedeutet, dass begründete gegensätzliche Standpunkte dargestellt werden, auch wenn die verantwortliche Organisation sich diese Standpunkte begründet nicht zu eigen macht. Die Begründung der gegensätzlichen Standpunkte wird veröffentlicht, so dass sie nachvollzogen werden können.
Sobald der Rahmen einer wissenschaftlichen Betrachtung verlassen wird, können sich daraus auch Probleme ergeben. Fairness bedeutet deshalb nicht, dass bei dem öffentlich verfügbar machen von Informationen, und den damit zusammenhängenden Unsicherheiten, auch Verschwörungstheorien detailliert öffentlich dargestellt werden müssen, - nur weil einige Menschen daran glauben (selbst wenn sich diese dann unfair behandelt fühlen).
Ich hatte angenommen, dass dies durch die Beteiligung (siehe StandAG) erreicht werden soll. Bei der Beteiligung zum Zwischenbericht habe das nicht erkennen können. Ich hatte nicht den Eindruck, mit dieser Einschätzung allein zu sein. Ohne eine wahrgenommene Fairness wird von einer Beteiligung effektiv und effizient abgeschreckt.
 
Empathie
Die Erwartungen der Empfänger einer Information werden verstanden. Es wird darauf reagiert, wenn diese Erwartungen nicht erfüllt werden. Da aufgrund von Erfahrungen (fehlende Aufrichtigkeit in der Vergangenheit) ein (latentes) Misstrauen darüber bestehen kann, ob Informationen wirklich zuverlässig sind, und ob wirkliche, oder nur scheinbare Fortschritte gemacht werden, sind Offenheit und Ehrlichkeit unabdinglich. Empathie bedeutet auch, jemandem Wertschätzung entgegenzubringen, jemanden anerkennen.
Wer Macht hat nimmt häufig an, auf Empathie (zumindest teilweise) verzichten zu können. Man glaubt, es besser zu wissen. Dies kann auch eine demokratisch gewählte Regierung, oder eine Behörde oder ein Amt sein, die dann als Obrigkeitsstaat agieren.
Dies wird weder als kompetent, noch als objektiv, kaum als fair, und definitiv nicht als empathisch wahrgenommen.
Bei der Beteiligung zum Zwischenbericht habe ich Empathie vermisst, inklusive bei denen, die die Beteiligung organisieren und begleiten sollten. Ich hatte nicht den Eindruck, mit dieser Einschätzung allein zu sein.
Die Kommunikationseinschränkungen durch die Corona Pandemie waren sicherlich nicht hilfreich.
Auch wenn dies vielleicht nicht beabsichtigt ist: Anscheinend wird man als unerwünschter Störenfried wahrgenommen, sobald man Fragen stellt, die über die veröffentlichten allgemeinen Informationsbroschüren hinausgehen, oder vdas, was in einem kleinen Kreis abgestimmt wurde.
 
Unvoreingenommenheit
Vertrauen wird erworben, wenn die Informationen nicht so aufbereitet und dargestellt werden, dass sie nur die spezifischen Interessen einer bestimmten Organisation oder Institution vertreten. Eine vollständige, genaue, präzise, … Darstellung zeigt oft auf, dass die kommunizierten Sicherheiten und Eindeutigkeiten in Wirklichkeit nur eine bestimmte Sichtweise des Sachverhaltes darstellen. Dies nutzt dann nur bestimmten Institutionen, nicht aber notwendigerweise dem Leser/der Leserin.
Wenn der Leser, die Leserin dies aufdecken, dann verlieren sie auch das Vertrauen in andere Informationen aus dieser Quelle.
Es ist vermutlich nicht die Aufgabe des BGE als Vorhabenträgers, diese Unvoreingenommenheit herzustellen. Dies ist eher Aufgabe der Aufsichtsbehörde/des zuständigen Ministeriums.
Zurzeit ist kaum zu erkennen, wie eine Unvoreingenommenheit hergestellt werden könnte. Es gibt Gesetzte und Verordnungen. Die BGE setzt diese um.
Als ob Umsetzung und Gestaltung von Gesetzen und Verordnungen in diesem Sachverhalt in der Vergangenheit vertrauenserweckende Erfolge geliefert haben.
 
Geradlinigkeit
Die Informationen können direkt verstanden werden und lassen keine anderen alternativen Interpretationen zu. Im Alltag begegnet einem dies, wenn im Nachhinein Worte eine andere Bedeutung bekommen. Es wird dann plötzlich sehr viel Wert daraufgelegt, was bei der Gelegenheit nicht gesagt wurde, im Gegensatz zu dem was gesagt wurde, und ähnliches mehr.
Eine mehr (oder weniger) überzeugende nachträglich kommunizierte Interpretation soll dann zeigen, dass es der Fehler des Lesers, der Leserin ist, dass sie die Informationen falsch verstanden haben.
Die meisten Leute empfinden dies als eine bewusste Verdrehung von Tatsachen.
Bei den wissenschaftlich/technischen Sachverhalten ist es sicherlich nicht einfach, diese Anforderung umzusetzen.
 
Sowohl Gesetz als auch Verordnung versuchen alles Mögliche, um das Wort „Risiko“ zu vermeiden.
 
Es taucht (wahrscheinlich deshalb) im Konzept kein einziges Mal auf.
 
Das ist aber das, was BürgerInnen im Kopf haben, wenn sie an Atomkraft und radioaktiven Abfall denken. Da ist ein Risiko. Das ist so tief drin, dass Deutschland sich entscheiden konnte, hochprofitable vollständig abgeschriebene Kernkraftwerke früher als wirtschaftlich notwendig abzuschalten und damit die Bürger zusätzlich finanziell zu belasten, anstatt die Erlöse daraus in den Aufbau erneuerbarer Energien zu investieren.
 
Stattdessen taucht im Konzept „sicher“ 380mal auf. Das wird möglicherweise nicht als besonders Geradlinig wahrgenommen.
 
Nach meiner Meinung braucht sich das Konzept nicht hinter einer sehr engen Auswahl aus bestimmten Begriffen zu verstecken. Es zeigt eine nachvollziehbare Handlungsweise auf.
Das bedeutet nicht, dass diese Dort geschilderte Vorgehensweise der Goldstandart zum weiteren Vorgehen ist und keine zusätzlichen Überlegungen erfordert. Im Zweifel (Ungewissheit) ist die erstellende Institution nicht so divers, dass sie allein auf diese Überlegungen kommen kann.
#10
Kommentar zur Nutzung des Begriffes „Sicher“ und Nichtnutzung des Begriffes „Risiko“ im Konzept zur Durchführung der vorläufigen Sicherheitsuntersuchungen
 
In einem vorherigen Kommentar hatte ich angemerkt, dass im Konzept „sicher“ 380mal auftaucht, „Risiko“ dagegen überhaupt nicht.
 
„Wahrscheinlich“, „Vorhersage“ kommen auch nicht vor, „Zuverlässig“ 1mal (Zitat aus dem StandAG).
 
Der Rahmen wird dagegen damit gesteckt: „Untersuchung“ 365mal, „Bewertung“ 125mal, „ungewiss, Ungewissheit“ 90mal, „Barriere“ 76mal, „Bedarf“ 72mal, „Erkundung“ 65mal, „spezifisch“ 60mal, „Aspekt“ 47mal, „wesentlich“ 39mal, „Relevanz, relevant“ 38mal, „Eignung, geeignet“ 31mal, „umfassend“ 22mal, „Prioritäten, Priorisierung“ 19mal, usw.
 
In anderen Bereichen der geologischen Exploration sind der richtige Umgang mit Risiko und Wahrscheinlichkeit die Grundlage dafür, nicht insolvent zu werden, und keine Schäden zu verursachen. Wenn dabei Mängel auftreten, erscheint man in den überregionalen Nachrichten.
 
Deshalb hatte ich in einem vorherigen Kommentar ein Beispiel aus der Kohlenwasserstoffindustrie zur Illustration für die Verwendung von Wahrscheinlichkeiten genutzt. Je nach Vorwissen kann die Relevanz dieses Beispiels für die Kommentierung des Konzepts möglicherweise nicht direkt nachvollzogen werden. Ich möchte es deshalb erläutern.
 
Das Beispiel war: Um ein Ölfeld zu finden, und mit der Förderung des Öls Geld zu verdienen, werden folgende Einflussfaktoren (vereinfacht dargestellt) genutzt:
Eine Struktur im Untergrund, in der sich das Öl fangen kann, ein Speichergestein, in dem das Öl lagert, eine Abdeckung, die verhindert, dass es zur Oberfläche der Erde entweicht, ein Muttergestein, was das Öl produziert hat, die richtige Reihenfolge der Abläufe (die Struktur war vorhanden, als das Öl gebildet wurde), und die Möglichkeit, mit der Förderung Geld zu verdienen.
Es gibt also sechs Faktoren. Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft, und die Wahrscheinlichkeit dafür mit jeweils 0,8 annimmt (in 4 von 5 Fällen recht hat), dann liegt die Wahrscheinlichkeit, dass bei einem Versuch ein wirtschaftlich förderbares Ölfeld gefunden wird bei ungefähr 0,26 (0,8 x 0,8 x 0,8 …).
 
„Wenn die BearbeiterInnen sich bei jedem Faktor ziemlich sicher sind, dass der zutrifft“ bedeutet dies, dass sie entsprechende Kenntnisse haben: harte Daten, Wissen, …
In der Regel zeigen die harten Daten, das Wissen etc. jedoch, dass die notwendigen Eigenschaften, ein Ölfeld zu finden sehr wahrscheinlich nicht vorhanden sind. Daraus ergibt sich dann die Begründung, warum dies eher kein Prospekt ist, was mit einer Bohrung getestet werden sollte.
 
Ohne Bohrung wird man zwar nicht sicher wissen, ob die Einschätzung stimmt, die Bohrung (teuer!) hat aber das hohe Risiko, nicht erfolgreich zu sein.
In der Präferenz ist dies sicher nicht eine Bohrung, die gegenüber einer anderen, die ein weniger risikoreiches Prospekt testen soll, vorgezogen wird.
 
Um so etwas ähnliches geht es im Konzept. Die BGE wird nicht die Hälfte der Bundesrepublik auf eine mögliche Eignung beurteilen können. Es müssen Präferenzen gebildet werden können.
 
Dabei können Fehler gemacht werden. In der Kohlenwasserstoffexploration kann man dies gut nachvollziehen, wenn in bereits mehrfach explorierten Gebieten mit neuen Erkenntnissen erfolgreich neue wirtschaftliche Lagerstätten gefunden werden. Jeder meinte zur jeweiligen Zeit, alles Notwendige für eine Beurteilung zu wissen.
 
Das Beispiel war zur Kohlenwasserstoffexploration war stark vereinfacht. Jeder der genutzten Faktoren setzt sich wiederum aus Faktoren zusammen. Desto vollständiger die Betrachtung aller vorhandenen Faktoren, desto zuverlässiger die Einschätzung des Risikos (kein Ölfeld zu finden).
 
Das könnte auch anders formuliert werden. Desto vollständiger die Betrachtung aller vorhandenen Faktoren, desto zuverlässiger die Einschätzung der Sicherheit (ein Ölfeld zu finden).
 
Übertragen auf das Konzept und Anlage 1 bedeutet dies, dass es vorteilhaft sein könnte, das Konzept von Risiko zu nutzen, so wie es in anderen geologischen Explorationsvorhaben genutzt wird.
 
Damit dieser Kommentar nicht missverstanden wird, hole ich etwas aus.
 
Risiko (damit es beim Lesen keine Mehrdeutigkeiten gibt) ist der Zustand der Unsicherheit, Ungewissheit, wo einige der Möglichkeiten einen negativen Einfluss auf die Erreichbarkeit der Ziele haben (Verlust, Katastrophe, oder andere unerwünschte Ergebnisse, beziehungsweise Ereignisse). Aus der Ungewissheit in einem bestimmten Sachverhalt kann ein Schaden entstehen. Grundsätzlich immer, und in seiner einfachsten Form, wird ein Risiko mit einer Gleichung beschrieben (es werden Zahlen verwendet):
Risiko = (Wahrscheinlichkeit des Auftretens von Schadensereignissen) x (Höhe des jeweiligen Schadens)
 
Die zwei grundsätzlichen Faktoren der Gleichung sind immer vorhanden: die Wahrscheinlichkeit des Auftretens der Schadensereignisse, und die Höhe der Schäden, die bei diesen Ereignissen auftreten.
 
Im Kontext der Endlagersuche sind Schäden Konsequenzen von Ereignissen, die verhindert werden sollen.
 
Die Einschätzung von sowohl der Wahrscheinlichkeit der Schadensereignisse, als auch von der Höhe der jeweiligen Schäden lässt sich in der Regel nicht mit einer einzelnen Zahl abbilden. Die möglichen Schäden haben unterschiedliche Größenordnungen. Deshalb werden für jeden Faktor Zahlenintervalle genutzt. Ein Schaden einer bestimmten Größe (Radionuklide in der Biosphäre) wäre ein Risiko, was nicht eingegangen werden darf.
Zahlen für die Wahrscheinlichkeit der Schadensereignisse (über die ganze Größenordnung möglicher Schäden) können ohne Nachforschen nicht zuverlässig einschätzt werden. Deshalb werden Modelle erstellt, und (soweit wie möglich) nachgeprüft.
 
Mit den beiden grundsätzlichen Faktoren (Schadensereignisse, Schäden) allein kann ein Risiko in der Regel nicht zuverlässig verstanden werden. Jeder dieser beiden Faktoren muss solange in seine einzelnen Faktoren weiter zerlegt werden, bis das Risiko nachvollziehbar eingeschätzt werden kann.  Die Zerlegung ermöglicht, alle bekannten Faktoren in einem Sachverhalt (möglichst zuverlässig) zu berücksichtigen.
 
Ein Beispiel:
Der Faktor „Wahrscheinlichkeit von Schadensereignissen“ besteht aus zwei Faktoren: „Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen“ und „Verwundbarkeit“. Wenn die möglichen Schäden jemand nicht bedrohen, dann hat er kein Risiko. Wenn er durch diese Art von Schaden nicht verletzt werden kann, dann hat er kein Risiko.
Manchmal wird dies aber nicht genau gewusst.
 
„Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen“ und „Verwundbarkeit“ sind dann immer noch sehr zwei grobe, nur eingeschränkt nutzbare Faktoren. Die „Wahrscheinlichkeit des Auftretens von (irgendwelchen) Bedrohungsereignissen“ sagt nur sehr wenig darüber aus, wie man persönlich davon betroffen sein kann. Vielleicht kommen diese Ereignisse im Wesentlichen nur dort vor, wo man nicht ist.
 
Deshalb muss dieser Faktor weiter zerlegt werden. Vor einer Bedrohung betroffen zu sein, bedeutet, sich der Bedrohung bewusst (oder unbewusst) auszusetzen. In dem Moment, wo man (zum Beispiel) am Straßenverkehr teilnimmt, setzt man sich den dort vorhandenen Bedrohungen aus.
Auch der Faktor „Verwundbarkeit“ besteht aus mindestens zwei Faktoren. Zum einen ist da der Faktor, der die Fähigkeiten des Angreifers definiert, der einem einen Schaden zufügen könnte, und zum anderen ist da der Faktor, der die Schutzmaßnahmen beschreibt, die der Angreifer überwinden muss.
 
Möglicherweise sitzt man in einem modernen Fahrzeug mit den neuesten Sicherheitsvorkehrungen, um Bedrohungen der körperlichen Unversehrtheit durch andere Verkehrsteilnehmer möglichst erfolgreich abwehren zu können. Wenn man jedoch am Stau-Ende steht, und von hinter nähert sich ungebremst ein 40t LKW, dann werden die Sicherheitsvorkehrungen des PKWs sicher überwunden werden.
Auf der Autobahn kann man einem Stau-Ende nur ausweichen, indem man vorher irgendwo anders anhält, oder rechtzeitig eine Ausfahrt nimmt.
Damit mit diesen Faktoren Berechnungen gemacht werden können, müssen ihnen Wahrscheinlichkeitswerte in Zahlen zugeordnet werden.
 
Wie geht man nun bei der Bestimmung der Höhe der jeweiligen Schäden vor? Eine Unterteilung in direkte und indirekte Schäden schafft mehr Klarheit.
 
Direkte Schäden sind die, die einem selbst zugefügt werden, und die man selbst beseitigen muss und kann. Dies sind Schäden, bei denen man weitgehend selbst bestimmt, wie man damit umgeht.
 
Indirekte Schäden entstehen, wenn zusätzlich auch andere Parteien tätig werden, die in das Schadensereignis involviert sind. Zusätzlich zur Beseitigung des Schadens muss auch noch eine Strafe bezahlt werden.
Dies sind Schäden, bei denen andere Parteien bestimmen, wie die behoben werden müssen. Es empfiehlt sich deshalb, diesen Faktor weiter zu erlegen: in den Anteil der Schadensereignisse, die indirekte Effekte haben und die Schadenshöhen, die durch zusätzlich involvierte Parteien entstehen können.
 
Damit gerechnet werden kann, müssen diesen Faktoren Werte in Zahlen zugeordnet werden.
 
Oft ist man unsicher, welches Zahlenintervall den Sachverhalt zuverlässig beschreibt. Aber genau deswegen macht man das ja. Man überlegt sich das Zahlenintervall, das mögliche Werte abbildet, so, wie sie auch in der Wirklichkeit vorkommen (können). Sehr weite Intervalle zeugen von wenig genauem Wissen und viel Unsicherheit, enge Intervalle drücken sehr viel Wissen und meist wenig Unsicherheit aus.
Wichtig ist zunächst, ob man versteht, wie häufig Schäden auftreten können, und was passiert, wenn ein Schadensfall eintritt. Man will sich sicher sein, dass man dieses Risikos bewältigen kann.
Dies wird nicht immer zur Zufriedenheit aller Beteiligter gelingen. Jedoch ist jeder halbwegs zuverlässig eingeschätzte Sachverhalt, und jeder dadurch vermiedene Schaden, ein Gewinn.  
 
Ein einfaches Beispiel:
Die bis jetzt entstandene Schadenshöhe für einzelne Hersteller, die als Ergebnis der Softwaremanipulation bei Dieselpersonenkraftwagen entstanden ist, ist ungefähr bekannt.
 
Das vorher vorhandene Risiko für einen Hersteller dieser Fahrzeuge ist:
Mehrere Millionen dieser Fahrzeuge fuhren überall auf der Welt herum. Jedes Fahrzeug hatte in sich fest eingebaute Hardware mit Software als ein gerichtsverwertbarer Nachweis, dass gegen geltende rechtliche Bestimmungen verstoßen wurde.
 
Betrachtet man zunächst die Wahrscheinlichkeit, dass ein Schaden eintritt. In diesem Fall ist das Schadensereignis, dass jemand die Softwaremanipulation entdeckt, nachweist, und dann mit dieser Information handelt.
 
Die Wahrscheinlichkeit von Bedrohungsereignissen erscheint gering, da die möglichen Hacker das notwendige Knowhow haben müssen. Außerdem müssen sie Zeit und Geld investieren, um an die entsprechenden Systeme, und damit an gerichtverwertbare Nachweise der Manipulation heranzukommen. Die Verwundbarkeit des Herstellers ist jedoch sehr hoch, weil jedes Fahrzeug mit einem solchen Nachweis herumfährt.
Die Wahrscheinlichkeit von Bedrohungsereignissen setzt sich zusammen aus: der Wahrscheinlichkeit, dass der Hersteller von einem Bedrohungsereignis selbst betroffen ist, und der Wahrscheinlichkeit, dass er die Bedrohung erfolgreich abwehren kann.
 
Die Wahrscheinlichkeit, dass er von einem Bedrohungsereignis selbst betroffen ist, erscheint sehr gering, da mögliche Hacker viele Fahrzeugtypen und Hersteller zu Auswahl haben, und sie mehr dazu brauchen, als nur ein Notebook mit Internetanschluss. Es gibt attraktivere Ziele für Hacker, mit denen leichter Geld zu verdienen ist.
Andererseits gibt es unterschiedliche Arten von Hackern. Manche arbeiten lediglich daran, Sicherheitslücken und andere Softwaredefizite aufzudecken, um Schäden durch kriminelle Elemente zu verhindern.
 
Die Wahrscheinlichkeit, dass der Hersteller die Bedrohung erfolgreich abwehren kann, ist verschwindend gering, da der Nachweis in jedem Fahrzeug vorhanden ist, und der mangelhaft authentifizierte und unautorisierte Zugang zu diesen Informationen und Nachweisen für technische Experten möglich ist. Bei Automobilkomponenten handelt sich um industrielle Massengüter an deren Gestaltung und Herstellung eine Vielzahl unterschiedlicher Personen beteiligt sind. Zudem gibt es Standards, damit unterschiedliche Zulieferer preisgünstige Komponenten anbieten können.
 
Faktoren der Verwundbarkeit sind die Fähigkeiten des Angreifenden und die Schutzmaßnahmen, die der Angreifer überwinden muss. Technische Experten mit unterschiedlichsten Interessen gibt es in allen Teilen der Welt. Sowohl die Hardwarekomponenten der Fahrzeuge, als auch die Fahrzeuge mit der darauf installierten Software sind fast überall auf der Welt frei verfügbar.
 
Die Schutzmaßnahmen können nicht unüberwindbar sein, da ein Fahrzeug nach der Herstellung durch unabhängige Dritte gewartet werden können muss, Software Updates eingespielt werden können, und weitere Arbeiten am Fahrzeug vorgenommen werden müssen.
Zudem kann man sich ein Fahrzeug besorgen und mit aller Zeit der Welt ausprobieren, wie die Fahrzeugsoftware auf äußere Umstände reagiert.
 
Direkte Schäden bedeuten, dass auf Kosten des Herstellers nachgebessert werden muss, die Reputation und der Wettbewerbsvorteil leiden, der Absatz möglicherweise zurückgeht, und vieles andere mehr.
Indirekte Schäden sind der Anteil der Ereignisse, die indirekte Effekte haben, und die Schadenshöhen, die dadurch entstehen. Die Klagemöglichkeiten sind je nach Ort der Gerichtsbarkeit auf der Welt sehr unterschiedlich. Die in unterschiedlichen Ländern jeweils zuständigen Behörden haben teilweise eine große Macht, erfolgreich riesige Strafzahlungen zu fordern, vor allem, wenn das schuldige Unternehmen dies wirtschaftlich verkraften kann. Massenhafte (zumindest teilweise erfolgreiche) Klagen von Einzelpersonen waren auch zu erwarten.
 
Man kann nun überall Zahlenintervalle (Wahrscheinlichkeiten, Eurosummen) einsetzen, die die Unsicherheit eines der oben spezifizierten Faktoren ausdrücken. Als Ergebnis erhält man eine Spannbreite der Wahrscheinlichkeit des Auftretens von möglichen Schadensereignissen, und der Höhe der Schäden, die jeweils dabei auftreten.
 
Man wird leicht zu dem Ergebnis kommen, dass es sehr unwahrscheinlich ist, dass kein Schaden eintritt. Zudem wird die Schadenshöhe in keinem Fall niedrig sein. Wie sich in Gerichtsverhandlungen herausgestellt hat, war dieses Risiko beim Hersteller bekannt.  (Allerdings nicht das Ergebnis der Risikoeinschätzung.)
Beim Hersteller handelt es sich um Personen, die eine Leitungsverantwortung in den Unternehmen haben (Weisungsbefugnisse). Oft ist nicht hinreichend eindeutig festgelegt, wer genau was darf, so dass es dazu ein eigenes Forschungsgebiet gibt, wo die strukturelle Verantwortungslosigkeit in Systemen (Verantwortungsdiffusion) analysiert wird.
 
Welches allgemeine Risiko existiert bei der Einlagerung von hochradioaktiven Abfällen in Deutschland? Wenn man die fünf allgemeinen Faktoren von oben nutzt:
1. Die Wahrscheinlichkeit des Auftretens von Bedrohungsereignissen:  Gefährliche Radionuklide treten aus dem eingelagerten hochradioaktiven Abfall aus, und verschaffen sich einen unkontrollierten Zutritt zur Biosphäre. Es entsteht ein Schaden an dem Ort, wo eingelagert wurde.
2. Die Fähigkeiten des Angreifers, der einem einen Schaden zufügen könnte: Die Geologie zeigt auf, dass sich alles mit der Zeit ändert, nichts statisch ist, und im Untergrund chemische und physikalische Gesetzmäßigkeiten wirken, die dazu führen können, dass der Schaden eintritt.
3. Die Schutzmaßnahmen, die der Angreifer überwinden muss: Das sind die Eigenschaften des geologischen Endlagers, die einen Schaden zuverlässig verhindern.
4. Direkte Schäden: Das ist das selbstbestimmte Umgehen Deutschlands mit Schäden im eigenen Land, fehlende Reversibilität (ein Schaden kann nicht einfach beseitigt werden).
5. Indirekte Schäden: Das ist die Höhe der Ausgleichszahlungen für Schäden. Die sind zurzeit keiner vorhandenen Kontrolle unterworfen.
 
Indirekte Schäden (5.) sind hier nicht zu erwarten. Durch die Gesetzgebung ist geregelt, dass man als Bürger Deutschlands die Endverantwortung hat. Die Ausübung dieser Verantwortlichkeit ist über die öffentliche Verwaltung Deutschlands an die Bundesgesellschaft für Endlagerung delegiert. Das Bundesamt für die Sicherheit der nuklearen Entsorgung nimmt die Aufsicht war. Wenn es nicht funktioniert, tragen alle Bürger (beziehungsweise ihre Nachkommen) die Verantwortung für die Beseitigung des Schadens. Es gibt keinen externen solventen Betreiber, der den hochradioaktiven Abfall nach (zum Beispiel) 200 Jahren wieder auf seine Kosten birgt, weil die jetzt gewählte Lösung nicht funktioniert hat.
Weder direkten noch indirekten Schäden kann ausgewichen werden. Laut Gesetz sind Schäden in der Biosphäre durch den unkontrollierten Zutritt von Radionukliden aus hochradioaktivem Abfall so hoch, dass dies für den Zeitraum der nächsten 1 Million Jahre verhindert werden soll.
Dies bedeutet nicht, dass Deutschlands Nachbarländer in diesem Sachverhalt die gleichen Ansichten haben, oder haben müssen.
 
Der Fokus der Analyse liegt daher auf dem Faktor: „Wahrscheinlichkeit von Schadensereignissen“. Mögliche Schadensereignisse sind bekannt. Deshalb adressiert die Suche nach einem Endlager für hochradioaktive Abfälle im Wesentlichen den Faktor Verwundbarkeit: Kann das Endlager undicht werden, und Schäden verursachen?
Der Faktor muss mindestens in zwei Faktoren zerlegt werden: die chemischen und physikalischen Gesetzmäßigkeiten, die einen Schaden auslösen können, und die Schutzmaßnahmen, die die Auslösung eines Schadens verhindern.
Die chemischen und physikalischen Gesetzmäßigkeiten, die einen Schaden auslösen können, können nachvollzogen werden. Man weiß, dass die Erde kein statisches Gebilde ist. In dem Moment, wo man etwas tun, erfolgt eine Reaktion. Es gelten die Gesetzmäßigkeiten, wie man sie aus den Naturwissenschaften kennt.
Die sind aber nicht alle auch jetzt schon bekannt.
 
Hier ist es so, dass hochradioaktiver Abfall in ein natürliches Gestein eingelagert wird. Radionuklide aus dem Abfall sollen nicht im Zeitraum der nächsten 1 Million in die Biosphäre gelangen.
Die vorgesehene Lösung ist eine Einlagerung in der Erdkruste. Dort sind Flüssigkeiten vorhanden (wenn auch zum Teil in verschwindend geringen Mengen). Der Abfall und der Abfallbehälter sind zu einem gewissen Grad (über geologische Zeiträume) löslich, und wässrige Lösungen tauschen sich so lange aus, bis (temporäre) Gleichgewichte einstellen.
In einem Endlager haben Sie sehr viel Zeit dazu.
 
Dieser Faktor wird (hoffentlich) bei der Erforschung des Risikos durch die Nutzung dynamischer Modelle adressiert. Dort wird für ein Wirtsgestein mit spezifischen Eigenschaften im Hinblick auf eine Einlagerungskonzept analysiert, und es wird simuliert, was über welchen Zeitraum wie geschehen könnte. Es gibt bereits erste rudimentäre Modelle mit einer sehr eingeschränkten Qualität der Darstellung.
Die Wahrscheinlichkeit, dass die Naturgesetze (chemische und physikalische Gesetzmäßigkeiten) nicht außer Kraft gesetzt werden, ist sehr, sehr hoch. Der Faktor „Verwundbarkeit“ ist eindeutig nachvollziehbar vorhanden.
 
Um die Wahrscheinlichkeit des Auftretens eines Schadens gering zu halten, und weil jeder potentielle Schaden hoch ist, muss der Faktor „Schutzmaßnahmen“ daher durch Maßnahmen sehr, sehr gut bestimmt werden: ein Standort mit der bestmöglichen Sicherheit.
Um diesen Faktor richtig zu verstehen, muss er so lange in weitere Faktoren zerlegt werden, bis er verstanden worden ist, und quantitativ dargestellt werden kann.
 
Bis jetzt konnte anhand von existierenden Daten unterschieden werden in: Gebiete, wo so viele Daten und Interpretationen vorliegen, dass sie schon jetzt sicher als ungeeignet bewertet werden können, und Gebiete, wo dies nicht der Fall ist.
Diese verbleibenden Gebiete werden untersucht. 
(Wenn hinreichend zuverlässige Daten zu den Kriterien vorliegen, die anzeigen, dass ein bestimmtes Gebiet nicht geeignet ist, wird es nicht weiter untersucht.)
 
Ein Beispiel:
In der Vergangenheit standen Salzstöcke (steilstehendes Salzgestein) im Fokus der Erkundung (Gorleben). Sie sind einfach zu finden und haben einige Vorteile. Es lassen sich kostengünstig große Hohlräume schaffen, deren Einsturzgefahr bei geeigneter Gestaltung gering ist. Zudem ist Salzgestein oft relativ trocken (zumindest dann, wenn die Einlagerung beginnt). Es gibt große, relativ homogene Bereiche. Dies wird an vielen Stellen in Deutschland gezielt genutzt, sowohl um eine bestimmte Art von Salz abzubauen, als auch um danach dort etwas einzulagern, wie (zum Beispiel) Erdgas oder Sonderabfälle.
 
Seit über 50 Jahren ist bekannt, worauf bei der Erforschung für die Einlagerung von Wärme erzeugendem Abfall in Salzgestein geachtet werden soll.  Stark vereinfacht ist dies etwa so: Eine Wärmequelle wird in das Salzgestein gestellt, und die Flüssigkeiten, die im Salz vorhanden sind, wandern in Richtung der Wärmequelle (Gase wandern von ihr weg). Salzgestein enthält Wasser und Gase, wenn auch meist in sehr, sehr geringen Mengen.
Die Gesteine um den Salzstock herum enthalten Flüssigkeiten, zum Teil weit mehr als im Salzgestein vorhanden sind. Zudem stehen diese Flüssigkeiten unter Druck. Sie könnten daher möglicherweise dem auf die Wärmequelle zuwandernden Wasser Nachschub liefern. Dadurch wird dann eine fortgesetzte Migration von Wasser hin zur (eingelagerten) Wärmequelle unterstützt. In dem migrierenden Wasser können sich unterschiedliche chemische Elemente lösen, so dass korrosive Flüssigkeiten entstehen.
 
Da geologische Zeiträume zur Verfügung stehen, können in der Natur selbst dichte Gesteine (mit einem sehr, sehr geringen Porenvolumen und spektakulär niedrigen Gebirgsdurchlässigkeiten) eindrucksvolle Ergebnisse schaffen (Erdöl- und Erdgasfelder).
Bei der Bestimmung des Einlagerungsstandortes sind sicherlich Simulationsmodelle notwendig, die, ähnlich wie in der Ölindustrie, quantitativ das Migrationsverhalten und Volumen von Stoffen über bestimmte Zeiträume modellieren.
 
Ein Problem ist die Konstruktion des geologischen Modells. Die interne Auflösung eines Salzstocks mit reflexionsseismischen Methoden ist unzureichend.  Damit man auf reflexionsseismischen Daten etwas sieht, was man interpretieren kann, müssen Unterschiede in der Impedanz vorhanden sein, und die Gesteinskörper eine bestimmte Größe haben.
Da in einem Salzstock außer Steinsalz auch andere Gesteine vorhanden sind, die zusammen mit dem Steinsalz stark verformt und zerbrochen wurden, ist eine zuverlässige Vorhersage der internen Geometrie im Meter-Bereich nicht möglich. Salzbergwerke werden deshalb von innen erkundet: man bohrt, schaut sich an, was vorhanden ist und „tastet“ sich vor.
 
Wenn man ein Beispiel studieren will, wo ein Schaden bereits eingetreten ist, dann exploriert man vom Schreibtisch aus den Sachverhalt der Einlagerung von radioaktivem Abfall im Bergwerk Asse.
 
Die „sicherheitsgerichtete Abwägung“ erfolgt anhand der Anlagen zum Gesetz (1 bis 11). Diese Kriterien können alle als Risikofaktoren gelesen werden.
Faktor 1 ist die Bewertung des Transportes radioaktiver Stoffe durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich.
Faktor 2 ist die Konfiguration der Gesteinskörper (Barrieremächtigkeit).
Faktor 3 ist die räumliche Charakterisierbarkeit, kurz: wie sicher kann vorhergesagt werden, welcher Typ von Gestein vorhanden ist.
Faktor 4 ist die Bewertung der langfristigen Stabilität der günstigen Verhältnisse.
Faktor 5 bewertet die gebirgsmechanischen Eigenschaften.
Faktor 6 ist die Neigung zur Bildung von Fluidwegsamkeiten.
Faktor 7 ist die Neigung zur Gasbildung.
Faktor 8 adressiert die Temperaturverträglichkeit.
Faktor 9 ist die Bewertung des Rückhaltevermögens im einschlusswirksamen Gebirgsbereich.
Faktor 10 ist die Bewertung der hydrochemischen Verhältnisse.
Faktor 11 ist die Bewertung des Schutzes des einschlusswirksamen Gebirgsbereichs durch das Deckgebirge.
 
Jeder dieser Faktoren kann entweder als Angriff, oder als Schutzmaßnahme betrachtet werden. Faktor 1 kann (zum Beispiel) formuliert werden als: „Es darf keinen Transport von radioaktiven Stoffen durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich geben.“ Das ist dann eine Schutzmaßnahme.
Er kann aber auch formuliert werden als: „Es kann einen Transport von radioaktiven Stoffen durch Grundwasserbewegungen im einschlusswirksamen Gebirgsbereich geben.“ Das ist dann eine Bedrohung.
Für die Bewertung ist der Blickwinkel nicht relevant, da bekannt ist, was erreicht werden soll.
 
Die elf Faktoren sind nicht völlig unabhängig voneinander. Aus den ersten vier Faktoren (plus Faktor 11) können Rückschlüsse zur Relevanz der Faktoren fünf bis zehn gezogen werden.
Oder eben auch nicht: Die Wahrscheinlichkeit, dass der Standort im Fokus den Ansprüchen genügt, kann dann nicht sehr hoch sein.
 
Analog zu den Beispielen oben können Wahrscheinlichkeiten ermittelt werden, die ausdrücken, wie zuverlässig der individuelle Sachverhalt in einem bestimmten Teilgebiet verstanden worden ist. Dies bedeutet, dass dort Vorhersagen gemacht werden können, die dann nachprüfbar zutreffen.
 
Damit kann auch Außenstehenden ermöglicht werden, die Beurteilung nachzuvollziehen.
 
Wenn man etwas nicht weiß, dann ist die Wahrscheinlichkeit immer 0,5 (kann so sein, oder so sein). Das ist dann ein Faktor, der die Gesamtwahrscheinlichkeit, eine zuverlässige Einschätzung angefertigt zu haben, halbiert. Das wird in der Regel vermieden werden wollen.
 
Um auf den Anfang zurückzukommen. In der Industrie sind diejenigen Unternehmen erfolgreich, die alle Faktoren analysieren (und dies gut können). Das ignorieren eines wichtigen Faktors, den alle anderen nutzen und beurteilen, kann einen aus dem Geschäft werfen.
 
Ein einfaches Beispiel:
Bei der Suche nach dem Ölfeld werden alle Faktoren betrachtet, mit der Ausnahme „die Möglichkeit, mit der Förderung Geld zu verdienen“. Als Resultat wird zwar Öl gefunden. Man wird aber sehr schnell insolvent, weil man es nicht wirtschaftlich fördern kann.
 
In Bezug auf das Konzept und die Kriterien (inkl. Indikatoren) bedeutet dies, dass ein Versagen bei einem beliebigen dieser Faktoren (Indikatoren) für ein unsicheres Endlager verantwortlich sein kann.
 
Bei dem Konzept ist teilweise sichtbar, dass die Problematik erkannt wurde und adressiert wird. Allerdings muss man sich diese Informationen zusammensuchen, und (weil sie verstreut sind), ist sich dann nicht sicher, ob man alles gefunden hat (oder nicht), und alles korrekt zugeordnet hat (oder nicht).
 
Wie bei dem vorherigen Kommentar zur Lesbarkeit angeregt, könnte eine andere Struktur der Dokumentation (bzw. Verfügbarmachen von Informationen) eine effektivere und effizientere Kommentierung (oder andere Formen der Beteiligung) ermöglichen. Die EndlSIUntV hilft dabei nicht.
 
Durch die Nutzung von Risiko könnte zudem mehr Transparenz darüber erzielt werden, was genau als „sicher“ angesehen wird. Dies ist sicher nicht die einfache Benennung von etwas als „sicher“. Das ist wahrscheinlich die Größe des Risikos, die für einen bestimmten Faktor (Indikator) beim Bau des Endlagers akzeptiert werden muss.
Bei dem Konzept geht es möglicherweise damit los, dass LeserInnen mental „sicher“ in „Risiko“ übersetzen und sich dann denken, dass da etwas nicht transparent gemacht wird. Dies ist kaum geeignet, um Vertrauen aufzubauen.
Im Allgemeinen tun sich MitbürgerInnen mit dem Konzept von Risiko sehr schwer. Das könnte aber geändert werden.
Vielleicht trauen sich dann auch mehr Leute, sich zu beteiligen.
Laut StandAG soll die Endlagersuche in einem „… partizipativen, wissenschaftsbasierten, transparenten, selbsthinterfragenden und lernenden Verfahren“. Im Gegensatz zu anderen Paragraphen im StandAg habe ich dazu keine Verordnung gefunden, die regelt, was das genau bedeuten soll. Bis jetzt habe ich lediglich unterschiedliche Interpretationen wahrgenommen. Die Verwendung von Risiko adressiert alle dies Anforderung. Sie ermöglicht transparent aufzuzeigen, wie Wissenschaft verwendet wird, wie gemessen werden kann, dass gelernt wird, wie Vorgehensweisen du Zwischenergebnisse hinterfragt werden können.
 
Ein Beispiel (in Anlehnung an die amtliche Kommunikation zu der Corona Pandemie):
Wenn Inhalte der Kommunikation nicht transparent wirken, und nicht verstanden werden und die wahrgenommene Kompetenz als gering eingeschätzt wird (Vertrauen!), dann kann als Resultat jede Form von irrationalem Verhalten erwartet werden, ohne dass dann noch mit Logik etwas zu bewirken ist.
 
Corona: Man kann sich nur mit Aufwand dagegen schützen, an dem Coronavirus (COVID-19) zu erkranken, und ernste Schäden sowohl davonzutragen/zu sterben, als auch jemandem anderen ernste Schäden zuzufügen/ihn umzubringen (weil man ihn ansteckt). Eine Impfung verhindert dies.
Ist das dann, wenn das weiß, und nichts tut, eine fahrlässige Tötung?
Die Impfungen sind aber nicht verpflichtend.
Sie werden als ein nicht zulässiger Eingriff in die Unverletzlichkeit des eigenen Körpers interpretiert (und nicht als eine Schutzmaßnahme dagegen, jemand unabsichtlich umzubringen). Dabei ist es völlig egal, was mit dieser Unverletzlichkeit des Körpers passiert, wenn er mit einer Corona Erkrankung auf der Intensivstation im Krankenhaus behandelt werden muss. Da darf dann plötzlich alles Mögliche hineingesteckt werden.
Ca. ein Viertel der Bevölkerung hat in diesem Zusammenhang kein Vertrauen mehr in die zuständigen öffentlichen Institutionen. Nach über 2 Jahren Erfahrung im Umgang mit dem Virus sterben jeden Tag ca. 250 MitbürgerInnen daran (als ob nichts getan werden kann).
 
Im Zusammenhang mit dem Umgang mit Risiko gibt es zahlreiche Denkfallen und Wahrnehmungsverzerrungen. In meinem Berufsleben wurden deshalb Erkenntnisse aus der kognitiven Psychologie genutzt, um deren Einfluss zu minimieren.

Kommentar zu der Definition des Begriffs „Szenarienungewissheiten“ in Kapitel 8.9.2
 
Auf Blatt 43 wird die Anwendung erläutert. Dabei wird dann auf Kapitel 8.2. in der Anlage 1 verwiesen. (Zu Teilen davon hatte ich bereits einen Kommentar eingestellt.)
 
Die Verwendung von Szenarien ist sehr zu begrüßen. Es ist zum Teil auch zu erkennen, was in der Bearbeitung stattfindet. Die Struktur und Gestaltung der Szenarien erscheinen entweder nur eingeschränkt dargestellt oder fokussieren nur auf bestimmte Aspekte des Endlagers. Die
 
Mehr Transparenz würde dem Außenstehenden helfen, die Gestaltung der Szenarien zu verstehen, und die Relevanz einzelner Szenarien selbst einzuschätzen. Da der Begriff „Szenario“ eine umgangssprachliche Bedeutung hat, möchte ich zunächst meine Erwartung schildern. Möglicherweise hat die BGE eine andere Ansicht, was zu Szenarien gehört, und was nicht.
 
Nach meiner Erfahrung werden Szenarien hauptsächlich zur Risikoidentifikation genutzt. Dabei werden unterschiedliche zukünftige Ereignisse zusammen mit den dazugehörenden Risiken zu beschreiben. Mit dieser Methode werden alternative mögliche Ergebnisse sowohl bei der Analyse, als auch bei der Beurteilung verwendet.
Dies ist teilweise in der Anlage 1 sichtbar. Ich hatte dies schon vorher kommentiert.
 
Ergebnisse sind Beschreibungen und Analysen von sowohl alternativen zukünftigen Entwicklungen des speziellen Sachverhaltes, der analysiert wurde, als auch des Umfelds, in dem der Sachverhalt existiert (Gesellschaft, Umwelt, Recht, Technik, usw.), und in dem das Risiko vorkommt.
Dabei beschränkt sich die Szenario Analyse nicht auf eine Extrapolation historischer Daten aus der Vergangenheit in die Zukunft, und sie erwartet nicht, dass alle Beobachtungen aus der Vergangenheit auch in der Zukunft noch gültig sind.
Die einzelnen Szenarien enthalten alternative Wege, um das gesetzte Ziel zu erreichen. Zudem stellen sie die Analyse des Zusammenspiels der Ursachen von Ereignissen mit Quellen von Problemen dar. Die produzieren nämlich die unerwünschten Ergebnisse (den Risikoschaden).
Dies ist eine gute Methode, um Risiken bei Sachverhalten zu identifizieren, wo bestimmte Informationen erst in Zukunft verfügbar werden, und wo für Fortschritte (viel) Geld ausgegeben werden muss, ohne dass eine erfolgreiche Zielerreichung garantiert ist.
Nach meiner Ansicht trifft dies auf die Endlagersuche zu, auch wenn die Dokumentation das Gefühl vermitteln soll, dass das Ziel auf jeden Fall erreicht wird.
 
Die Szenarioanalyse ist sehr gut anwendbar, wenn etwas erreicht werden soll, was noch nicht vorher gemacht wurde.
In der Vergangenheit hat man das in diesem Sachverhalt nicht gemacht (Gorleben, Asse) und als Resultat viel Vertrauen verspielt.
 
Die Methode ist jederzeit anwendbar, auch dann, wenn schon viel Geld ausgegeben wurde, aber, um das Ziel immer noch erreichen zu können, anscheinend viel mehr Geld ausgegeben werden muss, als es eingeplant wurde. Zudem muss herausgearbeitet werden, welche Schäden in Zukunft noch auftreten können.
Man wünscht sich, dass Szenario Analysen für Großprojekte mit Steuergeldern wie dem Flughafen Berlin/Brandenburg oder Stuttgart 21 verpflichtend vorhanden gewesen wären.
Die Anwendung der Methode ist jedoch nicht vorgeschrieben.
 
Die durch Szenario Techniken identifizierten Risiken ermöglichen sehr detaillierte Darstellungen zukünftiger möglicher Zustände. Die obligatorischen Komponenten von Sicherheitsmaßnahmen und Risiken werden durch einzelne Faktoren wie handelnde Personen, Bedrohungstypen, Umfeld, Umwelteinflüsse, zeitliche Abläufe, und andere wesentliche Komponenten beschrieben und definiert.
Das sind die Faktoren in der einfachen Gleichung, mit der ein Risiko bestimmt wird. Im Konzept wird bisher allerdings (soweit ich das verstanden habe) über eine verbalargumentative Einschätzung der Erfüllung der Sicherheitsanforderungen gesprochen.
 
Handelnde Personen sind sowohl Menschen, als auch Gesellschaften, Firmen, Ämter, Behörden, usw., deren Personen etwas Unerwünschtes tun, und dadurch eine Bedrohung für die Realisierung der geplanten Ziele darstellen.
Bedrohungstypen beschreiben die Grundursachen der daraus resultierenden Risiken. Eine Bedrohung kann ein zufälliges Unglück wie eine Naturkatastrophe sein, oder die Anwendung mangelhafter Praktiken in der Gestaltung des Vorhabens, eine ineffektive Ausführung der notwenigen Aufgaben, oder unbefugte Änderungen beim Betreiben des Vorhabens sein. Diese Mängel können zufällig auftreten oder von krimineller Natur sein.
Das Umfeld beschreibt und definiert, wo diese handelnden Personen tätig sind. Bereiche wie Naturschutz, Brandschutz, Klimaschutz, …, wo es in einem Zeitraum von einigen Jahren bei länger andauernden Vorhaben zusätzlich zu berücksichtigende Änderungen gibt (die sich als neu einzuhaltende zusätzliche gesetzliche Anforderungen manifestieren), können nur mit dieser Methode wirksam dargestellt werden.
 
Szenarien müssen daher sowohl die handelnden Personen, als auch die Umstände, wie sie rechtlich zueinanderstehen, Umfeld, Umwelteinflüsse, zeitliche Abläufe, Terminvorgaben, und vieles andere mehr umfassen.
 
Ein wichtiges Element der einzelnen Szenarien sind zeitliche Abläufe und Terminvorgaben: wann, und wie, und wie häufig wird ermittelt, wie wahrscheinlich es ist, dass die gesetzten Ziele genauso wie geplant erreicht werden können. Welche Unsicherheit existiert, und wie hoch ist die?
 
Es muss verbindlich festgelegt sein, was getan werden muss, wenn eine Information nachweist, dass Zwischenziele nicht erreicht wurden. Um  das erkennen zu können, müssen Kontrollen betrieben werden. Nur wenn man weiß, was man dann tun muss (vorbereitet ist), dann wird gesteuert.
Wenn nichts vorbereitet worden ist, dann kann auf Ereignisse lediglich reagiert werden.
 
Risikoszenarien umfassen Bedrohungsereignisse und Schwachstellen. Bedrohungsereignisse sind Situationen und/oder Ereignisse, die eine Spannbreite von möglichen Wahrscheinlichkeiten des Auftretens haben, und Schadenereignisse in unterschiedlichen Größenordnungen auslösen (die einfache Gleichung zur Bestimmung des Risikos).
Schwachstellen sind mangelhafte Schutzmaßnahmen (Verwundbarkeit). Sie sind durch Defekte, schlechte Angewohnheiten und ähnliches charakterisiert. Dies erlaubt die Bestimmung des Umfangs der Größe und Wahrscheinlichkeit von möglicherweise auftretenden Schadenereignissen.
Das Ergebnis ist eine Dokumentation der Spannbreite möglicher Schäden (ungeplante zusätzliche Kosten, Gefährdungen der Gesundheit, und ähnliches). Damit man damit umgehen kann, muss die Wahrscheinlichkeit eingeschätzt werden, dass diese Schäden eintreten werden.
 
Jede Schätzung der Spannbreite der Schadenswerte muss auf festgelegten Kriterien und Methoden basieren, um eine präzise Dokumentation und Nachprüfbarkeit zu ermöglichen. Beispiele für Kriterien:
• Die Kritikalität definiert die Gesamtauswirkung eines Ereignisses auf die Effektivität und Effizienz bei der Erstellung und Umsetzung eines Vorhabens. Wenn die Kritikalität einzelner Elemente des Vorhabens nicht definiert worden ist, dann wird bei der Bestimmung der Gesamtauswirkung im wirklichen Leben hinter den Ereignissen hergelaufen und reagiert, anstatt zu gestalten.
• Die Kosten sind nicht nur die Kosten, die notwendig sind, um einen Vorgang ausführen zu können, sondern die Gesamtkosten für das ganze Vorhaben, die dann entstehen, wenn die Ausführung des Vorgangs nicht erfolgreich war. Wenn diese Kosten am Ende des Vorhabens nicht entstanden sind, weil alles erfolgreich war, dann sind Einsparungen erzielt worden.
• Die Empfindlichkeit ist in diesem Zusammenhang die Spannbreite der möglichen Kosten, die notwendig sind, um Schäden zu beheben. Wenn man sich das nicht leisten kann, dann sollte man möglicherweise gar nicht erst damit beginnen.
 
Die Kombination aus den spezifischen Eigenschaften des zu schützenden Gegenstandes (Beispiel: Schutz der Biosphäre, damit dort Nahrungsmittel angebaut werden können), und die Art der Bedrohungstypen (zum Beispiel das unkontrollierte Entweichen von Giftstoffen aus einem undichten Abfalllager), bestimmen die Natur und das Ausmaß der möglichen Schäden.
Bedrohungstypen beeinflussen verschiedene zu schützenden Gegenstände auf unterschiedliche Weise. Bedrohungsereignisse, Verwundbarkeiten, und Größe des Verlustes variieren in Bezug auf die Merkmale des zu schützenden Gegenstandes und seine Nutzung.
 
Eine Voraussetzung für eine erfolgreiche Risikoidentifikation ist, dass all dies für unterschiedliche mögliche Bedrohungsereignisse und Verwundbarkeiten jeweils separat analysiert und dokumentiert wird. Dies ist aufwändig. Was nur sehr eingeschränkt vollständig ist, kann allerdings auch nur sehr eingeschränkt zuverlässige Ergebnisse liefern.
 
Laut Konzept finden dazu einige Aktivitäten statt. Es ist aber schwierig einzuordnen, was genau zu was gehört, und womit verbunden ist. Als Bürger würde man sich eine Narrativ wünschen, wo man durch die Szenarien geführt wird. Möglicherweise wird dann klar, wie viel man nicht weiß, und wieviel nicht gewusst werden wird, um warum trotzdem zu einem bestimmten Zeitpunkt ein Endlager notwendig ist. Als Bürger muss man sich in dem Narrativ wiederfinden können.
 
Es wäre hilfreich, wenn Szenarien im jetzt und heute beginnen. Mit den oben erwähnten Anforderungen und Details könnte dargestellt werden, wie damit umgegangen wird, wenn der Suchprozesse nicht so funktioniert wie geplant, oder die verbleibenden Ungewissheiten weiterhin unbefriedigend hoch sind, oder experimentelle Prüfungen von Annahmen fehlschlagen, oder die Rückholbarkeit nicht gewährleistet werden kann, oder …
 
Als Bürger ist man weniger an dem passiert, was in über 200 Jahren passiert, sondern an dem, was man selbst, oder die eigenen Kinder, Enkel, Urenkel betreffen wird. Das ist in dem Konzept nur teilweise zu erkennen. Was wäre, wenn (fiktiv) sich der sicherste Standort direkt in Berlin mitten unter dem Regierungsviertel befinden würde? Würde man dann einen weniger sicheren Standort auswählen, und ein höheres Risiko akzeptieren, dass das Endlager undicht wird?
 
Szenarien führen zu Einsichten.
 
Desto enger gefasst wird, was in den Szenarien betrachtet wird, desto begrenzter sind die Einsichten.
In der ersten Phase der Beteiligung (zum Zwischenbericht) hatte ich sowohl bei der Darstellung, als auch bei der Beteiligung einen starken Fokus auf die „Betroffenheit“ einzelner Gebiete in Deutschland wahrgenommen. Der Rahmen war gesteckt: Alles irgendwie eine regionale Angelegenheit. Es konnte erklärt werden, wie man dahin gekommen ist. Alle, die woanders wohnen, sind nicht betroffen und können sich zurücklehnen.
Der Rahmen hätte auch anders gesetzt werden können: alle MitbürgerInnen sind betroffen, und neben der Ausgrenzung von Gebieten, die mit guten Gründen aus nicht geeignet eingestuft werden müssen, wird geforscht: nicht nur an Gebieten, sondern auch an Techniken, Einschätzungsmethoden, Modellierungstechniken, Beurteilungsmethoden, …
 
Die Szenariotechnik erlaubt, die möglichen Auswirkungen von Aktionen zu modellieren. Es ist nicht klar, ob dies bei der Planung der Endlagersuche gemacht wird. Die zugänglichen Informationen deuten eher auf ein festgelegtes, relativ starres Phasenmodell.
Da das Verfahren jedoch laut StandAG „lernend“ und „selbsthinterfragend“ sein muss, können sich leicht auch andere Szenarien mit anderen Phaseninhalten vorgestellt werden.
 
In dem Zusammenhang mit den NBG Gutachten, die im Konzept über die verlinkten Darstellungen der jetzigen Untersuchungsgebiete zugänglich gemacht wurden, könnte sich gefragt werden: Hätte einer dieser Gutachter bei dieser Art des Auftrags eines dieser Gebiete zuverlässig als ungeeignet einschätzen können? Das ist sehr, sehr unwahrscheinlich.
Sind die Berichte deshalb ein Gütesiegel für die vorgeschlagene Vorgehensweise? Definitiv auch nicht.  Sie enthalten eine Menge Empfehlungen, von denen im Konzept nicht erkannt werden kann, dass sie umgesetzt werden.
Werden die Inhalte in diesen Berichten von LeserInnen immer gleich verstanden? Das ist sehr, sehr unwahrscheinlich. Ein Beispiel:
In der Empfehlung 3 zum Teilgebiet im Wirtsgestein Tongestein heißt es: „… Es fehlt jedoch eine moderne, hochauflösende sequenzstratigraphische Analyse, …“. Diese Art der Analyse gibt es seit den 1980er Jahren. Sie ist nur modern im Vergleich zu dem, was der Gutachter zu sehen bekam. Den Wert und die Bedeutung können LeserInnen im Zweifel nicht nachvollziehen. Der deutsche Wikipedia-Artikel ist besonders wenig hilfreich. Wenn man die Analysetechnik aus dem Berufsleben kennt, erscheint die Nutzung zwingend. Wenn man nicht weiß, was das ist, erscheint dies als esoterisches Extra.
In dem Konzept kann nicht erkannt werden, inwieweit die jetzige Vorgehensweise die Vorgabe des StandAG vollumfänglich adressiert, dass das Verfahren transparent sein muss.


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 3 Gast/Gäste