Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
Arbeitsstand zu den Methoden rvSU
#11
Kommentar zu Kapitel 8.5 im Konzept
 
Das Kapitel verweist auf Kapitel 5 in Anlage 1.
 
In Abbildung 64 in Anlage 1 sind Bohrungen klassifiziert nach ihrem Informationsgehalt dargestellt (eine Rangfolge von 8 Kategorien). Die Lokationen sind mit Kreisen von einem Durchmesser von (soweit zu erkennen) mehr als einem Kilometer dargestellt. (Die Daten der Bohrung repräsentieren jedoch eher 1 qm.) Auf Tabelle 28 auf der nächsten Seite wird der Informationsgehalt (DQN) mit einer Rangfolge von 6 Kategorien beschrieben. Es ist nicht dokumentiert, wie die vier unterschiedlich guten und zwei schlechten Einstufungen ermittelt werden. Im Text heißt es dazu, dass die genaue Vorgehensweise noch nicht definiert ist.
Für Abbildung 64 sind bereits Einstufungen in einer Rangfolge vorgenommen worden.  Nach dem ersten Eindruck liegt eine Menge sehr guter und guter Daten vor.
 
Von dem Text, der später im Kapitel 5 folgt, kann dies nicht nachvollzogen werden. Eine sehr gute Datenqualität in einer Bohrung würde bedeuten, dass über das gesamte Intervall des Wirtsgesteins nicht nur ein vollständiger Gesteinskern vorliegt, sondern auch eine vollständige Suite von Bohrlochmessungen (inkl. Neutron/Density, Spectral Gamma Ray, Formation Image Log, …). Neben den Messungen müssen auch die entsprechenden Auswertungen vorliegen, wie Korrelationen zwischen Gesteinskern und Bohrlochmessungen (um die Güte der petrophysikalischen Interpretation in anderen Bohrungen beurteilen zu können), Messungen der Porosität und Permeabilität (horizontal und vertikal), lithologische und lithographische Kernbeschreibungen und -analysen (inkl. Dünnschliffauswertungen, Tonmineralanalysen, Biostratigraphische Analysen, Geochemische Analysen (inkl. eingeschlossene Flüssigkeiten, Gase, ..), Vitrinitreflektionsmessungen (zusätzliche Daten zur Interpretation der Diagenese), mechanische Eigenschaften  (bei Bedarf), …
Da das Dienstleitungsangebot für Bohrlochmessungen Kristallingesteine nicht im Fokus hat, sind hier Anpassungen vorzunehmen.
Die Bohrung muss nicht im Teilgebiet abgeteuft worden sein, solange die geologische Relevanz (zum Beispiel aus der Regionalgeologie) nachgewiesen werden kann.
Wenn Bohrungen mit einer sehr guten Datenqualität vorhanden wären, sollte das 1D Modell, was als Referenz vorgestellt wird, anders gestaltet werden.
Solange eine solche Bohrung mit sehr guter Datenqualität nicht vorliegt, sind alle Messungen und Interpretation deutlich mit Ungewissheit behaftet.
 
Eine Bohrung mit Daten guter Qualität hat zumindest eine vollständige Suite von Bohrlochmessungen (inkl. Neutron/Density, Spectral Gamma Ray, Dipmeter,), so dass mit Hilfe der Referenz zur Bohrung mit einer sehr guten Datenqualität einigermaßen zuverlässige petrophysikalische Interpretationen anfertigen zu können. Statt eines Kerns sollten Side Wall Cores vom Wirtsgestein vorhanden. Die Interpretation sollte durch eine biostratigraphische Analyse gestützt werden.
 
Eine Bohrung mit Daten befriedigender Qualität hat eine teilweise Suite von Bohrlochmessungen (inkl. Neutron/Density, Spectral Gamma Ray, Wiederstandmessungen, Sonic), so dass mit Hilfe der Referenz zu einer Bohrung mit einer guten Datenqualität (keine Bohrungen mit sehr guter Datenqualität vorhanden) einigermaßen zuverlässige petrophysikalische Interpretationen anfertigt werden zu können.
 
Eine Bohrung mit Daten ausreichender Qualität hat mindestens eine Gamma Ray Messung und eine Beschreibung der Spülproben.
 
Eine Bohrung, von der lediglich eine Beschreibung des Wirtsgesteins aus Spülungsproben verfügbar ist, hat eine mangelhafte Datenqualität.
 
Eine Bohrung, für die lediglich ein Schichtenverzeichnis vorliegt, ist in der Regel ungenügend. Selbst wenn die Bohrung mitten im Teilgebiet liegt, und das Schichtenverzeichnis angibt, dass das Wirtsgestein vollständig fehlt, kann nicht nachvollzogen werden, ob die Interpretation wahr oder falsch ist.
 
Bei Bedarf kann die Einschätzung auf überlagernde Schichten ausgedehnt werden, wenn diese ein Problem bei der Abdeckung darstellen. Der Umfang der Messungen sollte dann für eine sehr gute Qualität zusätzlich in-situ Messungen des Porendrucks enthalten, wenn die Porosität/Permeabilität dies zulassen.
Diese Art der Einstufung bildet die Größe der Ungewissheit ab: wie zuverlässig die Interpretation der Messdaten ist. Diese Ungewissheit geht in die Beurteilung der einzelnen Teilgebiete ein.
 
Im Text wird in der Folge danach eine Kenngröße zur Datenquantität ermittelt. Anscheinend werden dabei die einzelnen Datenpunkte als gleichwertig angesehen. Das sind sie jedoch sehr wahrscheinlich nicht. Eine große Menge Daten mangelhafter und ungenügender Qualität hilft nicht bei der Beurteilung von Kriterien und einer Einschätzung von Ungewissheit.
 
Eine Kategorisierung reflexionsseismischer Daten muss andere Probleme bewältigen. So wie sich bei Bohrungen die Einschätzung darauf fokussiert, wie Ungewissheiten bezüglich des Wirtsgesteins adressiert werden, muss eingeschätzt werden, wie zuverlässig relevante Horizonte und Intervalle auf den Daten interpretiert werden können. Dies kann bedeuten, dass Daten erneut mit anderen Parametern prozessiert werden müssen. Je nach Alter der Daten kann auch bedeuten, dass die Daten in keiner Hinsicht den Ansprüchen genügen, oder dass ein erneutes Prozessieren nicht effektiv oder effizient Ungewissheiten adressiert.
 
Zusätzlich wird als weitere Kenngröße noch eine subjektive Einschätzung von interpretativen Daten (Profilschnitte, 3D Modelle, …), und weiteren Nachweisen (Gravimetrie-Auswertungen, …) angefertigt. Es ist nicht dokumentiert, nach welchen Kriterien diese Einschätzungen erfolgen, so dass kontrolliert werden kann, ob eine andere Person zu der gleichen (oder sehr ähnlichen subjektiven Einschätzung kommt.
Die Vorgehensweise könnte funktionieren, wenn bereits Daten und Interpretationen mit einer sehr hohen Zuverlässigkeit vorliegen, du als Referenz genutzt werden, um dagegen eine „subjektive“ Einschätzung vorzunehmen. Die individuelle Einstufung kann dann mit konkreten nachvollziehbaren Details begründet werden. Dies ist für kein Wirtsgestein und kein Teilgebiet zu erkennen. Es besteht das Risiko, dass Daten (und Interpretationen davon) falsch eingestuft werden. Eine fehlerhafte Abwertung trägt genauso zur Erhöhung der Unsicherheit bei, wie es eine unzulässige Aufwertung tut (falsche Sicherheit).
 
Als vierte Kennzahl wird die geologische Komplexität eingestuft. Wie bei den interpretativen Daten ist nicht dokumentiert, nach welchen Kriterien diese Einschätzungen erfolgen. Der Gebrauch des Begriffs „komplex“ kann nicht nachvollzogen werden.
 
Komplexität ist das Versagen von Vorhersagemöglichkeiten zum Verhalten eines Systems bei Änderungen.
Es kann sein, dass zur Darstellung von Abläufen und Systemen ein so großes Maß an Detail verwendet werden muss, und eine so hohe Vielzahl verschiedener Elemente angezeigt und beschrieben werden muss, so dass dies nicht direkt alles ganz erfasst werden kann. Es fehlt das Wissen, alles zu verstehen, was wahrgenommen (sehen, hören, …) werden kann. Die Darstellung eines Systems mit vielen Einzelheiten ist deshalb oft kompliziert.
Dies macht einen Vorgang/ein System jedoch nicht komplex.
Etwas ist kompliziert, wenn es anspruchsvoll, aber berechenbar ist. Anspruchsvoll bedeutet, dass es zahlreiche mitwirkende Faktoren gibt, die schwierig gleichzeitig erfasst werden können, und dass sowohl die Faktoren, als auch die Wirkungsmechanismen bekannt sind.
Geologische Sachverhalte sind kompliziert.
Zum Beispiel könnte wirklich ganz genau gewusst werden, wie es an einer Stelle im Untergrund aussieht, wenn man alles ausgräbt.
Das macht es nicht komplex. Es ist nicht jedes Mal etwas anderes da, wenn man gräbt.
 
Wie sich die Erde weiterentwickelt ist komplex. Komplexe Sachverhalte erlauben keine Vorhersagen dazu, wie sich der Sachverhalt entwickelt. Dies ist völlig zufällig. Deshalb machen Vorhersagen auch nur sehr eingeschränkt einen Sinn. Es kann modelliert werden, was passieren könnte, nicht aber zuverlässig vorhergesagt werden, was genau passiert.
Das System kann zwar beschrieben werden, man versteht aber nicht immer zuverlässig, warum die Ergebnisse so sind, wie sie sind. Oder die gleichen Ausgangswerte produzieren immer unterschiedliche Ergebnisse. Die Ergebnisse sind zufällig. Es ist im späteren Text (nicht Kapitel 5) nicht klar zu erkennen, ob in den Analysen zur Entwicklung der Gesteinseigenschaften (Mechanik etc.) über den Einlagerungszeitraum ein komplexes Verhalten zu beobachten ist, oder nicht. In diesen Zusammenhängen und Sachverhalten könnte dann eine Einschätzung einer Kennzahl Sinn machen: alle Werte im Spektrum zwischen nachgewiesen komplex und lediglich noch unvollständig verstanden.
Die Genese von Salzstöcken könnte komplex sein. In Bezug auf das Wirtsgestein Salzgestein „in steiler Lagerung“2 soll versucht werden, die Genese der Salzstrukturen … zu rekonstruieren. Wie die einzelnen Bewegungsphasen die Komplexität des Internbaus … beeinflussen, ist Teil der Prognose-Entwicklung. Auch wenn nicht zu erkennen ist, was genau in dieser Forschungsaktivität bis zu welchem Zeitpunkt erreicht sein soll: Zur Validierung des Ergebnisses dieser Forschung gibt es geeignete Tests gegen die Realität. Aufgehend von einer Interpretation auf Grundlage von 2 D reflexionsseismischen Linien/geologischen Schnitten, kann die entwickelte Methode dadurch geprüft werden, indem ein Salzstock modelliert wird, den man von innen einigermaßen gut kennt (zum Beispiel: Gorleben, Asse, Konrad, …).
 
In der Zwischenzeit kann ein Eindruck über mögliche Ergebnisse durch die Herstellung von Sahnetörtchen gewonnen werden.
Rezept:
Zutaten: Springform, 2 Lagen Biskuit, Sahne, Sahnesteif, Lebensmittelfarben (schon geringe Dosen sorgen für gute Kontraste), Frühstücksstreusel (im Lebensmittelhandel in den Niederlanden in einer Fülle unterschiedlicher Varianten verfügbar, die auch leicht auseinanderzuhalten sind)
1.     Der Boden der Springform wird mit einer Lage Biskuit bedeckt.
2.     Es werden mehrere Portionen Sahne mit unterschiedlichen Lebensmittelfarben steif geschlagen.
3.     Um den Eindampfungszyklus zu simulieren werden sehr dünne Schichten unterschiedlich gefärbter Sahne ausgetragen. Dies gilt selbst für Schichten, die im Endergebnis etwas dicker sein sollen, weil sie in der natürlichen Schichtenfolge höhere Mächtigkeiten aufweisen. Hier geht es darum, das Fleißverhalten der Sahne als analoges Model der plastischen Verformung von Salzgestein darstellen. Sahne ist nur eingeschränkt geeignet, weil die Proteine beim Steifschlagen Netze bilden.
4.     Härtere Schichten, die sich bruchhaft verformen, werden durch dünne Lagen von Frühstücksstreuseln simuliert. Durch den Einsatz unterschiedlich farbiger Varianten können Marker gesetzt werden, damit im Endprodukt nachvollzogen werden kann, wie weit die sich bewegt haben.
5.     Als Abdeckung wird eine Lage Biskuit aufgelegt.
6.     Das Vorhandensein einer aktiven Störung wird dadurch simuliert, dass zwar sehr langsam und gleichmäßig von oben auf den Biskuit gedrückt wird, eine Seite allerdings initial etwas stärker belastet wird. Dabei verbleibt alles in der Springform. Als Ergebnis sollte ein zentrale ovale Dom-artige Struktur entstehen, manchmal mit Durchbruch durch den überlagernden Biskuit.
7.     Die Simulation ist beendet, wenn im Randbereich Biskuit auf Biskuit liegt und sich keine Sahne mehr zur Mitte bewegen kann (analog zu: Kein Salzgestein mehr zufließen kann).
8.     Der Rand der Springform wird entfernt. Mit einem sauberen scharfen Messer kann nun begonnen werden, Schnitte durch das Ergebnis freizulegen. So kann das Ergebnis der internen Verformung betrachtet werden.
9.     Das Modell muss im Kühlschrank aufbewahrt werden.
 
Varianten:
Alle Faktoren können variiert werden. Statt einfacher Sahne können unterschiedliche Festigkeiten (fleißverhalten) durch die Zugabe von Stoffen erzielt werden, die die Viskosität verändern (Zuckersirup, Verdickungsmittel, …). Andere Lebensmittel, wie Marmeladen, Fruchtaufstriche sind auch geeignet. (Das Endprodukt wird dann sehr süß). Um etwas sehen zu können, müssen alle Lagen unterscheidbar sein. Vorsicht: Mittel, die eine Zutat dadurch stabiler machen, indem Netze ausgebildet werden, verhindern oft ein Fließverhalten.
Auch der Biskuit kann durch andere Backprodukte ausgetauscht werden.
Die Art der Belastung kann variiert werden. Mit mehr als 2 Händen lassen sich mehr Varianten von unterschiedlichen Belastungen simulieren. Weitere Möglichkeiten entstehen dadurch, dass durch einen Schlitz in der oberen Biskuitlage eine Schwächezone simuliert wird. Durch Nutzung einer dritten Biskuitlage darüber (nach dem Durchtritt von Sahne) können Überhänge simuliert werden. Durch mehrere, parallele Schnitte und das Beschweren durch ein Nudelholz können Scheitelstörungen mit einem Graben simuliert werden.
 
Es kann getestet werden, ob zwei „identisch“ hergestellte Modelle durch die „gleiche“ Art der Verformung identische Verformungsergebnisse ausweisen.
 
Es sollten nur essbare Zutaten verwendet werden. Das Ergebnis der Simulation kann dann nach der Betrachtung aufgegessen werden.
 
Das Ganze kann natürlich am Rechner durch mathematische Beziehungen mit Monte Carlo Simulationen dargestellt werden, ist dann aber oft weniger anschaulich und definitiv nicht lecker.
 
In dem Sachverhalt der Endlagersuche sollen explizit geologische Vorhersagen zu Eigenschaften von Wirtsgesteinen angefertigt werden, deren Zuverlässigkeit im Verfahren der Endlagersuche nachprüfbar sind. Dazu empfiehlt es sich, die Ungewissheit mit quantitativen Methoden zu adressieren. Dazu gehört eine nachvollziehbare Einschätzung von Wahrscheinlichkeiten. (im Konzept wird Wahrscheinlichkeit gar nicht und quantitativ lediglich einmal erwähnt.
 
Die vier Kenngrößen sollen gemeinsam genutzt werden, um die Ungewissheit in einem Gebiet einzuschätzen. Der Text liefert noch keine ausreichenden Erklärungen dazu, dass dies zuverlässig gelingen kann.

Kommentar zu Kapitel 8.5 im Konzept
 
Das Kapitel verweist auf Kapitel 5 in Anlage 1. Ohne Anlage 1 ist das Kapitel im Konzept nicht verständlich. Der Link zu Anlage 1 im Konzeptdokument funktioniert nicht. Auf Anlage 1 konnte jedoch zugegriffen werden.
 
Die in diesem Schritt von Phase 1 gewählte Methodik erinnert an „Fallbasiertes Schließen“ (Case Based Reasoning). Es gibt einen Problem Bereich (die Teilgebiete, die Anforderungen aus Gesetzen, Verordnungen), und einen Lösungsteil (der in diesem Schritt von Phase 1 erarbeitet werden soll). Dazu wird eine Fallsammlung angelegt (die jetzt laut Konzept untersuchten ausgewählten Teilgebiete). Zu diesem Fällen werden dann Bearbeitungslösungen etabliert (wie im Konzept (beziehungsweise Anlage 1) beschrieben).
Als Ergebnis soll eine Methode vorhanden sein (Wiederverwendung der in diesem Schritt erarbeiteten Lösungen), mit der alle existierenden Teilgebiete effektiv, effizient und konsistent bearbeitet werden können.
Die Probleme bei der Methodik („Fallbasiertes Schließen“) treten oft in folgenden Bereichen auf:
1.     Anpassungsbedarf: In Bereichen, wo laufend hinzugelernt wird, müssen Lösungen vor der Wiederverwendung angepasst werden, um für alle Bearbeitungsfälle optimale Resultate erzielen zu können. Dieses Problem kann hier auftreten, da die Ungewissheit bei vielen Kriterien (inkl. Indikatoren) relativ hoch ist.
2.     Klassifizierung: Es besteht das Risiko, dass, nur um eine Arbeit mit Gründen abschließen zu können, beobachtete Fälle nicht korrekt klassifiziert werden. Die dazu dann abgerufene Lösung erscheint trotzdem möglicherweise passend, ist aber im besten Fall suboptimal, im schlimmsten Fall falsch.
3.     Diagnose: Die Variabilität der natürlich vorkommenden Probleme ist mit den zur Verfügung stehenden Diagnosetechniken nicht zuverlässig zu bewältigen. Dies könnte in dem Sachverhalt der Endlagersuche der Fall sein.
4.     Kontrollen: Es fehlen Kontrollen, um rechtzeitig erkennen zu können, wenn suboptimale und/oder fehlerhafte Ergebnisse produziert werden. Dazu gehört das Vorliegen einer Vorgehensweise, die bestimmt, wie dann vorzugehen ist, wenn dies festgestellt wird (und die dann nicht erst entwickelt werden muss). Dies bedeutet auch, dass geeignete Tests entwickelt und durchgeführt werden müssen, damit so etwas festgestellt werden kann.
Zu diesen Problemen konnte weder im Konzept noch im Text gefunden werden, wie sie bewältigt werden sollen. Nach Durchsicht von Kapitel 5 tauschen sie jedoch in der Bearbeitung auf, und die BearbeiterInnen scheinen sich der Präsenz bewusst zu sein.
 
Kapitel 5 umfasst 192 Seiten. Auf 123 davon wird für die einzelnen geologischen Abwägungskriterien und Indikatoren zwischen den unterschiedlichen Wirtgesteinstypen hin und her gesprungen. Zudem werden in eingeschobenen Blöcken in Dokument (blau hinterlegt), Inhalte eingestellt, nach denen nicht gezielt gesucht werden kann. Dort wird auch der jeweils relevante Gesetzestext wiederholt, als ob der nicht die Basis für die Untersuchungen bilden würde.
 
Nicht jeder wird sich für alle Wirtsgesteinsarten interessieren. Es würde daher die Lesbarkeit sehr erhöhen, wenn für das ausgewählte Teilgebiet in einem bestimmten Typ von Wirtsgestein der jetzige Sachstand und der Plan der Bearbeitung in diesem Schritt der Phase 1 hintereinander zusammen dargestellt würden.
 
Zunächst sollte man sich mit einer Basiskarte orientieren können. Die enthält die für die Interpretation aller geologischen Abwägungskriterien und Indikatoren genutzten Daten an ihren Lokationen (Bohrungen, Reflexionsseismik, …, bei Bedarf auch Aufschlüsse). Bei den Bohrungen ist zu erkennen, was sie an Informationen beitragen. Die räumliche Verfügbarkeit von direkten und indirekten Daten kann nachvollzogen werden.
 
Auf der zweiten Karte wird die Oberfläche des Wirtsgesteins in Tiefenlinien dargestellt.
 
Auf der dritten Karte sind die geologischen Schnitte und Korrelationen von Bohrungsdaten eingetragen.
 
Danach werden 1D Profile angezeigt (eins oder mehrere von unterhalb der Basis des Wirtgesteins bis zur Erdoberfläche, eins oder mehrere mit einer Darstellung des Wirtsgesteins sowie der Grenzen zum überlagernden und unterlagernden Gestein. Auf den 1D Profilen muss zu erkennen sein, was erklärt werden soll.
 
Danach werden 2D Profile (geologische Schnitte) angezeigt, die das geologische Modelle sowohl im Streichen, als auch im Fallen illustrieren. Bei den Schnitten ist eine horizontale und eine vertikale Größenangabe vorhanden. Dazu gehören auch reflexionsseismische Linien. Dazu gehört auch eine Ausschnittdarstellung, auf der die Amplituden zu erkennen sind, und ein Eindruck davon gewonnen werden kann, was überhaupt möglicherweise einigermaßen sicher interpretiert werden kann.
 
Danach folgen beliebige thematische Karten (Mächtigkeit, …), die den Text zu den einzelnen Kriterien und Indikatoren illustrieren.
 
Die Angabe, dass mit einer Software Karten erstellt werden konnten, auf denen die Mächtigkeit eine bestimmte Größe erreicht, ist lediglich die Darstellung einer Hypothese, nicht eine Bestätigung der Realität.
 
Eine Darstellung im DINA4 Format kann nur einen sehr eingeschränkten Einblick in das geologische Modell geben, da in der Regel andere Formate benötigt werden, um die notwendigen Einzelheiten erkennen zu können. Als Minimum sollte jeweils eine ganze DINA4 Seite für eine Abbildung genutzt werden. 
Wenn dies nicht ausreicht, sollten zumindest mehrere Abbildungen vorhanden sein, auf denen beispielshafte Ausschnitte zur Illustration vergrößert dargestellt sind. Relevante geologische Einzelheiten für die Einschätzung der Kriterien (und Indikatoren) spielen sich zum Teil im Bereich von weniger als 0,01m ab. Eine Darstellung, auf der 100m auf 1,6cm Papier komprimiert sind, verhindert sicher, dass man auch mit vielfacher Vergrößerung am Rechner irgendetwas sieht.
 
Geologie legt von Darstellungen. Eine rein verbale Beschreibung setzt voraus, dass AutorInnen und LeserInnen das gleiche Verständnis davon haben, was welcher Ausdruck bedeutet. Zudem findet beim Fassen in Worte eine hohe Abstraktion statt, die nicht hilfreich ist, wenn nicht alle bereits gleichermaßen mit allen Details vertraut sind.
 
Die Abbildungen zeigen die in diesem Schritt der Phase 1 genutzten geologischen Modelle. In einem vorherigen Kommentar wurden die Anforderungen an die Qualität der Darstellung von Modellen kurz erläutert.
 
Nach einer kurzen Durchsicht des Textes sind Defizite bei der Stimmigkeit, Ausdruckskraft, Leistungsfähigkeit, Eignung, Willkür, und Wirksamkeit zu beobachten. Dieser Eindruck soll durch einige Beispiele illustriert werden.
 
Abbildung 70 ist ein 2D geologischer Schnitt, der mehr Fragen provoziert, als Erklärungen liefert. Was machen die eingezeichneten Störungen vor und hinter dem Profil? Wieso sind die Störungsflächen im WNW Teil so gerade, wenn alle Schichten bis ins Quartär durch Salzbewegungen beeinfluss worden sind (wie dies die Störungsfläche im ENE Teil anzeigt)?
Wie zuverlässig waren die Vorhersagen in den jeweiligen Bohrungen? Sind die alle auf einer Linie gebohrt, oder in den geologischen Schnitt hineinprojiziert?
Wenn die Darstellung nicht überhöht ist, dann sitzt der Salzstock über einer Störung von über 3000m Versatz. Wenn er überhöht ist, dann ist die räumliche Lage der Schichten nicht richtig zu erkennen. Im ENE Teil reicht die tiefste Bohrung in den Unterjura, allerdings hat ein Stollen des Bergwerks augenscheinlich die Außenhülle des Salzstocks durchbrochen (?) und Daten aus dem Muschelkalk gesammelt.  Schichten des Mittel- und Oberjura fehlen, jedoch scheint die Unterkreide den Unterjura konkordant zu überlagern.
Weitere geologische Schnitte senkrecht zu diesem Schnitt könnten die Plausibilität sicherlich beleuchten.
Im WNW Teil wurde der Mitteljura erreicht. Ein Profil von WNW nach ENE muss irgendwo einen Knick haben, oder eine Richtungsangabe ist falsch und zeigt in eine südliche Richtung. Schichten des Oberjura fehlen.
Wenn die Darstellung nicht überhöht ist, dass reicht sie bis in ca. 4km Tiefe. Die tiefste Bohrung ist ca. 3 km tief. Es ist unklar, wie es nach unten weiter geht.
Es ist auch unklar, wie die interne Geometrie des Salzstocks bestimmt wurde, und wie gültig die Darstellung ist. Das älteste Salz befindet sich nahe der Oberfläche, das jüngste Salz ist im ENE Teil auf 4km Tiefe hinabgezogen worden. Im zentralen Teil schwebt ein spinnenartiges Gebilde, was in der Legende nicht erläutert ist.
Wer mit der Geometrie von Salzstöcken vertraut ist, könnte sich gut vorstellen, dass im Randbereich einzelnen Schollen von Randgesteinen aufgeschleppt werden.  Diese Interpretation würde die Darstellung in dem Schnitt allerdings erheblich verändern.
 
Abbildung 72 hätte davon profitiert, wenn sie eine ganze DINA4 Seite ausgefüllt hätte. Die Darstellung des geologischen Schnitts erscheint nicht vollständig kongruent mit der Interpretation der seismischen Linie, ohne dass erklärt wird, warum dies so ist. Viel mehr Details würde anschaulicher illustrieren, wie zuverlässig die Interpretationen sind. Dazu müssten vergrößerte Ausschnitte aus der Reflexionsseismik verfügbar gemacht werden. Es schient sich um eine migrierte Linie zu handeln. Wurde die Gültigkeit der Migration durch die Bohrung nachgewiesen? Wie wurde die Tiefenumwandlung durchgeführt?
 
Zu Abbildung 73 fehlt die Karte, auf der die namentlich benannten Elemente räumlich dargestellt sind. Was soll diese Abbildung aussagen? Für welche weiteren Abbildungen liefert sie Informationen?
 
Im Abbildung 74 sind die Formationsgrenzen auf dem lithologischen 1D Profil nicht genau zu erkennen. Die Farben sind nicht erklärt.
 
In Abbildung 76 erscheint der Opalinuston über 200m mächtig, obwohl er im Text eher 100m (bis zu 150m) mächtig wird. Zudem ist er variationsarmer als in Abbildung 91 dargestellt.
 
Die Abbildungen 85, 87, 88 und 90 zeigen die Teilgebiete im Fokus des Konzepts. Die Farbgebung der Teilgebiete könnte optimiert werden, um die einzelnen Gebiete erkennen zu können. Es ist nicht sicher zu erkennen, was jetzt wie wo mit welchem Ziel geschieht. Es fehlen starke Kontraste. Wenn ein Gebiet auf der Karte zu klein ist, um es identifizieren so können, könnte es annotiert werden. Es ist unklar, warum die Abbildungen so klein sind. Ohne eine Basiskarte (siehe oben), ist es unmöglich, sich zu orientieren.
 
In Abbildung 91 fehlen (wie im wirklichen Leben) alle Formationen ab dem Oberjura. Ohne eine Versenkungsgeschichte, die z.B. mit Vitrinitreflektionsmessungen kalibriert wurde, kann kaum abgeschätzt werden, wie tief unten das alles mal war und wie hoch das wieder gehoben wurde. Aus welcher geologischen Schicht wird das Thermalwasser gefördert, und warum wurde die Bohrung gerade an dieser Stelle abgeteuft? 100m sind auf ca. 1,5 cm komprimiert. Die Variabilität liegt im cm Bereich, die Auflösung der Bohrlochsonden im Bereich von deutlich unter einem Meter. Die Darstellung würde den Sachverhalt deutlicher illustrieren, wenn dem Opalinuston eine eigene DINA4 Seite gewidmet würde. Die elektrischen Bohrlochmessungen sind nicht erläutert. Die Bohrung taucht später erneut auf, im Text kann sie aber nicht mit der Suchfunktion gefunden werden.
 
Aus Abbildung 92 könnten 2 Abbildungen erstellt werden: Eine Abbildung, die nur den Opalinuston zeigt, auf der erkannt werden kann, wie stark er über das Untersuchungsgebiet variiert. (Die Abbildung gibt es, sie erscheint aber erst später.) In einer zweiten Abbildung könnte die gesamte geologische Abfolge als geologischer Schnitt von NW nach SE dargestellt werden, in den die Bohrungen hineinprojiziert werden.
 
Auch aus Abbildung 93 (auch kondensiert) könnten 2 Abbildungen erstellt werden. Wenn dies zur Illustration dienen soll, wie die Zusammensetzung korreliert, dann wäre eine Darstellung mit der Basis oder des Tops der Formation als Bezugshorizont (plus 100m Gestein darunter und darüber, damit man erkennen kann, was da ist) geeigneter. Die Lage der Bohrungen auf der Karte kann nicht erkannt werden. Die Karte folgt nicht der Konvention, dass Norden nach oben zeigt. Die Tiefenangaben sind nicht zu erkennen. Eine separate Darstellung im DINA4 Format kann sicherlich mehr Klarheit bringen.
 
In den Abbildungen 95 und 96 ist nicht zu erkennen, warum die korrelierten Schichten korrelieren. Die sehen trotz der geringen Abstände zueinander überall zumindest teilweise anders aus.
 
Abbildung 97 existiert bereits als Abbildung 72. Damit die Darstellungsweise von Abbildung 98 Sinn macht, sollte der geologische Schnitt in Abbildung 97 im gleichen Format wie Abbildung 98 dargestellt werden.  
Abbildung 98 erwähnt 5 Bohrungen, direkt zu erkennen sind allerdings nur drei. Die beidem am rechten und linken Ende sind nur dem Namen nach, aber ohne lithologische Kolumne vertreten
Die durchgezogene Line unter dem Salz erscheint als Spekulation. Die Bewegungen gingen im SW anscheinend bereits im Oberen Buntsandstein los, im NW tut sich noch nichts.
Die Grenze zwischen Salzstock und angrenzenden Schichten wird nicht so scharf sein, wie abgebildet. Wo ist das Material hin, was der Salzstock hochgehoben hat und was nicht erodiert werden konnte?
 
Abbildung 100: Sind das Bohrkerne in der unbenannten Kolumne zwischen Stratigraphie und Lithologie? Eine größere Darstellung würde helfen, dem Leser einen Eindruck des Gesteins zu vermitteln. Gibt es Fotos? Es gibt sowohl sehr homogene Granite als auch welche, in denen zahlreiche Einschaltungen vorhanden sind. Worum handelt es sich hier? Das größte Problem scheint das Vorhandensein von Klüften zu sein. Wie sind sie hier dargestellt?
 
In der Abbildung 101 ist für die Bohrungen zwar eine Legende vorhanden, die Lithologie in den Bohrungen ist in der Darstellung nicht allerdings erkennbar (auflösung). Die Bohrungen liegen eng zusammen. Für den Rest des geologischen Schnitts ist nicht zu erkennen, woher die Daten für die Interpretation stammen.
 
Es ist unklar, was Abbildung 110 erklären soll. Es gibt 2 geologische Modelle, die jedoch nicht zu den Bohrungen passen. Hatten die Modelle Zugriff auf die Bohrungsdaten? Sind diese Modelle nicht gültig?
 
In Abbildung 112 fehlen oben die Ablagerungen von ca. 240 Millionen Jahren. Was war in der Zeit los? In Bezug auf das Wirtsgestein Salzgestein „in steiler Lagerung“ wurden in der Anlage 1 an anderer Stelle Phasen von Einengung und Ausdehnung dargestellt.
Gibt es Gesteinskerne, die zeigen, dass dies alles ungestört ist? Ist in der Bohrung Kal Sprötau das Buntsandsteinsalz übersehen worden (in den beiden anderen Bohrungen vorhanden), oder ist es definitiv abwesend und durch Anhydrit ersetzt worden?
 
Abbildung 115 hat zeigt eine vertikale Auflösung von unter einem Meter. Die Kolumnen mit der Darstellung der Lithologie gehen darauf jedoch nur sehr eingeschränkt ein. Die die Zillhausen Subformation überlagernde unbenannte Formation hat entweder deutlich erkennbare Tonlagen (linke Kolumne), oder, wie in der Kolumne ganz recht angezeigt, eben nicht.
Die Wiederstandmessungen im oberen Teil der Opalinuston Formation deuten auf merkbar poröse Einlagerungen hin. Gibt es hier Gesteinskerne? Wie erklären sich die Unterschiede in den Gamma Ray Messdaten: Gibt es Zyklen, in den der Anteil der Tonmineralien leicht abnimmt, und entweder durch mehr klastisches, oder durch mehr Karbonatmaterial ersetzt wird? Folgt darauf dann ein erneuter Zyklus, der mit einer Lage mit höherem Tonmineralanteil beginnt, oder ist in dieser Lage mehr Organisches Material eingelagert? Oder sind im Gestein gar keine Zyklen zu erkennen?
 
Hier ist nicht einmal Halbzeit. Es folgen weitere 73 Seiten. Da viele Elemente bereist digital vorliegen, sollte es möglich sein, eine mehr LeserInnen-freundliche Darstellung zu erstellen. Dies erscheint auch deshalb wünschenswert, weil die Kapitel 6 und 7, in denen die Bewertung dargestellt wird, auf den Inhalten von Kapitel 5 aufbauen.
#12
Allgemeiner Kommentar zum Konzept
 
Im Konzept taucht der Begriff „Kontrolle“ nicht auf (in der Anlage 1 lediglich zweimal als „Qualitätskontrolle“ bei der Wartung des FEP Katalogs). Es ist deshalb nicht nach vollziehbar, wie zeitnah herausgefunden wird, wenn etwas nicht so funktioniert, wie es im Konzept geplant ist, und was dann geschieht, damit die Endlagersuche trotzdem nachvollziehbar erfolgreich fortgeführt wird.
 
Da in dem gesamten Umfeld (BGE, BASE, BMU, NBG, …) nichts von aktiven Kontrollsystemen zu verspüren ist, wie sie für (zum Beispiel) Wirtschaftsunternehmen vorgeschrieben sind, hole ich etwas aus.
 
Die sechs Grundelemente einer Kontrolle sind:
1. Was soll geschehen?
2. Wer macht was?
3. Wo und wie geschieht das?
4. Was soll nicht geschehen?
5. Wie wird herausgefunden, dass etwas geschehen ist, was nicht geschehen soll?
6. Wie wird darauf reagiert, so dass kein Schaden entsteht, beziehungsweise dieser gering gehalten wird?
 
Angewendet auf das Konzept:
1. Es soll ein sicheres geologische Endlager für hochradioaktiven Abfall in Deutschland gefunden werden.
2. Die BGE macht das.
3. Die Arbeit findet in Peine und von Peine aus statt, indem das StandAG umgesetzt wird.
4. Zu einem zukünftigen Zeitpunkt in x Jahren weiß man, dass die bis dahin geleistete Arbeit nicht die erforderlichen Ergebnisse erbracht hat, und es zu spät ist, um noch etwas anders zu machen.
5. ?
6. ?
 
Auch wenn sich das passend anhört: Das Beispiel enthält Fehler.
1. Es soll das bestmögliche Endlager gefunden werden (was immer das ist). Wie sicher das wohl sein könnte, wird sich erst in Jahren herausstellen. Selbst, wenn es Sicherheitsrisiken hat: Es wird ein Endlager geben müssen.
2. Bei BGE, BASE, BMU, NBG, … liegen jeweils unterschiedliche Verantwortungen die sich Außenstehenden (meine Wahrnehmung) nicht zuverlässig erschließen. Von außen nimmt man dies deshalb subjektiv als eine Verantwortungsdiffusion wahr. Alle machen etwas, und wenn es nicht funktioniert, dann können jeweils andere schuld sein.
3. Die Umsetzung des StandAG keine Garantie für ein sicheres Endlager.
 
Außerdem sind 5. Und 6. Unbekannt.
 
Das StandAG ermöglicht Kontrollen über den Prozess der Bestimmung des Standortes, an dem der hochradioaktive Abfall eingelagert werden wird. Sie sind allerdings als Anforderungen formuliert. Wenn sie nicht erreicht werden können, dann wird ein neues Gesetz gemacht werden müssen.
 
Das löst nicht das Problem der Endlagerung. Da im Alltag alles außer Gesetzen verhandelbar erscheint (sogar ob etwas wahr oder falsch ist), und um jedes Wort so gerungen wird, dass mögliche Mehrdeutigkeiten ausgeschlossen sein sollten, wird in Gesetzestexten oft eher mehr als weniger beschrieben.
Statt einfach nachvollziehbarer Prinzipien wird eine Fülle von Regeln etabliert. Dies kann ein Überregulierung darstellen. Die bietet einerseits Sicherheit für die, die genau das machen, was das Gesetz erfordert.
Das ist aber andererseits ein Hindernis, wenn sich bei der Umsetzung herausstellt (StandAG §1), dass etwas gelernt wird, was Änderungen im Gesetz verlangt, die dann erst mühsam in die Wege geleitet werden müssen.
Ein Beispiel: Jeder, der geologische Exploration professionell betrieben hat, wusste vor dem Inkrafttreten, dass das StandAG allein keine effektive und effiziente Basis für die Endlagersuche ist. Es ist nicht geregelt, wie der Vorhabenträger, die die Standortsuche machen soll, an die dafür notwendigen Daten und Informationen herankommt. In 2020 wurde deshalb das fehlende Geologiedatengesetz in Kraft gesetzt.
 
Das StandAG spezifiziert auch keine Kontrolle dazu, wie festgestellt wird, dass (wie in §1 vorgeschrieben) bei der Umsetzung nachweisbar ein partizipatives, wissenschaftsbasiertes, transparentes, selbsthinterfragendes und lernendes Verfahren nachprüfbar stattfindet. Es ist unklar, was ein zulässiger Nachweis ist.
Als Resultat hat jede® Recht, der behauptet, dass das §1 gesetzeskonform umgesetzt wird, genauso wie diejenigen, die behaupten, dass dies nicht der Fall ist. Es gilt: Der/diejenige hat Recht, der/die die Macht der Interpretation hat.
Wirkliche Beteiligung ist etwas anderes.
 
Das Ausnutzen der Deutungshoheit im Zusammenhang mit der Nutzung von Atomkraft in Deutschland hat viel Vertrauen in den deutschen Staat zerstört. Die bisherige Beteiligung im jetzigen Verfahren (Halbierung der Zahl teilnehmenden Personen über den Verlauf der Beteiligung von der Auftaktveranstaltung bis zur 3. Fachkonferenz), zeigt auf, dass dies auch in diesem Zusammenhang wieder passieren kann (wird? muss? vermieden werden muss?).
 
Da der Gesetzgeber sich im Umgang mit Unsicherheiten schwertut, enthalten die Paragraphen eine Fülle von Regeln. Zudem gibt es zusätzlich auch noch eine Verordnung (EntlSiUntV). (Die regelt aber nicht die Umsetzung von §1 StandAG.)
Ein Beispiel für eine Kontrolle, aus dem StandAG:
§ 22 Ausschlusskriterien Absatz (2):  Die Ausschlusskriterien sind: 1.   großräumige Vertikalbewegungen
es ist eine großräumige geogene Hebung von im Mittel mehr als 1 mm pro Jahr über den Nachweiszeitraum von einer Million Jahren zu erwarten;
 
Ausgehend von Sicherheitsanforderungen hört sich der Text gut an.
 
Aber:
Der Ausdruck „großräumig“ kann alles bedeuten, was man sich vorstellen könnte. 1 mm pro Jahr über den Nachweiszeitraum von einer Million Jahren sind 1000m. Wie häufig sind Hebungen dieser Größenordnung in einer derart kurzen Zeitspanne während der letzten 1 Milliarde Jahren auf dem Gebiet von Deutschland vorgekommen? Dreimal? Wie würde man so ein Gebiet in Deutschland jetzt überhaupt erkennen können? Können die Schweizer (Nachbarn!) dieses Kriterium leider nicht nutzen (und müssen ihren hochradioaktiven Abfall trotzdem einlagern)? Welche Probleme verursacht die Verwendung von Durchschnittswerten (im Mittel!)? Wie verhindert dieses Kriterium eine katastrophale Hebung in den Jahren 2400 bis 2900, gefolgt von 999.500 Jahren relativer Ruhe?
 
Im Wesentlichen ist im StandAG festgelegt, was alles nicht geeignet ist. Lediglich bei den geowissenschaftlichen Abwägungskriterien ist mit vielen Details dokumentiert, welche materialwissenschaftlichen Eigenschaften günstig sind. In einem Satz: Es soll ein ausreichend großer natürlicher Behälter gefunden werden, der auch nach der Einlagerung dicht bleibt.
 
Es ist aber nicht festgelegt, wie der geologische „Behälter“ gefunden werden soll. Die Arbeiten nutzen relativ einfache Kontrollen:
Was soll nicht geschehen? Es gibt sichere Nachweise, dass ein Teilgebiet nicht die Anforderungen des StandAG erfüllt.
Was passiert dann? Es scheidet aus der weiteren Suche aus.
Eine Suche, die darin besteht, bei allem festzustellen, warum es bestimmten Anforderungen nicht genügt, kann auch das Ergebnis haben, dass zuverlässig festgestellt wird, dass nichts den Anforderungen genügt.
 
Wenn sich herausstellt, dass jedes Gebiet irgendwelche Defizite hat, dann soll ersatzweise nachgewiesen werden, dass technische Barrieren (welcher Art auch immer) die sichere Einlagerung für eine Million Jahre gewährleisten. Potentiell sind technische Barrieren eine „Zauberstablösung“, um ein bedingt geeignetes geologisches Endlager mit nachträglich angebrachten Hilfsmitteln in ein geeignetes geologisches Endlager umzuwandeln. Das wird gerade in dem Bergwerk Asse mit unklarem Erfolg erprobt.
 
Genau deswegen sind auch die ganzen Forschungen an technischen Barrieren so wichtig: Wahrscheinlich werden sie unbedingt gebraucht. Damit sie eingesetzt werden können, muss ihre zuverlässige Funktion jetzt getestet (kontrolliert) werden können.
 
Die verbreitete Abneigung gegen Kontrollen im Alltag beruht darauf, dass viele Kontrollen mangelhaft sind (ineffektiv, ineffizient, lustlos gestaltet, ein Ausdruck von Machtverhältnissen).
Sie werden deshalb als negativ empfunden: jemand (irgendetwas) kontrolliert, und übt dabei eine Macht aus, und man kann sich nicht wehren, und wenn man nicht genau das macht, was nach der Kontrolle erforderlich ist, dann hat man einen persönlichen Schaden. Man ist dem ausgeliefert.
Das produziert Trotzreaktionen und eine Vielzahl hinkender Vergleiche, mit denen das Nichtbetreiben von Kontrollen gerechtfertigt wird, wie zum Beispiel: Es wird ja auch nicht im Auto kontrolliert und gemeldet, wenn jemand sich vor dem Fahren nicht angeschnallt hat.
Nach einigem Nachdenken finden diese Leute es dann trotzdem gut, dass es Führerscheinprüfungen (Kontrollen) gibt und nicht jede® einfach so ans Steuer darf.
 
Wenn Kontrollen als unnötiger Verwaltungsaufwand betrachtet werden, dann ist das Konzept von Kontrolle nicht verstanden worden.  
 
Im Alltag können die ersten vier Grundelemente einer Kontrolle für einen beliebigen Sachverhalt oft ohne Probleme dokumentiert werden. Ohne Kontrolle ist man allerdings bereits bei Element fünf den kommenden Ereignissen einfach ausgesetzt. Möglicherweise erfährt man das Ergebnis zu spät, um einen Schaden noch abwenden zu können.
 
Ohne Element sechs wird man davon dann einfach überrollt.
 
Wenn einzelne Elemente einer Kontrolle fehlen, dann ist sie nicht vollständig, und kann nicht zuverlässig funktionieren.
 
Mit den sechs Grundelementen könnten für alle Ziele im Konzept in diesem Schritt der Phase 1 der Endlagersuche Kontrollen gestaltet und angewendet werden.
Mit diesen Kontrollen könnte dann auch nachgewiesen werden, inwiefern das Konzept (inkl. Anlage 1) die Anforderungen des StandAG (wie in §1 vorgeschrieben) erfüllt, dass bei der Umsetzung nachweisbar ein partizipatives, wissenschaftsbasiertes, transparentes, selbsthinterfragendes und lernendes Verfahren stattfindet.
 
Die Kontrollen können für die fünf Elemente „partizipativ, … lernend“ spezifizieren, wie nachgewiesen werden kann, dass sie messbar eingehalten werden und eingehalten worden sind.
Wenn sich bei der Erarbeitung herausstellt, dass ein Teil des Gesetzes nicht eingehalten wird, dann wird dies nicht nur schnell erkannt, es können auch schnell Änderungen vorgenommen werden, die dies sicherstellen.
 
Nachdem Partizipation bis jetzt anscheinend nur sehr eingeschränkt erfolgreich war: Wer ist dafür verantwortlich? Wenn dies mehrere Parteien sind: Wer hat die Endverantwortung? Wer hat die Verantwortung für bestimmte einzelne Teile? Wie kann diese Anforderung des Gesetzes erfolgreich umgesetzt werden? Wie begeistert man potentielle LeserInnen des Konzepts? Welche Bewertungskriterien (Nachweise) zeigen an, dass sich die Partizipation nachhaltig erhöht?
 
Wie wird in dem Zusammenhang mit diesem Schritt in Phase 1 „wissenschaftsbasiert“ gemessen? Wird die Einhaltung wissenschaftlicher Kriterien kontrolliert (Wiederholbarkeit, Falsifizierbarkeit, …)?
 
Wie wird in dem Zusammenhang mit diesem Schritt in Phase 1 „transparent“ gemessen? Um das Konzept zu verstehen, sollte man (nach meiner Meinung) die Anlage 1 lesen und verstehen müssen. Die Anlage 1 verweist jedoch zur Erläuterung teilweise auf irgendwo, irgendwie stattfindende Vorhaben, die dann nicht weiter erläutert werden.
 
Welche Nachweise gibt es dafür, dass eine Selbsthinterfragung nicht nur stattfindet, sondern, dass dort auch die richtigen Fragen gestellt werden? Gibt es dazu eine öffentlich verfügbare Dokumentation?
 
Lernen wird seit unserer Kindheit über Kontrollen nachgewiesen: Beginnend mit den ersten benoteten Schuldiktaten werden überall, wo gelernt werden soll, Prüfungen (Lernkontrollen) veranstaltet. Dies ist auch in diesem Schritt der Phase 1 der Fall. Es soll an vier ausgewählten Teilgebieten etwas erfolgreich gelernt werden. Das muss nicht so funktionieren, wie es geplant wurde. Was geschieht dann? Wie wird das festgestellt? Wann wird das festgestellt?
 
Kontrollen haben zwei Elemente: ihre Ausgestaltung und ihre Ausführung. Durch eine Überprüfung der Ausgestaltung wird festgestellt, ob als Resultat der Kontrolldurchführung das Problem (oder Risiko), was beseitigt werden soll, auch wirklich beseitigt (oder zumindest stark reduziert) wird.
Bei der Überprüfung der Ausführung wird festgestellt, ob die Kontrolle immer genauso funktioniert, wie sie gestaltet wurde.
Häufig lernt man im Laufe der Anwendung dazu. Man optimiert sowohl die Ausgestaltung als auch die Ausführung der Kontrolle. Es gibt dazu ein umfangreiches Wissen und viel Erfahrung aus dem Industrie und Wirtschaft.
 
Im Konzept finden sich bereits viele Elemente, die als Basis zur Gestaltung, Einführung und zum Betrieb von Kontrollen genutzt werden können, zum Beispiel die jetzt geplante Vorgehensweise in Kapitel 8 des Konzepts.
 
Kontrollen erfordern allerdings, dass Ergebnisse erzielt und nachgeprüft werden können. Eine Hypothese wird nicht nur aufgestellt. Sie wird auch getestet, ob sie richtig oder falsch ist. Wenn sie nicht getestet werden kann, ist es irgendetwas, nicht aber eine wissenschaftlich fundierte Erarbeitung.
Das habe ich in dem Konzept nicht klar erkennen können.
#13
Ein Kommentar zum Konzept und der Umsetzung der Anforderungen des StandAG Teil 1 §1 (2): ein partizipatives, wissenschaftsbasiertes, transparentes, selbsthinterfragendes und lernendes Verfahren.
 
In einem Kommentar bezüglich des Fehlens von Kontrollen oben hatte ich erwähnt, dass Kontrollen Nachweise erzeugen. Die würden helfen, Vertrauen in das Verfahren aufzubauen. Ich habe dies in dem Konzept nicht klar erkennen können.
 
Wenn man nicht gewohnt ist, mit Kontrollen zu arbeiten, erschließt sich die Bedeutung oft nicht direkt. Deshalb empfiehlt sich hier ein Standortwechsel: Man stellt sich vor, dieser Schritt der Phase 1 ist abgeschlossen, das Konzept ist umgesetzt.
Welches Ergebnis liegt dann vor, dass nachweist, dass die Umsetzung erfolgreich war?  Woran können die unterschiedlichen Parteien, die im StandAG eine Rolle haben, dies nachvollziehen?
 
Dazu muss spezifiziert sein, was genau als Ergebnis geliefert wird. Da zu jeder Phase und zu jedem Schritt weiterhin Ungewissheiten gehören, muss definiert sein, welche Ungewissheiten in diesem Schritt der Phase 1 reduziert werden, zu welchem Maß sie reduziert werden sollen, und wie dies nachvollziehbar gemessen und nachgewiesen wird.
 
Das Programm zur Reduzierung der Ungewissheiten ist im Konzept vorhanden. Die Messmethode kann nicht eine verbalargumentative Einordnung sein, sondern muss, um als wissenschaftsbasiert durchgehen zu können, das Testen von Hypothesen enthalten. Das Aufstellen von Hypothesen, das Testen davon, und das Berichten der Ergebnisse liefern dann transparente nachvollziehbare Nachweise für die Umsetzung der Anforderungen des StandAG.
Dazu müssen die Hypothesen allerdings auch präzise dargestellt, und der jeweilige Inhalt sowohl verständlich, als auch zugänglich sein. Die Testmethode muss auch wirklich die Hypothese testen, und nicht irgendeine Aktivität sein, die geschieht, damit ein Resultat vorgezeigt werden kann.
 
Dies ist der Teil des Konzeptes von Kontrollen, an der oft enormer Unfug geschieht. Es gibt deshalb Tests, die das verhindern sollen, die aber nicht immer gemacht werden. Im Zusammenhang mit dem Konzept erscheinen die folgenden sieben relevant:
 
1. Der Wahrheitstest
Kontrollieren die Kontrollen wirklich genau das, was kontrolliert werden soll? Schlecht gestaltete Kontrollen führen dazu, dass Dinge kontrolliert werden, die nicht an erster Stelle kontrolliert werden müssen, aber mit sehr einfachen Mitteln kontrolliert werden können. Dadurch werden aber nicht die Dinge kontrolliert, die wirklich kontrolliert werden müssen.
Dieses Problem könnte in diesem Schritt der Phase 1 bei der Untersuchung ausgewählter Teilgebiete auftreten. Wir bei der Erarbeitung der Eignung wirklich alles kontrolliert, was kontrolliert werden muss, oder wird nur das kontrolliert, zu dem Daten und Informationen vorliegen? Welche Informationen aus zweiter Hand wurden genutzt, die nicht, oder nur eingeschränkt verifiziert werden konnten?
 
2. Der Fokus-Test
Kontrollieren die Kontrollen wirklich nur das, was sie kontrollieren sollen? Schlecht gestaltete Kontrollabläufe führen dazu, dass in einer Kontrollhandlung gleichzeitig mehrere unterschiedliche Eigenschaften einer bestimmten Leistung überwacht werden. Dies kann es schwierig/unmöglich machen, unterschiedliche Ursachen für Fehler zu identifizieren.
Das Konzept adressiert diese Anforderung durch die separate Darstellung von Kriterien und Indikatoren. Allerdings gibt es dabei sehr wenig Hinweise, wie genau die jeweilige Zuverlässigkeit der in der Erarbeitung gewonnenen Informationen über diese Kriterien und Indikatoren bestimmt wird.
 
3. Der Relevanz-Test
Kontrollieren die Kontrollen wirklich die richtige Sache? Schlecht gestaltete Kontrollabläufe führen zu einer Kontrolle von etwas, wobei durch die Handlungen im Rahmen des Kontrolldurchlaufs zwar etwas geschieht, etwas dokumentiert wird, …, aber keine gültigen Informationen zur Aufdeckung und Behebung von Schäden geliefert werden.
Wenn keine nutzbaren Informationen geliefert werden, ist es nicht sinnvoll, diese Kontrollen weiterhin auszuführen. Häufig entwickeln diese Art von Kontrollen ein Eigenleben und sind nur schwer wieder zu entfernen.
Nach meiner Einschätzung sind unterschiedliche Teile des Konzepts unterschiedlich relevant. Wenn kein Gebiet mit ausreichenden Eigenschaften gefunden wird, ist es egal, wie die Qualität der Planung der Auslegung des Endlagers war. Zu der Zuverlässigkeit von präzisen (und weniger präzisen) Vorhersagen für die Zukunft hatte ich bereits oben einen Kommentar eingestellt (es kann viel vorhergesagt werden, ohne dass nachprüfbar ist, wie zuverlässig diese Vorhersagen sind).
 
4. Der Konsistenztest
Dieser Test ergibt eine Aussage darüber, ob die Ergebnisse der Kontrollleistung unabhängig davon sind, wer die Kontrolle ausführt und wann die Kontrolle ausgeführt wird. Schlecht gestaltete Kontrollen resultieren darin, dass die Ergebnisse variieren, je nachdem, durch wen oder wann etwas kontrolliert wird.
Wenn eine Überprüfung ergibt, dass dies der Fall ist, dann müssen Korrekturmaßnahmen ergriffen werden, um die Konsistenz herzustellen (Änderung der Gestaltung der Kontrolle; testen, ob Sie funktioniert, und ähnliche zielgerichtete Aktionen).
Es wird vermutet, dass dieses Defizit durch die verbalargumentative Bewertung adressiert sein soll. Da diese Methode im Konzept nicht im Detail dargestellt wird, ist unklar, ob damit eine wirkliche, oder eine scheinbare Konsistenz erreicht wird.
 
5. Der Zugriffstest
Der Test bestätigt, dass die notwendigen Daten/Informationen leicht abgerufen und verstanden werden können. Schlecht gestaltete Kontrollen führen zu anspruchsvollen Kontrollmechanismen, die weder effektiv noch effizient funktionieren, weil auf die notwendigen Daten nicht direkt zugegriffen werden kann und/oder eine direkte Nutzung nicht möglich ist.
Dies ist bis jetzt im gesamten Verfahren der Fall. Das (lösbare) Problem ist die Umsetzung des Geologiedatengesetzes. Es wäre vielleicht hilfreich, sich an Analogien unter anderem aus der E & P Industrie zu orientieren, wo anderen Parteien (Mitbewerbern, Konkurrenten) Zugriff auf vertrauliche Daten gewährt werden muss, um bestimmte Geschäftsziele erreichen zu können.
 
6. Der Klarheitstest
Der Test bestimmt, ob bei der Interpretation der Ergebnisse der Kontrollhandlung unklare und nicht-eindeutige Ergebnisse möglich sind. Schlecht gestaltete Kontrollen führen dazu, dass unterschiedliche Personen die Ergebnisse der Kontrollleistung unterschiedlich interpretieren, und deshalb unterschiedliche Schlussfolgerungen daraus ziehen.
Genau aus diesem Grund wird dieser Kommentar geschrieben. Was genau sind die Ergebnisse, wenn das Konzept umgesetzt worden ist?
 
7. Der Rechtzeitig-Test
Der Test prüft, ob die Ergebnisse der Kontrollleistung so schnell analysiert und abgerufen werden können, so dass rechtzeitig Maßnahmen ergriffen werden können, und dadurch Schäden vermieden werden.
Schlecht gestaltete Kontrollen führen zu Berichten von Ergebnissen, die erst in einem zeitlichen Abstand nach den Ereignissen den Kontrolleuren zur Verfügung gestellt werden, so dass es fast unmöglich ist, mit dem Ergebnis noch etwas Nützliches zu tun (Wenn das Kind schon in den Brunnen gefallen ist).
Ich habe in dem Konzept keinen Zeitrahmen dazu gefunden, bis wann welche Ergebnisse wir verfügbar gemacht werden. Ich hatte allerdings in einem Kommentar oben empfohlen, zu dem Zeitpunkt einen Plan für den Fall zu haben, dass die Ergebnisse nicht das sind, was erwartet wurde (Szenarien).
 
Wenn also, wie im obigen Kommentar zum Thema Kontrollen empfohlen, durch das Erstellen und Testen von Hypothesen (sowie der Darstellung der Ergebnisse) die beteiligte Öffentlichkeit kontrollieren kann, dass die Anforderungen des StandAG Teil 1 §1 (2) nachweisbar eingehalten werden, kann dies stark dazu beitragen, Vertrauen in das Verfahren aufzubauen. 
Dies ist weder in der Vergangenheit gelungen, noch in der ersten Phase der Beteiligung von der Auftaktveranstaltung bis zum Ende der drei Fachkonferenzen, während dessen sich die Zahl der TeilnehmerInnen zum Ende hin halbierte.
Wenn angenommen wird, dass in dieser Phase die Beteiligung am Verfahren hätte zunehmen sollen, indem ein attraktives Angebot an interessierte Personen aus der Öffentlichkeit (BürgerInnen, WissenschaftlerInnen, …) gemacht wird, ist die Messung der Teilnehmerzufriedenheit in dieser Phase ein Beispiel für eine ineffektive und ineffiziente Kontrolle.
Es konnte zwar erkannt werden, dass TeilnehmerInnen unzufrieden waren, es war aber kein Plan vorhanden, wie damit umgegangen werden muss, um die Beteiligung fortlaufend weiter zu erhöhen. Es war auch wohl nicht eindeutig festgelegt, wer in diesem Zusammenhang genau für was verantwortlich war. Das einfachste war daher, einfach so weiter zu machen, wie man begonnen hatte. Irgendwann war man ja auch fertig, es gab etwas was der BGE übergeben werden konnte, und die dann noch übrig gebliebenen TeilnehmerInnen waren auch gar nicht so unzufrieden damit. In der kognitiven Psychologie (siehe Kommentar oben zu Techniken und Methoden bei einer geologischen Exploration) ist dies eine Überlebensverzerrung. Man konzentriert sich auf die Dinge, die ein Ereignis „überleben", und übersieht dabei die Dinge, die dies nicht geschafft haben. Diese sind während der Beobachtung unsichtbar.
Ein frühes Beispiel für den konstruktiven Umgang mit dieser Wahrnehmungsverzerrung ist der Prozess der Verbesserung des Schutzes von (amerikanischen) Kampfflugzeugen im 2. Weltkrieg. Zunächst fokussierte die Forschung auf Schäden an einzelnen Komponenten von Flugzeugen, die noch zur Basis zurückgekehrt waren. Wichtiger ist jedoch die Beurteilung der Schäden an einzelnen Komponenten von Flugzeugen, die ein katastrophales Versagen erlitten haben, und es deshalb nicht geschafft haben, zur Basis zurückzukehren (Internetsuche zum Nachlesen wer da welche Erkenntnisse hatte: Abraham Wald). Bei den Flugzeugen, dies nicht geschafft haben, kann einfacher und besser erkannt werden, welche Bereiche besser geschützt werden müssen, damit sie nicht abstürzen.
 
Anscheinend sind sich auch die einzelnen Parteien des StandAG (speziell die dafür mit Finanzmitteln ausgestatteten BASE, NBG) darüber bewusst, dass eine Beteiligung in Zukunft verbessert ablaufen können sollte. Kontrollen sollten daher nicht in Isolation von der BGE entwickelt und umgesetzt werden, sondern in Kollaboration mit allen Parteien des StandAG. Dafür müssten allerdings Vorschläge im Konzept dokumentiert sein.
 
Es kann auch sein, dass ein grundsätzlich fundamental unterschiedliches Verständnis darüber herrscht, was „wissenschaftsbasiert“ in diesem Zusammenhang bedeutet.
Im Allgemeinen haben Amerika und Europa im Umgang mit Unsicherheiten unterschiedliche kulturelle Einstellungen. Amerika folgt dem (dort so genannten) wissenschaftsbasierten Ansatz. Demnach ist alles erlaubt, solange nicht zweifelsfrei nachgewiesen wurde, dass es schädlich ist.
Zum Beispiel müssen bekannte, bereits eingetretene Schadensfälle eindeutig der Klimakrise zugeordnet werden können, damit entschieden werden kann, deren Wiederholung durch (teure) Maßnahmen verhindern zu wollen. Solange bei Schadensfällen abgestritten werden kann, dass sie durch den Klimakrise verursacht wurden, brauchen keine spezifischen Maßnahmen ergriffen werden.
Mit diesem mentalen Modell ist es sehr einfach, irreversible Schäden zu verursachen.
Der Zwischenbericht Teilgebiete lehnte sich etwas an diesen Ansatz an. Wenn keine Nachweise vorlagen, die zum Ausschluss eines Gebietes nach Anwendung der Mindestanforderungen, … etc.
führten, dann konnte dieses Gebiet ein Teilgebiet sein.
 
Europa folgt sonst in der Regel oft eher dem Vorbeugungsprinzip. Es muss durch Tests nachgewiesen werden, dass etwas unschädlich ist. Dann darf es im Alltag eingesetzt werden.  Bei nicht abschließend geklärten Sachverhalten investiert Europa daher eher in Vorsichtsmaßnahmen.
In manchen Sachverhalten tut sich Europa allerdings schwer damit, das Vorbeugungsprinzip umzusetzen. Dies ist zum Beispiel beim Klimaschutz der Fall.
Als Resultat kann ein Versagen beim Umgang mit Starkregenereignissen beobachtet werden.
 
Wenn hier im Konzept die amerikanische Lesart Gültigkeit hat, würde das bedeuten, dass die BGE bestimmte Sachverhalte in Bezug auf das Endlager nicht notwendigerweise erforschen muss, solange die anderen Parteien im StandAG nicht separat die Notwendigkeit dieser Forschung nachweisen, und diese Notwendigkeit auch von der BGE akzeptiert wird.
Das Konzept liefert keine Erklärungen zur genutzten Bedeutung des Begriffes aus dem StandAG.
Mehr Transparenz würde deutlich machen, wie die BGE den Begriff nutzt.
#14
Ein allgemeiner Kommentar zum Konzept
 
Anscheinend ist das Forum nicht die Stelle, wo inhaltliche Auseinandersetzungen mit dem Konzept stattfinden, auch wenn sich im Forum die Möglichkeit bietet, dann zu kommunizieren, wenn man an den offiziell angebotenen Terminen zeitverhindert ist.
 
Auch wenn das Feedback bis jetzt sehr übersichtlich ist, möchte ich einen weiteren Gesichtspunkt erläutern, der mir beim Lesen des Konzepts Problem bereitet hat.
 
Daten, besonders Zahlen, sprechen nie für sich selbst, sie werden durch eine Interpretation mit Bedeutung aufgeladen. Das Konzept erläutert wie mit den vorhandenen Informationen umgegangen wird. Ich hatte in obigen Kommentaren Beispiele erläutert, die zeigen, dass anscheinend relativ wenig Daten direkt interpretiert werden, und stattdessen zugelieferte Interpretationen genutzt werden, um daraus neue Interpretationen zu erstellen.
Das ist im Alltag auch die Regel: Es werden die Informationen über einen Sachverhalt genutzt. Die Daten in diesem Sachverhalt werden nicht separat davon erneut analysiert und beurteilt. Auch wenn dies hilft, im Alltag gut zurechtzukommen, ist dies bei einer Exploration nicht immer nur nützlich. Das kann unabsichtliche Fehler verursachen. Deshalbmuss zwischen unterschiedlichen Arten/Kategorien von Daten unterschieden werden, um Ungewissheiten besser einschätzen zu können.
 
Eine derartige Darstellung unterstützt auch eine strukturierte Auseinandersetzung mit dem Konzept. Es folgen nun zur Illustration 13 Arten von Daten, die in Explorationsvorhaben unterschieden werden.
 
1. Daten, von denen die BGE weiß, wie sie entstanden sind
Bei diesen Daten weiß die BGE alles, um die Qualität, Eignung, … beurteilen zu können. Diese daten bilden das Fundament von zuverlässigen Informationen, weil sie nicht falsch interpretiert werden können. Aus den mir zugänglichen Informationen ist nicht zu erkennen, ob die BGE überhaupt solche Daten hat und nutzt, oder ob bis auf wenige Ausnahmen immer Informationen (Daten mit vorhandenen Interpretationen) genutzt werden.
 
2. Daten, von denen die BGE weiß, dass es sie gibt, diese aber fehlen
Aus dieser Kenntnis ergeben sich Aktionen: Entweder kann die BGE sich die Daten beschaffen (Geologiedatengesetz), oder nicht.
Es wird davon ausgegangen, dass die BGE weiß, was sie benötigt. Es ist unklar, ob die BGE die Daten auf bekommt, und die Expertise hat, spezifische Messdaten auswerten zu können.
 
3. Daten, von denen die BGE nicht weiß, dass es sie gibt
In der Regel wird man sich im Verlauf einer Exploration darüber bewusst, dass es diese Art von Daten gibt, oder zumindest geben könnte. Es werden neue Arten von Daten entdeckt. Das Verständnis, und die Kenntnisse über spezifische Sachverhalte wachsen.
Man weiß dann, was noch alles benötigt wird, um den Sachverhalt besser zu verstehen und Ungewissheiten reduzieren zu können. Hierzu gehören auch Daten, die notwendig sind, um vorher nicht verstandene Kausalzusammenhänge erklären zu können.
Wenn herausgefunden wurde, dass die bisher verwendeten Daten nicht ausreichen, dann kann man sich auf die Suche nach den notwendigen Daten machen. Ich hatte vermutet, dass das Konzept auch diese Kategorie von Daten adressieren soll, und hatte dies im Ausblick auf die Ergebnisse vermisst.
 
4. Daten, die eine Auswahl aus den vorhandenen Daten darstellen
Dies kann absichtlich und unabsichtlich geschehen. Solange die BGE auf der Grundlage von zugelieferten Informationen arbeitet wird dies schwierig oder gar nicht zu nicht zu erkennen sein. Es ist nicht zu erkennen, wie dieses Problem im Kontext der Lieferungen von Informationen von Landesämtern o.ä. adressiert wird (siehe Kommentar zu bedeutsam, zuverlässig).
Es gibt eine Vielzahl von Möglichkeiten, beginnend mit dem Weglassen von Daten, die nicht in die geologische Interpretation zu passen scheinen, scheinbar Messfehler darstellen, dann, wenn Fehler bei der Zusammenstellung der Daten gemacht werden, und weiteres mehr.
 
5. Daten, die existieren würden, wenn sich der Sachverhalt anders entwickelt hätte
Viele Sachverhalte entwickeln sich, weil bestimmte Aktionen geschehen, die dann den Sachverhalt ändern. In diesem Fall ist dies die Entwicklung der Endlagersuche durch die Umsetzung des Konzepts, so wie es veröffentlicht wurde. Nach der Umsetzung wird der jetzige Zustand kaum wiederhergestellt werden, um mit einem anderen Ansatz völlig neu zu starten.
Daten, die nur dadurch verfügbar geworden wären, indem bestimmte andere Aktionen abgelaufen wären, sind nicht dann verfügbar. Sie können nicht für Einsichten und Interpretationen genutzt werden. In einigen Kommentaren wurde deshalb angeregt, die Arbeiten im Zeitrahmen des Konzepts zu erweitern.
 
6. Daten, die nur existieren, weil sich der Sachverhalt in einer bestimmten Art entwickelt hat
Viele Sachverhalte entwickeln sich. Sie sind dann anders als vorher. Der vorherige Zustand kann nicht mehr wiederhergestellt werden. Daten, die nur dadurch verfügbar geworden sind, weil bestimmte Aktionen abgelaufen sind, stellen nur einen Ausschnitt aus dem dar, was für diese Art von Sachverhalten möglich ist.
Einsichten und Interpretationen sind dadurch beschränkt. Oft führt dies zu der illusorischen Sicherheit, alles verstanden zu haben.
Man vermisst nichts. Man weiß nicht, was man alles wissen könnte/müsste, wenn man anders verfahren wäre. Oft führt dies zu Mehraufwand und Nacharbeit.
In der Regel wird dies nur durch eine Betrachtung im Nachhinein erkannt, was nicht bedeutet, dass daraus Konsequenzen gezogen werden, etwas gelernt wird, und dieser Gesichtspunkt in Zukungf berücksichtigt wird.
 
7. Daten, die einen Status der Vergangenheit darstellen, ohne dass die BGE das erkennen kann.
Viele Daten benötigen eine zeitliche Einordnung, damit beurteilt werden kann, ob, und wenn ja, wie sie genutzt werden können. Gerade Geodaten werden in der Regel zusammen mit einer Interpretation geliefert, damit der Sinn verstanden werden kann. Die Interpretation ist oft abhängig von dem Zeitpunkt, an dem sie gemacht wurde, mit dem damals vorhandenen Wissen.
Die Lagerstättenexploration macht sich das zu Nutze, indem alte Daten begutachtet, und möglicherweise anders interpretiert werden können und müssen. (Ich war in meinem Berufsleben an der Entwicklung mehrerer Ölfelder beteiligt, die zum Teil Jahrzehnte früher hätten gefunden werden können, wenn die reflexionsseismischen Daten richtig prozessiert und interpretiert worden wären, keine Fehler beim Erwerb von petrophysikalischen Daten in der Bohrung passiert wären, und … und …)
 
8. Daten, die andere Daten zusammenfassen
Das berühmt-/berüchtigtste Beispiel sind Durchschnittswerte. Dabei wird alles versteckt, was notwendig ist, um den Sachverhalt zuverlässig zu verstehen. Man weiß nichts über die Verteilung der Daten, die Größe des Datensatzes, die kleinsten und die größten Werte.
Dies sind in der Regel keine Daten, dies ist eine Information, bei der die Interpretation nicht nachvollzogen werden kann. Für eine Exploration sind Durchschnittswerte ziemlich nutzlos.
 
9. Daten mit Messfehlern
Zu diesem Thema gibt es umfangreiche Fachbücher. Die Probleme beginnen dann, wenn man nicht weiß, dass die Daten Messfehler enthalten (können). Die Zuverlässigkeit kann dann nicht richtig beurteilt werden. Deshalb existiert eine Ungewissheit, die nicht (einfach) gezielt aufgelöst werden kann.
In dem Konzept ist nicht zu erkennen, wie dieses Problem im Kontext der Lieferungen von Informationen von Landesämtern o.ä. adressiert wird. Da diese Institutionen die Erstellung der Information meist nicht direkt selbst verantworten, sondern auf Zulieferungen aus der Industrie angewiesen sind, wird der Einfluss von Messfehlern möglicherweise unterschätzt. Dies hilft nicht bei einer gezielten Reduzierung der Ungewissheit.
 
10. Künstliche Datensätze als Arbeitsmittel
Diese Art von Daten wird bei der Nutzung bestimmter statistischer Methoden verwendet. Bei der Methode der Monte Carlo Simulation wird eine komplizierte mathematische Argumentation mit einer einfachen Technik ersetzt, die viele Wiederholungen erfordert. Dabei werden Zufallszahlen genutzt (im Alltag: Pseudozufallszahlen. Diese verhalten sich wie richtige Zufallszahlen. Bei der gleichen Berechnung mit der gleichen Eingabe erhält man allerdings das gleiche Ergebnis). Auch wenn nicht explizit im Konzept erwähnt: Ein Beispiel der Nutzung wird in Anlage 1 dargestellt. Die Anwendung der Monte Carlo Simulation sollte nicht auf die Transportlängen von Radionukliden in Tonsteinen beschränkt sein.
 
11. Extrapolation
Datensätze haben einen kleinsten und einen größten Wert. Alles außerhalb dieses Intervalls ist unbekannt. Wenn bei Daten bekannt ist, dass es sich um eine Extrapolation (Ergebnis einer Interpretation) handelt, dann kann die Zuverlässigkeit nur dann eingeschätzt werden, wenn alle Details über den Datensatz und die Interpretationsmethode bekannt sind.
Es ist im Konzept nicht zu erkennen, wie diese Anforderung im Arbeitsalltag der Konzeptdurchführung adressiert wird.
 
12. Falsche positive Daten
Diese Daten zeigen an, dass ein Ereignis eingetreten ist, obwohl dies nicht der Fall war. Diese Daten treten häufig bei Tests auf. Wenn man nicht weiß, wie genau der Test ist, dann sagen Testergebnisse nichts.
Zur Erläuterung ein allgemeines Beispiel: Sie haben einen Test entwickelt, der mit dem Eintritt in den Ruhestand gemacht werden kann, und der mit 90%-tiger Sicherheit vorhersagt, ob jemand an Demenz erkrankt ist. Sie sind sehr stolz auf sich. Herkömmliche Tests haben lediglich eine Genauigkeit von 70%. Jeder in diesem Alter möchte wissen, ob seine Vergesslichkeit auf eine beginnende Demenz hindeutet.
Jeder kann entweder beruhigt werden, oder direkt damit beginnen, sich behandeln zu lassen.
Ihre Ärztin ist nicht begeistert. Sie rechnet Ihnen vor: Sie testet 100 Patienten. Davon haben wahrscheinlich drei Patienten eine Form von Demenz. Das ist die Häufigkeit, die aus der der Beobachtung von hunderttausenden Personen ermittelt wurde.
Davon entdeckt sie mit Ihrem Test eher zwei als drei, weil Ihr Test nicht unfehlbar ist. Daneben erhalten aber drei- bis viermal so viele Patienten auch das Ergebnis, dass sie eine Demenzerkrankung haben. Die alle machen sich dann unnötige Sorgen, und sie muss viel Aufwand betreiben, um die richtig zu identifizieren, und nicht falsch zu behandeln.
Das Problem tritt in vielen Sachverhalten auf, und führt, wenn nicht erkannt, zu fehlerhaften Einschätzungen.
In der Geologie ist dies ein Problem, weil eine einigermaßen zuverlässige Basis-Rate (wie oben: drei von einhundert) oft nicht vorhanden ist.
 
13. Falsche negative Daten
Das kennt man zur Genüge aus der Corona Pandemie. Man hat an einer etwas größeren Veranstaltung teilgenommen. Alle waren geimpft, keiner hatte Symptome, alle waren auch negativ getestet. Trotzdem hat sich ein Fünftel der Teilnehmer mit dem Virus angesteckt.
In der Regel erfüllten die Tests nicht einmal oder so gerade eben die vorgegebenen minimalen Anforderungen der Weltgesundheitsorganisation (WHO). Demnach sollten die Tests mindestens 80% der infizierten Menschen identifizieren und bei zumindest 97% der nicht Infizierten die Infektion korrekt ausschließen. Zudem ändert sich das zu testenden Virus auch noch, ohne dass man weiß, wie zuverlässig der Test für einzelne Varianten ist.
Im Kontext der Endlagersuche sind dies Daten, die zu dem Ausschluss von Teilgebieten führen, auch wenn die Interpretation der Daten, die zu dieser Entscheidung geführt hat, fehlerhaft ist.
 
Es ist im Konzept nicht gut zu erkennen, wie die BGE die vorhandenen Daten, Interpretationen und Informationen beurteilt, um zu bestimmen, zu welcher Art sie gehören. Besonders die Arten fünf bis acht bieten oft einen guten Einstieg in die weitere Exploration eines Sachverhaltes, der anscheinend nur wenige Ungewissheiten enthält.
#15
(08.04.2022, 10:47)MartinW schrieb: Kommentar zu Kapitel 8.7.6 Relevanz der geowissenschaftlichen Abwägungskriterien (§ 7 Abs. 4 EndlSiUntV)
 





„Die räumliche Verteilung der Gesteinstypen

Hallo MartinW. vielen Dank für Ihre Kommentare im Forum.
Hier folgen zunächst die Antworten auf Ihren Beitrag mit der laufenden Nummer #7 (Betreff siehe oben):
     
1. zu Kapitel 8.7.6.:
Die GeM-DB ist eine von der BGR im Auftrag der BGE erstellte Datenbank, in der eine große Anzahl relevanter Methoden aufgeführt ist, die zur Erkundung von Zielgrößen im Zusammenhang mit den Ausschlusskriterien, Mindestanforderungen und geowissenschaftlichen Abwägungskriterien gem. StandAG beitragen können. Das Projekt ist noch in Bearbeitung und soll nach Fertigstellung folgende Aufgaben erfüllen:
·Die Unterstützung bei der Erarbeitung der standortbezogenen Erkundungsprogramme durch Bereitstellung eines umfassenden Spektrums an Erkundungsmethoden.
·Wichtung der Eignung der Methoden in Bezug zu den o.g. Kriterien und Anforderungen.
2. zu Kapitel 5.7.4.4.:
Hinsichtlich der bohrlochgeophysikalischen Messungen (Logging) werden für die Bearbeitung von § 14 StandAG ausschließlich Daten verwendet, die bei den Bundes- und Landesbehörden bereits vorliegen. Erst in Phase 2 des Standortauswahlverfahrens wird für die Standortregionen eine übertägige Erkundung stattfinden. In Phase 2 haben wir dann die Möglichkeit, selbst bohrlochgeophysikalische Daten zu erheben, wie beispielsweise Spektrale Gamma-Strahlenmessungen oder bildgebende Informationen (FMI/CMI) zur Formation. Momentan sind solche Daten oft überhaupt nicht vorhanden bzw. liegen nicht digital oder in älteren Bohrungen nur in minderer Qualität vor. Gerade in Öl- und Gasbohrungen sind oft nur tiefere Formationen genauer erkundet worden.
Wir sind derzeit bemüht, nicht digital vorliegende bohrlochgeophysikalische Daten aufzubereiten. Viele müssen dafür zunächst digitalisiert und zu einem „Composite Log“ zusammengestellt werden. Die Interpretation und Korrelation der Daten erfolgt dann unter Verwendung weiterer Informationen wie z. B. Schichtenverzeichnisse, um ein räumliches Bild der Formationen von Interesse zu erhalten. Soweit möglich werden ergänzend Informationen wie Vshale (VSHGR/VCLGR) oder beispielsweise ein Petrolog (aus den bohrlochgeophysikalischen Messungen ermittelte Petrologie) ermittelt. Es wird auch eine Harmonisierung des GR durchgeführt (da gerade dort verschiedenste Einheiten vorkommen). Für die Bearbeitung der ersten beiden Indikatoren der Anlage 3 (zu § 24 StandAG Kriterium zur Bewertung der räumlichen Charakterisierbarkeit) ist eine Kalibrierung der Logs nicht erforderlich, da eine qualitative Auswertung erfolgt. Eine Kalibration wäre nötig, um einen einheitlichen Cut Off (Shalepoint oder Sand-/Tonlinie) zu setzen. Wir stimmen dem Kommentar zu, dass nicht jede Sandsteinlage lateral verbunden ist. Anhand der zur Verfügung stehenden Daten können in allen Logs 3 Bereiche identifiziert werden, die vermehrt siltige Ablagerungen führen. Es handelt sich dabei nicht um die Korrelation einzelner Lagen, sondern um Bereiche, aus denen eine Kornvergröberung hervorgeht. Bei der Bewertung des Korngrößen-Trend führt in der Bewertung der räumlichen Verteilung der Gesteinstypen im Endlagerbereich und ihrer Eigenschaften (zu § 24 StandAG Kriterium zur Bewertung der räumlichen Charakterisierbarkeit) eine gleichmäßige räumliche Verteilung zu einer günstigen Bewertung. Lassen Abfolgen insgesamt den gleichen vertikalen Trend erkennen, erfolgt die Bewertung entsprechend. Auch aus regionalgeologischen Beschreibungen (Franz & Nitsch 2009) geht hervor, dass die Zillhausen-Subformation faziell weiter in Abschnitte mit unterschiedlichem Sand- oder Sandstein-Anteil gegliedert werden kann.
 
Wir danken für die zahlreichen Anmerkungen! Weitere Antworten werden folgen.
Viele Grüße, Ihre BGE

(18.04.2022, 14:10)MartinW schrieb: Kommentar zu Kapitel 8.5 im Konzept
 
Das Kapitel verweist auf Kapitel 5 in Anlage 1.
 

Hallo MartinW, vielen Dank für die Anmerkungen im Kommentar mit der laufenden Nummer #11. Hier folgt die Antwort auf den ersten Teil des Postings:

Für die Methode zur Erfassung einer heterogenen Datenlage wurden zwei wesentliche Grundsätze berücksichtigt: 1) Effiziente und pragmatische Umsetzbarkeit auf Basis der digital verfügbaren Informationen, 2) Vereinfachung auf die wesentlichen Aspekte durch eine objektive, quantitative Erfassung ausschließlich der wesentlichen Datentypen Bohrungen und Seismik.
Datenqualität und Datenquantität werden bewusst nur für die beiden wesentlichen Datentypen bewertet. Sie werden zunächst getrennt voneinander betrachtet, um eine objektive und automatisierte Betrachtung zu gewährleisten. Dabei werden, wiederum bewusst, die im Kommentar richtigerweise beschriebenen Wechselwirkungen zwischen DQL und DQN außer Acht gelassen. Beide Kenngrößen münden bei der späteren Zusammenführung aller Bewertungen gemeinsam in der Ableitbarkeit der Beschaffenheit Untergrunds.
Für die Bestimmung der Kenngrößen IDN und KX sind in Kapitel 5 erste Ideen beschrieben. Die Einstufung der Kenngrößen In den verschiedenen Teilgebieten bedarf einer weitergehenden Erprobung und kann anhand der vier Methodengebiete nicht abschließend abgeschätzt werden. Es ist nicht auszuschließen, dass eine teilweise kriterienbasierte Erfassung erfolgt.
Der Text in Kapitel 5 im Anhang des rvSU-Methodenpapiers ist eine erste Erläuterung des geplanten Vorgehens zur systematischen Erfassung der heterogenen Datenlage. Er hat keinen Anspruch auf Vollständigkeit und stellt dieses vielfach heraus. Dieser Konzeptentwurf soll als Diskussionsgrundlage dienen, um im Anschluss die Methode weiterzuentwickeln sowie Fragen zur Wichtung der vier Kenngrößen anzugehen. Erst im Anschluss an die erste objektive Datenerfassung kann für konkrete UR/TUR auf eine Bestimmung von Wahrscheinlichkeiten abgezielt werden.
Zuletzt danken wir Ihnen für Ihre unterhaltsame Beschreibung eines Analogexperiments für ein besseres Verständnis der Genese komplexer Salzstrukturen. Dank detaillierter Rezeptur sowie Anleitung verschiedener Modellvarianten wird bei uns nun sicher der ein oder andere Küchentisch zu einem temporären Analoglabor.

Viele Grüße, Ihre BGE
#16
(18.04.2022, 14:10)MartinW schrieb:
Kommentar zu Kapitel 8.5 im Konzept
 

Hallo MartinW, vielen Dank für Ihre Anmerkungen aus dem Posting mit der laufenden Nummer #11. Hier folgen unsere Antworten auf den zweiten Teil des Postings:

Es handelt sich bei Ihrem Text um wertvolle allgemeine Vorschläge zur Herangehensweise. Hier möchten wir gerne insbesondere auf Ihren Hinweis zur Strukturierung unseres Berichts eingehen. Der Wunsch die Struktur an den jeweiligen Wirtsgesteinen auszurichten ist nachvollziehbar, würde aber nicht der eigentlichen Zielsetzung der aktuellen Berichte entsprechen. Unser Ziel war es, eine Methode für die Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen zu entwickeln und anhand von vier Gebieten zur Methodenentwicklung in den jeweiligen Wirtsgesteinen bzw. Wirtsgesteinstypen auf ihre Umsetzbarkeit zu testen. Daher ist die übergeordnete methodische Vorgehensweise das strukturgebende Element in unserem Bericht, während die Arbeitsstände aus den GzME als Beispiele dienen. Die von Ihnen vorgeschlagene Textstruktur könnte zukünftig in ähnlicher Form im Rahmen der Berichterstellung zur Geosynthese (§ 5 EndlSiUntV) abgebildet werden.
Der von Ihnen gepostete Beitrag schließt mit „Nach einer kurzen Durchsicht des Textes sind Defizite bei der Stimmigkeit, Ausdruckskraft, Leistungsfähigkeit, Eignung, Willkür, und Wirksamkeit zu beobachten. Dieser Eindruck soll durch einige Beispiele illustriert werden.“ – diese „Beispiele werden als die eigentlichen Fragen 3 – … in unseren nachfolgenden Beitrag beantwortet.

Die Abbildung 70 dient zur Veranschaulichung der möglichen komplexen internen Lagerungsverhältnisse von Salzstrukturen, die in dem abgebildeten Detailgrad nur durch bergmännische Aktivitäten oder intensive Erkundung erfasst werden können. Wie in der Abbildungsunterschrift erläutert, handelt es sich bei dem Profilschnitt um eine schematische Abbildung (verändert nach Schachl 1987). Die interne Geometrie des Salzstocks wurde durch die Erkundungstätigkeiten im Rahmen des Kalibergbaus bestimmt. Zu sehen sind diverse Schächte, Stollen und Erkundungsbohrungen aus dem Bergwerk. Weiterhin zeigt die Abbildung schematisierte geologische Charakteristika wie Verfaltungen verschiedener geologischer Zechstein-Einheiten, Störungen, Nebengesteinsabfolgen sowie Aufschleppungen im Randbereich der Salzstruktur. Die Inhalte der Darstellung obliegen dem Autor. Eine allgemeine Gültigkeit für alle Salzstrukturen kann nicht abgeleitet werden. Die Abbildung soll dem Leser die Komplexität einer Salzstruktur verdeutlichen.

Zu Abbildung 72 ist uns der Hinweis wichtig, dass der untere Teil der Abbildung keine Interpretation des obenstehenden reflexionsseismischen Profils darstellt (eine erste, vorläufige Interpretation ist direkt in das Profil eingezeichnet, welches uns bisher nur im Zeitbereich vorliegt), sondern lediglich einen Profilschnitt an gleicher Stelle des TUNB-Modells zeigt.

Zur Abbildung 74:
Bei der Abbildung handelt es sich um ein schematisches Profil. Die Farben dienen der visuellen Unterstützung und sind angelehnt an die Farben der stratigraphischen Tabelle. Die eigentliche Legende des Profils, befindet sich unten rechts.
    
Abbildung 76 zeigt ein idealisiertes Normalprofil der Schichtenfolge in Baden-Württemberg, was nicht alle regionalgeologischen Gegebenheiten berücksichtigt und widerspiegelt. Die Mächtigkeit der Opalinuston-Formation variiert nach dieser Abbildung zwischen 170 m und 60 m, was in etwa den Mächtigkeiten im UR entspricht (max. 158 m) und auch konsistent mit den Ergebnissen in Abbildung 77 und Abbildung 91 ist. Die geringen Abweichungen (158 m vs. 170 m) können damit erklärt werden, dass die Gebiete mit höheren Mächtigkeiten nicht im TG liegen, da sie die Mindestanforderung „Tiefenlage des ewG“ nicht erfüllen.

Zu den Abbildungen 85, 87, 88 und 90:
Mit den genannten Abbildungen werden die von der BGE ermittelten Teiluntersuchungsräume in den Fokus gerückt. Wie die Anmerkung auch deutlich macht, soll die entwickelte Methode im Fokus stehen, weniger die Bewertung und Einordnung des gesamten Untersuchungsraumes. Wir werden die Anregungen bei zukünftig zu erstellenden Abbildungen gern berücksichtigen.

Zur Abbildung 91:
Die Bohrung Donautherme Neu-Ulm wurde 1998 zu dem Zweck der Erschließung von Thermalwasser aus dem Muschelkalk und dem Grundgebirge abgeteuft. Die Bohrung war fündig (Wassertemperaturen in der Tiefe von 56 Grad mit einer Mineralisation von ca. 14 000 mg/l (Na-Ca-Sulfat-Chlorid-Therme) (Geologica Bavarica 106, S. 81 ff.). Die Bohrung zeigt geringmächtige Ablagerungen des Quartär und Tertiär über etwa 400 m mächtigen Schichten des Oberjura. Der Übergang vom Oberjura zum Tertiär stellt eine Schichtlücke dar.
Diese Abbildung soll beispielhaft anhand der Tiefbohrung Donautherme Neu-Ulm zeigen, wie die BGE sich vorstellt, mit Hilfe repräsentativer Profile den Wirtsgesteinsbereich mit Barrierefunktion, dessen grundlegende Eigenschaften sowie die weiteren geologischen Barrieren des Deck- und Nebengebirges zu beschreiben und ist daher als Beispieldarstellung eines repräsentativen Profils zu sehen. Eine detaillierte Beschreibung und Interpretation der Bohrung findet im Zusammenhang mit der Bewertung der Indikatoren 3.1a und 3.1b (zu § 24 Anlage 3 StandAG) statt und wird in Kapitel 5.7.4.2 und 5.7.4.4 dargestellt. An dieser Stelle werden auch die lithologischen Variationen der Opalinuston-Formation durch qualitative Auswertung von Schichtenverzeichnissen und bohrlochgeophysikalischen Messungen (u. a. GR-Logs) beschrieben. Mit Hilfe der Suchfunktion können Sie diese Textpassagen im Dokument finden.
 
Abbildung 93 soll die Variation der Tiefenlage der Opalinuston-Formation anhand eines NW-SE-SW verlaufenden Schnittes lediglich zur Übersicht zeigen. Die Opalinuston-Formation ist in dem Schnitt braun markiert, Basis und Top der Formation können daher durch den Leser anhand der den braunen Kasten begrenzenden schwarzen Linie identifiziert werden. Die hangenden und liegenden Einheiten sind ebenfalls dargestellt und können anhand der dargestellten Bohrprofile zeitlich und lithologisch eingeordnet werden. Ihren Hinweis zur Darstellung und Lesbarkeit der Übersichtskarte nehmen wir gerne auf. 

Weitere Antworten im nächsten Posting

(18.04.2022, 14:10)MartinW schrieb: Kommentar zu Kapitel 8.5 im Konzept
 

Fortsetzung Antworten zu Posting #11 Teil 2:

Abbildungen 95 und 96:   
In den Abbildungen sind die stratigraphischen Grenzen des Deckgebirges miteinander korreliert. Der Abstand der Bohrungen zueinander beträgt zwischen 1 bis 9 km. Dies ist auch im oberen Teil der Abbildung dargestellt.

Zur Abbildung 97 danken wir für Ihren Hinweis.

Zur Abbildung 98: Das ist korrekt. Die beiden äußeren Bohrungen sind in Abbildung 95 detailliert dargestellt. Hier dienen sie nur als Begrenzung des Profils. Der Fokus der Abbildung liegt auf der Salzstruktur im Zentrum im Kontext mit den vorhandenen Bohrungsdaten (Anzahl, Teufe, etc.).

Die Informationen zu den Schichtverläufen im Profilschnitt entstammen einem geologischen Strukturmodell. Das Modell ist ein sogenanntes Grenzflächenmodell, was bedeutet, dass der Übergang von einer lithologischen oder stratigraphischen Einheit zur nächsten durch eine eindeutige Grenzfläche (Surface) dargestellt ist. Dementsprechend müssen diese Grenzen „scharf“ sein, um den Übergang darzustellen. Weiterhin sei angemerkt, dass 3D-Modelle eine vereinfachte Abbildung der (geologischen) Realität darstellen und Vereinfachungen im Zuge des Modellierprozesses immer stattfinden.
 
Zur Abbildung 100:
Die spärlichen Informationen, die sich in den digitalen Kurzschichtverzeichnissen der Bohrungen finden lassen, sind hier komprimiert dargestellt. In der Abbildung 100 sind repräsentative geologische Profile dargestellt, bei denen die weitere Fortsetzung in die Tiefe bis 1500 m u. GOK interpoliert wurde. Zonen mit Klüften und mineralisierten hydrothermalen Gängen sind in den originalen Kurzschichtverzeichnissen als „Zonen mit Trümern“ charakterisiert und diese sind in den repräsentativen Profilen unter anderem als Kategorie und mit einer entsprechenden Legende dargestellt. Die Kurzschichtenverzeichnisse sind neben den wenigen bohrlochgeophysikalischen Logs die einzigen Bohrungsdaten, welche die SGD der BGE für das Standortauswahlverfahren bisher zur Verfügung gestellt haben. Der BGE liegen von keiner Bohrung Kernfotos vor.
Ihren Hinweis zur Darstellung und Lesbarkeit der Übersichtskarte nehmen wir gerne auf. 
 
Die Bildunterschrift von Abbildung 101 erklärt eindeutig, kurz und bündig, dass es sich um einen geologischen Schnitt durch ein großräumiges vorläufiges (d. h., dass der BGE noch nicht alle relevanten Geodaten vorliegen) strukturgeologisches 3D-Modell handelt. Das 3D-Modell beruht einzig und allein auf den geologischen und strukturellen Grenzen aus der GK100 LJK und Bohrungsdaten (d. h. Bohrung mit Endteufen größer als 300 m). Der geologische Schnitt hat eine Gesamtlänge von 30 km und ist vertikal fünffach überhöht, damit man auf dieser Dokumentenseite im A4-Format überhaupt etwas erkennen kann. Die Bohrungen sind lediglich im Umfeld von 10 km auf den geologischen Schnitt projiziert. Lithologisch lassen sich die Kurzschichtenverzeichnisse dieser Bohrungen und deren Aussagekraft wie folgt zusammenfassen: violette Farbtöne in der Legende und im geologischen Schnitt gleich vulkanisches Gestein, sprich keine kristallinen Wirtsgesteine; rote Farbtöne in der Legende und im geologischen Schnitt gleich Granit, sprich kristallines Wirtsgestein.
Ihren Hinweis zur Darstellung und Lesbarkeit der Übersichtskarte nehmen wir gerne auf. 
 
Die Abbildung 110 dient der Nachvollziehbarkeit der Abweichungen zwischen Bohrungsdaten und 3D-Modell, welche wir im Rahmen der Analyse der Basisdaten zum GzME „Salzstock Bahlburg“ identifiziert haben. So ist es in den textlichen Beschreibungen auch dargelegt. Tabelle 38 enthält eine Quantifizierung dieser Abweichungen.
Welche Daten in die Erstellung der von den Bundes- und Landesbehörden zur Verfügung gestellten 3D-Modelle eingeflossen sind, ist der BGE in vielen Fällen nicht bekannt. Das Erkennen, Darstellen und Diskutieren dieser Abweichungen ist ein Teil der fachlichen Auseinandersetzung der BGE mit den vorliegenden Modelldaten. Mit dem Erkennen von Abweichungen verlieren diese Modelle nicht automatisch ihre Gültigkeit.
 
Die Abbildung 112 zeigt drei vollständige Bohrprofile mit der abgeleiteten Lithologie aus den Log-Daten. Das Thüringer Becken ist eine großmaßstäbliche Muldenstruktur und der TUR21, auf den sich diese Abbildung bezieht, liegt am nördlichen Rand. Die jüngeren Einheiten sind hier erodiert.
In der Bohrung Kal Sprötau 6 wurde im Oberen Buntsandstein (Röt) kein Steinsalz übersehen. Das Röt-Salinar ist dort gemäß der Logauswertung als Anhydrit mit Steinsalz interpretiert worden, woraus die abweichende Symbolisierung resultiert.
 
Zu Abbildung 115: Die den Opalinuston überlagernden Einheiten des Mitteljura werden in den Unteren Mitteljura eingeordnet und beginnen mit den Ablagerungen der Eisensandstein-Formation. Diese ist etwa 45 m mächtig und ist auch in Kapitel 5.7.2.1 detailliert beschrieben. In Abbildung 115 ist die Petrographie, abgeleitet aus den bohrlochgeophysikalischen Logs (im Wesentlichen GR-Log und Resistivity-Log) dargestellt (Spalte Petrolog). Das Petrolog zeigt, dass die Eisensandstein-Formation im Wesentlichen aus Wechselfolgen aus Tonstein, Siltstein und Sandstein besteht. Aus der Literatur ist weiterhin bekannt, dass lokal sandige Eisenoolithe eingeschaltet sind (Franz & Nitsch 2009). Zusammengefasst kann der Tonanteil der Eisensandstein-Formation somit als gering (< 60 %) eingeschätzt werden, was in der rechten Spalte „Tonanteil“ dargestellt ist. Eine Beschreibung der Methode zur qualitativen Ermittlung des Tonanteils aus Schichtenverzeichnissen ist in Hoth et al. (2007) gegeben.
Die Opalinuston-Formation setzt sich aus der Teufelsloch-Subformation im unteren Bereich und der Zillhausen-Subformation im oberen Bereich zusammen. Die Zillhausen-Subformation besteht aus feinsandigen Tonsteinen bis Tonmergelsteinen mit Kalksandstein- und sandigen Kalksteinbänken im oberen Teil (Franz & Nitsch 2009). Die Zillhausen-Subformation ist im gesamten Teiluntersuchungsraum durch Wechsel von Tonsteinen und siltigen Ablagerungen gekennzeichnet. Dies wird durch die von Ihnen beobachteten Unterschiede in den GR-Messungen deutlich, die durch deutliche Schwankungen auf Variationen der Gesteinstypen hinweisen.
Das vorliegende Dokument beschreibt die Methode für die Erarbeitung der Geosynthese für die Untersuchungsräume bzw. Teiluntersuchungsräume. Eine Auswertung von räumlichen und zeitlichen Verteilungen der Ablagerungen des Opalinustons wurde daher noch nicht abschließend vorgenommen. Wir möchten an dieser Stelle jedoch auf das Projekt SEPIA der BGR hinweisen, in dem die Zyklizität von sandigen Gesteinen (potenziellen Speicherhorizonten) und tonigen Gesteinsabfolgen (potenziellen Barrierehorizonten) des Aalenium (Mitteljura, 174–170 Millionen Jahre) im Schwäbischen-Jura-Becken Südwestdeutschlands untersucht werden soll. Dafür wird eine Serie von Forschungsbohrungen in den kommenden 3 bis 4 Jahren durch die Bundesanstalt für Geowissenschaften und Rohstoffe abgeteuft (BGR - Projekte - Sequenzstratigraphie des Aalenium in Süddeutschland (SEPIA) (bund.de)).

Viele Grüße, Ihre BGE
#17
(12.04.2022, 13:47)MartinW schrieb: Kommentar zur Nutzung des Begriffes „Sicher“ und Nichtnutzung des Begriffes „Risiko“ im Konzept zur Durchführung der vorläufigen Sicherheitsuntersuchungen
 
Hallo MartinW,
diese Antwort bezieht sich auf Ihr Posting mit der laufenden Nummer #10 (Betreff siehe oben). Vielen Dank für Ihr Interesse und Ihre Kommentare zum kürzlich veröffentlichten Konzept zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen (rvSU) inkl. detaillierter Methodenbeschreibung. Wir sind der Meinung, dass Ihre Anmerkungen viele interessante Hinweise und Denkanstöße beinhalten, die wir bei den weiteren Arbeiten einbeziehen werden. Speziell in Hinblick auf diesen Kommentar sind wir der Auffassung, dass Ihre Erläuterung theoretischer Hintergründe grundsätzlich zu einem besseren Verständnis des Konzepts beiträgt. Leserinnen und Leser können sich somit über die veröffentlichten Unterlagen hinaus noch tiefgründiger informieren, was sehr zu begrüßen ist.
Sie beschreiben in Ihrem Kommentar sehr ausführlich das Risiko-Konzept mit anschaulichen Beispielen aus der Kohlenwasserstoffindustrie, der Automobilindustrie oder auch Beispielen aus Großbauprojekten. Die BGE teilt grundsätzlich Ihr beschriebenes Verständnis des Risiko-Begriffs (Zitat aus Ihrem Kommentar: „Risiko = (Wahrscheinlichkeit des Auftretens von Schadensereignissen) x (Höhe des jeweiligen Schadens)“). Im Gegensatz zur Kohlenwasserstoffindustrie dominiert in dieser Phase des Standortauswahlverfahrens jedoch nicht die Frage nach dem absoluten Risiko für ein einzelnes betrachtetes Gebiet (also der Auftretenswahrscheinlichkeit eines Schadens in diesem Gebiet multipliziert mit dem zu erwartenden Gesamtschaden), sondern es geht prinzipiell vordergründig um die Frage, welche Gebiete die geringste Wahrscheinlichkeit haben, dass ein Schaden auftritt. Gebiete, die mit hoher Wahrscheinlichkeit ungeeignet sind, werden nicht weiterverfolgt. Die entsprechenden Eignungsprüfungen werden anhand verschiedener Kriterien aus dem StandAG und der EndlSiUntV sowie EndlSiAnfV bewertet. Dies sind auf der einen Seite z. B. die gesetzlich vorgegebenen Ausschlusskriterien und Mindestanforderungen sowie qualitative Aspekte und auf der anderen Seite quantitative Aspekte, also berechnete Kennzahlen. Wie in den veröffentlichten Unterlagen dargestellt, basieren diese Kennzahlen im aktuellen Schritt 2 der Phase I des Standortauswahlverfahrens auf 1D-Radionuklidtransportmodellierungen im Untergrund (erst ab Phase II des Verfahrens werden für die Standortregionen im Rahmen der weiterentwickelten vorläufigen Sicherheitsuntersuchungen (wvSU) umfangreichere Modellierungen angestrebt). Die berechneten Kennzahlen aus den 1D-Modellierungen basieren unter anderem auf Monte-Carlo-Simulationen, die wiederum u. a. die Ungewissheiten aus der Geologie und der zu erwartenden Entwicklungen (Szenarien) mitführen und abbilden. Es handelt sich dabei also um Wahrscheinlichkeitsaussagen zur Eignung eines Gebietes für einen sicheren Einschluss der endzulagernden hochradioaktiven Abfälle unter Berücksichtigung der quantifizierbaren Ungewissheiten. Per Gesetzesauftrag sollen im Prinzip diejenigen Gebiete mit der höchsten Wahrscheinlichkeit eines sicheren Einschlusses priorisiert werden. Durch den vergleichenden Charakter dieser Aussage (und nicht dem absoluten Risiko eines einzelnen Gebietes) ist die Auftretenswahrscheinlichkeit, die die BGE im Konzept zur Durchführung der rvSU u. a. durch quantitative Kennzahlen beschreibt, das entscheidendere Bewertungsmaß.
Generell ist anzumerken, dass es sich bei der im Konzept und der zugehörigen detaillierten Methodenbeschreibung skizzierten Herangehensweise um einen speziell auf die rvSU in Phase I, Schritt 2 des Standortauswahlverfahrens zugeschnittenen Ansatz auf Grundlage der entsprechenden regulatorischen Anforderungen handelt. Daher orientiert sich die grundlegende Struktur von Konzept und detaillierter Methodenbeschreibung auch an den regulatorisch vorgegebenen Arbeitsschritten in den rvSU. Herausforderung war, auf Basis der Vorgaben eine Methodik zu entwickeln, die im Rahmen des aktuellen Schritts 2 der Phase I gut und praktikabel anwendbar ist und dem Detailgrad der rvSU im Vergleich zu späteren Phasen Rechnung trägt. Alle Gebiete werden dabei entsprechend der in den veröffentlichten Unterlagen beschriebenen Vorgehensweise behandelt. Im Zuge des Fortschreitens des Verfahrens ist zu erwarten, dass sich das Konzept, inkl. der Vorgehensweise bei der Betrachtung von Ungewissheiten, weiterentwickeln und noch weiter konkretisieren wird. 
Der zweite Teil Ihres Kommentars bezieht sich auf das Themenfeld "Szenarien". Die Ungewissheiten, die in Zusammenhang mit diesem Themenfeld adressiert werden müssen, sind sehr vielfältig. Ihre diesbezüglichen Kommentare sind nachvollziehbar und schlüssig. Festzuhalten ist allerdings, dass die veröffentlichten Dokumente eine Methodenbeschreibung darstellen (z.B. FEP-Katalog). Diese orientiert sich an internationalen Hernagehensweisen. Ein konkretes Narrativ wird erst im Zusammenhang mit der späteren Anwendung der Methodik stehen.
Viele Grüße, Ihre BGE

(11.04.2022, 14:00)MartinW schrieb: Kommentar zu Kapitel 8.9 Bewertung von Ungewissheiten
Das Kapitel verweist auf Kapitel 10 in der Anlage 1. 10 Bewertung von Ungewissheiten.

Hallo MartinW,
diese Antwort bezieht sich auf oben benanntes Posting mit der laufenden Nummer #9. 
Vielen Dank für Ihren informativen und vielseitigen Beitrag, in dem Sie unterschiedliche Aspekte in Zusammenhang mit dem aktuellen Konzept zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen (rvSU), insbesondere zur komplexen Thematik der „Ungewissheiten“, adressieren. Wir haben Ihren Beitrag mit großem Interesse gelesen und freuen uns über die zahlreichen Hinweise, Kritikpunkte und Denkanstöße. Wir sind der Ansicht, dass Ihr Beitrag einen guten Überblick über verschiedene Gesichtspunkte und Hintergründe hinsichtlich der Betrachtung von Ungewissheiten, insbesondere Modellungewissheiten, gibt und daher insgesamt auch zu einem besseren Verständnis des Konzepts beiträgt. Insbesondere fachfremde Leserinnen und Leser können sich mithilfe Ihres Beitrages über das Konzept hinausgehend informieren. Dies ist sehr zu begrüßen. Wir weisen aber darauf hin, dass wir nicht jede Ihrer Einschätzungen teilen, beispielweise kommt der Begriff „Risiko“ zwar nicht direkt im Hauptdokument (dem rvSU-Konzept) vor, sehr wohl aber in der zugehörigen Anlage der detaillierten Methodenbeschreibung (z. B. in Zusammenhang mit Kapitel 10.2 – „Definition und Verwendung des Begriffs „Ungewissheit““), welche mit dem Hauptdokument eine Einheit bildet.
Viele der von Ihnen genannten Aspekte und Themen, wie beispielweise die Hintergründe von Modellen und Modellungewissheiten oder typische Problemstellungen in Bezug auf geowissenschaftliche Fragen, spielen eine wichtige Rolle im Standortauswahlverfahren. Die BGE ist sich dieser Aspekte bewusst. Zu beachten ist jedoch ebenfalls, dass es sich bei der im Konzept beschriebenen Vorgehensweise um eine auf den aktuellen Schritt 2 der Phase I des Standortauswahlverfahrens (und damit auf einen verhältnismäßig frühen Schritt im Standortauswahlverfahren) zugeschnittene Herangehensweise handelt und demzufolge noch nicht alle in Zusammenhang mit Ungewissheiten stehende Aspekte zum jetzigen Zeitpunkt unmittelbar von Relevanz sind und vollumfänglich berücksichtigt werden können. Ebenso wird im Sinne der Ermittlung von Standortregionen beispielsweise nicht als zielführend angesehen, genutzte Modelle in verschiedene (theoretische) Kategorien einzuordnen. Wie auch im Konzept dargelegt, wird sich die Vorgehensweise in Zusammenhang mit der Betrachtung von Ungewissheiten im Laufe des Verfahrens weiterentwickeln und dabei absehbar zunehmend tiefgründiger und komplexer werden. Ihre Anmerkungen sind dabei sehr hilfreich und werden in die Fortentwicklung der Methodik mit einfließen.
Der BGE ist bewusst, dass Modelle grundsätzlich nur Annäherungen an die Realität darstellen und daher natürlicherweise mit Ungewissheiten behaftet sind. Dennoch sind Modelle sehr nützlich, um in der Natur ablaufende Prozesse besser nachvollziehen zu können und komplexe Sachverhalte zu verdeutlichen. Entscheidend ist, die wichtigsten auf Modelle einflussnehmenden Größen und Prozesse korrekt zu identifizieren, im Rahmen des lernenden Standortauswahlverfahrens stets auf dem aktuellen Stand von Wissenschaft und Technik zu arbeiten, Hinweise aus der Öffentlichkeit zu berücksichtigen und neueste Forschungsergebnisse miteinzubeziehen. Das aktuelle Forschungsvorhaben „Ungewissheiten und Robustheit mit Blick auf die Sicherheit eines Endlagers für hochradioaktive Abfälle“ (URS) trägt hierzu wesentlich bei.
Wie im Konzept dargelegt, werden im aktuellen Schritt 2 der Phase I des Standortauswahlverfahrens bestehende Ungewissheiten – also auch bestehende Modellungewissheiten – zunächst systematisch mittels einer Erfassungstabelle dokumentiert und eingeordnet. Für Gebiete der Kategorie A (die Vorgehensweise zur Einordnung von betrachteten Gebieten in die verschiedenen Kategorien ist dem Konzept zu entnehmen) wird darüber hinaus eine detailliertere Betrachtung von Ungewissheiten als Teil der bzw. im Nachgang der umfassenden Bewertung des Endlagersystems erfolgen. Speziell in Hinblick auf Modelle spielen zudem Sensitivitätsanalysen eine wichtige Rolle, wobei auch probabilistische Ansätze zur Anwendung kommen können. Die Grundstrukturierung des Konzepts und der zugehörigen detaillierten Methodenbeschreibung basiert im Wesentlichen auf den nach der Endlagersicherheitsuntersuchungsverordnung (EndlSiUntV) durchzuführenden Arbeitsschritten der rvSU und dem im Konzept vorgestellten Ablaufschema der rvSU. Während das Konzept einen guten und kompakten Überblick über die Herangehensweise in den rvSU geben soll, dient die zugehörige detaillierte Methodenbeschreibung (Anlage 1) der genaueren Darstellung einzelner Arbeitsschritte anhand von Beispielen.
In Ihrem Beitrag gehen Sie auch auf unterschiedliche Aspekte der Kommunikation und Öffentlichkeitsbeteiligung ein. Hierfür bedanken wir uns. Ihre Anmerkungen und Hinweise erachten wir als sehr wertvoll und lassen diese in zukünftige Überlegungen mit einfließen.

Viele Grüße, Ihre BGE
#18
(08.04.2022, 15:46)MartinW schrieb: Kommentar zu Kapitel 8.9 Bewertung von Ungewissheiten
 

Hallo MartinW,
wir bedanken uns für Ihren Beitrag mit der laufenden Nummer #8 zum Themenkomplex „Ungewissheiten“. Unserer Einschätzung nach vermittelt Ihr Beitrag einen guten Überblick über verschiedene Aspekte im Zusammenhang mit der Betrachtung und Berücksichtigung von Ungewissheiten und bietet daher eine hervorragende Grundlage für weiterführende Diskussionen. Insbesondere die von Ihnen genannten praktischen Beispiele erachten wir als sehr wertvoll.
Wie auch aus Ihrem Beitrag hervorgeht, sind Ungewissheiten ein sehr komplexes, aber essenziell wichtiges Thema, auch im Zusammenhang mit dem Standortauswahlverfahren, in dem Ungewissheiten nun erstmals in den in Schritt 2 der Phase I des Verfahrens durchzuführenden repräsentativen vorläufigen Sicherheitsuntersuchungen (rvSU) zu betrachten sind.
Im Zuge der Konzeptentwicklung hat sich die BGE intensiv mit dem aktuellen Wissenstand in Bezug auf Ungewissheiten auseinandergesetzt. Viele Ihrer grundsätzlichen Überlegungen sind daher bereits in das aktuelle Konzept eingeflossen. So sind, obwohl nicht explizit genannt, beispielsweise die von Ihnen geschilderten vier unterschiedlichen Arten von Ungewissheiten („Known Knowns“, „Known Unknowns“, „Unknown Knowns“, „Unknown Unknowns“) bereits im Vorfeld mit in die Überlegungen zum aktuellen Konzept eingeflossen. Ebenso fanden Überlegungen zu den geowissenschaftlichen Abwägungskriterien (geoWK) statt, die u. a. im Zuge der nach § 7 Abs. 4 Endlagersicherheitsuntersuchungsverordnung (EndlSiUntV) geforderten Relevanzbeurteilung auch bereits in den rvSU eine Rolle spielen.
Im Vergleich zu den weiterentwickelten und umfassenden vorläufigen Sicherheitsuntersuchungen in den späteren Phasen II und III des Verfahrens, bilden die rvSU die vorläufigen Sicherheitsuntersuchungen mit dem verhältnismäßig niedrigsten Detaillierungsgrad, auch in Hinblick auf die Betrachtung von Ungewissheiten. Herausforderung bei der Konzeptentwicklung – nicht nur in Zusammenhang mit der Thematik Ungewissheiten – war also insbesondere, die hohe Komplexität der unterschiedlichen Fragestellungen mit den Ansprüchen und regulatorischen Vorgaben der aktuellen Phase des Verfahrens in Einklang zu bringen. Der im Konzept vorgestellte Ansatz stellt dazu unserer Einschätzung nach eine gute Lösung dar. Absehbar ist aber auch, dass die Auseinandersetzung mit Ungewissheiten im Laufe des lernenden Verfahrens stetig detaillierter und komplexer werden wird. In diesem Zusammenhang verweisen wir auch noch einmal auf das Forschungsvorhaben „Ungewissheiten und Robustheit mit Blick auf die Sicherheit eines Endlagers für hochradioaktive Abfälle“ (URS).
 
Viele Grüße, Ihre BGE
#19
(05.04.2022, 19:34)MartinW schrieb: Kommentar zu Abschnitt 8.5 Geosynthese (§ 5 EndlSiUntV)
 

Hallo MartinW,
diese Antwort bezieht sich auf das Posting mit der laufenden Nummer #3 (Betreff siehe oben).

Herzlichen Dank für Ihre umfangreichen Ausführungen, die eindeutig zeigen, welche Herausforderungen der Umgang mit dem Thema Ungewissheiten in den Geowissenschaften mit sich bringt. Daher werden wir auch nur auf ein paar Punkte aus Ihren Ausführungen eingehen, um diese fachlich einzuordnen:
Der Wirtsgesteinsbereich mit Barrierefunktion steht im Fokus des qualitativen Prüfschrittes aus dem rvSU-Konzept. Im qualitativen Prüfschritt werden Heterogenitäten im Wirtsgesteinsbereich mit Barrierefunktion mit Hilfe der Anlage 3 (gem. § 24 StandAG) bewertet. So wird im derzeitigen Verfahrensschritt z. B. für die Bewertung der Variationsbreite der Eigenschaften der Gesteinstypen im Endlagerbereich das Auftreten von verschiedenen Gesteinstypen (wie in ihrem Beispiel höher permeable Sandlagen) berücksichtigt und in die Bewertung einbezogen. Für diese Bewertung werden nicht nur Schichtenverzeichnisse auf Basis von Spülproben herangezogen, sondern auch geophysikalische Bohrlochmessungen.
 
Die im 2. Absatz angesprochene Sichtung und Aufbereitung von Bohrungsdaten für die DQL-Bestimmung ist relativ komplex. Eine detaillierte textliche Darstellung im Methodendokument wäre für diesen Rahmen unpassend gewesen, an dieser Stelle gehen wir aber gerne ein wenig mehr ins Detail. Die Sichtung der vorliegenden Daten und deren Aufbereitung beinhaltet im Wesentlichen eine Prüfung und Zuordnung aller stratigraphischen Angaben im digital vorliegenden Schichtverzeichnis. Die Zuordnung zielt darauf ab, die Detailtiefe der jeweiligen stratigraphischen Angabe für jede in das Schichtenverzeichnis aufgenommene Schicht einer Bohrung festzuhalten. Dafür wird zunächst überprüft, welche Angaben es in den Bohrungen aus einer Datenbank (bspw. der Bohrdatenbank des TLUBN) gibt. Dies muss für alle Bohrdatenbanken individuell überprüft werden, auch wenn z. T. die gleichen Symbolschlüssel verwendet werden, da jedes Landesamt einen eigenen Stil hat, wie und in welchem Detailgrad die Informationen aus den Bohrakten in die Bohrdatenbank überführt wurden. Die stratigraphischen Angaben werden im Anschluss konsistent nach ihrer Detailtiefe einer Kategorie entsprechend der Angaben aus dem Diagramm in Abb. 63 zugeordnet und in einer Tabelle festgehalten. Anhand dieser Zuordnungstabelle wird in einem zweiten Schritt für alle Bohrungen aus der Bohrdatenbank die stratigraphische Detailtiefe aller Schichtbeschreibungen automatisiert zugeordnet.
Die Anwendung der Methode zur Erfassung der heterogenen Datenlage hat, anders als von Ihnen in Absatz 4 dargestellt, nicht das Ziel, die geologischen Ungewissheiten zu reduzieren. Vielmehr soll die vorhandene Heterogenität bei der Datenlage systematisch erfasst werden, so dass diese bei den zukünftigen Interpretationen und Bewertungen vorliegt. Es wird immer Gebiete geben, für die die Aussagen und Interpretationen von weniger Ungewissheiten geprägt sind als andere, bei denen zum Beispiel die Datenlage schlechter ist oder wo die geologische Situation komplizierter ist. Mit diesem Umstand werden wir im Schritt 2 der Phase 1 umgehen müssen ohne diesen aktiv beheben zu können. Erst in Phase 2 haben wir die Möglichkeit durch eigene Erkundung die Ungewissheiten für die Standortregionen gezielt reduzieren zu können. Dennoch haben wir schon im aktuellen Verfahrensschritt das Ziel aus den vorliegenden Daten (z. B. Bohrlochmessungen oder seismische Daten) für die interessanten Gebiete möglichst viele Informationen zu extrahieren. Dabei werden uns Ihre Ausführungen weiterhelfen können.

Vielen Dank und viele Grüße, Ihre BGE
#20
(06.04.2022, 14:34)MartinW schrieb: Kommentar zu 8.7.2 Ableitung der zu erwartenden und abweichenden Entwicklungen des Endlagersystems (§ 7 Abs. 6 Nr.1 EndlSiUntV) 

Hallo MartinW., danke für den Kommentar mit der laufenden Nummer #4.
  
Das Standortauswahlgesetz, die Endlagersicherheitsanforderungsverordnung und die Endlagersicherheitsuntersuchungsverordnung basieren auf der Prämisse, dass die Lagerung hochradioaktiver Abfälle in tiefen geologischen Strukturen unter Sicherheitsaspekten aktuell keine gangbare Alternative hat. Trotz der Ungewissheiten, die mit der künftigen Entwicklung eines Endlagers einhergehen, muss also dennoch eine Entscheidung für einen Standort und die zugehörigen technischen Lösungen getroffen werden.
Die konkrete Zukunft eines solchen Endlagers ist nicht vorhersagbar. Aus einer Zusammenschau geowissenschaftlichen Wissens, technischer Kenntnisse und von Analogieschlüssen lassen sich dennoch Aussagen darüber treffen, welche Entwicklungen zu erwarten wären. Der in Betracht gezogene „Zukunftsraum“ wird mit der Diskussion der abweichenden Entwicklungen noch weiter gefasst. Dies erfolgt nach dem aktuellen Wissensstand. Das Standortauswahlgesetz trägt zusätzlich möglichen künftigen Erkenntnissen Rechnung, indem die Möglichkeit der Rückholung der Abfälle während des Einlagerungsbetriebs, und die Möglichkeit der Bergung der Abfälle für 500 Jahre nach Verschluss des Endlagers vorzusehen sind.
Ein Beispiel für geogene Prozesse, für die üblicherweise Eintrittswahrscheinlichkeiten vergeben werden, sind Erdbeben. Die zugrundeliegenden Beobachtungen reichen mehr als tausend Jahre zurück – eine lange Zeit, und doch ein kurzes Zeitfenster mit begrenzter Aussagekraft für den Bewertungszeitraum von 1 Million Jahren. Die Überfahrung großer Teile Deutschlands durch Gletscher war lange Zeit nicht denkbar, da nichts Vergleichbares je beobachtet worden war. Heute ist diese Vergangenheit akzeptiert, doch die Vorgänge, die mit zu erwartenden künftigen Vereisungen einhergehen werden, sind nie beobachtet worden. Begründete Experteneinschätzungen übernehmen hier die Funktion, die nicht empirisch-statistisch berechenbaren künftigen Entwicklungen als zu erwartende oder abweichende (oder gar hypothetische) Entwicklungen einzustufen.
In der Ermittlung der notwendigen technischen Lösungen ist entscheidend, welche Entwicklungen, die sich (jetzt in Phase I) aus der Geologie ergeben, zu erwarten sind, da für diese vorrangig ein sicheres System hergestellt werden muss. Dadurch soll sichergestellt werden, dass die aufgewendeten Ressourcen zur Sicherung des Endlagers nicht der Absicherung gegen – nach menschlichem Ermessen – sehr unwahrscheinliche Extremfälle verwendet werden, schlimmstenfalls sogar auf Kosten der Optimierung gegenüber der – nach menschlichem Ermessen – wahrscheinlichsten Fälle. Dies ergibt sich notwendigerweise daraus, dass keine unbegrenzten Ressourcen zur Verfügung stehen und manche Lösungen entgegengesetzte Wirkungen entfalten können.
 
Viele Grüße, Ihre BGE

(19.05.2022, 21:49)MartinW schrieb: Ein allgemeiner Kommentar zum Konzept
 

Hallo MartinW,
vielen Dank für den allgemeinen Kommentar zum Konzept mit der Nummer #14.
  
In Phase I des Standortauswahlverfahrens sind die von Ihnen angesprochenen Sachverhalte eine besondere Herausforderung, da günstige Standortregionen für die übertägige Erkundung auf Basis der bestehenden Information ermittelt werden müssen. Hierbei werden seitens der BGE keine eigene Daten, z. B. durch Erkundung, erhoben. Bei der Nutzung von Fremddaten sind diese Ungewissheiten im Vergleich zu Daten, die im Rahmen der übertägigen Erkundung gewonnen werden, sicherlich deutlich größer. Der Grund ist, dass Fremddaten einerseits nicht für die Fragestellungen der Endlagerung erhoben wurden und andererseits die Datenerhebung häufig Jahrzehnte in der Vergangenheit liegt, wodurch oftmals Informationen verloren gehen.
Die BGE wertet für die Ermittlung von Standortregionen große Datenmengen für die gebietsspezifische Bewertung aus. Diese werden insbesondere von den Staatlichen Geologischen Diensten abgefragt um im Bereich Standortauswahl systematisch gesichtet und auf Plausibilität geprüft zu werden. Im Rahmen umfangreicher Digitalisierungskampagnen durch die BGE werden Datenbestände für das Standortauswahlverfahren nutzbar gemacht, die bisher nur analog vorlagen. Durch das mehrphasige Standortauswahlverfahren können mithilfe eigener Datenerhebungskampagnen in den Phasen II und III systematisch Kenntnislücken geschlossen und Ungewissheiten minimiert werden.
In Bezug auf den aktuellen Verfahrensschritt, finden sich in der Anlage zum Konzept zu den repräsentativen vorläufigen Sicherheitsuntersuchungen (BGE 2022b) im Kapitel 5.1 „Umgang mit heterogener Datenlage“ und Kapitel 10 „Bewertung von Ungewissheiten (§ 11 EndlSiUntV)“ ausführliche Erläuterungen, wie Daten und Informationen beurteilt werden und wie mit Ungewissheiten umgegangen wird.
In Ihren Punkten 5 bis 8 zu den Daten sprechen Sie wichtige Aspekte an, die uns in der fachlichen Arbeit beschäftigen. Im täglichen Umgang mit den Geodaten im Rahmen der Standortsuche werden viele dieser Aspekte bereits berücksichtigt. Beispielsweise setzen wir den von Ihnen angesprochen Punkt 7 in der Praxis um, indem wir in einzelnen Gebieten reflexionsseismische Daten neu interpretieren (siehe eigene Interpretation des Salzstock Bahlburg, Abbildung 72 in BGE 2022b) oder sogar die vorhandenen Rohdaten mit modernen Methoden reprozessieren.
 
Literatur:
BGE (2022b): Methodenbeschreibung zur Durchführung der repräsentativen vorläufigen Sicherheitsuntersuchungen gemäß Endlagersicherheitsuntersuchungsverordnung. Peine: Bundesgesellschaft für Endlagerung mbH

(07.04.2022, 17:26)MartinW schrieb: Kommentar zu 8.7.6 Relevanz der geowissenschaftlichen Abwägungskriterien (§ 7 Abs. 4 EndlSiUntV)

Hallo MartinW,
vielen Dank auch für diesen Kommentar mit der Nummer#5.
   
Zu 1.
Ziel der aktuellen Arbeiten ist es günstige Standortregionen für die übertägige Erkundung vorzuschlagen. Die Bewertung der Gebiete erfolgt ausschließlich anhand bestehender Daten, die größtenteils nicht für die Fragestellungen der Endlagerung gewonnen wurden. Dadurch liegen für die Gebiete, speziell für die Fragestellungen die in den Anlagen 5 bis 10 adressiert werden, oftmals keine lokalspezifischen Informationen vor. Deshalb werden hier viele Bewertungen voraussichtlich anhand von überschlägigen Abschätzungen oder Analogiebetrachtungen durchgeführt werden. Das dafür notwendige Verständnis wird ggf. durch generische Modelle, in denen die von Ihnen aufgezeigten gekoppelten Prozesse berücksichtigt werden, unterstützt werden können. Wichtig ist hierbei, dass Temperaturentwicklungen durch den Zerfall der Radionuklide nicht über den Bewertungszeitraum von einer Million Jahren anhalten, sondern dass der thermische Initialzustand bereits nach einigen wenigen 10.000 Jahren wieder hergestellt ist.
Zu den thermischen Auswirkungen auf Barrieregesteine gab und gibt es mehrere aufwendige Experimente unter in-situ Bedingungen. Beispielsweise startete bereits 1999 im Untertagelabor in Mont Terri das „Heater Experiment B (HE-B)“ um die thermisch-hydraulisch-mechanisch gekoppelten Prozesse im Opalinuston zu erforschen. Sollten Sie zu diesen Experimenten weitere Hinweise für Informationsquellen benötigen stellen wir diese gerne zur Verfügung.
 
Zu 2.
Das dargestellte Konzept stellt das übergeordnete methodische Vorgehen zur Bewertung der Relevanz der geowissenschaftlichen Abwägungskriterien dar. Dabei wird die Bedeutung des Kriteriums für die Sicherheitsfunktionen, der aktuelle Kenntnisstand der lokalen Sachverhalte zum jeweiligen Abwägungskriterium und das Potential für den Erkenntnisgewinn betrachtet.
Speziell die Beurteilung des aktuellen Kenntnisstands dient dazu zu beurteilen, ob ausreichend Information vorliegen, um eine sichere Einstufung in die Wertungsgruppen vornehmen zu können. Dies wird dann in der Gesamtbeurteilung der Relevanz in einem Gebiet für das jeweilige Kriterium berücksichtigt.
Zu 3.
Bezüglich der Relevanz der geowissenschaftlichen Abwägungskriterien hat die BGE erste Ansätze publiziert und führt aktuell weiterführende Arbeiten durch bei denen die Konzepte ausführlich getestet und umgesetzt werden. Die Relevanz der geowissenschaftlichen Abwägungskriterien, die in den repräsentativen vorläufigen Sicherheitsuntersuchungen ausgearbeitet wird, ist vor allem wichtig für die geowissenschaftliche Abwägung selbst. Hierzu plant die BGE weitere Veröffentlichungen methodischer Konzepte.
Die Hinweise aus den NBG-Gutachten nimmt die BGE sehr ernst und berücksichtigt diese in den laufenden Arbeiten und methodischen Entwicklungen, sofern wir die inhaltlichen Einschätzungen teilen. Die Hinweise aus dem angesprochenen Gutachten beziehen sich aus Sicht der BGE jedoch nicht auf die Beurteilung der Relevanz oder einer Wichtung wie im Kommentar oben angedeutet, sondern sind aus unserer Sicht Hinweise und Anregungen zur Auslegung der Kriterien.

Viele Grüße,
Ihre BGE


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 2 Gast/Gäste