19.05.2022, 21:49
Ein allgemeiner Kommentar zum Konzept
Anscheinend ist das Forum nicht die Stelle, wo inhaltliche Auseinandersetzungen mit dem Konzept stattfinden, auch wenn sich im Forum die Möglichkeit bietet, dann zu kommunizieren, wenn man an den offiziell angebotenen Terminen zeitverhindert ist.
Auch wenn das Feedback bis jetzt sehr übersichtlich ist, möchte ich einen weiteren Gesichtspunkt erläutern, der mir beim Lesen des Konzepts Problem bereitet hat.
Daten, besonders Zahlen, sprechen nie für sich selbst, sie werden durch eine Interpretation mit Bedeutung aufgeladen. Das Konzept erläutert wie mit den vorhandenen Informationen umgegangen wird. Ich hatte in obigen Kommentaren Beispiele erläutert, die zeigen, dass anscheinend relativ wenig Daten direkt interpretiert werden, und stattdessen zugelieferte Interpretationen genutzt werden, um daraus neue Interpretationen zu erstellen.
Das ist im Alltag auch die Regel: Es werden die Informationen über einen Sachverhalt genutzt. Die Daten in diesem Sachverhalt werden nicht separat davon erneut analysiert und beurteilt. Auch wenn dies hilft, im Alltag gut zurechtzukommen, ist dies bei einer Exploration nicht immer nur nützlich. Das kann unabsichtliche Fehler verursachen. Deshalbmuss zwischen unterschiedlichen Arten/Kategorien von Daten unterschieden werden, um Ungewissheiten besser einschätzen zu können.
Eine derartige Darstellung unterstützt auch eine strukturierte Auseinandersetzung mit dem Konzept. Es folgen nun zur Illustration 13 Arten von Daten, die in Explorationsvorhaben unterschieden werden.
1. Daten, von denen die BGE weiß, wie sie entstanden sind
Bei diesen Daten weiß die BGE alles, um die Qualität, Eignung, … beurteilen zu können. Diese daten bilden das Fundament von zuverlässigen Informationen, weil sie nicht falsch interpretiert werden können. Aus den mir zugänglichen Informationen ist nicht zu erkennen, ob die BGE überhaupt solche Daten hat und nutzt, oder ob bis auf wenige Ausnahmen immer Informationen (Daten mit vorhandenen Interpretationen) genutzt werden.
2. Daten, von denen die BGE weiß, dass es sie gibt, diese aber fehlen
Aus dieser Kenntnis ergeben sich Aktionen: Entweder kann die BGE sich die Daten beschaffen (Geologiedatengesetz), oder nicht.
Es wird davon ausgegangen, dass die BGE weiß, was sie benötigt. Es ist unklar, ob die BGE die Daten auf bekommt, und die Expertise hat, spezifische Messdaten auswerten zu können.
3. Daten, von denen die BGE nicht weiß, dass es sie gibt
In der Regel wird man sich im Verlauf einer Exploration darüber bewusst, dass es diese Art von Daten gibt, oder zumindest geben könnte. Es werden neue Arten von Daten entdeckt. Das Verständnis, und die Kenntnisse über spezifische Sachverhalte wachsen.
Man weiß dann, was noch alles benötigt wird, um den Sachverhalt besser zu verstehen und Ungewissheiten reduzieren zu können. Hierzu gehören auch Daten, die notwendig sind, um vorher nicht verstandene Kausalzusammenhänge erklären zu können.
Wenn herausgefunden wurde, dass die bisher verwendeten Daten nicht ausreichen, dann kann man sich auf die Suche nach den notwendigen Daten machen. Ich hatte vermutet, dass das Konzept auch diese Kategorie von Daten adressieren soll, und hatte dies im Ausblick auf die Ergebnisse vermisst.
4. Daten, die eine Auswahl aus den vorhandenen Daten darstellen
Dies kann absichtlich und unabsichtlich geschehen. Solange die BGE auf der Grundlage von zugelieferten Informationen arbeitet wird dies schwierig oder gar nicht zu nicht zu erkennen sein. Es ist nicht zu erkennen, wie dieses Problem im Kontext der Lieferungen von Informationen von Landesämtern o.ä. adressiert wird (siehe Kommentar zu bedeutsam, zuverlässig).
Es gibt eine Vielzahl von Möglichkeiten, beginnend mit dem Weglassen von Daten, die nicht in die geologische Interpretation zu passen scheinen, scheinbar Messfehler darstellen, dann, wenn Fehler bei der Zusammenstellung der Daten gemacht werden, und weiteres mehr.
5. Daten, die existieren würden, wenn sich der Sachverhalt anders entwickelt hätte
Viele Sachverhalte entwickeln sich, weil bestimmte Aktionen geschehen, die dann den Sachverhalt ändern. In diesem Fall ist dies die Entwicklung der Endlagersuche durch die Umsetzung des Konzepts, so wie es veröffentlicht wurde. Nach der Umsetzung wird der jetzige Zustand kaum wiederhergestellt werden, um mit einem anderen Ansatz völlig neu zu starten.
Daten, die nur dadurch verfügbar geworden wären, indem bestimmte andere Aktionen abgelaufen wären, sind nicht dann verfügbar. Sie können nicht für Einsichten und Interpretationen genutzt werden. In einigen Kommentaren wurde deshalb angeregt, die Arbeiten im Zeitrahmen des Konzepts zu erweitern.
6. Daten, die nur existieren, weil sich der Sachverhalt in einer bestimmten Art entwickelt hat
Viele Sachverhalte entwickeln sich. Sie sind dann anders als vorher. Der vorherige Zustand kann nicht mehr wiederhergestellt werden. Daten, die nur dadurch verfügbar geworden sind, weil bestimmte Aktionen abgelaufen sind, stellen nur einen Ausschnitt aus dem dar, was für diese Art von Sachverhalten möglich ist.
Einsichten und Interpretationen sind dadurch beschränkt. Oft führt dies zu der illusorischen Sicherheit, alles verstanden zu haben.
Man vermisst nichts. Man weiß nicht, was man alles wissen könnte/müsste, wenn man anders verfahren wäre. Oft führt dies zu Mehraufwand und Nacharbeit.
In der Regel wird dies nur durch eine Betrachtung im Nachhinein erkannt, was nicht bedeutet, dass daraus Konsequenzen gezogen werden, etwas gelernt wird, und dieser Gesichtspunkt in Zukungf berücksichtigt wird.
7. Daten, die einen Status der Vergangenheit darstellen, ohne dass die BGE das erkennen kann.
Viele Daten benötigen eine zeitliche Einordnung, damit beurteilt werden kann, ob, und wenn ja, wie sie genutzt werden können. Gerade Geodaten werden in der Regel zusammen mit einer Interpretation geliefert, damit der Sinn verstanden werden kann. Die Interpretation ist oft abhängig von dem Zeitpunkt, an dem sie gemacht wurde, mit dem damals vorhandenen Wissen.
Die Lagerstättenexploration macht sich das zu Nutze, indem alte Daten begutachtet, und möglicherweise anders interpretiert werden können und müssen. (Ich war in meinem Berufsleben an der Entwicklung mehrerer Ölfelder beteiligt, die zum Teil Jahrzehnte früher hätten gefunden werden können, wenn die reflexionsseismischen Daten richtig prozessiert und interpretiert worden wären, keine Fehler beim Erwerb von petrophysikalischen Daten in der Bohrung passiert wären, und … und …)
8. Daten, die andere Daten zusammenfassen
Das berühmt-/berüchtigtste Beispiel sind Durchschnittswerte. Dabei wird alles versteckt, was notwendig ist, um den Sachverhalt zuverlässig zu verstehen. Man weiß nichts über die Verteilung der Daten, die Größe des Datensatzes, die kleinsten und die größten Werte.
Dies sind in der Regel keine Daten, dies ist eine Information, bei der die Interpretation nicht nachvollzogen werden kann. Für eine Exploration sind Durchschnittswerte ziemlich nutzlos.
9. Daten mit Messfehlern
Zu diesem Thema gibt es umfangreiche Fachbücher. Die Probleme beginnen dann, wenn man nicht weiß, dass die Daten Messfehler enthalten (können). Die Zuverlässigkeit kann dann nicht richtig beurteilt werden. Deshalb existiert eine Ungewissheit, die nicht (einfach) gezielt aufgelöst werden kann.
In dem Konzept ist nicht zu erkennen, wie dieses Problem im Kontext der Lieferungen von Informationen von Landesämtern o.ä. adressiert wird. Da diese Institutionen die Erstellung der Information meist nicht direkt selbst verantworten, sondern auf Zulieferungen aus der Industrie angewiesen sind, wird der Einfluss von Messfehlern möglicherweise unterschätzt. Dies hilft nicht bei einer gezielten Reduzierung der Ungewissheit.
10. Künstliche Datensätze als Arbeitsmittel
Diese Art von Daten wird bei der Nutzung bestimmter statistischer Methoden verwendet. Bei der Methode der Monte Carlo Simulation wird eine komplizierte mathematische Argumentation mit einer einfachen Technik ersetzt, die viele Wiederholungen erfordert. Dabei werden Zufallszahlen genutzt (im Alltag: Pseudozufallszahlen. Diese verhalten sich wie richtige Zufallszahlen. Bei der gleichen Berechnung mit der gleichen Eingabe erhält man allerdings das gleiche Ergebnis). Auch wenn nicht explizit im Konzept erwähnt: Ein Beispiel der Nutzung wird in Anlage 1 dargestellt. Die Anwendung der Monte Carlo Simulation sollte nicht auf die Transportlängen von Radionukliden in Tonsteinen beschränkt sein.
11. Extrapolation
Datensätze haben einen kleinsten und einen größten Wert. Alles außerhalb dieses Intervalls ist unbekannt. Wenn bei Daten bekannt ist, dass es sich um eine Extrapolation (Ergebnis einer Interpretation) handelt, dann kann die Zuverlässigkeit nur dann eingeschätzt werden, wenn alle Details über den Datensatz und die Interpretationsmethode bekannt sind.
Es ist im Konzept nicht zu erkennen, wie diese Anforderung im Arbeitsalltag der Konzeptdurchführung adressiert wird.
12. Falsche positive Daten
Diese Daten zeigen an, dass ein Ereignis eingetreten ist, obwohl dies nicht der Fall war. Diese Daten treten häufig bei Tests auf. Wenn man nicht weiß, wie genau der Test ist, dann sagen Testergebnisse nichts.
Zur Erläuterung ein allgemeines Beispiel: Sie haben einen Test entwickelt, der mit dem Eintritt in den Ruhestand gemacht werden kann, und der mit 90%-tiger Sicherheit vorhersagt, ob jemand an Demenz erkrankt ist. Sie sind sehr stolz auf sich. Herkömmliche Tests haben lediglich eine Genauigkeit von 70%. Jeder in diesem Alter möchte wissen, ob seine Vergesslichkeit auf eine beginnende Demenz hindeutet.
Jeder kann entweder beruhigt werden, oder direkt damit beginnen, sich behandeln zu lassen.
Ihre Ärztin ist nicht begeistert. Sie rechnet Ihnen vor: Sie testet 100 Patienten. Davon haben wahrscheinlich drei Patienten eine Form von Demenz. Das ist die Häufigkeit, die aus der der Beobachtung von hunderttausenden Personen ermittelt wurde.
Davon entdeckt sie mit Ihrem Test eher zwei als drei, weil Ihr Test nicht unfehlbar ist. Daneben erhalten aber drei- bis viermal so viele Patienten auch das Ergebnis, dass sie eine Demenzerkrankung haben. Die alle machen sich dann unnötige Sorgen, und sie muss viel Aufwand betreiben, um die richtig zu identifizieren, und nicht falsch zu behandeln.
Das Problem tritt in vielen Sachverhalten auf, und führt, wenn nicht erkannt, zu fehlerhaften Einschätzungen.
In der Geologie ist dies ein Problem, weil eine einigermaßen zuverlässige Basis-Rate (wie oben: drei von einhundert) oft nicht vorhanden ist.
13. Falsche negative Daten
Das kennt man zur Genüge aus der Corona Pandemie. Man hat an einer etwas größeren Veranstaltung teilgenommen. Alle waren geimpft, keiner hatte Symptome, alle waren auch negativ getestet. Trotzdem hat sich ein Fünftel der Teilnehmer mit dem Virus angesteckt.
In der Regel erfüllten die Tests nicht einmal oder so gerade eben die vorgegebenen minimalen Anforderungen der Weltgesundheitsorganisation (WHO). Demnach sollten die Tests mindestens 80% der infizierten Menschen identifizieren und bei zumindest 97% der nicht Infizierten die Infektion korrekt ausschließen. Zudem ändert sich das zu testenden Virus auch noch, ohne dass man weiß, wie zuverlässig der Test für einzelne Varianten ist.
Im Kontext der Endlagersuche sind dies Daten, die zu dem Ausschluss von Teilgebieten führen, auch wenn die Interpretation der Daten, die zu dieser Entscheidung geführt hat, fehlerhaft ist.
Es ist im Konzept nicht gut zu erkennen, wie die BGE die vorhandenen Daten, Interpretationen und Informationen beurteilt, um zu bestimmen, zu welcher Art sie gehören. Besonders die Arten fünf bis acht bieten oft einen guten Einstieg in die weitere Exploration eines Sachverhaltes, der anscheinend nur wenige Ungewissheiten enthält.
Anscheinend ist das Forum nicht die Stelle, wo inhaltliche Auseinandersetzungen mit dem Konzept stattfinden, auch wenn sich im Forum die Möglichkeit bietet, dann zu kommunizieren, wenn man an den offiziell angebotenen Terminen zeitverhindert ist.
Auch wenn das Feedback bis jetzt sehr übersichtlich ist, möchte ich einen weiteren Gesichtspunkt erläutern, der mir beim Lesen des Konzepts Problem bereitet hat.
Daten, besonders Zahlen, sprechen nie für sich selbst, sie werden durch eine Interpretation mit Bedeutung aufgeladen. Das Konzept erläutert wie mit den vorhandenen Informationen umgegangen wird. Ich hatte in obigen Kommentaren Beispiele erläutert, die zeigen, dass anscheinend relativ wenig Daten direkt interpretiert werden, und stattdessen zugelieferte Interpretationen genutzt werden, um daraus neue Interpretationen zu erstellen.
Das ist im Alltag auch die Regel: Es werden die Informationen über einen Sachverhalt genutzt. Die Daten in diesem Sachverhalt werden nicht separat davon erneut analysiert und beurteilt. Auch wenn dies hilft, im Alltag gut zurechtzukommen, ist dies bei einer Exploration nicht immer nur nützlich. Das kann unabsichtliche Fehler verursachen. Deshalbmuss zwischen unterschiedlichen Arten/Kategorien von Daten unterschieden werden, um Ungewissheiten besser einschätzen zu können.
Eine derartige Darstellung unterstützt auch eine strukturierte Auseinandersetzung mit dem Konzept. Es folgen nun zur Illustration 13 Arten von Daten, die in Explorationsvorhaben unterschieden werden.
1. Daten, von denen die BGE weiß, wie sie entstanden sind
Bei diesen Daten weiß die BGE alles, um die Qualität, Eignung, … beurteilen zu können. Diese daten bilden das Fundament von zuverlässigen Informationen, weil sie nicht falsch interpretiert werden können. Aus den mir zugänglichen Informationen ist nicht zu erkennen, ob die BGE überhaupt solche Daten hat und nutzt, oder ob bis auf wenige Ausnahmen immer Informationen (Daten mit vorhandenen Interpretationen) genutzt werden.
2. Daten, von denen die BGE weiß, dass es sie gibt, diese aber fehlen
Aus dieser Kenntnis ergeben sich Aktionen: Entweder kann die BGE sich die Daten beschaffen (Geologiedatengesetz), oder nicht.
Es wird davon ausgegangen, dass die BGE weiß, was sie benötigt. Es ist unklar, ob die BGE die Daten auf bekommt, und die Expertise hat, spezifische Messdaten auswerten zu können.
3. Daten, von denen die BGE nicht weiß, dass es sie gibt
In der Regel wird man sich im Verlauf einer Exploration darüber bewusst, dass es diese Art von Daten gibt, oder zumindest geben könnte. Es werden neue Arten von Daten entdeckt. Das Verständnis, und die Kenntnisse über spezifische Sachverhalte wachsen.
Man weiß dann, was noch alles benötigt wird, um den Sachverhalt besser zu verstehen und Ungewissheiten reduzieren zu können. Hierzu gehören auch Daten, die notwendig sind, um vorher nicht verstandene Kausalzusammenhänge erklären zu können.
Wenn herausgefunden wurde, dass die bisher verwendeten Daten nicht ausreichen, dann kann man sich auf die Suche nach den notwendigen Daten machen. Ich hatte vermutet, dass das Konzept auch diese Kategorie von Daten adressieren soll, und hatte dies im Ausblick auf die Ergebnisse vermisst.
4. Daten, die eine Auswahl aus den vorhandenen Daten darstellen
Dies kann absichtlich und unabsichtlich geschehen. Solange die BGE auf der Grundlage von zugelieferten Informationen arbeitet wird dies schwierig oder gar nicht zu nicht zu erkennen sein. Es ist nicht zu erkennen, wie dieses Problem im Kontext der Lieferungen von Informationen von Landesämtern o.ä. adressiert wird (siehe Kommentar zu bedeutsam, zuverlässig).
Es gibt eine Vielzahl von Möglichkeiten, beginnend mit dem Weglassen von Daten, die nicht in die geologische Interpretation zu passen scheinen, scheinbar Messfehler darstellen, dann, wenn Fehler bei der Zusammenstellung der Daten gemacht werden, und weiteres mehr.
5. Daten, die existieren würden, wenn sich der Sachverhalt anders entwickelt hätte
Viele Sachverhalte entwickeln sich, weil bestimmte Aktionen geschehen, die dann den Sachverhalt ändern. In diesem Fall ist dies die Entwicklung der Endlagersuche durch die Umsetzung des Konzepts, so wie es veröffentlicht wurde. Nach der Umsetzung wird der jetzige Zustand kaum wiederhergestellt werden, um mit einem anderen Ansatz völlig neu zu starten.
Daten, die nur dadurch verfügbar geworden wären, indem bestimmte andere Aktionen abgelaufen wären, sind nicht dann verfügbar. Sie können nicht für Einsichten und Interpretationen genutzt werden. In einigen Kommentaren wurde deshalb angeregt, die Arbeiten im Zeitrahmen des Konzepts zu erweitern.
6. Daten, die nur existieren, weil sich der Sachverhalt in einer bestimmten Art entwickelt hat
Viele Sachverhalte entwickeln sich. Sie sind dann anders als vorher. Der vorherige Zustand kann nicht mehr wiederhergestellt werden. Daten, die nur dadurch verfügbar geworden sind, weil bestimmte Aktionen abgelaufen sind, stellen nur einen Ausschnitt aus dem dar, was für diese Art von Sachverhalten möglich ist.
Einsichten und Interpretationen sind dadurch beschränkt. Oft führt dies zu der illusorischen Sicherheit, alles verstanden zu haben.
Man vermisst nichts. Man weiß nicht, was man alles wissen könnte/müsste, wenn man anders verfahren wäre. Oft führt dies zu Mehraufwand und Nacharbeit.
In der Regel wird dies nur durch eine Betrachtung im Nachhinein erkannt, was nicht bedeutet, dass daraus Konsequenzen gezogen werden, etwas gelernt wird, und dieser Gesichtspunkt in Zukungf berücksichtigt wird.
7. Daten, die einen Status der Vergangenheit darstellen, ohne dass die BGE das erkennen kann.
Viele Daten benötigen eine zeitliche Einordnung, damit beurteilt werden kann, ob, und wenn ja, wie sie genutzt werden können. Gerade Geodaten werden in der Regel zusammen mit einer Interpretation geliefert, damit der Sinn verstanden werden kann. Die Interpretation ist oft abhängig von dem Zeitpunkt, an dem sie gemacht wurde, mit dem damals vorhandenen Wissen.
Die Lagerstättenexploration macht sich das zu Nutze, indem alte Daten begutachtet, und möglicherweise anders interpretiert werden können und müssen. (Ich war in meinem Berufsleben an der Entwicklung mehrerer Ölfelder beteiligt, die zum Teil Jahrzehnte früher hätten gefunden werden können, wenn die reflexionsseismischen Daten richtig prozessiert und interpretiert worden wären, keine Fehler beim Erwerb von petrophysikalischen Daten in der Bohrung passiert wären, und … und …)
8. Daten, die andere Daten zusammenfassen
Das berühmt-/berüchtigtste Beispiel sind Durchschnittswerte. Dabei wird alles versteckt, was notwendig ist, um den Sachverhalt zuverlässig zu verstehen. Man weiß nichts über die Verteilung der Daten, die Größe des Datensatzes, die kleinsten und die größten Werte.
Dies sind in der Regel keine Daten, dies ist eine Information, bei der die Interpretation nicht nachvollzogen werden kann. Für eine Exploration sind Durchschnittswerte ziemlich nutzlos.
9. Daten mit Messfehlern
Zu diesem Thema gibt es umfangreiche Fachbücher. Die Probleme beginnen dann, wenn man nicht weiß, dass die Daten Messfehler enthalten (können). Die Zuverlässigkeit kann dann nicht richtig beurteilt werden. Deshalb existiert eine Ungewissheit, die nicht (einfach) gezielt aufgelöst werden kann.
In dem Konzept ist nicht zu erkennen, wie dieses Problem im Kontext der Lieferungen von Informationen von Landesämtern o.ä. adressiert wird. Da diese Institutionen die Erstellung der Information meist nicht direkt selbst verantworten, sondern auf Zulieferungen aus der Industrie angewiesen sind, wird der Einfluss von Messfehlern möglicherweise unterschätzt. Dies hilft nicht bei einer gezielten Reduzierung der Ungewissheit.
10. Künstliche Datensätze als Arbeitsmittel
Diese Art von Daten wird bei der Nutzung bestimmter statistischer Methoden verwendet. Bei der Methode der Monte Carlo Simulation wird eine komplizierte mathematische Argumentation mit einer einfachen Technik ersetzt, die viele Wiederholungen erfordert. Dabei werden Zufallszahlen genutzt (im Alltag: Pseudozufallszahlen. Diese verhalten sich wie richtige Zufallszahlen. Bei der gleichen Berechnung mit der gleichen Eingabe erhält man allerdings das gleiche Ergebnis). Auch wenn nicht explizit im Konzept erwähnt: Ein Beispiel der Nutzung wird in Anlage 1 dargestellt. Die Anwendung der Monte Carlo Simulation sollte nicht auf die Transportlängen von Radionukliden in Tonsteinen beschränkt sein.
11. Extrapolation
Datensätze haben einen kleinsten und einen größten Wert. Alles außerhalb dieses Intervalls ist unbekannt. Wenn bei Daten bekannt ist, dass es sich um eine Extrapolation (Ergebnis einer Interpretation) handelt, dann kann die Zuverlässigkeit nur dann eingeschätzt werden, wenn alle Details über den Datensatz und die Interpretationsmethode bekannt sind.
Es ist im Konzept nicht zu erkennen, wie diese Anforderung im Arbeitsalltag der Konzeptdurchführung adressiert wird.
12. Falsche positive Daten
Diese Daten zeigen an, dass ein Ereignis eingetreten ist, obwohl dies nicht der Fall war. Diese Daten treten häufig bei Tests auf. Wenn man nicht weiß, wie genau der Test ist, dann sagen Testergebnisse nichts.
Zur Erläuterung ein allgemeines Beispiel: Sie haben einen Test entwickelt, der mit dem Eintritt in den Ruhestand gemacht werden kann, und der mit 90%-tiger Sicherheit vorhersagt, ob jemand an Demenz erkrankt ist. Sie sind sehr stolz auf sich. Herkömmliche Tests haben lediglich eine Genauigkeit von 70%. Jeder in diesem Alter möchte wissen, ob seine Vergesslichkeit auf eine beginnende Demenz hindeutet.
Jeder kann entweder beruhigt werden, oder direkt damit beginnen, sich behandeln zu lassen.
Ihre Ärztin ist nicht begeistert. Sie rechnet Ihnen vor: Sie testet 100 Patienten. Davon haben wahrscheinlich drei Patienten eine Form von Demenz. Das ist die Häufigkeit, die aus der der Beobachtung von hunderttausenden Personen ermittelt wurde.
Davon entdeckt sie mit Ihrem Test eher zwei als drei, weil Ihr Test nicht unfehlbar ist. Daneben erhalten aber drei- bis viermal so viele Patienten auch das Ergebnis, dass sie eine Demenzerkrankung haben. Die alle machen sich dann unnötige Sorgen, und sie muss viel Aufwand betreiben, um die richtig zu identifizieren, und nicht falsch zu behandeln.
Das Problem tritt in vielen Sachverhalten auf, und führt, wenn nicht erkannt, zu fehlerhaften Einschätzungen.
In der Geologie ist dies ein Problem, weil eine einigermaßen zuverlässige Basis-Rate (wie oben: drei von einhundert) oft nicht vorhanden ist.
13. Falsche negative Daten
Das kennt man zur Genüge aus der Corona Pandemie. Man hat an einer etwas größeren Veranstaltung teilgenommen. Alle waren geimpft, keiner hatte Symptome, alle waren auch negativ getestet. Trotzdem hat sich ein Fünftel der Teilnehmer mit dem Virus angesteckt.
In der Regel erfüllten die Tests nicht einmal oder so gerade eben die vorgegebenen minimalen Anforderungen der Weltgesundheitsorganisation (WHO). Demnach sollten die Tests mindestens 80% der infizierten Menschen identifizieren und bei zumindest 97% der nicht Infizierten die Infektion korrekt ausschließen. Zudem ändert sich das zu testenden Virus auch noch, ohne dass man weiß, wie zuverlässig der Test für einzelne Varianten ist.
Im Kontext der Endlagersuche sind dies Daten, die zu dem Ausschluss von Teilgebieten führen, auch wenn die Interpretation der Daten, die zu dieser Entscheidung geführt hat, fehlerhaft ist.
Es ist im Konzept nicht gut zu erkennen, wie die BGE die vorhandenen Daten, Interpretationen und Informationen beurteilt, um zu bestimmen, zu welcher Art sie gehören. Besonders die Arten fünf bis acht bieten oft einen guten Einstieg in die weitere Exploration eines Sachverhaltes, der anscheinend nur wenige Ungewissheiten enthält.