Zusammenfassung (Abstract). Untersucht wird ein Quantenalgorithmus zur Modellierung von Wechselwirkungen der Atome innerhalb eines Moleküls, vorgestellt durch Schütt, Gastegger, Tkatchenko, Müller, Maurer 2019 in „nature“; im folgenden „SGTMM-Algorithmus“.
∴
.
Knappe 3 Jahre ist es her, als ich über die Fortschritte von Rainer Blatt’s Qubit-Forschung und der damit verbundenen Hoffnung auf ganz neue Werkstoffe in dem nachfolgend verlinkten – Post berichtete. Dies hat zunächst die üblichen Bedenkenträger auf den Plan gerufen: „braucht kein Mensch“, „zu teuer“, „geht auch einfacher“ und ja und überhaupt 🙄. Dann tauchten darunter aber auch andere Stimmen auf, die neben der verständlichen Frage, wie das denn funktionieren solle, eben die Kernfrage stellten: warum schafft es ab 36, 40 oder wieviel auch immer Atomen im Molekül nur der Quantencomputer? Anders ausgedrückt, warum liegt die Grenze zur „quantum primacy“ ausgerechnet bei dieser Größenordnung von Qubits im Quantenregister? Genau dieser Fragestellung widmet sich die vorliegende AG.
Leser, die an dieser Stelle womöglich fragen werden, ob es denn nicht eine Nr. kleiner geht, kann ich wohl ein wenig beruhigen. Denn auch diese AG hat – wie jede andere „AG Energetik“ auch – unverändert den Zweck der Vermittlung von Methoden der Erkenntnisgewinnung…💡 Außerdem stützen wir uns hier auf einen bereits fertig konzipierten Algorithmus, der kürzlich in der Zeitschrift „Nature“ unter »https://www.nature.com/articles/s41467-019-12875-2« vorgestellt worden ist. Wir nennen es „SGTMM-Algorithmus“ (nach den Namen dessen Urheber); das Paper der Studie ist im Anschluss an die AG eingebettet. Mit anderen Worten, wir erfinden hier keinen modifizierten oder gar neuen Quantenalgorithmus, sondern betrachten vielmehr bekannte Sachen unter einem anderen Blickwinkel; vgl. Tutorial zu Deutsch-Jozsa-Problem.
Untersucht wurde das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung. Fazit: Berücksichtigt man vollumfänglich die effektiv bereitgestellte bzw. anderweitig abgezwackte Pufferungsenergie, so gab es in den letzten Jahren in Puncto Beitrag zur Energieversorgung gar ein Negativwachstum bei den „Erneuerbaren“. Während die Pufferungsenergie insbesondere bei Wind überproportional stieg, sackte der gepufferte EROI spätestens 2019 unter 1 ab.
TE LE GR AM
Aufmerksamen Lesern der „AG Energetik“ wird aufgefallen sein, dass der Titel vom Teil 1 unserer AG zur »Sättigung bei den „Erneuerbaren…“ « vom ursprünglichen „κ- (Kappa) Effekt“ in „χ- (Chi) Effekt“ abgeändert worden ist. Nun hat dies folgende Bewandtnis. Auf der Suche nach den Ursachen der einwandfrei beobachteten Sättigungseffekte bei den „Erneuerbaren“ stellte sich heraus, dass die gewonnene Brutto-Energie mit dem weiteren Zubau der „Erneuerbaren“ eben nicht Schritt hält. Den korrespondierenden Differenzen-Quotienten haben wir eben als „χ- (Chi)“ bezeichnet:
; „u“ steht für unbuffered – dazu gleich mehr.
Nun wollen wir uns im 2. Teil der AG der klassischen Pufferung widmen. Wir vermuten nämlich stark, dass diese einen weitaus höheren Einfluss auf die Sättigungseffekte haben dürfte, als das ungepufferte – und erst recht, wenn man die Pufferungsenergie umfangreicher auffasst, als dies gemeinhin der Fall ist.
Der κ- (Kappa-) Effekt. Die AG Teil 2
.
Um den gepufferten Koeffizienten zu ermitteln, kommen wir nicht umhin, uns genau plausibel zu machen, was mit der Pufferungsenergie gemeint ist. Es handelt sich nämlich um diejenige Energie (bzw. graue Energie von technischen Vorrichtungen), die für die Pufferung „extra“ bereitgestellt werden muss. Energie wiederum, die so oder so da ist und nicht speziell durch die Pufferung erzwungen wird, zählt hingegen nicht zu dazu. Dies haben wir im Teil 1 an folgenden Beispielen festgemacht:
» Beispiele:
1) Das Stromnetz selbst hat eine (wenn auch eine äußerst geringe) Speicherkapazität, die zur Pufferung von EE’s genutzt wird. Die Aufwendungen, die damit verbunden sind, können jedoch nicht aufs -Konto gerechnet werden, da das Stromnetz „so oder so“ da ist. Muss es hingegen ausgebaut werden, um z.B. mit zunehmender Menge an volatilem Strom fertig zu werden, zählen diese Aufwendungen, etwa die graue Energie, ganz klar zu dazu;
2) Ein Wasserkraftwerk, das z.B. einen kleinen Windpark intermittierend puffert, hat einen begrenzten Wasserzufluss, also erzwingt der Windpark selbst keinen „suboptimalen“ (weil gedrosselten) Betrieb, wie dies z.B. beim Kohlekraftwerk, das auf 60% der Nominalleistung fährt, der Fall ist. Verluste an den Wasserturbinen entstehen so oder so, früher oder später. Dies funktioniert freilich nur so lange, bis der Stausee voll- oder leerläuft. 😳 «
Soweit so gut. Die Frage, die sich einem interessierten Leser sofort aufdrängt, ist wohl die, inwieweit sich das Szenario aus Beispiel 2 auf eines mit einem konventionellen- statt Wasserkraftwerk übertragen lässt. Nun, entgegen dem Eindruck, den man auf den ersten Blick gewinnen kann, unterscheiden sich beide Szenarien ganz prinzipiell voneinander: Ein KKW (Kohle- oder Kernkraftwerk – je nach Gusto) verfügt nämlich nicht über einen angeschlossenen Speicher in Form von einem Stausee. So läuft es zwar bei Dunkelflaute im günstigen Nominalbereich, aber sobald es windiger und/oder sonniger wird, muss das KKW herunter gedrosselt werden, damit der „Ökostrom“ kraft EEG in die Netze aufgenommen werden kann.
Selbstverständlich werden solche Phasen in der EE-Branche wie auch in den EE-affinen Medien frenetisch bejubelt...🙄 Eine ganz kurze energetische Analyse des Sachverhaltes zeigt jedoch, dass die EE in einem solchen Szenario in hohem Maße parasitär wirken. Sie rauben nämlich dem KKW seinen EROI, indem sie seine Energieernte verhindern, entschädigen es aber keineswegs bei der Gestehungsenergie – von einem suboptimalen 60%-Betrieb ganz zu schweigen. Dabei ist diese „geraubte“ Energie schon alleine von der Kausalität hier schlicht die Pufferungsenergie und zählt somit vollumfänglich zu dazu!
Um die energetische Zumessung ein wenig zu üben (und auch um den EE-Fan bei Laune zu halten) machen wir einen Abstecher und untersuchen eine typische Nischenanwendung in Form von privater PV-Anlage -im folg. „PPV“. Wir wissen zwar aus den Untersuchungen der Schweizer Wissenschaftler ➡, dass der gepufferte EROI bei PV unter 1 liegt, aber so einfach ist die Sache nicht. Wie so häufig, steckt der Teufel im Detail und dieses Detail heißt auch hier die Pufferung. Denn das, was ein industrieller EE-Betreiber nicht machen kann – nämlich die Produktion antizipieren und ein Demand-Management betreiben – schafft’s der Eigenheim- und PPV-Besitzer u.U. sehr wohl. Verzichtet er auf die Einspeisevergütung, aus den vorhin genannten Gründen, bleibt er bei fossiler Heizung (da ansonsten die saisonalen Schwankungen durch nichts auszugleichen wären) etc. so kann er durch ein ausgeklügeltes Demand Management zusammen mit dem Elektroauto, den Klimaanlagen, Kühlschränken etc. einerseits sein minimieren, anderseits die Stromspitzen sinnvoll verwerten und zwar ohne einen gesonderten energetischen Aufwand. Dies funktioniert freilich nur dann, wenn er sich all die eAutos, Weinkühlschränke etc. auch ohne die PV zugelegt hätte 😉. Aber auch wenn wir dies wohlwollend unterstellen, kommen wir nicht über einen EROI von 3 oder (im Süden) 4 hinaus! Der Grund ist das ans Lebensende der PV-Anlage anzuschließende Recycling, das u.U. als Plasmarecycling extrem hohe energetische Kosten nach sich zieht. Nun ja… Physik ist manchmal schrecklich unbarmherzig...👿
➡ Es handelt sich um eine Studie von Ferruccio Ferroni, Alexandros Guekos und Robert J. Hopkirk aus dem Jahre 2016
.
Soweit so gut. Allerdings wird sich der Leser der beiden AG’s an dieser Stelle womöglich fragen, was denn diese Überlegungen mit dem eigentlichen Gegenstand der beiden AG’s zu „Sättigungseffekten“, insb. die des vorliegenden Teil 2, zu tun haben. Nun, das sieht man spätestens dann, wenn man versucht die Pufferungsenergie direkt zu berechnen. Denn offensichtlich dürfte es enorm schwierig werden zu ermitteln, welche Energien und in welchem Umfang zu zu zählen sind und welche nicht. Diese Berechnungen würden den Rahmen und auch die Ressourcen der „AG Energetik“ sprengen. Aber nun eröffneten unsere bisherigen Überlegungen eben eine andere Möglichkeit zu ermitteln und zwar mittels des Ausschlussverfahrens. Denn wir wissen nicht zuletzt aus all den stolzen 🙄 Verlautbarungen der Ökobranche, wieviel „Ökostrom“ (brutto!) im Jahre X abgegeben wurde – auf der anderen Seite kennen wir die gesicherte Leistung ➡ der EE sowie die verfügbaren Speicher mitsamt deren Kapazitäten, Wirkungsgraden, EROI’s etc.:
Dabei ist die „gesicherte“ ➡ Energie, während für die aus dem Speicher steht; „“ für Vorratsbecken im Pumpspeicherkraftwerk 😀.
➡ Als gesicherte Leistung gilt eine über 99.5% der Betriebszeit hinweg bereitgestellte Leistung. Die korrespondierende „gesicherte“ Energie bezeichnen wir als . .
Mit anderen Worten, all das, was auf gesicherte oder netto gepufferte Leistung zurückgeht, ist effektive Nutzenergie, während der Rest schlicht ist; man könnte auch mit Fug und Recht vom „Energiemüll“ sprechen 👿. Jedenfalls können wir den Pufferungskoeffizienten – immer noch als Verhältnis des ungepuffertem zu gepuffertem EROI – wie folgt angeben:
Eigentlich ist alles klar. Bei einem konventionellen Kraftwerk ist die gesamte Energie, die es abgibt, gleichzeitig die gesicherte Energie, also gilt . Hingegen ist das gleich Null, denn das KWK kann höchstens, falls eine Fehlplanung vorliegt, einem trocken gelaufenen PSW (Pumpspeicherkraftwerk) sein Wasserbecken auffüllen, was wiederum eine völlig andere Geschichte wäre…😉. Jedenfalls gilt für konventionelle Kraftwerke nun einmal , was bei den EE eben nicht der Fall ist. Ob die Faktoren von 4 bei Windkraft und 2.5 bei Solarkraft, wie es das bekannte Diagram nebenan suggeriert, wirklich stimmen, das wollen wir freilich genau wissen.
Was die gesicherte Leistung bei der Windkraft anbelangt, so liegt diese mit etwas über 130 MW gerade so im Bereich der OnBoard-Leistung der „Akademik Lomonosow“ 😛. Die betr. Jahresproduktion von immerhin nicht-volatilem Strom beträgt somit stolze 1.15 TWh. Der Rest müsste dann freilich dem Speicher kommen und hier geht der Katzenjammer erst so richtig los. Denn die einzig brauchbare Speichertechnologie sind in der Tat die Pumpspeicherwerke (PSW). Alles andere – P2G, P2H etc. – weist z.T. so miserable Wirkungsgrade auf, dass deren Beitrag zur Bereitstellung von Speicherkapazitäten derzeit noch zu vernachlässigen ist. Von den PSW hat Deutschland 35 an der Zahl und deren „Leistung“ wird mit 6.7 GW angegeben. Das hört sich erst einmal nicht schlecht an, denn das wären immerhin 6 EPR’s. Aber bei näherem Hinsehen entpuppt sich alles doch als der sprichwörtliche Tropfen auf heißen Stein. Denn die Gesamtkapazität all dieser PSW’s beträgt nur ca. 38 GWh. Was das wiederum heißt, zeigt ein kurzes Review auf unser vorheriges Beispiel 2.
Wir machen wir folgendes Gedankenexperiment. Unser Speicher ist zunächst leer. Dann kommt quasi wie gerufen ein kräftiger Wind auf, so dass wir es auf 6.7 GW bringen – eine Last, die unsere PSW gerade so schultern können. Wir lassen den Speicher auf 38 GWh voll- und anschließend, ebenfalls mit 6.7 GW, wieder leerlaufen. Beide Vorgänge dauern (unter Idealbedingungen) gleich lang und zwar jeweils knappe 6 Stunden.
Demzufolge geben unsere Speicher im Schnitt 3,3 GW her, wovon wir 2.5 GW auf den Windstrom zurückführen wollen – macht eine jährliche Windstrom-„Produktion“ von 22 TWh, was nach Abzug von Friktionsverlusten, Gestehungsenergie etc. 13-15 TWh per anno ergibt. Und wie es der Zufall will, ergibt dies für den Anfang der Dekade bei einer Stromproduktion um die 50 TWh einen um die 4 . Dem aufmerksamen Leser dürfte diese Zahl irgendwie bekannt vorkommen – vgl. Diagram nebenan! →
Und da haben wir es, unser „qed“! Denn seit Anfang dieser Dekade hat sich an den PSW-Kapazitäten so gut wie gar nichts geändert, während die (brutto) Windstrom-Produktion um den Faktor 2.5 stieg. Und so liegt bei der Winkraft im Jahre 2019 bei etwa 10 😳 – will heißen, dass der gepufferte EROI selbst bei Offshore-Wind mittlerweile unter 1 liegt 😯.
Nachtrag vom Januar/Oktober 2020
Zu den häufigsten Einwänden, die uns seit der Veröffentlichung der AG erreicht haben, gehört wohl jener betreffend der Rechenart, gewissermaßen „Zählart“. Denn diese sei zwar berechtigt – Energie die zur Unzeit kommt, ist und bleibt Energiemüll – aber eben nicht üblich und von daher verwirren die ermittelten EROI ein wenig, da man nicht wisse, welcher Rechenart diese jeweils entstammen würden.
Nun, um dieser Euren dankenswerten Anregung zu genügen, haben wir die folgende Unterscheidung vorgenommen. Den herkömmlich gepufferten EROI – also ohne die Entsorgung von Überschüssen – nennen wir einfach „weak buffered“, im Gegensatz zu „full buffered“, der diese „Müllentsorgung“ sehr wohl berücksichtigt. Dies führt zu der Projektion wie auf dem Diagramm nebenan dargestellt ⇒
Zunächst ist klar, dass bei den konventionellen Kraftwerken die Balken gleich lang sind; diese haben keine Pufferung nötig. Gleiches haben wir der Biomasse zugebilligt, wobei hier eine gewisse saisonale Schwankung zu beobachten sein und so den grünen Balken wohl etwas kürzer ausfallen lassen dürfte. Dies ist im Falle von Wasserkraft eindeutig der Fall, auch wenn wir diesen Effekt bei einer sehr gnädigen Schätzung bewenden lassen möchten.
Allerdings so richtig interessant wird es erst in der Kategorie „PV (häuslich)“. Denn was nicht nur einem aufmerksamen Leser 😉 aufgefallen sein dürfte, ist, dass entgegen der Erstfassung der AG die beiden gepufferten EROI eben nicht gleich sind; will heißen, dass selbst eine self-managed PV ➡ nicht um eine Entsorgung der Lastspitzen ins öffentliche Netzt umhin kommt. Zumindest dann nicht, wenn man sie nicht sinnlos verpuffen lässt!
Was den Verfasser dazu veranlasst hat, diese Einschätzung zu korrigieren?? Nun, es waren schlicht eigene einschlägige Erfahrungen mit einer „self-managed PV“, deren Eckdaten hinsichtlich Pufferung kaum günstiger hätten ausfallen können: Ein typisches Small-Office in einem konventionell beheizten und nicht bewohnten Einfamilienhaus, mit einer 14.8 kWp Ost/West-PV inklusive 120 kWh-Elektroauto-Batterien, mit einem Pool und noch paar anderen prozyklisch wirkenden Vorrichtungen. Dennoch, an den sonnigen Sommertagen müssen mehrere kWh ins Netz entsorgt, an den dunklen Wintertagen wiederum vom Netz bezogen werden. Von daher ist es schlicht eine Illusion zu glauben, die Pufferung durch proaktives Handeln bzw. inteligentes Demand-Management erschlagen zu können. Ob nun eine hauseigene oder eine „self-managed“ PV – es gilt stets !
Die vorliegende AG hat belegt, dass die infrastrukturellen Anforderungen bereits bei eAuto-Quote von 2/3 enorm sind. An einem „Tag der Blechlawine“ sind bei einem Bestromungsfaktor (der gesamten Verkehrsleistung) von lediglich 1/3 sage und schreibe 5 MW Leistung je 10 km Autobahn vonnöten. Es kommt noch erschwerend hinzu, dass diese Leistung bereits am darauffolgenden Tag nur noch zu einem Bruchteil gebraucht werden wird. Den so schwankenden Anforderungen kann nur mit Hilfe von POD-Kraftwerken (power on demand), womöglich mit mobilen Ladestationen, begegnen. Für ein wenigstens eingeschränkt mobiles POD-Kraftwerk ist der Dual Fluid Reaktor DFR bestens prädestiniert.
TE LE GR AM
Im Januar 2012, also noch lange vor der Zeit der „AG Energetik“, schrieb ich den Blogbeitrag „Energiewende – Elektromobilität ade!“, dem ich (damals ein Novum!) eine fundierte energetische Berechnung zugrunde legte und zwar: Anhand des durchschnittlichen Verbrauchs aller PKW in Deutschland (seinerzeit gut 1000 Liter/s 😯) errechnete ich über den Canot-Prozess eine durchschnittliche Stromlast bei 100% Elektromobilität in Höhe von 20 GW. Trotz einer klaren Bestätigung dieser Zahl durch eine einfache Gegenrechnung ➡ erlebte ich in den letzten Jahren immer wieder ein hartnäckiges Leugnen und Bestreiten dieses doch so klaren Sachverhaltes. So vermochte z.B. jemand, der für Verbreitung von EE-Märchen nicht ganz unbekannt ist, diese Zahl auf 5 GW zu reduzieren. Und wie? Na mittels Car-Sharing…😀 Continue reading „New Mobility – New NUC“→
Untersucht wird das Store Checkin Problem (SCinP), d.h. die Suche nach einem geeigneten Lagerplatz für einen Container in einem Containerhafen. Dabei spielt der Zusammenhang zwischen der Ladung des einzulagernden Containers und jener der umherliegenden Container eine wichtige Rolle, auch und gerade eingedenk der Brandkatastrophe im Containerhafen Tianjin 🙁. Dieser Umstand weckt quasi automatisch eine Assoziation mit der quantenmechanischen Superposition. Die vorliegende AG untersucht daher die theoretische Existenz eines Quantenalgorithmus, der die erforderliche (Containerhafen-) Iteration evtl. in einer hyperlinearen Laufzeit verrichten könnte; frei nach Grove-Algorithmus in .
TE LE GR AM
Stellen wir uns vor, keine geringere als die „Sovereign Maersk“ ➡ wird demnächst in einen Containerhafen reinlaufen, wo ihre 7.500 Container gelöscht werden sollten. Die Aufgabe für das hafenweite Dispositionssystem besteht nun darin, für all die Container mitsamt den unterschiedlichen Inhalten geeignete Stellplätze zu finden und diese zu reservieren. Dabei handelt es sich selbstverständlich um rein elektronische Vorgänge, die mit der heutigen IT auch machbar erscheinen – entsprechende Datenbanken mit allumfassenden Informationen über die gegenwärtige Belegung des Containerhafens stets vorausgesetzt. Dass aber eine solche Aufgabe trotz modernster IT alles andere als trivial ist und mit noch so schnellen Prozessoren immer noch laufzeitkritisch werden kann, sei an dieser Stelle schon mal vorweggenommen: Das vorliegende Tutorial wird zeigen, dass das Durchstöbern eines Containerhafens nach geeigneten Lagerplätzen für ein paar Tausend Container naturgemäß laufzeitkritisch ist!
➡ Die Sovereign Maersk – Schiffe zählen zu den Post-Panamax-Containerschiffen und verfügen über eine Kapazität von 6600 TEU (beladene Container mit je 14 Tonnen Gewicht), beziehungsweise 8160 TEU an echten Stellplätzen. .
Eine einfache Überlegung, die an dieser Stelle nicht näher vorgestellt werden sollte, die aber durch Beobachtungen im Alltag durchaus gestützt wird, zeigt, dass ein Containerhafen im Schnitt in etwa so viele disponible Containerplätze haben sollte, wie der (Container-) Jahresumsatz ist. Im Falle von Shanghai wären es 40.000 Stellplätze durchschnittlich. Unsere Aufgabe anhand des Beispiels von Shanghai besteht demzufolge darin, eine Datenbank mit 40.000 Einträgen zu durchlaufen (zu „iterieren“) und die Eignung des jeweiligen Stellplatzes für den einzulagernden Container zu prüfen. Zu der äußerst diffizilen „Eignungsprüfung“ ➡ als Funktion von einer Reihe von Stellplatz- und Container-Parametern später mehr.
Für jeden Kenner der Algorithmentheorie ist dieser Fall klar: die Laufzeit einer solchen Datenbank-Iteration geht linear mit dem Umfang derselben, was mit dem Operator markiert wird (das „“ steht hier für unsere 40.000 Container-Stellplätze). Demzufolge ist die Laufzeit einer vollen Datenbank-Iteration über 40.000 virtuelle „Stellplätze“ offensichtlich – stets vorausgesetzt, dass das (also die Latenzzeit einer Eignungsprüfung ) für alle Stellplätze gleich ist, was in der Praxis weitgehend der Fall ist.
➡ Die Einzeleignungsprüfung ist das entscheidende Momentum für den vorliegenden Algorithmus. Formell handelt es sich um eine Funktion, die eine Reihe von Stellplatz-Paramatern auf „0“ („nicht geeignet“) oder „1“ („geeignet“) abbildet: . Natürlich kann man die Funktion erweitern, indem man eine Art Punktesystem macht und damit eine differenzierende Antwort heraus bekommt. .
Im Folgenden setzen wir für 0.1ms=100μs (Mikrosekunden) an und nehmen somit den künftigen technischen Fortschritt vorweg. Denn alleine die I/O-Operationen auf den modernsten Datenträgern dauern derzeit (Stand Anfang 2019) ungefähr so lang. Unter dieser Annahme dauert eine Datenbank-Iteration 4 Sekunden lang und das hört sich erst mal nicht dramatisch an. Allerdings dürfen wir die übrigen 7499 Container 😀 nicht vergessen, die ebenfalls auf ihre Iterationen warten. Claro, nicht jeder Container wird es brauchen. Denn wenn ich mehrere nahezu identisch beladene rechne, weiß ich aus der ersten Iteration (durch das Punktesystem), was die geeigneten Stellplätze für die anderen sind. Dennoch müssen wir von dem berühmten worst case ausgehen, denn nur dieser beschreibt die immanente Komplexität eines Algorithmus wirklich.
Die Laufzeit fürs virtuelle Löschen unserer voll und heterogen beladenen „Sovereign Maersk“ beträgt demnach:
und das sind immerhin 8 Stunden und 20 Minuten Laufzeit 😯
An dieser Stelle wird sich der Leser möglicherweise fragen wie ist denn kommt, dass in Seehäfen wie Shanghai nicht alles buchstäblich stillsteht… Denn bei einer nunmehr 8-stündigen Beanspruchung ganzer Rechenzentren (Laufzeiten von 100 µs fürs sind nur mit Multinode-Computing möglich) müsste das ja über die meiste Zeit hinweg der Fall sein.
Nun, die Antwort liegt in einer Optimierung des vorliegenden Algorithmus. Eine dieser Optimierungsoptionen haben wir bereits zuvor aufgezeigt: man pickt sich gleichartig bestückte Container heraus und errechnet für diese die geeigneten Stellplätze in nur einer Datenbank-Iteration (dies setzt freilich voraus, dass uns nicht der berühmt-berüchtigte worst case einholt). Eine andere Möglichkeit besteht darüber hinaus darin, bestimmte Bereiche des Containerhafens von der Zuteilung für eine zu löschende Ladung gänzlich auszuschließen und so die Zahl geringer zu halten.
All das kann man natürlich machen – nur hört der Spaß spätestens dann auf, wenn jemand der Verlockung unterliegt und unmittelbar ans heran geht, indem er die Einzeleignungsprüfung aufweicht. Dass dieses „Optimierungspotenzial“ verlockend ist, liegt in der Natur der Sache. Zum einen kennen die Umsätze in den Seehäfen nur eine Richtung, nämlich nach oben, während der rechtliche Rahmen, etwa in Puncto Gefahrgut-Handling, Versicherung, Brand- und Strahlenschutz, Datenschutz etc. immer enger gezogen wird. Die Zeit arbeitet also gnadenlos gegen uns: das Optimierungspotenzial wird allmählich ausgeschöpft und der technische Fortschritt (Moorsches Gesetz) vermag dies nicht aufzufangen. Mit anderen Worten, wir laufen immer mehr in eine Zwickmühle hinein zwischen immer höheren Anforderungen auf der einen und nur begrezt vielen Möglichkeiten auf der anderen Seite. Die Fragestellung dieser AG lautet, kann uns der Quantencomputer aus dieser Zwickmühle heraushelfen?
Im Jahre 1996 stellte der Mathematiker Lov Grover einen Quantenalgorithmus vor, der in einer unsortierten Datenbank einen bestimmten Inhalt auffindet. Die Laufzeit , die ja für jedwede Datenbank-Iteration unumgänglich ist, konnte auf sensationelle gesenkt werden 😯. Die Frage, die wir uns vorliegend stellen, lautet, kann der Grove-Algorithmus – freilich in einer für uns geeigneten Modifikation – unsere Stellplatz-Datenbank ebenfalls in iterieren? Und wenn ja, wäre damit unser Store Checkin Problem in einer nicht-kritischen Laufzeit gelöst?
Nun, letztere Frage kann man nur mit einem klaren Ja beantworten. Denn die Quadratwurzel aus 40.000 ergibt 200 und das mal 100 μs genommen bedeutet nur einen Sekundenbruchteil für eine volle Datenbank-Iteration. Bei dieser Laufzeit bräuchten wir keinerlei Kompromisse einzugehen – das virtuelle Löschen von unserer „Sovereign Maersk“ würde nur wenige Minuten dauern.
Die andere Frage, nämlich die nach der Korrespondenz des Grove-Algorithmus zur betreffenden Datenbank-Iteration, ist hingegen gleich mehrere Bits komplizierter. Es ist klar, dass sich die Stellplatz-Datenbank für den Grove-Algorithmus nahezu anbietet. Der Teufel 👿 dürfte aber im Detail stecken. Denn die alles entscheidende Frage lautet: Können wir die immanenten Eignungszahlen in Qubits abbilden?
Nach meinem Dafürhalten ist es der Fall, d.h. es existiert sehr wohl ein Quantenalgorithmus, der die vorliegend geforderte Iteration in verrichtet. Diese Vermutung ist vorläufig das einzige (Zwischen-) Resultat der vorliegenden AG, die somit – wie die AG übers QDD seinerzeit auch schon – mit einem an die Außenwelt gerichteten Ruf nach Hilfe zunächst endet.
Der Erntefaktor (EROI) einer energetischen Anlage gehört zu den am meisten missverstanden Kennzahlen in der energetischen Physik. Es kommt noch erschwerend hinzu, dass die immer weiterer verfeinerten Ermittlungsmethoden des EROI insbesondere die „erneuerbaren Energien“ immer schlechter haben aussehen lassen. So entstand ein handfestes wirtschaftliches Interesse an Missdeutungen bzw. Relativierungen dieser Kennzahl. Die vorliegende AG sollte all den Fakenews entgegen treten.
TE LE GR AM
Noch bis vor ein paar Wochen hätte ich über den Erntefaktor einer energetischen Anlage (im folgenden verwenden wir das englische „EROI“) gesagt, dieser sei eine allenthalben wohl verstandene physikalische Größe. Denn weder in den Social-Media-Threads noch in den Schulveranstaltungen, etwa Gastvorträgen etc. hatte ich bis dato Anhaltspunkte für irgendwelche Verständnisschwierigkeiten im Zusammenhang mit dieser Kennzahl festgestellt.
Doch dies hat sich in den letzten Wochen und Monaten grundlegend verändert. Auf einmal prasselten Fakenews auf mich ein, die ich früher nicht für möglich gehalten hätte. Dabei ist grundsätzlich zwischen zweierlei Kategorien zu unterscheiden: Die einen sind diejenigen, denen der Sachverstand in Physik schlichtweg fehlt. ➡ Sie haben gar nicht verstanden, welche energetische Umwandlungsprozesse z.B. in einem Kernkraftwerk stattfinden und können somit den EROI aus objektiven Gründen gar nicht erfassen. Und da gibt es aber auch jene, die offensichtlich das Ziel verfolgen, den für die „Erneuerbaren Energien“ ungünstigen EROI zu relativieren. Dabei haben wir zuletzt eine Reihe von z.T. grotesken Auswüchsen dieser eiligst bemühten Parawissenschaft erlebt, von denen wir einige auf den nachfolgenden Screenshots abgebildet haben.
Wir unterscheiden innerhalb der AG nicht zwischen diesen beiden Gruppen – sprechen stattdessen neutral von „Denkfehlern“, mit welchem Hintergrund auch immer.
➡ zu meinem Erstaunen zählte zu dieser Kategorie ein Opponent aus der Schweiz, der Physiklehrer sein bzw. gewesen sein wollte… 😈 . .
EROI. Die Definition .
Ob WKA oder KKW – alle Energie-„Erzeuger“ (eigentlich „Umwandler“) wandeln in einer Kette von Umwandlungsprozessen Primärenergie in Endenergie um, d.h. in jene Form, in der wir die Energie haben, also „ernten“ wollen. In den beiden nachfolgend verglichenen Fällen ist die Endenergie jeweils die elektrische, während die Primärenergie ein Bit komplizierter ist. Klar, bei einer WKA ist es schlicht die kinetische Windenergie, aber bei einem Kernkraftwerk? Die Antwort ist schlicht: die Masse! Denn ja, am Anfang der Umwandlungskette steht in der Tat die in der Masse gem. E=mc2 „versteckte“ ➡ Energie.
➡ Demzufolge sprechen manche an dieser Stelle von der einzig realisierten „echten“ Energieerzeugung (aus Masse eben), während es sich ansonsten lediglich um eine Energieumwandlung handelt. Wie dem auch sei: dieses Beispiel verdeutlich doch am besten, wie unsinnig es ist, die Primärenergie zu der Gestehungsenergie dazu zu rechnen 😯; hierzu gleich mehr unter „Denkfehler“ .
Wofür steht dann der EROI? Nun, ganz bestimmt nicht für das Verhältnis End-/Primärenergie, was ja der klassische Wikungsgrad wäre. Nein, der EROI beschreibt schlicht und ergreifend, wie energieintensiv das Kraftwerk oder die Anlage ist. Genauer: wieviel Energie muss in die Anlage hineinfließen, um die gewünschte Energieumwandlung zustande zu bekommen; dies relativ zu der am Ende geernteten Energie, versteht sich:
Soweit so gut – kennen wir eigentlich. steht für die „geerntete“ Energie (somit Endenergie), für die „Gestehungsenergie“. Letztere ist eben jene summarische Energie, die über den gesamten Lebenszyklus der Anlage hinweg – von deren Gestehung mitsamt der Brennstoffe (well-to-wheel), über Maintenance bis hin zur Entsorgung – umzusetzen ist, um… Achtung!!! …um eben den Umwandlungsprozess Primär-zu-Endenergie zustande zu bringen (zu „gestehen“). Die Primärenergie des Prozesses zu dessen Gestehungsenergie dazu zu rechnen, ist eine Art Tautologie 😉 und gehört zu den meist verbreiteten EROI-Denkfehlern; s. ff. 💡 Continue reading „Wenn da nicht der EROI wär‘, wär‘ ich ein Physikär ;-)“→
Untersucht werden Möglichkeiten der Nachbehandlung bzw. Weiterverwertung von Spaltnukliden, die als Reststoffe einen schnellen Brutreaktor – z.B. den Belojarsker BN800’er oder einen künftigen DFR etc. – verlassen. Es sollten Optionen sowohl einer energetischen Weiterverwertung als auch einer radiotoxischen Entschärfung dieser Stoffe ausgelotet werden. Die Grundidee beim Letzteren besteht darin, die Zerfallsnuklide länger im Reaktor zu belassen und deren Zerfall abzuwarten.
TE LE GR AM
Man kann vortrefflich darüber debattieren, ob eine solche Fragestellung sehr viel an jenem Aufklärungspotential in sich birgt, was das Hauptanliegen der „AG Energetik“ ausmacht. So erfuhr ich im Vorfeld zwar nicht gleich harsche Kritik, aber schon etwas kritische Hinterfragungen, frei nach dem Motto, wen interessiert schon der Rest von dem ursprünglich so problematischen „Atommüll“? Man sollte doch darin nicht mehr „rumwühlen“ und außerdem leistet man dadurch einem Framing der Anti-Atomkraft Bewegung Vorschub, die zu jeder Lösung im Bereich der Kernenergie das passende Problem braucht.
Doch gerade das mit dem Framing sehe ich ganz anders. Vielmehr meine ich selber einen Frame zu setzen und zwar um die Frage nach all den Brütern und schnellen Neutronen überhaupt! Für mich ist Genenation 4 eben nicht mehr die Frage des Ob, sondern evtl. des Wie bzw. Wann. Oder aber „Was taugen Reststoffe von…“. Ganz bewusst frage ich nicht „wohin damit“. Wenn das kein Framing ist… 😉
Soweit so gut. Damit ist aber die Frage immer noch nicht beantwortet, was das alles mit dem Hauptanliegen der „AG Energetik“ zu tun hat, das unverändert darin besteht, eine Aufklärung in Physik zu betreiben, Methoden der Erkenntnisgewinnung zu vermitteln etc. Nun, diese Frage scheint dann doch relativ einfach zu sein. Denn die Erfahrungen gerade mit Quantencomputing haben gezeigt, dass eine noch so abgehobene Physik die wirklich Wissbegierigen zumeist jungen Leute überhaupt nicht abschreckt; eher ist das Gegenteil der Fall. Fragen à la „Was passiert, wenn wir den Brennstoff länger im Reaktor belassen?“ oder „Wie reagieren Spaltnuklide, denen wir eine Neutronendusche verpassen?“ zeugen von einer doch sehr großen Gier nach Informationen und zwar in einer Disziplin, die immer noch zu den unerwünschten da politisch nicht korrekten 🙄 dazu zu rechnen ist.
Und bei dieser Begründung für die Namensgebung unserer AG wollen wir es auch bewenden lassen. Denn es würde den Rahmen des Blogs klar sprengen, mögliche Anwendungsgebiete für all die Spaltnuklide der Aktinide zu erörtern. Klar, bei einem Blick auf https://en.wikipedia.org/wiki/Fission_products_(by_element) läuft einem das Wasser im Mund zusammen. Denn da gibt es allerhand wertvolle Stoffe – von seltenen Erden über Refraktärmetalle bis hin zu Edelmetallen – häufig bereits in stabiler (also nicht-strahlender) Form. Dennoch lassen wir es mit dem lapidaren Hinweis auf die Fachliteratur gut sein und konzentrieren uns fortan auf die Frage, ob und wenn ja, wie die radioaktiven Spaltnuklide, etwa die problematischen 137Cs und 90Sr, radiotoxisch entschärft werden können. Mit anderen Worten, wir legen nun los unter der eigentlichen Überschrift:
Wie kann man die Radiotoxizität der Reststoffe loswerden? Die AG Teil 1
.
Bereits ein kurzer Blick auf die rechte Hälfte der obigen Tafel lässt einen schon staunen. Denn dass die Spaltung von 235U eine Fülle von Isotopen hervorbringen würde (die dann womöglich jeweils anders zu behandeln wären) lässt sich nun wahrlich nicht behaupten. Vielmehr sehen wir eine überschaubare Anzahl von Nukliden – gerade mal ein Dutzend – die sich offensichtlich in zweierlei Gruppen aufteilen lassen:
Dazwischen sowie unterhalb MLFP’s wie auch oberhalb der LLFP’s gibt es schlicht nichts und das verspricht schon mal die Sache zu vereinfachen. Denn auch wenn unser DFR nicht dafür gedacht ist, ausgerechnet das 235U zu spalten, sind obige Isotope Bestandteil von dem sog. „Atommüll“, also kommen sie zunächst als Brennstoff in den DFR rein, sofern sie von der PPU nicht von vorne herein abgetrennt werden. Dass letzteres nicht sinnvoll ist – dazu gleich mehr.
Ein zweites und viel interessanteres Merkmal, das die Zerfallsnuklide ebenfalls voneinader unterscheidet, ist der sog. (Neutronen-) Resonanzquerschnitt ➡, wobei für uns der Einfangsquerschnitt von besonderem Interesse ist. Was gleichermaßen wie bei der Halbwertszeit sofort auffällt, ist, dass es ebenfalls zweierlei Gruppen gibt, in die sich die Zerfallsprodukte einteilen lassen. Es handelt sich auf der einen Seite um Nuklide mit einem im Bereich von ein paar Barn, bis sogar darunter und auf der anderen Seite um solche mit im Bereich einiger kbarn (Kilobarn); letztere haben wir zuvor grün markiert.
➡ (Neutronen-) Resonanzquerschnitte (auch „Wirkungsquerschnitte“) kann man sich vortrefflich als Zielscheiben vorstellen. Trifft ein Neutron genau ins „Schwarze“, ist die Wahrscheinlichkeit eine Resonanz (also eine wie auch immer geartete Wechselwirkung, Eindringen in den Target-Kern etc.) zu erzielen, nahe 1. Je mehr wir uns von dem Mittelpunkt entfernen, umso geringer wird die Wahrscheinlichkeit einer Wechselwirkung, bis sie außerhalb der Zielscheibe praktisch ausgeschlossen ist. Die Fläche dieser imaginären Zielscheibe ist gerade der Resonanzquerschnitt und wird in Barn angegeben: 1 barn = 10-28 m2. .
Einfangsquerschnitte von einigen Kilobarn, wie wir sie bei den „grünen“ Isotopen ausgemacht haben, bedeuten jedoch nichts anderes, als dass der Neutroneneinfang praktisch sofort erfolgt, also unmittelbar nach Entstehung des jeweiligen Nuklids bzw. nach dessen Beimischung als Brennstoff aus dem sog. „Atommüll“.
Beispiel Europium. 155Eu, mit seinen 3.95 kbarn (!), fängt sich im Nu ein Neutron ein. Das daraus resultierende 156Eu ist mit einem unter 1 barn vor weiteren Neutronen einigermaßen sicher – u.U. Zeit genug um es abzutrennen (dem Flüssigsalz-Kreislauf zu entziehen) und in aller Ruhe den β– Zerfall abzuwarten (die Halbwertszeit von 156Eu beträgt 15 Tage). Das hochwertige und stabile 😮 Gadolinium kann bereits nach einigen Wochen „geerntet“ werden:
Untersucht wird das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung. .
Das Fazit der AG ist wirklich niederschmetternd für die Windkraft- und Solarindustrie – ja, man kann mit Fug und Recht von einem Super-GAU sprechen. Denn wie zuvor vermutet, hat sich der Negativtrend bei den χu-Koeffizienten auch in den Jahren 2019-2021 fortgesetzt. Folglich wird bereits der ungepufferte EROI mit zunehmendem Ausbau der „EE“ immer schlechter und zwar allem technischen und technologischen Fortschritt zum Trotz! Berücksichtigt man ferner noch die Pufferung (was eine anderweitige AG in ihrer Fortsetzung untersuchen wird), dürfte der Nachweis für eine „EE-Sättigung“ endgültig erbracht sein! Ein weiterer Zubau von Wind- oder Solar würde dann nahezu vollständig verpuffen und das viel apostrophierte Ziel „100% EE“ als physikalisch unerreichbar ausweisen.
TE LE GR AM
Motivation. Hintergründe
.
Am 15. September 2015 schloss die AG „Energieeffizienz von Windkraftanlagen“ mit der für so manche (aber eben nur für manche 😉) überraschenden Erkenntnis, nämlich, dass der energetische Gewinn aus Windkraftanlagen mit der installierten Leistung derselben nicht Schritt hält. Der im Laufe dieser AG geprägte Terminus hierfür, der meinen Namen mitführte, gelangte seinerzeit – aus welchen Gründen und auf welchen Umwegen auch immer – zu Google und so reagiert die Suchmaschine bis heute auf den „Effekt“, den ich hier nicht noch einmal explizit nennen möchte. Zu schreiben, es hieße nicht „St…-Effekt“ sondern „Betzscher Effekt“, erhöht ja bekanntlich nicht nur die Rankings vom letzteren…
In der Tat sprach ich persönlich eher vom „Betzschen Effekt“ und untermauerte in der AG den beobachteten Effekt mit dem Betzschen Gesetz, das die Energieausbeute aus einer WKA von der 3’er Potenz der Windgeschwindigkeit abhängig macht.
Allerdings hatte ich von Anfang an Zweifel daran eingeräumt, ob es mit dem Betzschen Effekt alleine wirklich getan sei. Das obige Diagramm jedenfalls scheint da kaum einen Unterschied zur Sonne zu suggerieren, bei der es diese „Betzsche“ 3’er Potenz bekanntlich gar nicht gibt.
Nach der Erstveröffentlichung des „Algorithmus zur quantenmechanischen Datenübertragung“ – seinerzeit noch unter der Bezeichnung „EPR“ – am 2. März 2017, erfuhr ich aus dem Netz ein Feedback, was ich eingedenk der „Trockenheit“ der Materie so nicht erwartet hätte. Überrascht hat mich vor allem das häufig geäußerte „faszinierend!“ – auch und gerade von denjenigen, die ansonsten in einer unnachahmlichen Freimütigkeit zugaben, nicht allzu viel davon verstanden zu haben.
Ich persönlich kann mir diese doch recht überraschende Reaktion nur dadurch erklären, dass die Aussicht auf eine Datenübertragung mit Überlichtgeschwindigkeit bzw. über einen abhörsicheren „Kanal“ eben jene Faszination hervorruft, die die Hemmschwellen zur Quantenmechanik bzw. gar Quanteninformatik etwas absinken lässt. So wird im Allgemeinen gespannt zugehört, man lässt sich alles noch mal und noch mal erklären, man schreckt nicht vor jeder banalen mathematischen Gleichung in einem Beitrag zurück (ein Effekt, den ansonsten jeder Buchverlag zu Genüge kennt 😉 Continue reading „QDD – ein Algorithmus zur quantenmechanischen Datenübertragung“→
Irgendwann mal die Tage jährt sich zum 10. Mal die sog. „KiKK-Studie“, des Bundesamtes für Strahlenschutz (BfS), die eine Korrelation zwischen Kinderleukämie und der Nähe des Wohnortes zu den Kernkraftwerken 🙄 belegt haben wollte… und es wider besseres Wissen bis heute immer noch tut, wenn auch in einer inzwischen stark relativierten Form… Und es jährt somit auch und insbesondere die wohl größte Blamage für die deutsche Wissenschaft nach dem 2. Weltkrieg, denn nichts anderes als das ist wohl der Sermon, dessen aktuelle Form man sich auf der weiter unter verlinkten Website reinziehen kann.
Anno 2007 fand ich die Studie nicht nur falsch, sondern auch „kriminell“ und „verhetzerisch“. Theoretisch waren es auch diese und ähnliche Epitheta, die mir die Androhung rechtlicher Schritte durch einen anonymen Blogger (der ein Mitglied des Forscherteams gewesen sein wollte… 😉 Continue reading „Die KiKK-Studie und das Gesetz der kleinen Zahlen“→