EROÏ – Energy Return of Invested Impact

»
Konzipiert wurde ein „Energy Return of Invested Impact“ \eta_\text{ii}, der im Gegensatz zum reinen EROI \eta_\text{b} dem Impact in die Biosphäre Rechnung tragen sollte. Wir nennen es EROII bzw. EROÏ. Die einzige Energieform, bei der der EROÏ dem EROI praktisch gleicht, ist eindeutig die Kernenergie. Mit einigen Abstrichen lässt sich Ähnliches mit einem Gaskraftwerk bzw. einer eigens gemanagten PV-Anlage auf einem (bereits vorhandenen!) Dach annähernd erzielen. Bei der Windkraft hingegen differieren EROII und EROÏ um den Faktor 5 voneinander, weshalb es sich hierbei um die am meisten zerstörerische Energieform handelt. Sie sollte vollumfänglich eingestellt werden.
TE
LE
GR
AM
EROI unbuffered, weak/full bufferedaus der AG „Sättigungseffekte bei den EE“

 

Wenn es überhaupt etwas gibt, was die „AG Energetik“ in ihrer nunmehr bald 5-jährigen Geschichte ein Stück weiterentwickelt hat, dann ist es eindeutig das Konzept des EROI. Nicht umsonst wurde ich schon mal „Mr. EROI“ genannt :mrgreen:, was ich jedoch nur deshalb erwähnen möchte, weil diese Zuschreibung klar ironisch gemeint war und insofern keine Gefahr besteht, eine Menge dicke Luft zu produzieren😳

Jedenfalls haben all unsere ➡ AG’s eben zum Thema EROI eine Menge erforscht und interessante Resultate erarbeitet. So haben wir Methoden einer heuristischen Ermittlung des EROI am Beispiel der Offshoreparks „alpha-ventus“ sowie „Amrumbank West“ (Teil1, Teil2) kennengelernt und dabei den Pufferungs-Koeffizienten postuliert. Dieses \kappa_\text{.} haben wir dann im Rahmen der beiden AG’s über den χ- (Chi-) sowie den κ- (Kappa)-Effekt auf Fluxionsverhalten untersucht und dabei Abflachungs- bis Sättigungs-Effekte festgestellt. All das sind doch Erkenntnisse, die – so sie denn von den Entscheidern in Politik und Wirtschaft beherzigt worden wären – uns jede Menge Unheil hätten ersparen können.

Dennoch, bei all der bescheidenen Kompetenz in Sachen EROI, räume ich freimütig ein, dass diese Kennzahl nicht alles ist. Denn was der EROI definitorisch beschreibt, ist die Beanspruchung von energetischen Ressourcen einer Anlage, z.B. eines Kraftwerks, im (umgekehrten) Verhältnis zu der am Ende gewonnenen Nutzenergie. Hingegen, was hier allenfalls nur partiell erfasst wird, ist die Beanspruchung von natürlichen Ressourcen ➡ bei dem Gestehungsprozess; wir nennen es kurz und bündig „Impact“.

➡ bereits in einem alten Blogbeitrag https://stawarz.de/?p=217 im Frühjahr 2012 unter der Überschrift „the-END Studie“ („END“ stand für „Energiewende? Nein, Danke“) machte ich mir Gedanken über die Beanspruchung bzw. Verbrauch von natürlichen Ressourcen energetischer Anlagen, also Kraftwerke, Energiespeicher etc. Damals postulierte ich – in Anlehnung an die volumetrische bzw. gravimetrische Energiedichte bei den Energiespeichern – den Begriff der „ökometrischen Energiedichte“. Das war der erste Versuch den Impact ins Verhältnis zu dem Nutzen, etwa der Energieernte, zu setzen. In einer nachgeschalteten Studie »Impact „Erneuerbarer Energien“ in die Biosphäre« https://stawarz.de/?p=1166 versuchte ich den Impact an der statistischen Anzahl der Todesopfer (bezogen auf kWh Energiegewinn) festzumachen; dazu gleich mehr.
.

Betrachten wir zunächst einmal eine WKA auf der einen und eine PV auf der anderen Seite. Der EROI ist – egal wie gerechnet – stets 1-stellig, also von der gleichen Größenordnung, und dennoch ist der Impact offensichtlich diametral unterschiedlich. Denn die PV-Anlage auf dem Dach stört niemanden, die im Solarpark schon eher, aber auch nicht so arg – während alleine das monströse WKA-Fundament aus mehreren Tausend t Stahlbeton einen verheerenden Eingriff in die Natur darstellt. Ein anderer Vergleich gilt einem Kohlekraftwerk gegenüber einem Kernkraftwerk. Auch hier sind die EROI in beiden Fällen vergleichbar und dennoch unterscheidet sich die Statistik der Todesopfer gleich um mehrere Größenordnungen.

Beide Beispiele zeigen, dass der Impact über den EROI hinaus mindestens zwei weitere Komponenten zu haben scheint und zwar die ökometrische Energiedichte auf der einen sowie die „Deaths per PWh“ auf der anderen Seite. Was wir nun innerhalb dieser AG versuchen wollen, ist beide Komponenten energetisch zu quantifizieren.

Die Frage, die wir uns im ersteren der beiden Fälle stellen, lautet schlicht, wieviel Energie aufzuwenden wäre, um all die Schäden an der Umwelt – ob nun dauerhaft oder nicht – auszugleichen? Das ist noch unproblematisch, das kann man mit Fug und Recht fragen. Jedoch bei der 2. Komponente beginnt schon die erste ethische Problematik… Denn kann man bei den „Deaths per PWh“ guten Gewissens energetische (oder gar monetäre…😳) Äquivalente fürs menschliche Leben angeben? Nein, so unreflektiert sicher nicht! Auf der anderen Seite dürfte es noch schlimmer und menschenverachtender werden, dies völlig außer Betracht zu lassen. Dann halte ich doch mehr davon, es doch zu quantifizieren, dafür aber mit dem gebührenden Wert. Daher versehen wir den EROI mit einem Korrekturfaktor \epsilon_\text{ii} wie folgt:

\eta_\text{ii}=\eta_\text{b}\cdot\epsilon_\text{ii}=\eta_\text{b}\cdot\epsilon_\text{ii}^\psi\cdot\epsilon_\text{ii}^\delta\cdot=\eta_\text{b}\cdot\Big(\frac{1}{\psi_\text{eco}}\Big)\cdot\Big(1-\frac{\delta_\text{PWh}}{\text{200.000}}\Big)

EROÏ – Energy Return of Invested Impact. Die AG

.

EROI vs. EROÏ

Et voilà! Zunächst, was das ethisch nicht unproblematische \delta_\text{PWh} anbelangt, so ist die Sache wenigstens von der Arithmetik her gesehen trivial. Natürlich haben wir hier den Umrechnungsfaktor willkürlich auf 1:200.000 gesetzt, aber dies gilt nun einmal für alle Energien gleichermaßen. Klar ist, dass es auch andere Statistiken „how deadly is your kWh“ gibt, die bei diesem Umrechnungsfaktor zu merkwürdigen Ergebnissen geführt hätten. Allerdings beträfe dies wie gesagt alle Energien gleichermaßen, so dass sich hier keinerlei Bevorzugungen oder Benachteiligungen für oder gegen die eine oder andere Energieform herleiten lassen.

Was hier quasi vorneweg ganz besonders bös erwischt wird, ist eindeutig die Kohle, bei der das \epsilon_\text{ii}^\delta sage und schreibe 0.15 beträgt, was den EROÏ auf 4.5 absacken lässt 👿. Die Befürworter des Kohleausstiegs können also jubeln… während bei der Biomasse wie bei Wasserkraft die Korrektur mit einem \epsilon_\text{ii}^\delta von je etwa 0.88 eher noch überschaubar bleibt. Bei den Erneuerbaren ➡ – und erst recht bei der Kernkraft – beträgt das \epsilon_\text{ii}^\delta beinahe 1, ist also in diesem Zusammenhang vollkommen irrelevant.

Bei dem 2. Term, wo das \psi_\text{eco} drin steckt, wird die Sache hingegen ein Bit komplizierter. Zunächst müssen wir wohl auch hier einen Umrechnungsfaktor ansetzen, nicht zuletzt deshalb, weil auch das \epsilon_\text{ii}^\psi eine dimensionslose Größe bleiben muss. Die Frage, die wir uns nun stellen müssen, lautet, wie können wir dimensionslos den Bedarf an natürlichen Ressourcen via ökometrische Energiedichte beziffern? Wir schlagen vor, den „normalen“ Flächenbedarf eines Kraftwerks schlicht ins Verhältnis zur durchschnittlichen Leistung zu setzen; auch hier ist der Umrechnungsfaktor 1:50 [km2/MW] willkürlich gewählt.

➡ Wir wissen nicht zuletzt aus der AG »Impact „Erneuerbarer Energien“ in die Biosphäre« vom Oktober 2015, dass die „Deaths-per-PWh“-Statistiken für Erneuerbare nicht vollständig sind. Sie berücksichtigen insbesondere nicht die Abhängigkeit qua EROI von der wesentlich tödlicheren Kohle. Aber gnädig wie wir nun mal sind :mrgreen:, wollen wir dies hier zugunsten der EE außer Betracht lassen.
.

Wir setzen also an \psi_\text{eco}=50\cdot{P/A} .

Zunächst sehen wir auf Anhieb, dass die thermischen Kraftwerke – also Kohle-, Gas-, Biomasse-, Kernkraftwerke – hiervon quasi unberührt bleiben. Denn bei einer Leistung von mehreren Hundert Megawatt aus nur einigen Quadratkilometern resultiert eine sehr hohe Energiedichte, die im Kehrwert ≈1 ergibt.

Die Sache beginnt sich jedoch im Falle der Wasserkraft langsam zu relativieren. Denn je nach dem, was man alles zu der beanspruchten Fläche zählt – etwa die versiegelte Fläche, die Staudämme etc. – kommt man bei nur einigen Megawatt Leistung u.U. auf durchaus relevante Korrekturfaktoren. So errechneten wir für Wasserkraft einen Korrekturfaktor \epsilon_\text{ii}^\psi\cdot\epsilon_\text{ii}^\delta von 0.4, was den EROÏ auf 10 absacken lässt.

Bei der Fotovoltaik müssen wir indes aufpassen. Die Fläche, die ein Solarpark beispielsweise beansprucht, ist klar und einfach quantifizierbar. Allerdings ist es im Falle einer häuslichen PV-Anlage auf dem Dach nicht mehr so einfach, denn diese Fläche, zwar physikalisch einwandfrei beansprucht, war ohnehin als Nutzfläche verloren. Anders ausgedrückt, der Impact, der hieraus resultiert, ist praktisch Null.

Zu guter Letzt erlebt die Windkraft – ob Offshore oder Onshore – einen wahren Super-GAU in diesem Zusammenhang. Denn angewandt beispielsweise auf den Vorzeige-Offshore-Windpark Amrumbank West, mit 3,5 MW durchschnittlicher Leistung aus 35 km2 Fläche ergibt sich ein \psi_\text{eco} von 5, was den EROÏ weit unter 1 absacken lässt. Windkraft ist somit nicht nur gefühlt die mit dem allerhöchsten Impact verbundene Energieform.

.

.

Fessenheim-OUI – aber wie?

Nach dem three-eleven des Jahres 2011, also nach Fukushima, schlug ich im Blog der Badischen Zeitung unseren französischen Nachbarn vor, dem Druck der Fessenheim-Gegner nachzugeben und im Gegenzug einen Bailout in Sachen Reaktor-Upgrade zu verlangen. Aus der Oberrheinischen Umwelt-Initiative OUI wurde jedoch bekanntlich nichts… Schade 😳

Der heutige Tag ist für jeden waschechten Umweltschützer – und erst recht für einen Ökomodernisten, der ich nun einmal bin – zweifelsohne ein rabenschwarzer Tag. Denn nach etwas mehr als 42 Jahren Betriebszeit wird heute der erste der beiden M310-Reaktorblöcke des französischen Kernkraftwerkes Fessenheim, mit dem bis dato innewohnenden legendären Druckwasserreaktor CP0, wohl für immer heruntergefahren. Im Sommer geht dann auch der 2. Reaktorblock in den vorzeitigen Ruhestand und das dürfte es dann gewesen sein mit dem sauberen Strom und freiem Horizont in meiner Markgräfler Wahlheimat, zu der diese „Nuckibude“ irgendwie stets dazugehört hatte...😳

Auch wenn ich diesen zweifelhaften „Erfolg“ dem hiesigen „Trinationalen Atomschutzverband“ ➡ nur ungern gönne, so ist zunächst die Entscheidung der Betreiber sowie der französischen Regierung als die eines souveränen Staates selbstverständlich zu respektieren. Es ist freilich etwas anderes sich die Frage zu stellen, wie es dazu kommen konnte und vor allem, wie es denn weitergehen soll. Denn die Argumente, die gegen die Schließung von dem Meiler sprachen, wurden in den letzten Jahren immer mehr. Da waren die überaus ernüchternden Erfahrungen mit der deutschen „Energiewende“ auf der einen sowie der zunehmende Konsensus in Sachen CO2-Reduktion (weswegen auch immer) auf der anderen Seite. Und dann soll ausgerechnet nucleaire de Fessenheim, das eine einzigartige Symbiose mit dem benachbarten Wasserkraftwerk einging, vom Netz gehen?? Das verstehe wer will. Continue reading „Fessenheim-OUI – aber wie?“

Über das System Tesla

»
Das Reichweitenproblem von batteriegetriebenen Autos ist per se unaufhebbar; es resultiert schlicht und ergreifend aus den naturgemäß gegebenen Einschränkungen der (gravimetrischen) Energiedichte, zumindest solange wir bei der Ionen-Technik bleiben. Was wir allenfalls noch tun können, ist dieses Problem irgendwie zu umgehen bzw. es ein wenig handhabbarer zu gestalten. Wie das wiederum in der Praxis geht, zeigt der nachfolgende Langstrecken-Praxistests mit dem System „mV/s2“ (Tesla 😀, da \textstyle\mathrm{1\,T=1\,mV/s^2_. } gilt). Leider sind die im Text genannten Preise für den Supercharger-Strom in Frankreich inzwischen überholt. TE
LE
GR
AM
.
Tesla Model 3 LR 4WD
Langstreckentest: französische Autobahnen (130 km/h Tempolimit):
90% max. Zuladung, Außentemperatur unter 10°.
Verbrauch: 19.5 kWh = 4,50 € pro 100 km

Zu den mainstream-konsensualen Konstanten der veröffentlichten Meinung hierzulande zählt – neben dem baldigen Durchmarsch der „Erneuerbaren Energien“, dem sicheren Exit von Brexit oder dem kurz bevorstehenden Ende von Donald Trump – auch und insbesondere die baldige Pleite von Tesla. Jeden Tag lesen oder hören wir von den Milliarden und Abermilliarden Dollar, die Tesla in der und der Zeit verbraten würde, außerdem sei Tesla wie jedes andere BEV wegen der kurzen Reichweiten vollkommen alltagsuntauglich, ansonsten können die Amis gar keine Autos bauen 🙄 – und ja und überhaupt…

Nun könnte man bei derartigen Auslassungen einfach die Mundwinkel leicht hochziehen und zur Tagesordnung übergehen. Denn schließlich ist uns allen klar, in welchem Interessensfeld sich unsere Journaille bewegt. Gleichzeitig wird der sachkundigere Teil derselben, also die Börsen-Analysten und -Journalisten, durch ein so unkonventionelles Unternehmen wie Tesla, mit den verrückt scheinenden Ideen, der besonderen Message etc. regelrecht auf dem Plattfuß erwischt. So bleibt unseren Profis nichts anderes übrig, als die eigenen Vorhersagen zu relativieren und sie zeitlich in die Zukunft zu schieben… während Tesla unbeirrt die SuC-Infrastruktur ausbaut und deren energetische Versorgung womöglich bald ohne die Politik unter eigener Ägide regelt.

Also einfach „so what“ und alles gut? Mitnichten! Denn bereits ein kurzes Revue-Passieren-Lassen der letzten Monate lässt erkennen, wie falsch… ja, wie gefährlich eine solche Vorstellung ist! Angefangen von kleineren Firmen, über Stadtwerke, bis hin zu den Automobilherstellern – unter all denen finden sich zunehmend welche, die das BEV als gescheitert ansehen und zugunsten des „Wundermittels“ Wasserstoff (evtl. Synfuel, Bio2Power etc.) umsteuern. Das am häufigsten vorgebrachte Argument: die Reichweite; dazu gleich in der vorliegenden Mini-AG mehr.

➡ BMW Hydrogen 7 E68
Quelle © WikiCommons by Christian Schütt

An dieser Stelle wird mir zumeist entgegen gehalten „…lass die doch machen. Das Geld dafür scheinen die zu haben und vielleicht kommt dann doch was bei raus?“

Aber so einfach ist die Sache nicht. Denn erstens wissen wir nicht zuletzt aus den anderen AG’s, dass da nichts „bei rauskommt“. Und zweitens, es wäre für die Politik und Wirtschaft hierzulande langsam an der Zeit zu begreifen, dass wir es uns nicht mehr leisten können, mehrere Milliarden etwa in einem Projekt zur Wasserstoff-Verbrennung in einem gewöhnlichen Kolbenmotor ➡ zu versenken. Spätestens jetzt sollten insbesondere die Autobosse solche Phantasien aufgeben und sich stattdessen überlegen, was das System Tesla ausmacht. Einen kleinen Beitrag könnten die nachfolgenden Überlegungen zwar leisten, wenngleich sie es wohl eher nicht werden...

Was die Sache aber wirklich gefährlich macht – und was den eigentlichen Beweggrund für diese Mini-AG ausmacht – ist die Ähnlichkeit der Gemengelage zwischen 2011 und heute. 2011 hatten wir – damals bzgl. „Atomkraft“ – ein Feindbild, eine mächtige Lobby und eine breite Basis an Unwissen, tatkräftig unterstützt durch die Medien. Dann hat eine Knallgasexplosion in Japan gereicht um in einer Kurzschlussreaktion eine Entscheidung herbeizuführen, die zur Stunde immer noch nicht korrigiert ist und unter deren Folgen noch ganze Generationen zu leiden haben werden. Jetzt stellen wir uns einen Strom-Blackout vor, mit verheerenden Folgen. Der Verursacher ist schnell ausgemacht und deckt sich mit dem Feindbild, dem Elektroauto. Was läge dann näher als eine „Verkehrswende“ einzuläuten, das Elektroauto zu verbieten und den Wasserstoff fortan mit Bazookas zu pushen? Die Öko-, Auto-, Euro-Lobby – alle sind glücklich und die Qualitätspresse hält die wahren Hintergründe von uns fern… So haben wir weiterhin ein gutes Gefühl 👿.

Die AG

.

Supercharger in Frankreich „fahren“ bis zu 150 kW

Im vergangenen Herbst unternahm ich zusammen mit zwei Geschäftspartnern eine Tour nach Médoc. Die insgesamt 2700 km legten wir mit einem Tesla 3 LR AWD zurück. Ich beschreibe hier gezielt die Rückfahrt, da die Hinfahrt wegen vieler Umfahrungen etc. atypisch verlief.

So fuhren wir am Sonntag in aller Herrgottsfrühe los in Richtung des 1050 km entfernten Südbaden. Unsere erste Zwischenstation war der Flughafen Bordeaux-Merignac, wo ein Teilnehmer unserer Tour seinen Flug anzutreten hatte. Wir kamen mit einer ziemlich leeren Batterie an – kein Wunder, denn zum einen hatte es sich merklich abgekühlt und zum anderen zeigte sich der an die Grenze der max. Zuladung beladene Tesla (um welche Ladung es sich handelte, ist hier unerheblich 😉) nicht gänzlich unbeeindruckt hiervon. Der uns inzwischen wohl bekannte SuC war aber quasi um die Ecke, also kein Problem. Auto angeschlossen und dann ab ins Novôtel, wo wir uns ein Hotelfrühstück gegönnt haben. Hier ließen wir uns Zeit und fuhren dann um 7:20 Uhr mit einer ziemlich vollen Batterie weiter, um am SuC Brive-la-Gaillarde ein kurzes Intermezzo einzulegen. Schnell für kleine Jungs, Fahrerwechsel und gegen 10:00 Uhr ein „Weiter geht’s“. In Clermond-Ferrand eine kleine Panne, als der SuC den Ladevorgang abgebrochen hatte. Schnell restartet und dann gings gegen 11:55 Uhr schon wieder weiter Richtung Suc „Aire du Poulet de Bresse“. Hier ein knapp 1-stündiger Lunch bis 14:55 Uhr und mit voller Batterie weiter. Ankunft daheim um 17:45 Uhr. :mrgreen:

Supercharger [kWh]* Preis [€] Verweildauer/Bemerkungen
Merignac 56 13.44 45 Min. Novotel-Frühstücksbuffet ohne Hast in Anspruch genommen
Brive-la-Gaillarde 29 6.96 12 Min.
Clermont-Ferrand 51 12.24 30 Min. Ladevorgang zwischendurch unterbrochen, deshalb die Verweildaer
Aire du Poulet de Bresse 64 16.00 55 Min. An diesem SuC kostet die kWh 0.25 €, sonst 0.24 €.
*) Dass sich der Energieverbrauch auf exakt 200 kWh summiert, ist reiner Zufall. Dem ungläubigen Leser gegenüber kann ich es gerne belegen :mrgreen:
.
Der Supercharger Mâcon verfügt über 20 Ladepunkte à 150 kW, die aus den umliegenden Kernkraftwerken gespeist werden. Eine saubere Sache!

Welche Schlussfolgerungen sind aber hieraus zu ziehen, insbesondere, wer „punktet“ hier? Nun, den ersten Punkt macht hier erst mal ganz klar Frankreich mit dessen Kernenergie ! Denn für gerade mal 48 € bekamen wir eine gut verfügbare und relativ saubere Energie für unsere 1050 km – Heimreise. In Deutschland wäre diese Energie um einiges „dreckiger“ gewesen und mit max. 120 kW weniger verfügbar – gekostet hätte sie uns dennoch um die 70 €, wie bei einem sparsamen Diesel auch schon👿

Der zweite Punkt geht dann an Tesla als Auto. Wir blieben knapp unter 20 kWh pro 100 km und das trotz voller Zuladung und permanent betriebener Heizung, außerdem standen alle Systeme auf „Sport“. Der BMW i3, den ich auch mal unter ähnlichen Bedingungen getestet hatte, wäre wohl darüber gelegen und das bei deutlich bescheideneren Fahrleistungen und einem Komfort, der einfach auf einem ganz anderen Level angesiedelt ist.

Jedoch den mit Abstand wichtigsten Punkt macht hier eindeutig Tesla als System. Denn die Idee, die Supercharger in eigener Regie voranzutreiben, sie zu vernetzen etc. – und das alles ohne auf die Politik zu schielen 😉 – ist und bleibt einzigartig. Und es wird wohl für eine ziemlich lange Zeit eine fachliche wie intellektuelle Überforderung der Führungseliten nicht nur in Deutschland darstellen. Die Herrschaften werden ihre Zeit brauchen um zu verstehen, dass die Beschleunigung des Porsche Taycan nutzlos ist, wenn sie an der nächsten, bedauerlicherweise besetzten 😮 Ladesäule ihre Grenze findet…

Toyota Mirai, ein „Brennstoffzeller“. © Toyota USA.
FCV müssen in einem technisch wie zeitlich aufwändigen Verfahren mit über 100 L. flüssigen Wasserstoffs betankt werden.

Natürlich wird mich der kritische Leser jetzt fragen, wie ich denn darauf komme, das Reichweiten-Problem im System Tesla als gelöst oder zumindest so gut wie gelöst anzusehen, wo doch knappe drei Stunden Verweildauer an den Ladestationen nicht ganz ohne sind? Oder anders gefragt, was wäre denn mit einem Verbrenner – oder vielleicht mit einem künftigen Brennstoffzellauto – anders gewesen?

Nun, bei näherem hinschauen nicht allzu viel. Denn die zwei Stopps für die Mahlzeiten hätten wir auch mit einem Verbrenner eingelegt, außerdem hätten wir die Batterie über Nacht vollmachen und nach dem Frühstück gleich nach Brive la Gaillarde durchfahren können. Die zwei weiteren Stopps zwischendurch sind ebenfalls geschenkt, denn ohne den Unterbruch in Clermont-Ferrand wären gerade mal 30 Minuten draufgegangen. Einmal Tanken plus zweimal für kleine Jungs mit Espresso hätten aber kaum kürzer gedauert. Was also übrig bleibt, ist vielleicht ein bisschen mehr Planung, Optimierung im Vorfeld etc. und evtl. damit verbundene Einschränkung bei der Wahl der Stopps. Allerdings, eine echte Zeitersparnis hätten wir nur dann erzielt, wenn wir auf „Schnell-schnell“ gemacht hätten. Die Espressi in Pappbecher, Fastfood als Lunch ebenfalls „to go“ und dann schnell weiterfahren… ja, damit hätten wir eine gute Stunde eingespart. Aber auf welche und vor allem auf wessen Kosten? Denn gesund ist solche Hast wohl kaum, Fastfood ist es auch nicht und zur Erholung (und damit zur Verkehrssicherheit) tut’s nicht gerade positiv beitragen😳

.

https://www.facebook.com/rainer.stawarz/posts/2395699150645959

Ein Quantenalgorithmus für Molekulardesign

.

Zusammenfassung (Abstract). Untersucht wird ein Quantenalgorithmus zur Modellierung von Wechselwirkungen der Atome innerhalb eines Moleküls, vorgestellt durch Schütt, Gastegger, Tkatchenko, Müller, Maurer 2019 in „nature“; im folgenden „SGTMM-Algorithmus“.

.

Knappe 3 Jahre ist es her, als ich über die Fortschritte von Rainer Blatt’s Qubit-Forschung und der damit verbundenen Hoffnung auf ganz neue Werkstoffe in dem nachfolgend verlinkten – Post berichtete. Dies hat zunächst die üblichen Bedenkenträger auf den Plan gerufen: „braucht kein Mensch“, „zu teuer“, „geht auch einfacher“ und ja und überhaupt 🙄. Dann tauchten darunter aber auch andere Stimmen auf, die neben der verständlichen Frage, wie das denn funktionieren solle, eben die Kernfrage stellten: warum schafft es ab 36, 40 oder wieviel auch immer Atomen im Molekül nur der Quantencomputer? Anders ausgedrückt, warum liegt die Grenze zur „quantum primacy“ ausgerechnet bei dieser Größenordnung von Qubits im Quantenregister? Genau dieser Fragestellung widmet sich die vorliegende AG.

Leser, die an dieser Stelle womöglich fragen werden, ob es denn nicht eine Nr. kleiner geht, kann ich wohl ein wenig beruhigen. Denn auch diese AG hat – wie jede andere „AG Energetik“ auch – unverändert den Zweck der Vermittlung von Methoden der Erkenntnisgewinnung💡 Außerdem stützen wir uns hier auf einen bereits fertig konzipierten Algorithmus, der kürzlich in der Zeitschrift „Nature“ unter »https://www.nature.com/articles/s41467-019-12875-2« vorgestellt worden ist. Wir nennen es „SGTMM-Algorithmus“ (nach den Namen dessen Urheber); das Paper der Studie ist im Anschluss an die AG eingebettet. Mit anderen Worten, wir erfinden hier keinen modifizierten oder gar neuen Quantenalgorithmus, sondern betrachten vielmehr bekannte Sachen unter einem anderen Blickwinkel; vgl. Tutorial zu Deutsch-Jozsa-Problem.

.
s41467-019-12875-2
.
https://www.facebook.com/rainer.stawarz/posts/1821870624695484
.

„Project Planet A“ – das deutsche Manifest der Ökomoderne

.
» Deutschland, quo vadis?

© https://www.oekomodernismus.de

Die deutsche Energiewende und der angestrebte Kohleausstieg beschäftigen uns schon seit geraumer Zeit, weil der CO2-Ausstoß aus fossilen Energieträgern zunehmend als problematisch erkannt wird. In Deutschland haben wir bisher den Umstieg auf 40% erneuerbar erzeugten Strom geschafft. “100% Erneuerbare Energien” bis 2050 sind das Ziel, auf das derzeit unsere Regierung und besonders die Grünen hinarbeiten. Verschärft wird die aktuelle Diskussion durch die Jugendbewegung Fridays for Future. Continue reading „„Project Planet A“ – das deutsche Manifest der Ökomoderne“

Sättigung bei den „Erneuerbaren Energien“. Der κ (Kappa-) Effekt

»
Untersucht wurde das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung. Fazit: Berücksichtigt man vollumfänglich die effektiv bereitgestellte bzw. anderweitig abgezwackte Pufferungsenergie, so gab es in den letzten Jahren in Puncto Beitrag zur Energieversorgung gar ein Negativwachstum bei den „Erneuerbaren“. Während die Pufferungsenergie insbesondere bei Wind überproportional stieg, sackte der gepufferte EROI spätestens 2019 unter 1 ab. TE
LE
GR
AM
Die Treppenlinie für die installierte Leistung der Onshore-Windkraft © Rolf Schuster.
Der zeitliche Zubau wird so viel exakter wiedergegeben.

Aufmerksamen Lesern der „AG Energetik“ wird aufgefallen sein, dass der Titel vom Teil 1 unserer AG zur »Sättigung bei den „Erneuerbaren…“ « vom ursprünglichen „κ- (Kappa) Effekt“ in „χ- (Chi) Effekt“ abgeändert worden ist. Nun hat dies folgende Bewandtnis. Auf der Suche nach den Ursachen der einwandfrei beobachteten Sättigungseffekte bei den „Erneuerbaren“ stellte sich heraus, dass die gewonnene Brutto-Energie mit dem weiteren Zubau der „Erneuerbaren“ eben nicht Schritt hält. Den korrespondierenden Differenzen-Quotienten haben wir eben als  „χ- (Chi)“ bezeichnet:

\chi_\mathrm{u}+1:=\frac{E^{(\Delta{t})}_\vartriangleright/E_\vartriangleright}{P^{(\Delta{t})}_\text{i}/P_\text{i}} ; „u“ steht für unbuffered – dazu gleich mehr.

Nun wollen wir uns im 2. Teil der AG der klassischen Pufferung widmen. Wir vermuten nämlich stark, dass diese einen weitaus höheren Einfluss auf die Sättigungseffekte haben dürfte, als das ungepufferte \chi_\text{u} – und erst recht, wenn man die Pufferungsenergie umfangreicher auffasst, als dies gemeinhin der Fall ist.

Der κ- (Kappa-) Effekt. Die AG Teil 2

.

Um den gepufferten Koeffizienten \textstyle\chi_\text{b} zu ermitteln, kommen wir nicht umhin, uns genau plausibel zu machen, was mit der Pufferungsenergie \textstyle{E_\text{b}} gemeint ist. Es handelt sich nämlich um diejenige Energie (bzw. graue Energie von technischen Vorrichtungen), die für die Pufferung „extra“ bereitgestellt werden muss. Energie wiederum, die so oder so da ist und nicht speziell durch die Pufferung erzwungen wird, zählt hingegen nicht zu \textstyle{E_\text{b}} dazu. Dies haben wir im Teil 1 an folgenden Beispielen festgemacht:

» Beispiele:

OlivierMaire_Swisswinds_f2ec60f334
Eine Idylle, die hoffentlich Fotomontage bleiben wird.
© Olivier Maire. Swisswinds

1) Das Stromnetz selbst hat eine (wenn auch eine äußerst geringe) Speicherkapazität, die zur Pufferung von EE’s genutzt wird. Die Aufwendungen, die damit verbunden sind, können jedoch nicht aufs \textstyle{E_\text{b}}-Konto gerechnet werden, da das Stromnetz „so oder so“ da ist. Muss es hingegen ausgebaut werden, um z.B. mit zunehmender Menge an volatilem Strom fertig zu werden, zählen diese Aufwendungen, etwa die graue Energie, ganz klar zu \textstyle{E_\text{b}} dazu;

 

2) Ein Wasserkraftwerk, das z.B. einen kleinen Windpark intermittierend puffert, hat einen begrenzten Wasserzufluss, also erzwingt der Windpark selbst keinen „suboptimalen“ (weil gedrosselten) Betrieb, wie dies z.B. beim Kohlekraftwerk, das auf 60% der Nominalleistung fährt, der Fall ist. Verluste an den Wasserturbinen entstehen so oder so, früher oder später. Dies funktioniert freilich nur so lange, bis der Stausee voll- oder leerläuft. 😳 «

Soweit so gut. Die Frage, die sich einem interessierten Leser sofort aufdrängt, ist wohl die, inwieweit sich das Szenario aus Beispiel 2 auf eines mit einem konventionellen- statt Wasserkraftwerk übertragen lässt. Nun, entgegen dem Eindruck, den man auf den ersten Blick gewinnen kann, unterscheiden sich beide Szenarien ganz prinzipiell voneinander: Ein KKW (Kohle- oder Kernkraftwerk – je nach Gusto) verfügt nämlich nicht über einen angeschlossenen Speicher in Form von einem Stausee. So läuft es zwar bei Dunkelflaute im günstigen Nominalbereich, aber sobald es windiger und/oder sonniger wird, muss das KKW herunter gedrosselt werden, damit der „Ökostrom“ :mrgreen: kraft EEG in die Netze aufgenommen werden kann.

Selbstverständlich werden solche Phasen in der EE-Branche wie auch in den EE-affinen Medien frenetisch bejubelt...🙄 Eine ganz kurze energetische Analyse des Sachverhaltes zeigt jedoch, dass die EE in einem solchen Szenario in hohem Maße parasitär wirken. Sie rauben nämlich dem KKW seinen EROI, indem sie seine Energieernte verhindern, entschädigen es aber keineswegs bei der Gestehungsenergie – von einem suboptimalen 60%-Betrieb ganz zu schweigen. Dabei ist diese „geraubte“ Energie schon alleine von der Kausalität hier schlicht die Pufferungsenergie und zählt somit vollumfänglich zu \textstyle{E_\text{b}} dazu!

Eine PPV mit zwei Teslas und zwei hauseigenen Batterien.
Aber selbst im sonnigen Kalifornien ist es nur bei einem geeigneten Verhalten energetisch sinnvoll. © tesla.com

Um die energetische Zumessung ein wenig zu üben (und auch um den EE-Fan bei Laune zu halten) machen wir einen Abstecher und untersuchen eine typische Nischenanwendung in Form von privater PV-Anlage -im folg. „PPV“. Wir wissen zwar aus den Untersuchungen der Schweizer Wissenschaftler ➡, dass der gepufferte EROI bei PV unter 1 liegt, aber so einfach ist die Sache nicht. Wie so häufig, steckt der Teufel im Detail und dieses Detail heißt auch hier die Pufferung. Denn das, was ein industrieller EE-Betreiber nicht machen kann – nämlich die Produktion antizipieren und ein Demand-Management betreiben – schafft’s der Eigenheim- und PPV-Besitzer u.U. sehr wohl. Verzichtet er auf die Einspeisevergütung, aus den vorhin genannten Gründen, bleibt er bei fossiler Heizung (da ansonsten die saisonalen Schwankungen durch nichts auszugleichen wären) etc. so kann er durch ein ausgeklügeltes Demand Management zusammen mit dem Elektroauto, den Klimaanlagen, Kühlschränken etc. einerseits sein \textstyle{E_\text{b}} minimieren, anderseits die Stromspitzen sinnvoll verwerten und zwar ohne einen gesonderten energetischen Aufwand. Dies funktioniert freilich nur dann, wenn er sich all die eAutos, Weinkühlschränke etc. auch ohne die PV zugelegt hätte 😉. Aber auch wenn wir dies wohlwollend unterstellen, kommen wir nicht über einen EROI von 3 oder (im Süden) 4 hinaus! Der Grund ist das ans Lebensende der PV-Anlage anzuschließende Recycling, das u.U. als Plasmarecycling extrem hohe energetische Kosten nach sich zieht. Nun ja… Physik ist manchmal schrecklich unbarmherzig...👿

➡ Es handelt sich um eine Studie von Ferruccio Ferroni, Alexandros Guekos und Robert J. Hopkirk aus dem Jahre 2016

.

Speicherung des Windstroms, aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Soweit so gut. Allerdings wird sich der Leser der beiden AG’s an dieser Stelle womöglich fragen, was denn diese Überlegungen mit dem eigentlichen Gegenstand der beiden AG’s zu „Sättigungseffekten“, insb. die des vorliegenden Teil 2, zu tun haben. Nun, das sieht man spätestens dann, wenn man versucht die Pufferungsenergie direkt zu berechnen. Denn offensichtlich dürfte es enorm schwierig werden zu ermitteln, welche Energien und in welchem Umfang zu E_\mathrm{b} zu zählen sind und welche nicht. Diese Berechnungen würden den Rahmen und auch die Ressourcen der „AG Energetik“ sprengen. Aber nun eröffneten unsere bisherigen Überlegungen eben eine andere Möglichkeit E_\mathrm{b} zu ermitteln und zwar mittels des Ausschlussverfahrens. Denn wir wissen nicht zuletzt aus all den stolzen 🙄 Verlautbarungen der Ökobranche, wieviel „Ökostrom“ (brutto!) im Jahre X abgegeben wurde – auf der anderen Seite kennen wir die gesicherte Leistung ➡ der EE sowie die verfügbaren Speicher mitsamt deren Kapazitäten, Wirkungsgraden, EROI’s etc.:

E_\vartriangleright-E_\mathrm{b}=E_\circledS+E_\mho

Dabei ist E_\circledS die „gesicherte“ ➡ Energie, während E_\mho für die aus dem Speicher steht; „\mho“ für Vorratsbecken im Pumpspeicherkraftwerk 😀.

➡ Als gesicherte Leistung gilt eine über 99.5% der Betriebszeit hinweg bereitgestellte Leistung. Die korrespondierende „gesicherte“ Energie bezeichnen wir als E_\circledS.
.

Mit anderen Worten, all das, was auf gesicherte oder netto gepufferte Leistung zurückgeht, ist effektive Nutzenergie, während der Rest schlicht E_\mathrm{b} ist; man könnte auch mit Fug und Recht vom „Energiemüll“ sprechen 👿. Jedenfalls können wir den Pufferungskoeffizienten – immer noch als Verhältnis des ungepuffertem zu gepuffertem EROI – wie folgt angeben:

\kappa_\mathrm{b}=\frac{E_\vartriangleright/E_\vartriangleleft}{(E_\vartriangleright-E_\mathrm{b})/E_\vartriangleleft}=\frac{E_\vartriangleright}{E_\vartriangleright-E_\mathrm{b}}=\frac{E_\vartriangleright}{E_\circledS+E_\mho}

Speicherung von Wind- und Sonnenstrom (kumuliert)
Aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Eigentlich ist alles klar. Bei einem konventionellen Kraftwerk ist die gesamte Energie, die es abgibt, gleichzeitig die gesicherte Energie, also gilt E_\circledS=E_\vartriangleright . Hingegen ist das E_\mho gleich Null, denn das KWK kann höchstens, falls eine Fehlplanung vorliegt, einem trocken gelaufenen PSW (Pumpspeicherkraftwerk) sein Wasserbecken auffüllen, was wiederum eine völlig andere Geschichte wäre😉. Jedenfalls gilt für konventionelle Kraftwerke nun einmal \kappa_\mathrm{b}=1, was bei den EE eben nicht der Fall ist. Ob die Faktoren von 4 bei Windkraft und 2.5 bei Solarkraft, wie es das bekannte Diagram nebenan suggeriert, wirklich stimmen, das wollen wir freilich genau wissen.

Was die gesicherte Leistung bei der Windkraft anbelangt, so liegt diese mit etwas über 130 MW gerade so im Bereich der OnBoard-Leistung der „Akademik Lomonosow“ 😛. Die betr. Jahresproduktion von immerhin nicht-volatilem Strom beträgt somit stolze 1.15 TWh. Der Rest müsste dann freilich dem Speicher kommen und hier geht der Katzenjammer erst so richtig los. Denn die einzig brauchbare Speichertechnologie sind in der Tat die Pumpspeicherwerke (PSW). Alles andere – P2G, P2H etc. – weist z.T. so miserable Wirkungsgrade auf, dass deren Beitrag zur Bereitstellung von Speicherkapazitäten derzeit noch zu vernachlässigen ist. Von den PSW hat Deutschland 35 an der Zahl und deren „Leistung“ wird mit 6.7 GW angegeben. Das hört sich erst einmal nicht schlecht an, denn das wären immerhin 6 EPR’s. Aber bei näherem Hinsehen entpuppt sich alles doch als der sprichwörtliche Tropfen auf heißen Stein. Denn die Gesamtkapazität all dieser PSW’s beträgt nur ca. 38 GWh. Was das wiederum heißt, zeigt ein kurzes Review auf unser vorheriges Beispiel 2.

Ein Diagram – ein Klassiker! Es entstand nach unserer Kenntnis um das Jahr 2010 herum aus einer uns unbekannten Feder. Wer unter © gesetzt werden sollte, möchte uns bitte einen dezenten Hinweis geben. :mrgreen:

Wir machen wir folgendes Gedankenexperiment. Unser Speicher ist zunächst leer. Dann kommt quasi wie gerufen ein kräftiger Wind auf, so dass wir es auf 6.7 GW bringen – eine Last, die unsere PSW gerade so schultern können. Wir lassen den Speicher auf 38 GWh voll- und anschließend, ebenfalls mit 6.7 GW, wieder leerlaufen. Beide Vorgänge dauern (unter Idealbedingungen) gleich lang und zwar jeweils knappe 6 Stunden.

Demzufolge geben unsere Speicher im Schnitt 3,3 GW her, wovon wir 2.5 GW auf den Windstrom zurückführen wollen – macht eine jährliche Windstrom-„Produktion“ von 22 TWh, was nach Abzug von Friktionsverlusten, Gestehungsenergie etc. 13-15 TWh per anno ergibt. Und wie es der Zufall will, ergibt dies für den Anfang der Dekade bei einer Stromproduktion um die 50 TWh einen \kappa_\mathrm{b} um die 4 :mrgreen:. Dem aufmerksamen Leser dürfte diese Zahl irgendwie bekannt vorkommen – vgl. Diagram nebenan! →

Und da haben wir es, unser „qed“! Denn seit Anfang dieser Dekade hat sich an den PSW-Kapazitäten so gut wie gar nichts geändert, während die (brutto) Windstrom-Produktion um den Faktor 2.5 stieg. Und so liegt \kappa_\mathrm{b} bei der Winkraft im Jahre 2019 bei etwa 10 😳 – will heißen, dass der gepufferte EROI selbst bei Offshore-Wind mittlerweile unter 1 liegt 😯.

Nachtrag vom Januar/Oktober 2020

EROI unterschieden nach „unbuffered“ sowie weak/full buffered.
Der EROI eines Gen.4 Reaktors, etwa DFR, würde mit dem Wert von 2000 den Diagramm-Rahmen komplett sprengen.
➡ „PV häuslich“ (Tippfehler in der Grafik 😮 ) sollte in der nächsten Fassung durch „PV (self-managed)“ ersetzt werden.

Zu den häufigsten Einwänden, die uns seit der Veröffentlichung der AG erreicht haben, gehört wohl jener betreffend der Rechenart, gewissermaßen „Zählart“. Denn diese sei zwar berechtigt – Energie die zur Unzeit kommt, ist und bleibt Energiemüll – aber eben nicht üblich und von daher verwirren die ermittelten EROI ein wenig, da man nicht wisse, welcher Rechenart diese jeweils entstammen würden.

Nun, um dieser Euren dankenswerten Anregung zu genügen, haben wir die folgende Unterscheidung vorgenommen. Den herkömmlich gepufferten EROI – also ohne die Entsorgung von Überschüssen – nennen wir einfach „weak buffered“, im Gegensatz zu „full buffered“, der diese „Müllentsorgung“ sehr wohl berücksichtigt. Dies führt zu der Projektion wie auf dem Diagramm nebenan dargestellt ⇒

Zunächst ist klar, dass bei den konventionellen Kraftwerken die Balken gleich lang sind; diese haben keine Pufferung nötig. Gleiches haben wir der Biomasse zugebilligt, wobei hier eine gewisse saisonale Schwankung zu beobachten sein und so den grünen Balken wohl etwas kürzer ausfallen lassen dürfte. Dies ist im Falle von Wasserkraft eindeutig der Fall, auch wenn wir diesen Effekt bei einer sehr gnädigen Schätzung bewenden lassen möchten.

Allerdings so richtig interessant wird es erst in der Kategorie „PV (häuslich)“. Denn was nicht nur einem aufmerksamen Leser 😉 aufgefallen sein dürfte, ist, dass entgegen der Erstfassung der AG die beiden gepufferten EROI eben nicht gleich sind; will heißen, dass selbst eine self-managed PV ➡ nicht um eine Entsorgung der Lastspitzen ins öffentliche Netzt umhin kommt. Zumindest dann nicht, wenn man sie nicht sinnlos verpuffen lässt!

Was den Verfasser dazu veranlasst hat, diese Einschätzung zu korrigieren?? Nun, es waren schlicht eigene einschlägige Erfahrungen mit einer „self-managed PV“, deren Eckdaten hinsichtlich Pufferung kaum günstiger hätten ausfallen können: Ein typisches Small-Office in einem konventionell beheizten und nicht bewohnten Einfamilienhaus, mit einer 14.8 kWp Ost/West-PV inklusive 120 kWh-Elektroauto-Batterien, mit einem Pool und noch paar anderen prozyklisch wirkenden Vorrichtungen. Dennoch, an den sonnigen Sommertagen müssen mehrere kWh ins Netz entsorgt, an den dunklen Wintertagen wiederum vom Netz bezogen werden. Von daher ist es schlicht eine Illusion zu glauben, die Pufferung durch proaktives Handeln bzw. inteligentes Demand-Management erschlagen zu können. Ob nun eine hauseigene oder eine „self-managed“ PV – es gilt stets \eta_\text{fb}<\eta_\text{wb} !

.

New Mobility – New NUC

»
Die vorliegende AG hat belegt, dass die infrastrukturellen Anforderungen bereits bei eAuto-Quote von 2/3 enorm sind. An einem „Tag der Blechlawine“ sind bei einem Bestromungsfaktor (der gesamten Verkehrsleistung) von lediglich 1/3 sage und schreibe 5 MW Leistung je 10 km Autobahn vonnöten. Es kommt noch erschwerend hinzu, dass diese Leistung bereits am darauffolgenden Tag nur noch zu einem Bruchteil gebraucht werden wird. Den so schwankenden Anforderungen kann nur mit Hilfe von POD-Kraftwerken (power on demand), womöglich mit mobilen Ladestationen, begegnen. Für ein wenigstens eingeschränkt mobiles POD-Kraftwerk ist der Dual Fluid Reaktor DFR bestens prädestiniert. TE
LE
GR
AM

 

Mit „New Nuc“ ist hier die Generation 4 der Spaltreaktoren gemeint
etwa der Dual Fluid Reaktor DFR

Im Januar 2012, also noch lange vor der Zeit der „AG Energetik“, schrieb ich den Blogbeitrag „Energiewende – Elektromobilität ade!“, dem ich (damals ein Novum!) eine fundierte energetische Berechnung zugrunde legte und zwar: Anhand des durchschnittlichen Verbrauchs aller PKW in Deutschland (seinerzeit gut 1000 Liter/s 😯) errechnete ich über den Canot-Prozess eine durchschnittliche Stromlast bei 100% Elektromobilität in Höhe von 20 GW. Trotz einer klaren Bestätigung dieser Zahl durch eine einfache Gegenrechnung ➡ erlebte ich in den letzten Jahren immer wieder ein hartnäckiges Leugnen und Bestreiten dieses doch so klaren Sachverhaltes. So vermochte z.B. jemand, der für Verbreitung von EE-Märchen nicht ganz unbekannt ist, diese Zahl auf 5 GW zu reduzieren. Und wie? Na mittels Car-Sharing😀 Continue reading „New Mobility – New NUC“

Quantenalgorithmus für das Store Checkin Problem (SCinP)

»
Untersucht wird das Store Checkin Problem (SCinP), d.h. die Suche nach einem geeigneten Lagerplatz für einen Container in einem Containerhafen. Dabei spielt der Zusammenhang zwischen der Ladung des einzulagernden Containers und jener der umherliegenden Container eine wichtige Rolle, auch und gerade eingedenk der Brandkatastrophe im Containerhafen Tianjin 🙁. Dieser Umstand weckt quasi automatisch eine Assoziation mit der quantenmechanischen Superposition. Die vorliegende AG untersucht daher die theoretische Existenz eines Quantenalgorithmus, der die erforderliche (Containerhafen-) Iteration evtl. in einer hyperlinearen Laufzeit verrichten könnte; frei nach Grove-Algorithmus in \mathcal{O}(\sqrt{n}). TE
LE
GR
AM
GudrunMaerskOakland
Gudrun Maersk im Hafen von Oakland (CA).
Quelle © dpa

Stellen wir uns vor, keine geringere als die „Sovereign Maersk“ ➡ wird demnächst in einen Containerhafen reinlaufen, wo ihre 7.500 Container gelöscht werden sollten. Die Aufgabe für das hafenweite Dispositionssystem besteht nun darin, für all die Container mitsamt den unterschiedlichen Inhalten geeignete Stellplätze zu finden und diese zu reservieren. Dabei handelt es sich selbstverständlich um rein elektronische Vorgänge, die mit der heutigen IT auch machbar erscheinen – entsprechende Datenbanken mit allumfassenden Informationen über die gegenwärtige Belegung des Containerhafens stets vorausgesetzt. Dass aber eine solche Aufgabe trotz modernster IT alles andere als trivial ist und mit noch so schnellen Prozessoren immer noch laufzeitkritisch werden kann, sei an dieser Stelle schon mal vorweggenommen: Das vorliegende Tutorial wird zeigen, dass das Durchstöbern eines Containerhafens nach geeigneten Lagerplätzen für ein paar Tausend Container naturgemäß laufzeitkritisch ist!

➡ Die Sovereign Maersk – Schiffe zählen zu den Post-Panamax-Containerschiffen und verfügen über eine Kapazität von 6600 TEU (beladene Container mit je 14 Tonnen Gewicht), beziehungsweise 8160 TEU an echten Stellplätzen.
.

 

HafenShnhai
Containerhafen von Shanghai. Der Jahresumsatz liegt knapp unter 40.000 Containern.
Quelle © N. Trentmann @welt.de

Eine einfache Überlegung, die an dieser Stelle nicht näher vorgestellt werden sollte, die aber durch Beobachtungen im Alltag durchaus gestützt wird, zeigt, dass ein Containerhafen im Schnitt in etwa so viele disponible Containerplätze haben sollte, wie der (Container-) Jahresumsatz ist. Im Falle von Shanghai wären es 40.000 Stellplätze durchschnittlich. Unsere Aufgabe anhand des Beispiels von Shanghai besteht demzufolge darin, eine Datenbank mit 40.000 Einträgen zu durchlaufen (zu „iterieren“) und die Eignung des jeweiligen Stellplatzes für den einzulagernden Container zu prüfen. Zu der äußerst diffizilen „Eignungsprüfung“ \mathcal{E}_i ➡ als Funktion von einer Reihe von Stellplatz- und Container-Parametern später mehr.

Für jeden Kenner der Algorithmentheorie ist dieser Fall klar: die Laufzeit einer solchen Datenbank-Iteration geht linear mit dem Umfang derselben, was mit dem Operator \mathcal{O}(n) markiert wird (das „n“ steht hier für unsere 40.000 Container-Stellplätze). Demzufolge ist die Laufzeit einer vollen Datenbank-Iteration über 40.000 virtuelle „Stellplätze“ offensichtlich 40.000\cdot{T}_\mathcal{E} – stets vorausgesetzt, dass das {T}_\mathcal{E} (also die Latenzzeit einer Eignungsprüfung \mathcal{E}_i) für alle Stellplätze i gleich ist, was in der Praxis weitgehend der Fall ist.

➡ Die Einzeleignungsprüfung \mathcal{E}_i ist das entscheidende Momentum für den vorliegenden Algorithmus. Formell handelt es sich um eine Funktion, die eine Reihe von Stellplatz-Paramatern auf „0“ („nicht geeignet“) oder „1“ („geeignet“) abbildet: \mathcal{E}_i:\rightarrow\{0,1\}. Natürlich kann man die Funktion erweitern, indem man eine Art Punktesystem macht und damit eine differenzierende Antwort heraus bekommt.
.
YangShan
University Of Bern www.geography.unibe.ch/EG

Im Folgenden setzen wir für {T}_\mathcal{E} 0.1ms=100μs (Mikrosekunden) an und nehmen somit den künftigen technischen Fortschritt vorweg. Denn alleine die I/O-Operationen auf den modernsten Datenträgern dauern derzeit (Stand Anfang 2019) ungefähr so lang. Unter dieser Annahme dauert eine Datenbank-Iteration 4 Sekunden lang und das hört sich erst mal nicht dramatisch an. Allerdings dürfen wir die übrigen 7499 Container 😀 nicht vergessen, die ebenfalls auf ihre Iterationen warten. Claro, nicht jeder Container wird es brauchen. Denn wenn ich mehrere nahezu identisch beladene rechne, weiß ich aus der ersten Iteration (durch das Punktesystem), was die geeigneten Stellplätze für die anderen sind. Dennoch müssen wir von dem berühmten worst case ausgehen, denn nur dieser beschreibt die immanente Komplexität eines Algorithmus wirklich.

Die Laufzeit fürs virtuelle Löschen unserer voll und heterogen beladenen „Sovereign Maersk“ beträgt demnach:

T_{\Sigma}=7.500\cdot40.000\cdot0.0001=30.000\,\text{s} und das sind immerhin 8 Stunden und 20 Minuten Laufzeit 😯

An dieser Stelle wird sich der Leser möglicherweise fragen wie ist denn kommt, dass in Seehäfen wie Shanghai nicht alles buchstäblich stillsteht… Denn bei einer nunmehr 8-stündigen Beanspruchung ganzer Rechenzentren (Laufzeiten von 100 µs fürs {T}_\mathcal{E} sind nur mit Multinode-Computing möglich) müsste das ja über die meiste Zeit hinweg der Fall sein.

BrandInTianjin
Apokalyptische Bilder von der Brandkatastrophe in Tianjin.
Eine zu enge Lagerung von explosivem Gefahrgut hat zu einer regelrechten Kettenreaktion geführt. Die genaue Opferzahl kennt niemand. © bbc.com

Nun, die Antwort liegt in einer Optimierung des vorliegenden Algorithmus. Eine dieser Optimierungsoptionen haben wir bereits zuvor aufgezeigt: man pickt sich gleichartig bestückte Container heraus und errechnet für diese die geeigneten Stellplätze in nur einer Datenbank-Iteration (dies setzt freilich voraus, dass uns nicht der berühmt-berüchtigte worst case einholt). Eine andere Möglichkeit besteht darüber hinaus darin, bestimmte Bereiche des Containerhafens von der Zuteilung für eine zu löschende Ladung gänzlich auszuschließen und so die Zahl n geringer zu halten.

All das kann man natürlich machen – nur hört der Spaß spätestens dann auf, wenn jemand der Verlockung unterliegt und unmittelbar ans {T}_\mathcal{E} heran geht, indem er die Einzeleignungsprüfung aufweicht. Dass dieses „Optimierungspotenzial“ verlockend ist, liegt in der Natur der Sache. Zum einen kennen die Umsätze in den Seehäfen nur eine Richtung, nämlich nach oben, während der rechtliche Rahmen, etwa in Puncto Gefahrgut-Handling, Versicherung, Brand- und Strahlenschutz, Datenschutz etc. immer enger gezogen wird. Die Zeit arbeitet also gnadenlos gegen uns: das Optimierungspotenzial wird allmählich ausgeschöpft und der technische Fortschritt (Moorsches Gesetz) vermag dies nicht aufzufangen. Mit anderen Worten, wir laufen immer mehr in eine Zwickmühle hinein zwischen immer höheren Anforderungen auf der einen und nur begrezt vielen Möglichkeiten auf der anderen Seite. Die Fragestellung dieser AG lautet, kann uns der Quantencomputer aus dieser Zwickmühle heraushelfen?

NichtLinearKrystal
Erzeugung von verschränkten Photonen im nicht-linearen Krystal.
Verschränkung ist ein fürs Quantencomputing unabdingbarer Effekt.
Quelle © BBC.uk.com

Im Jahre 1996 stellte der Mathematiker Lov Grover einen Quantenalgorithmus vor, der in einer unsortierten Datenbank einen bestimmten Inhalt auffindet. Die Laufzeit \mathcal{O}(n), die ja für jedwede Datenbank-Iteration unumgänglich ist, konnte auf sensationelle \mathcal{O}(\sqrt{n}) gesenkt werden 😯. Die Frage, die wir uns vorliegend stellen, lautet, kann der Grove-Algorithmus – freilich in einer für uns geeigneten Modifikation – unsere Stellplatz-Datenbank ebenfalls in \mathcal{O}(\sqrt{n}) iterieren? Und wenn ja, wäre damit unser Store Checkin Problem in einer nicht-kritischen Laufzeit gelöst?

Nun, letztere Frage kann man nur mit einem klaren Ja beantworten. Denn die Quadratwurzel aus 40.000 ergibt 200 und das mal 100 μs genommen bedeutet nur einen Sekundenbruchteil für eine volle Datenbank-Iteration. Bei dieser Laufzeit bräuchten wir keinerlei Kompromisse einzugehen – das virtuelle Löschen von unserer „Sovereign Maersk“ würde nur wenige Minuten dauern.

Die andere Frage, nämlich die nach der Korrespondenz des Grove-Algorithmus zur betreffenden Datenbank-Iteration, ist hingegen gleich mehrere Bits komplizierter. Es ist klar, dass sich die Stellplatz-Datenbank für den Grove-Algorithmus nahezu anbietet. Der Teufel 👿 dürfte aber im Detail stecken. Denn die alles entscheidende Frage lautet: Können wir die immanenten Eignungszahlen in Qubits abbilden?

Nach meinem Dafürhalten ist es der Fall, d.h. es existiert sehr wohl ein Quantenalgorithmus, der die vorliegend geforderte Iteration in \mathcal{O}(\sqrt{n}) verrichtet. Diese Vermutung ist vorläufig das einzige (Zwischen-) Resultat der vorliegenden AG, die somit – wie die AG übers QDD seinerzeit auch schon – mit einem an die Außenwelt gerichteten Ruf nach Hilfe zunächst endet. :mrgreen:

 

Wenn da nicht der EROI wär‘, wär‘ ich ein Physikär ;-)

»
Der Erntefaktor (EROI) einer energetischen Anlage gehört zu den am meisten missverstanden Kennzahlen in der energetischen Physik. Es kommt noch erschwerend hinzu, dass die immer weiterer verfeinerten Ermittlungsmethoden des EROI insbesondere die „erneuerbaren Energien“ immer schlechter haben aussehen lassen. So entstand ein handfestes wirtschaftliches Interesse an Missdeutungen bzw. Relativierungen dieser Kennzahl. Die vorliegende AG sollte all den Fakenews entgegen treten. TE
LE
GR
AM
Erntefaktoren
Quelle (C) Institut für Festkörpermechanik
Sagenhafter EROI für den Dual Fluid Reaktor auf der einen, sowie homöopathische EROI’s für die „Erneuerbaren“ auf der anderen Seite dürften der wahre Grund sein für die neuerliche Welle von Verklärungen dieser Kennzahl.

Noch bis vor ein paar Wochen hätte ich über den Erntefaktor einer energetischen Anlage (im folgenden verwenden wir das englische „EROI“) gesagt, dieser sei eine allenthalben wohl verstandene physikalische Größe. Denn weder in den Social-Media-Threads noch in den Schulveranstaltungen, etwa Gastvorträgen etc. hatte ich bis dato Anhaltspunkte für irgendwelche Verständnisschwierigkeiten im Zusammenhang mit dieser Kennzahl festgestellt.

Doch dies hat sich in den letzten Wochen und Monaten grundlegend verändert. Auf einmal prasselten Fakenews auf mich ein, die ich früher nicht für möglich gehalten hätte. Dabei ist grundsätzlich zwischen zweierlei Kategorien zu unterscheiden: Die einen sind diejenigen, denen der Sachverstand in Physik schlichtweg fehlt. ➡ Sie haben gar nicht verstanden, welche energetische Umwandlungsprozesse z.B. in einem Kernkraftwerk stattfinden und können somit den EROI aus objektiven Gründen gar nicht erfassen. Und da gibt es aber auch jene, die offensichtlich das Ziel verfolgen, den für die „Erneuerbaren Energien“ ungünstigen EROI zu relativieren. Dabei haben wir zuletzt eine Reihe von z.T. grotesken Auswüchsen dieser eiligst bemühten Parawissenschaft erlebt, von denen wir einige auf den nachfolgenden Screenshots abgebildet haben.

Wir unterscheiden innerhalb der AG nicht zwischen diesen beiden Gruppen – sprechen stattdessen neutral von „Denkfehlern“, mit welchem Hintergrund auch immer.

➡ zu meinem Erstaunen zählte zu dieser Kategorie ein Opponent aus der Schweiz, der Physiklehrer sein bzw. gewesen sein wollte… 😈
.
.

EROI. Die Definition
.

eroiFail1
Ein Beispiel einer kompletten Auf-den-Kopf Stellung des EROI

Ob WKA oder KKW – alle Energie-„Erzeuger“ (eigentlich „Umwandler“) wandeln in einer Kette von Umwandlungsprozessen Primärenergie in Endenergie um, d.h. in jene Form, in der wir die Energie haben, also „ernten“ wollen. In den beiden nachfolgend verglichenen Fällen ist die Endenergie jeweils die elektrische, während die Primärenergie ein Bit komplizierter ist. Klar, bei einer WKA ist es schlicht die kinetische Windenergie, aber bei einem Kernkraftwerk? Die Antwort ist schlicht: die Masse! Denn ja, am Anfang der Umwandlungskette steht in der Tat die in der Masse gem. E=mc2 „versteckte“ ➡ Energie.

➡ Demzufolge sprechen manche an dieser Stelle von der einzig realisierten „echten“ Energieerzeugung (aus Masse eben), während es sich ansonsten lediglich um eine Energieumwandlung handelt. Wie dem auch sei: dieses Beispiel verdeutlich doch am besten, wie unsinnig es ist, die Primärenergie zu der Gestehungsenergie dazu zu rechnen 😯; hierzu gleich mehr unter „Denkfehler“
.

eroiFail2

Wofür steht dann der EROI? Nun, ganz bestimmt nicht für das Verhältnis End-/Primärenergie, was ja der klassische Wikungsgrad wäre. Nein, der EROI beschreibt schlicht und ergreifend, wie energieintensiv das Kraftwerk oder die Anlage ist. Genauer: wieviel Energie muss in die Anlage hineinfließen, um die gewünschte Energieumwandlung zustande zu bekommen; dies relativ zu der am Ende geernteten Energie, versteht sich:

\eta=\frac{E_\vartriangleright}{E_\vartriangleleft}

Soweit so gut – kennen wir eigentlich. E_\vartriangleright steht für die „geerntete“ Energie (somit Endenergie), E_\vartriangleleft für die „Gestehungsenergie“. Letztere ist eben jene summarische Energie, die über den gesamten Lebenszyklus der Anlage hinweg – von deren Gestehung mitsamt der Brennstoffe (well-to-wheel), über Maintenance bis hin zur Entsorgung – umzusetzen ist, um… Achtung!!! …um eben den Umwandlungsprozess Primär-zu-Endenergie zustande zu bringen (zu „gestehen“). Die Primärenergie des Prozesses zu dessen Gestehungsenergie dazu zu rechnen, ist eine Art Tautologie 😉 und gehört zu den meist verbreiteten EROI-Denkfehlern; s. ff. 💡 Continue reading „Wenn da nicht der EROI wär‘, wär‘ ich ein Physikär ;-)“