Das Experten-Blog

In diesem Blog griffen Expertinnen und Experten wöchentlich Fragen, Themen und Anregungen aus dem laufenden Bürgerdialog auf. So entstand eine lebendige Verbindung zwischen den Interessen der Bürgerinnen und Bürger und dem Wissen der Experten.

Wie kann die Speicherung von Energie vor Ort ganz konkret aussehen?

Wie kann die Speicherung von Energie vor Ort ganz konkret aussehen?

Mit dem Blogartikel von Herrn Dr. Dötsch schließen wir die Serie der Beiträge im Expertenblog. Wir bedanken uns bei allen Autorinnen und Autoren und natürlich bei all denjenigen, die sich engagiert an der Diskussion beteiligt haben!

Der Zubau erneuerbarer Energien, vor allem aus Sonne und Wind, ist in den letzten Jahren rasant angestiegen. Die aktuelle Energiewende und Ziele der Bundesregierung werden einen weiteren Ausbau notwendig machen. Doch diese Energie fluktuiert, d.h. sie schwankt in der Leistung. Deshalb wird es in Zukunft immer schwieriger, das Stromnetz stabil zu halten. Denn zu jedem Zeitpunkt muss exakt die Strommenge erzeugt werden, die auch verbraucht wird. Bisher wurde das durch planbare bzw. regelbare Kraftwerke sowie Pumpspeicherkraftwerke realisiert, die als elektrische Speicher arbeiten. Die hohen installierten Leistungen bei gleichzeitig stark schwankender Einspeisung werden in Zukunft aber immer öfter zu Situationen führen, bei denen kurzfristig deutlich mehr Strom zur Verfügung steht, als benötigt wird. Oder aber es wird, bspw. bei längeren Windflauten nicht ausreichend elektrische Energie bereitgestellt.

Entwicklung des deutschen Erzeugungsparks von fossil-nuklear zu regenerativ

Abbildung 1: Entwicklung des deutschen Erzeugungsparks von fossil-nuklear zu regenerativ (gelbe Linie: Atomausstieg; gestrichelte Linie Laufzeitverlängerung AKW)

Neben dieser zeitlichen Disparität verstärkt sich auch die räumliche. Sehr große Windkraftleistungen werden im Norden Deutschlands, also in Gebieten mit eher geringer Stromnachfrage aufgebaut. Im Süden werden vorrangig in Einfamilienhausgebieten Solaranlagen installiert. Obwohl die Solaranlagen zwar großräumig näher an den Verbrauchsschwerpunkten gebaut werden, stehen sie jedoch zugleich in Gebieten in denen das Niederspannungsnetz diese erneuerbare Energie bald auch nicht mehr aufnehmen kann. Dabei stellt sich die Frage, wie unter diesen Randbedingungen eine sichere, wirtschaftliche und ökologische Stromversorgung erzielt werden kann.

Die Herausforderung an das Energiesystem der Zukunft ist der permanente zeitlich-räumliche Ausgleich zwischen Energieangebot und -nachfrage.

Abbildung 2: Die vier wichtigsten Maßnahmen zum Netzausgleich

Abbildung 2: Die vier wichtigsten Maßnahmen zum Netzausgleich

Dabei müssen im Wesentlichen zwei Entwicklungspfade verfolgt werden:

- Ausbau der Erzeugungs- und Netzkapazitäten

- Energiespeicherung sowie intelligente Regelung von Verbrauchern und Erzeugern

Der Netzausbau ist vor allem für den räumlichen Ausgleich notwendig, der durch eine ganzjährige Differenz zwischen Erzeugung und Verbrauch vorliegt. Zugleich vermindert er die Schwankungen durch einen größeren Bilanzkreis. Ein großräumiges zeitliches Ungleichgewicht kann jedoch nur durch Energiespeicherung bzw. die intelligente Regelung von Verbrauchern und Erzeugern ausgeglichen werden. Der Netzausbau ist dabei weniger ein Technologiethema als vorrangig eine Frage von Trassenwahl, Akzeptanz und Kosten. Bei der Energiespeicherung bzw. dem Energieausgleich stehen dagegen neuartige Technologien und intelligente Konzepte und Algorithmen im Vordergrund.

Der hybride Stadtspeicher: Thermische Speicher und Wärmepumpen

Gerade Städte verfügen über ein enormes – indirektes - Potenzial zur Speicherung von Energie. Denn Strom muss nicht zwangsläufig direkt in elektrischen Speichern gespeichert werden. Es können auch Gebäude, in denen Strom in Wärme (Wärmepumpe, Brauchwarmwasser) umgewandelt oder Strom und Wärme gemeinsam erzeugt (Mini-Block-Heizkraftwerke) werden, als Puffer für das elektrische Netz wirken. Bisher werden diese wärmegeführt, d.h. nach dem individuellen Wärmebedarf des zu versorgenden Hauses betrieben. Dadurch wirken sie ungeregelt auf das Stromnetz. Werden diese jedoch durch thermische Speicher ergänzt, so dass sie nicht mehr automatisch wärmegeführt betrieben werden müssen, können sie sich nach den Anforderungen des Stromnetzes richten. Dann kann bspw. eine Stromlücke durch einen vorgezogenen Einsatz eines Mini-Block-Heizkraftwerkes, das die Wärme puffert, ausgeglichen werden. Ebenso kann die Stromüberproduktion durch den vorgezogenen Betrieb einer Wärmepumpe in deren thermischen Speicher nutzbringend gepuffert werden. Beides sind Varianten zur Last- oder Erzeugungsverschiebung.

Batterien als weitere Komponenten eines hybriden Stadtspeichers

Weitere Komponenten eines hybriden Stadtspeichers sind auch reale elektrische Speicher. Dies können größere, zentrale Batterien oder aber auch kleinere in einzelnen Häusern sein. Ihnen gemeinsam ist, dass sie wie die o.g. Optionen als Ausgleich für das elektrische Netz zusammengefasst werden und durch eine intelligente Regelung als hybrider Speicher im Netz agieren können.

Für sehr kurze Verbrauchs- oder Erzeugungsspitzen im Netz, bei denen der Einsatz von Speichern unwirtschaftlich bzw. die zeitlich außerhalb des Rahmens von verschiebbaren Erzeugern und Lasten liegen, können noch kurzfristig Notstrom-BHKWs bspw. aus Krankenhäusern und Rechenzentren einspringen bzw. auf der Verbrauchsseite kann der Strom zur Erwärmung von Nah- und Fernwärmenetzen genutzt werden.

Der hybride Stadtspeicher, mit all seinen Komponenten und Optionen, kann flexibel und dynamisch zum Ausgleich zwischen Stromerzeugung und -nachfrage eingesetzt werden. Da der Lastausgleich bereits im lokalen Netz erfolgt, kann der erforderliche Ausbau der übergeordneten Kraftwerks- und Netzkapazitäten verringert werden.

Ausbau bestehender Anlagen als Basis für den hybriden Stadtspeicher

Ziel der Einsatzplanung des hybriden Stadtspeichers muss letztlich die Reduktion der Kosten sein, die sich durch einen minimierten Ausbau der Netz- und Erzeugerkapazitäten ergibt. Wesentlicher Vorteil des hybriden Stadtspeichers ist dabei, dass viele Anlagen bereits installiert sind (z.B. Wärmepumpen, BHKW, Trinkwarmwasseranlagen), die durch geringe Maßnahmen (z.B. zusätzlicher Wärmespeicher) und damit geringen Kosten zur Stromspeicherung genutzt werden können.

 

Lohnt sich der Einsatz von Energiesparlampen, welches Potential haben sie?

Lohnt sich der Einsatz von Energiesparlampen, welches Potential haben sie?

Zurzeit befindet sich die Beleuchtungstechnik durch das aktuelle EU- Glühbirnenverbot in einem drastischen Umbruch. Energiesparlampen, welche Glühbirnen ersetzen sollen, finden jedoch wenig Akzeptanz in der Bevölkerung. Das emittierte Licht wird als „kalt“ Beschrieben und in der Boulevard-Presse (Bild-Zeitung, 11.9.2009: „Jetzt auch noch Elektrosmog!!! Wie gefährlich sind die neuen Energiesparlampen?“) wird von zahlreichen durch sie verursachten Krankheiten wie Depressionen, Potenzstörungen, Sonnenbrand bis hin zu Krebs berichtet, jedoch entbehren diese Meldungen stets einer wissenschaftlichen Grundlage. Aber auch die Berichterstattung in seriösen Medien ist meist wissenschaftlich nicht fundiert (Frankfurter Rundschau, 1.9.2009: „Prof. Dr. Axel Buether, Hochschule für Kunst und Design Halle: „Das wirkt wie ein Lustkiller“).

Energiesparlampen

Energiesparlampen funktionieren wie alle Entladungslampen („ Neonröhren“) nach dem Drei-Farben-Prinzip. Dabei werden Quecksilberatome in der Gasphase durch eine Entladung angeregt, welche daraufhin UV-Strahlung aussenden, die wiederum die an den Wänden der Glasröhre angebrachten Leuchtstoffe anregt (Abb. 1). Bei den gängigen Lampen werden in der Regel drei Leuchtstoffe verwendet, nämlich ein blau, ein rot und ein grün emittierender (Abb. 2). Dabei fehlt die Gelbkomponente und die Emissionsbanden des roten und grünen Leuchtstoffs sind sehr schmal (Abb. 3), wie es für dreiwertige Selten-Erd-Ionen typisch ist. Das Lampenspektrum ist daher durch eine Linienemission gekennzeichnet – im Gegensatz zur Breitbandemission z.B. des Sonnenspektrums. In Lampen von besonders hoher Farbqualität, die z.B. in Museen verwendet werden, sind aus diesem Grund bis zu acht, meist Lanthanid-basierte Leuchtstoffe enthalten, die den sichtbaren Bereich vollständiger abdecken. Andere Lampen wie z.B. Pflanzen- oder Aquariumlampen oder solche zur Therapie bei Hauterkrankungen funktionieren nach dem gleichen Prinzip mit ähnlichen Leuchtstoffen.

Abb. 1 Quecksilberatome senden UV-Strahlung aus

Abb. 2 Häufig verwendete Leuchtstoffe für Drei-Farben-Lampen

Der Vorteil dieser Drei-Farben-Lampen besteht darin , dass sie – je nach Mischungsverhältnis – eher warmes Licht (hoher Rotanteil, tiefe Farbtemperatur) oder eher kaltes Licht (hoher Blauanteil, hohe Farbtemperatur) emittieren (Abb. 4), die Lichtfarbe kann also dem Verwendungszweck angepasst werden. Es sind außerdem Lampen erhältlich, die einen extrem hohen Rotanteil besitzen und zur Illumination von Fleisch- und Wurstwaren in Supermärkten verwendet werden und die Kunden zum Kaufen animieren sollen. Daher wirkt Fleisch vor dem Einkauf oft viel appetitlicher und frischer, als es tatsächlich ist! Lampen mit einem hohen Grünanteil werden in Obst- und Gemüseabteilungen und in Blumenläden verwendet.

Abb. 3 Emissionsspektren der in Drei-Farben-Lampen verwendeten Leuchtstoffe

Abb. 4 Von der CIE (Commision International de l’Eclairage) festgelegtes Farbdreieck, das auf der Farbwahrnehmung des menschlichen Auges beruht. Zu Grunde gelegt ist ein 2-dimensionales Koordinatensystem. Damit kann durch die Angabe der Farbkoordinaten x und y jede beliebige Farbe und Sättigung beschrieben werden.

Ein bedeutender Nachteil der Energiesparlampen ist das enthaltende Quecksilber. Obwohl der Gehalt, zumindest in europäischen Lampen, bei unter 3 mg pro Lampe liegt, ergibt sich doch durch die große Anzahl der Lampen in der Summe eine nicht unerhebliche Menge. Daher müssen alle Entladungslampen als Sondermüll entsorgt werden. Darüber hinaus bewirkt das anfängliche Verdampfen des Quecksilbers, dass die maximale Helligkeit erst nach einiger Zeit erreicht wird, ältere Lampen flackern beim Einschalten. Daher können Entladungslampen nicht als Bremslichter oder für Kopierer verwendet werden.
Ein anderer, bedeutender Nachteil ist die noch nicht zufrieden stellende Effizienz (Abb. 5), da die Anregungsenergie von 254 nm (4,9 eV) in Emissionen mit einer durchschnittlichen Energie von 555 nm (2,2 eV) umgewandelt wird. Dies bedeutet einen Verlust von 55 % der Anregungsenergie, der als Wärme verloren geht. Dazu kommen andere Verluste, sodass die Effizienz nur bei ca. 100 Lumen/Watt liegt.


Abb. 5 Effizienz gängiger Beleuchtungsmittel (Quelle: Osram OS, Regensburg)

Leuchtdioden (pc-LEDs)

Eine viel versprechende Alternative sind leuchtstoffbeschichtete Leuchtdioden (phosphor-coated LEDs, pc-LEDs). Der Grundkörper ist eine blau emittierende Halbleiter-LED. Dafür wird Ga/InN verwendet, das man durch Mischkristall-Bildung der isotypen Verbindungen GaN (UV-Emission) und InN (grüne Emission) erhält. Allgemein ist es möglich, das Emissionsmaximum durch das Mischungsverhältnis zwischen UV und grün einzustellen. Diese blauen LEDs werden mit dem gelben Leuchtstoff Ce-YAG beschichtet. Aus der Summe ergibt sich blauweißes Licht (Abb. 6). Diese Leuchtmittel haben gegenüber Energiesparlampen enorme Vorteile. Zum einen beinhalten sie ungiftige Verbindungen. Zum anderen ist ihre Effizienz bereits jetzt höher als die von Glühbirnen und sogar Energiesparlampen (Wirkungsgrad Glühbirnen: 5 %, LEDs: 60 %). Eine weitere drastische Steigerung ist zu erwarten, jetzige Prognosen gehen von 200 Lumen/Watt aus. Diese pc-LEDs werden bereits für zahlreiche Anwendungen wie die Innen- und Außenbeleuchtung von Fahrzeugen, in Ampeln und als Hintergrundbeleuchtung von Displays (Fernseher, Computerbildschirmen und Handys) eingesetzt.


Abb. 6 Prinzip der gegenwärtigen LEDs

Jedoch ist der große Nachteil der kommerziellen LEDs deren schlechte Farbqualität, die sich aus der Emission nur zweier Leuchtstoffe ergibt. Außerdem wird das blauweiße Licht als kalt empfunden, sodass der breite Einsatz für Lampen nicht zu erwarten ist.
Zukünftige pc-LEDs werden daher mehrere Leuchtstoffe als Beschichtung enthalten, sodass die Lichtfarbe variiert und die Lichtqualität verbessert werden kann. Zu diesem Zweck müssen neue Leuchtstoffe entwickelt werden, die im langwelligen Bereich (Grün bis Rot) mit hoher Quantenausbeute emittieren und im nahen UV-Bereich (450 nm, 2,8 eV) effizient angeregt werden können und darüber hinaus extrem strahlungsstabil sind, um eine lange Lebensdauer der Lampen zu gewährleisten, die auch bei höheren Temperaturen nicht quenchen und zudem bei moderaten Temperaturen hergestellt werden können. Keiner der bisher entwickelten Leuchtstoffe, die in der Regel Eu2+ als Aktivatoren enthalten, erfüllt bisher alle diese Forderungen.

Zukünftige Entwicklungen

Weltweit werden derzeit 19 % der elektrischen Energie für Beleuchtungszwecke verwendet, das entspricht 3100 TWh jährlich. Durch einen flächendeckenden Einsatz von Energiesparlampen würden jährlich 515 Millionen Tonnen CO2-Emission gespart werden, dieser Wert wird sich durch den Einsatz von pc-LEDs noch steigern lassen, allerdings muss deren Farbqualität und Lichtfarbe verbessert werden. Die Entwicklung von geeigneten Leuchtstoffen ist sicherlich eine der gegenwärtigen großen Herausforderungen der physikalischen und anorganischen Festkörperchemie.
Da zwei- und dreiwertige Lanthanid-Ionen für diese und andere optische Anwendungen die nahezu einzig möglichen Kandidaten darstellen, ergibt sich ein Problem im Hinblick auf die der Ressourcen. Zwar sind seltene Erden bei Weitem nicht so selten, wie ihr Name vermuten lässt und daher für viele Anwendungen in ausreichender Menge vorhanden, jedoch sind die weltweit größten Vorkommen in China zu finden, sodass in diesem Zusammenhang eine politische Abhängigkeit entstehen wird. Andererseits sind die Ressourcen des Elementes Indium sehr begrenzt. Aus diesem Grund wäre es wünschenswert, wenn die entsprechenden zurzeit verwendeten LED-Chips langfristig mit anderen Materialien betrieben werden oder andere Technologien genutzt werden könnten. Auch hier ist die chemische Forschung gefordert.

Aus: chemie& more, Heft 1, 2010, S. 22-24; mit freundlicher Genehmigung der succidia AG (www.succidia.de).

Gibt es eigentlich risikofreie Energietechnologien?

Gibt es eigentlich risikofreie Energietechnologien?

Schweinegrippe, Terroranschläge, BSE, Gentechnik, Klimawandel, Börsencrash, Havarie eines Atomkraftwerks: In unseren heutigen Gesellschaften diskutieren wir solche Themen häufig unter dem Begriff „Risiko“. So unterschiedlich die genannten Beispiele sind – und man könnte die Liste noch lange fortführen – haben sie doch einiges gemeinsam. Risiken stellen Gesellschaften vor eine Konfliktsituation. Kann man Technologien zulassen, die Risiken für Gesundheit und Umwelt mit sich bringen? Kann ein Risiko weiter reduziert werden? Wie kann man verantwortlich mit einem Risiko umgehen? Typischerweise gibt es in pluralistischen Gesellschaften auf diese Fragen nicht eine, sondern viele Antworten und alle Antworten beanspruchen für sich, richtig und wahr zu sein.

In der öffentlichen Debatte um Technik, vor allem um Energieanlagen, werden die Begriffe Risiken und Gefahr oft synonym verwendet. In der Fachterminologie beschreibt der Begriff der Gefahr das Potential Mensch und Umwelt zu gefährden, wohingegen Risiko die Wahrscheinlichkeit eines Schadens ausdrückt. Bei der Risikoanalyse werden potentielle Schäden an Menschen oder Ökosystemen mental antizipiert und diese Ereignisse werden zeitlich und räumlich in Relation gestellt. Der Schaden kann dabei alles umfassen, was Menschen wertschätzen. Er kann Werte wie Gesundheit, saubere Umwelt, Sicherheit, materielle Güter oder auch symbolische Gegenstände (wie etwa alte Photographien) umfassen. Grundsätzlich sind bei allen Ereignissen oder Handlungen Risiken möglich. Ein Nullrisiko kann es nicht geben. Denn jede Handlung kann etwas beeinflussen, das wir als wertvoll erachten. Wichtig sind daher zwei zentrale Größen: der Umfang des möglichen Schadens und die Wahrscheinlichkeit, dass dieser Schaden eintritt.

Zwei Wege der Risikoanalyse
Es gibt zwei Wege, eine Risikoanalyse für technische Risiken, etwa bei Anlagen zur Energiebereitstellung, durchzuführen. Nehmen wir dazu das Beispiel Kernkraftwerk. Zum einen kann man induktiv Szenarien entwerfen: Am Anfang steht ein auslösendes Ereignis, etwa ein Flugzeugabsturz, der Ausfall des Kühlkreislaufs oder eine Fehlbedienung der Instrumente. Dann kalkuliert man die Folgen dieses Ereignisses mit Hilfe einer Fehlerbaumanalyse, also Schritt für Schritt, bis man am Ende zu einem Unfall kommt. Für jeden Schritt gibt es eine Wahrscheinlichkeit des Ausfalls. Diese Wahrscheinlichkeiten kann ich aggregieren, um zu einer Gesamtwahrscheinlichkeit eines großen Schadens zu kommen. Zweite Möglichkeit: Eine Ereignisbaumanalyse, da beginnt man von hinten. Man geht vom schlimmsten Schaden aus, sagen wir einer Kernschmelze, und fragt dann, auf welchen Wegen es dazu kommen könnte bis man beim auslösenden Ereignis angekommen ist. Im Prinzip müssten am Ende beide Methoden zum gleichen Ergebnis gelangen. Bei aller Eleganz dieser Methoden bleiben aber Unsicherheiten und Probleme: Erstens hat man nicht für alle denkbaren Ausfälle Wahrscheinlichkeiten und zweitens kann sich niemand alle möglichen auslösenden Ereignisse vorstellen, vor allem wenn mehrere gleichzeitig eintreffen. Besonders schwierig zu erfassen sind Technologien, wie Kernkraftwerke, bei denen der maximale Schaden sehr groß und die Wahrscheinlichkeit des Eintreffens dieses Schadens sehr gering ist. Dann ist auch die Risikoanalyse insgesamt mit großen Unsicherheiten versehen. Insofern ist es nicht unvernünftig, aus einer Energieform auszusteigen, bei der die Risikoanalyse zwar Anhaltspunkte für die relative Gefährdung aber keine Gewissheiten vermitteln kann.

Risiken der Atomenergie und des Atomausstiegs
Mit dem Rückzug aus der Atomenergie minimieren wir einen besonders kontroversen Risikobereich: die Gefahren der Atomenergie. Das ist aber risikotheoretisch nicht umsonst. Denn wir müssen die Kernenergie ja mit einer anderen Technologie, die ebenfalls Risiken mit sich bringt, ersetzen. Kohlekraftwerke z.B. beeinträchtigen ebenfalls die menschliche Gesundheit, weil sie die Luft verschmutzen und beim Abbau von Kohle sind die Arbeiter gefährdet – man denke nur an die vielen Grubenunglücke in China. Auch die Wasserkraft kommt in globalen Risikovergleichen nicht sehr gut weg: Man schätzt, dass jährlich etwa 8.000 Menschen durch Dammbrüche sterben. Klar ist aber, dass die regenerativen Energien auf den Risikodimensionen Gesundheit und Sicherheit besser abschneiden als Kohle- oder Kernenergie.

Die Energiewende hin zu regenerativen Energien und mehr Energieeffizienz reduziert also das Gesundheits- und Umweltrisiko, erhöht aber dafür andere Risiken: Versorgungssicherheit und Wirtschaftlichkeit. Denn vor allem die regenerativen Energien bergen versorgungstechnische, sozialverträgliche und wirtschaftliche Risiken. Die müssen ebenfalls in eine umfassende Risikoanalyse miteinbezogen und abgewogen werden. Wir Deutschen sind bei technischen Großrisiken besonders sensibel, nur müssen wir uns auch darüber im Klaren sein: Bricht die Versorgungssicherheit zusammen, birgt das nicht nur wirtschaftliche, sondern indirekt auch große gesundheitliche Risiken.

Wie viel sind Sie bereit zu zahlen, um ein Risiko zu minimieren?
Die Frage ist dabei, wie können wir unterschiedlichen Risikoarten, etwa Gesundheits- versus Versorgungsrisiken miteinander vergleichen und dann gegenseitig abwägen. Eine Methode besteht darin, diese verschiedenen Risiken zu monetarisieren. Man fragt beispielsweise eine repräsentative Gruppe von Menschen, wie viel sie bereit wäre zu zahlen, um ein Gesundheitsrisiko von einer Größe x auf ein Risiko der Größe y zu reduzieren. Dann erhält man für diese Risikoreduktion einen Preis. Den kann man wiederum mit dem Preis vergleichen, den Befragte für mehr Versorgungssicherheit zu zahlen bereit wären. Natürlich kann man ein Menschenleben nicht mit Geld aufwiegen, aber man bekommt einen Anhaltspunkt für den Wert eines Guts und die Kosten eines entsprechenden Schadens.

Risikovergleiche und politische Entscheidungen
Allein auf solche Risikovergleiche sollte man aber politische Entscheidungen zur Energiepolitik nicht aufbauen. Die Politiker sollten diese Studien kennen, aber sie dürfen nicht die einzige Entscheidungsgrundlage sein. Menschen neigen dazu, bestimmte Risiken auszublenden und andere zu überschätzen. Der Wert der Risikovergleiche liegt darin, dass sie helfen können, solche Verzerrungen aufzudecken. Letztlich sind die Entscheidungen aber Wertaussagen, bei denen es kein Richtig und Falsch gibt.

Man wird als Risikoforscher oft gefragt, ob eine Technologie sicher sei oder nicht. Diese Frage ist nicht objektiv zu beantworten. Was heißt sicher? Man kann zum Beispiel sein Auto für sicher halten, wohl wissend, dass ein Unfall nicht völlig ausgeschlossen ist. Menschen neigen dazu, Unsicherheiten zu bagatellisieren und setzen auf eine Sicherheit, die es nicht gibt. Denn jede Technik hat ihre Risiken: ein Nullrisiko ist und bleibt eine Illusion.

Bioenergie – Konkurrenz zwischen Ernährung und Energiegewinnung?

Bioenergie – Konkurrenz zwischen Ernährung und Energiegewinnung?

Biomasse ist als nachwachsender Rohstoff eine alternative Energiequelle. Die vielen Vorteile der Bioenergie werden von Diskussionen überschattet, welche eine mögliche Konkurrenz zwischen Biomasse als Nahrungs- und Energiequelle aufzeigen.

Konkurrenz um Anbauflächen für Nahrung und Energielieferanten.

Gemäß eines Berichts des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) (1) wurde durch die Forcierung des Anbaus von Biomasse zur Energienutzung ein Anstieg der angebauten Flächen verzeichnet. Zum gleichen Ergebnis kam der Bericht von 2011 der Fachagentur Nachwachsender Rohstoffe (FNR) (2). Die Zunahme der für den Anbau genutzten Flächen ist nach Angaben der FNR den Energiekulturen zuzuschreiben, da die genutzte Fläche zum Anbau von Industriepflanzen im Vergleich zum Vorjahr nicht zunahm.

 

Quelle FNR e.V.

Es kommt demzufolge zu einer Konkurrenz der Flächen und dadurch zu steigenden Pacht- und Bodenpreisen (2, 3, 4).
Um eine mögliche Flächenkonkurrenz zwischen Energie und Industriepflanzen zu verringern, wird laut ITAS und FNR die Nutzung von degradierten Flächen zur landwirtschaftlichen Anbauung von Rohstoffen verstärkt. Die verschlechterte Bodenqualität dieser Flächen ist durch Bewirtschaftung oder als Folge eines natürlich Prozesses entstanden und kann somit wieder reduziert werden.

Quellen: FAO; Metzger und Hüttermann, 2/2009, www.unendlich-viel-energie.de.

Dennoch werden auch Bodenflächen neu erschlossen, was eine Reihe von negativen Auswirkungen auf die Umwelt und das Landschaftsbild hat (Biotop Zerstörung, eventuell CO2 Emission bei Brandrodung, Monokulturen, Pestizideintrag... ) (1, 2).

Um die Konkurrenz zu minimieren, können und sollen außerdem Abfallstoffe (wie Cellulose-Ethanol und Btl-Kraftstoff, laut FNR) verstärkt zur Energiegewinnung genutzt werden.  

Seit Jahren laufen Diskussionen, ob Bioenergie überhaupt ethisch vertretbar ist. Die Problematik ist unter dem Begriff `Teller-Tank-Konflikt´ bekannt geworden. Dabei soll der verstärkte Bedarf an Biokraftstoffen für eine sprunghafte Preiserhöhung mitverantwortlich sein, die in vielen Ländern zu Hungeraufständen führten. So auch bei der sogenannten Tortilla-Krise (7) 2007 in Mexiko, die durch den fast doppelt so hohen Maismehlpreis ausgelöst wurde, der laut Kritikern auf das Interesse der Industrieländer an Bioethanol zurückzuführen ist.

Eine Konkurrenz zwischen dem Anbau von Pflanzen als Nahrungsmittel und als Energielieferanten kann demnach zu einer verstärkten sozialen Ungleichheit in Entwicklungsländern führen. Einige Stimmen betrachten diese Art der Energiegewinnung schlichtweg als unethisch, so auch der ehemalige UN-Sondergesandte für das Recht auf Ernährung und die Nichtregierungsorganisation Greenpeace.

Ein aktuelles Buch mit dem Titel `Energie aus Biomasse - ein ethisches Diskussionsmodell´, welches aus einer Studie des Instituts Technik-Theologie-Naturwissenschaften (TTN) an der LMU München und des Technologie- und Förderzentrums Straubing (TFZ) entstand, soll ethischen Aspekte zusammenfassen, beleuchten und in sachlicher Weise präsentieren.

Es gilt zu berücksichtigen, dass nicht allein die Bioenergie dem Anbau von Pflanzen, die zu Nahrungsmitteln verarbeitet werden, Konkurrenz machen. Als Industriepflanze bezeichnet spielt sie eine Rolle bei der Papierherstellung, in der Kosmetik und Medizin, und wird vor allem als Futtermittel verwendet. Auf der Seite des FNR(2) wird aufgeführt dass nur 3,2% der EU-Getreideernte zur Biokraftstoffproduktion genutzt, 60% dagegen als Futtermittel verwertet wurde.

Quelle: EU-Kommission, 11/2010

Weitere Grafiken beschreiben die Verhältnisse der Palmölnutzung, des globalen Zucker- und Weizenverbrauches. In allen Fällen macht der Anteil, der zur Energiegewinnung genutzten Biomasse einen niedrigen Prozentsatz aus. Dennoch wird interessanterweise aber vor allem die Nutzung von Biomasse zur Energieerzeugung kritisiert. Dabei würde ein Verzicht auf Kosmetika oder vor allem auf den Konsum von Fleisch der Nahrungs- oder Flächenkonkurrenz schneller und effektiver Abhilfe schaffen.

Um das komplette Potenzial von Biomasse abschätzen zu können und um herauszufinden, in welcher Form (fest, flüssig oder gasförmig) sie am effizientesten genutzt werden kann, wird weiter Forschung betrieben.

Dies ist auch der wissenschaftliche Auftrag des Deutschen Biomasseforschungszentrums (DBFZ), welches `die effiziente Etablierung von Biomasse als wertvolle Ressource für eine nachhaltige Energiebereitstellung im Rahmen angewandter Forschung [...] unterstützen sowie theoretisch und praktisch voran [...] treiben´ will. Zusätzlich soll das DBFZ eine `wissenschaftlich fundierte Entscheidungshilfe für die Politik erarbeiten´, wobei auch die sozialen Aspekte berücksichtigt werden müssen (5).


Quellen
1.    Institut für Technikfolgenabschätzung und Systemanalyse (ITAS): http://www.itas.fzk.de/tatup/082/heua08a.htm

2.    Fachagentur Nachwachsender Rohstoffe:
Anbaufläche für nachwachsende Rohstoffe 2011: http://www.nachwachsenderohstoffe.de/service/daten-und-fakten/anbau/

Siehe auch Agentur für Erneuerbare Energien: http://www.unendlich-viel-energie.de/de/detailansicht/article/263/anbau-nachwachsender-rohstoffe-in-deutschland-2011.html

3. Quelle D. Breuer 2007: Der Wettbewerb um die Nutzung landwirtschaftlicher Flächen: Nachwachsende Rohstoffe zur energetischen Nutzung contra Veredlungswirtschaft, ISN - Interessengemeinschaft der Schweinehalter Deutschlands e.V. und FNZ e.V. Seite).

4.  Fachagentur Nachwachsender Rohstoffe (FNZ): http://www.nachwachsenderohstoffe.de/service/daten-und-fakten/anbau/?spalte=3

5. Bundesministerium für Wirtschaft und Technologie (BMWi)
Endbericht Nutzungskonkurrenz bei Biomasse, 2008.

6. DBFZ http://www.dbfz.de/web/

7. Presseberichte zur `Tortilla-Krise¨: Hildegard Stausberg: Ethanol-Durst der USA löst Tortilla-Krise aus. In: Die Welt Online. 5. Februar 2007; Tagesspiegel WELT, http://www.tagesspiegel.de/weltspiegel/die-tortillakrise/806060.html; NZZ online http://www.nzz.ch/2007/01/21/al/articleEUDIG.html

weitere interessante Seiten:
http://www.bio-energie.de/
http://www.bioenergie.de/
http://www.unendlich-viel-energie.de/de/biomasse.html
http://www.das-energieportal.de/startseite/bioenergie/
www.wzw.tum.de/wdl/forschung/.../Energie_Nahrung_Gewisola.pdf
http://www.windwaerts.de/de/themen/bioenergie.html
http://www.biomasse-nutzung.de/

Wird mit dem Ausbau regenerativer Energien vor Ort der Bau neuer Stromtrassen überflüssig?

Wird mit dem Ausbau regenerativer Energien vor Ort der Bau neuer Stromtrassen überflüssig?

Für den weiteren Ausbau der regenerativen Energien zur Stromerzeugung ist der Ausbau der Stromnetze erforderlich. Die Zahl der großen Überlandleitungen fällt jedoch geringer aus, wenn mehr regenerative Energien vor Ort genutzt werden.

Die Bundesregierung will den Anteil der erneuerbaren Energien an der Stromversorgung in Deutschland von heute 17% auf 80% im Jahr 2050 anheben. Der Verband der Erneuerbaren Energien-Forschungsinstitute FVEE hält sogar 100% für möglich (1). Dies erfordert einen schrittweisen, langfristig aber vollständigen Umbau des Stromsystems. Die größten Stromerzeugungspotenziale weisen die Solarenergie (Photovoltaik) und der Wind auf. Die Biomasse (Biogas), die Wasserkraft und die Geothermie sind weitere wichtige Bausteine des künftigen Strommix, aufgrund ihrer begrenzten Potenziale allerdings nur in geringerem Umfang. Wind- und Solarenergie sind ausreichend, nachhaltig und bei den erwarteten weiteren Preissenkungen künftig auch kostengünstig vorhanden, allerdings fluktuieren sie deutlich im Tagesrhythmus als auch übers Jahr.

Die Windenergie wird langfristig mit über 50% den größten Anteil an der Stromerzeugung übernehmen. Die Solarenergie hat zwar das größere Potenzial, sie schwankt jedoch zwischen Sommer und Winter wesentlich stärker und würde bei gleichem Ausbau einen deutlich größeren Speicherbedarf aufweisen als der Wind. Ihr Beitrag zur Stromversorgung wird deshalb voraussichtlich bei 25% bis 30% liegen. Der Wind weht kurzfristig zwar wesentlich unberechenbarer als die Solarenergie, dafür schwankt er aber deutlich weniger zwischen Sommer und Winter, insbesondere wenn die Windkraftanlagen im Meer stehen (offshore). Der Windstrom muss dann jedoch von der Küste zu den Verbrauchern in die Ballungszentren transportiert werden. Deshalb muss jetzt das Hochspannungsnetz von Nord- und Ostsee ins Ruhrgebiet und in den Rhein-Neckar-Raum verstärkt werden. Im Gegensatz dazu benötigt der Ausbau der Photovoltaik nur eine Verstärkung der Niederspannungsebene vor Ort. Aktuell befinden sich etwa 850 km Hochspannungsleitungen im Bau, die bis zum Jahr 2015 fertiggestellt werden soll (siehe Abbildung 1).


Abb 1: Geplanter Ausbau des Hochspannungsnetzes in Deutschland bis 2015 (850 km Hochspannungsleitungen) (Quelle: Begleitheft zur Sonderschau PV ENERGY WORLD (2))

Mit drei Bausteinen wird im künftigen Stromnetz dafür gesorgt werden, dass trotz der Fluktuationen von Wind und Sonne und trotz der Erzeugung von Windstrom vor allem an und vor der Küste die Stromversorgung auch künftig sicher sein wird. Der erste Baustein ist der Ausbau der Stromnetze. Dieser ermöglicht den Ausgleich der Stromerzeugung zwischen Gebieten, in denen zu einem Zeitpunkt mehr Wind bläst oder die Sonne kräftiger scheint als in anderen Gebieten, die aktuell eine zu geringe Erzeugung aufweisen. Dieser Ausgleich wird zuerst auf kürzeren Distanzen erfolgen, mit der Zeit aber ausgedehnt werden. Langfristig wird der Aufbau eines europäischen Hochspannungsnetzes mit verlustarmer Gleichstromtechnik erwartet, um auch Wind von der Atlantikküste, Solarstrom aus Südeuropa und vielleicht Nordafrika sowie Strom beispielsweise aus Pumpspeicherkraftwerken in Norwegen beziehen zu können.


Der zweite Baustein der künftigen Stromversorgung ist das Smart Grid, das „intelligente Netz“, bei dem die meisten Stromverbraucher mit den Stromerzeugern bzw. den Leitzentralen über Datenleitungen verbunden sind. Über den intelligenten Stromzähler im Haushalt, den „Smart Meter“, erfährt der Kunde wann der Strom billig und wann er teuer ist, denn der Preis wird sich künftig nach der Verfügbarkeit von Strom richten, also danach, ob die Sonne scheint oder der Wind weht. Einige Verbraucher werden ihren Strombedarf daran ausrichten und damit die Lastkurve etwas an die Erzeugung anpassen können. Auch die zunehmend dezentralen Stromerzeuger, z.B. Blockheizkraftwerke oder Photovoltaikanlagen sind in die Kommunikation eingebunden und können ihre Stromeinspeisung ins Netz teilweise an den Strombedarf anpassen (siehe Abb. 2).

Abb. 2: Smart grid: Stromerzeuger und –verbraucher sind durch Datenleitungen miteinander verbunden und passen ihren Betrieb aufeinander an

Der dritte Baustein sind die Stromspeicher. Sie werden bei steigendem Anteil von Wind- und Solarstrom zunehmend ins Stromnetz integriert werden. Dies kann dezentral erfolgen, beispielsweise durch die Installation von Batterien in Gebäuden mit Photovoltaikanlage, die den tagsüber auf dem Dach erzeugten Solarstrom bis zum Abend speichern. Auch die Einbindung von Elektrofahrzeugen und deren Batterien erlaubt die Pufferung von Stromschwankungen im Tagesbereich. Mittlere Speicher werden in Stadtteilen installiert werden und kurzzeitige Fluktuationen ausgleichen helfen. Größere, zentrale Speicher wie z.B. Pumpspeicherwasserkraftwerke werden Fluktuationen über mehrere Tage und Wochen ausgleichen. Langfristig werden auch saisonale Speicher benötigt, die einen Ausgleich zwischen Sommer und Winter ermöglichen. Dazu eignet sich Wasserstoff oder mit erneuerbaren Energien hergestelltes Methan. Generell gilt jedoch, dass zuerst der Netzausbau erfolgt, da sich dieser günstiger realisieren lässt und der deutliche Ausbau von Speicherkapazitäten in großem Umfang erst bei deutlich höheren Anteilen regenerativer Energien erforderlich ist.


Der deutliche Ausbau der erneuerbaren Energien auf langfristig 80% bis 100% erfordert also einen vollständigen Umbau unseres Stromsystems von einem zentralisierten System, bei dem in relativ wenigen fossilen und nuklearen Kraftwerken der Strom erzeugt und über die Hoch-, Mittel- und Niederspannungsnetze an die Verbraucher verteilt wurde hin zu einem dezentralen, intelligenten Stromsystem, das die Stromerzeugung mit einer Vielzahl von kleinen und mittleren Anlagen mit regenerativen Energien auf allen Spannungsebenen umfasst. Dies ist verbunden mit dem Aufbau eines „Smart Grid“, bei dem die Stromerzeuger und Verbraucher über Datenleitungen miteinander kommunizieren können, was die Anpassung von Verbrauch und Erzeugung von Strom ermöglicht (siehe Abb. 3).

Abb. 3: Umbau des Stromnetzes vom zentralen (links) zum dezentralen (rechts) und intelligenten Stromnetz, das auch die Kommunikation zwischen Erzeugern und Verbrauchern ermöglicht

(1) Forschungsverbund Erneuerbare Energien, Energiekonzept 2050, www.fvee.de, download:
http://www.fvee.de/publikationen/publikation/download/energiekonzept-2050-ein-beitrag-von-instituten-aus-dem-fvee/
(2) Solar Promotion/Fraunhofer ISE, PV ENERGY WORLD, Begleitheft zur Sonderschau, 2011, download:
http://www.intersolar.de/fileadmin/Intersolar_Europe/Besucher_Service/ISE2011_PV_Energy_World.pdf 

Man hört oft von der Idee, überschüssige Energie durch Umwandlung in Methangas in bestehenden Gasnetzen speichern zu können. Wie funktioniert das genau und wäre damit das Speicherproblem gelöst?

Man hört oft von der Idee, überschüssige Energie durch Umwandlung in Methangas in bestehenden Gasnetzen speichern zu können. Wie funktioniert das genau und wäre damit das Speicherproblem gelöst?

Die Umwandlung von überschüssigem Strom aus erneuerbaren Energien in Methan (Renewable-Power-Methane, RPM) ist geeignet, auch längerfristige bzw. saisonale Schwankungen der Erträge aus Windkraft- und Photovoltaikanlagen auszugleichen und Energie sektorübergreifend bereitzustellen.

Schon vor über 200 Jahren hat der italienische Physiker Alessandro Volta entdeckt, dass man elektrischen Strom nutzen kann, um chemische Prozesse auszulösen. Dieses Verfahren wird als „Elektrolyse“ bezeichnet. Dabei wird Strom eingesetzt, um Wasser in seine Grundstoffe aufzuspalten: in Wasserstoff und Sauerstoff. Der Sauerstoff wird in die Atmosphäre entlassen und der Wasserstoff kann direkt energetisch genutzt oder bis zu einer bestimmten Menge auch ins Gasnetz eingespeist werden. Wenn die Grenze des Wasserstoffgehalts im Erdgasnetz ausgereizt ist, ist eine nachgeschaltete Methanisierung notwendig. Bei diesem Verfahren wird der Wasserstoff durch Hinzufügung von CO2 in erdgasgleiches Methan verwandelt. Das dazu benötigte CO2 kann etwa aus Biogasanlagen, industriellen Prozessen oder auch aus der Umgebungsluft entnommen werden.

RPM erreicht bis zum Prozessschritt der Methanspeicherung einen Wirkungsgrad von gut 60 Prozent. Über die gesamte Prozesskette - bei einer Rückverstromung ohne Wärmeauskopplung - jedoch nur einen Wirkungsgrad von bis zu 36 Prozent. Andererseits bietet es entscheidende Vorteile aufgrund der multifunktionalen Einsetzbarkeit und der hohen Energiedichte des erzeugten Methans. So würde das Stromnetz mit dem Erdgasnetz verknüpft und dessen immense Speicherkapazitäten von 200 TWh (thermisch) würden dezentral nutzbar (1 Terawattstunde entspricht 1.000.000.000 Kilowattstunden). Dies entspricht bei effizienter Rückverstromung 120 TWh (elektrisch). Zudem stehen durch die dafür bereits vorhandene Gas-Infrastruktur in den Bereichen Wärme, Verkehr und Industrie enorme sektorübergreifende Nutzungspotenziale zur Verfügung. Mit dem RPM-Konzept würde so perspektivisch ein dezentraler Langzeitspeicher geschaffen.

Die Erweiterung von Kapazitäten zum Stromtransport und zur Stromspeicherung stehen prinzipiell in wechselseitigem Zusammenhang: Je stärker die Leitungskapazitäten ausgebaut werden, desto weniger neue Stromspeicher braucht es – und umgekehrt. Komplett ersetzen lässt sich jedoch keine der beiden Optionen. Denn die Lastspitzen im Süden und Westen Deutschlands können nun mal nur durch verstärkte Stromleitungen an die Erzeugungsschwerpunkte im Norden und Osten angebunden werden. Umgekehrt erübrigt selbst eine großräumige, europäische Vernetzung von Erzeugern und Lasten nicht den Ausbau von Speichern in Deutschland zum Ausgleich von regionalen stunden- und tageweisen Schwankungen. Und auch alle denkbaren Maßnahmen zur Netzentlastung ersetzen weder vollständig den Bedarf an zusätzlichen Stromleitungen noch an neuen Speicherkapazitäten.

Schon im Jahr 2020 ist selbst bei zügigem Netzausbau mit relevanten Stromüberschüssen aus erneuerbaren Energien vor allem bei starkem Wind zu rechnen – mit entsprechendem Speicherbedarf. Für eine nahezu vollständig auf erneuerbaren Energien basierende Stromversorgung in 2050 schwanken die Schätzungen für den Speicherbedarf zwischen 0,5 und acht Prozent des derzeitigen Jahresstromverbrauchs von etwa 615 TWh (elektrisch): also 1,5 bis 50 TWh (elektrisch) gespeicherter Energie bzw. 50 bis 80 GW Speicherleistung. Im Vergleich dazu beträgt die Kapazität der heute in Deutschland vorhandenen Großspeicher (v. a. Pumpspeicher) bislang lediglich circa 0,04 TWh (elektrisch) und deren Leistung ungefähr 7 GW. Dennoch bieten zentrale Großspeicheranlagen in Verbindung mit Netzausbau im Vergleich zur dezentralen Speicherung den Vorteil, dass sie das gesamte Versorgungssystem optimieren können und aufgrund von Skaleneffekten in der Regel kostengünstiger sind. Dezentrale Speichersysteme erfordern dagegen geringere Stromtransportkapazitäten und sind häufig schneller realisierbar. Beide Komponenten werden benötigt. Dabei kommen insbesondere die folgenden Energieformen bzw. Speicherverfahren in Frage:

- potenzielle Energie mit Pumpspeichern,

- mechanische Energie mit Druckluftspeichern,

- chemische Energie mit Wasserstoff oder Methan,

- elektrochemische Energie mit Batterien.

Pumpspeicherkraftwerke bestechen durch einen sehr guten Gesamtwirkungsgrad zwischen 75 und 83 Prozent und eine hohe technische Ausgereiftheit sowie wichtige Beiträge zu Systemsicherheit und Netzstabilität. Andererseits ist der Neubau von Pumpspeicherkraftwerken mit hohen Kosten und enormen Eingriffen in Natur und Landschaft verbunden. Die Ausbaupotenziale dieser Technologie hierzulande sind aufgrund der topografischen Gegebenheiten (geringer Anteil von Gebirgen an der Landesfläche) begrenzt: Eine Kapazitätsausweitung auf 0,06 TWh (elektrisch) bzw. 10 GW ist projektiert, darüber hinaus werden die Potenziale auf weitere 3-4 GW geschätzt.

Wirkungsgrade von ca. 70 Prozent ermöglicht die adiabate Druckluftspeicherung. Die Investitionskosten dieser Technologie liegen deutlich unter denen von Pumpspeicherkraftwerken, die Betriebskosten jedoch darüber, so dass sich die Technologie heute noch nicht rechnet. Der Landschaftsverbrauch ist deutlich geringer, Umweltprobleme bereiten dagegen die gewaltigen Sole-Mengen, die beim Aushöhlen der Salzkavernen anfallen. Die Technologie ist noch längst nicht marktreif: das erste Demonstrationskraftwerk ist für 2016 geplant. Langfristig werden die Druckluftspeicherpotenziale in Deutschland auf bis zu 3,5 TWh (elektrisch) geschätzt. Da diese Potenziale wegen der dortigen Salzkavernen vor allem in Norddeutschland liegen, eignet sich die Technologie – die entsprechenden politischen und wirtschaftlichen Rahmenbedingungen vorausgesetzt – zum kurzzeitigen regionalen Ausgleich von Erzeugungsspitzen und Flauten bei der Windenergie und ist damit womöglich eine gute Ergänzung zu den südlichen Pumpspeicherkraftwerken in den Mittel- und Hochgebirgen.

Dezentrale Speicherung können auch Batterien leisten – dabei prinzipiell auch diejenigen, die in Elektrofahrzeuge eingebaut sind bzw. sein werden. Da die Speicherkapazitäten von Batterien meist stark begrenzt sind, dienen sie jedoch eher als Kurzzeitspeicher für wenige Stunden. Ihre Wirkungsgrade sind stark technologieabhängig und reichen von 67 bis 95 Prozent. So können Batteriespeicher eingesetzt werden, um regionale Versorgungsaufgaben zu lösen, beispielsweise die Kopplung mit Photovoltaik-Anlagen zur Deckung des Eigenbedarfs. Sie ersetzen damit jedoch nicht den oben genannten Bedarf an weieren Speicherkapazitäten. Außerdem bringt die massive Nachfrage nach Batterien Rohstoffkonflikte und Entsorgungsprobleme mit sich.

Betrachtet man die wichtigsten Kriterien – Wirkungsgrad, Kosten, Ausbaupotenzial, Passung ins Gesamtsystem sowie Auswirkungen auf Mensch und Natur – dann wird deutlich, dass Deutschland auf einen Mix verschiedener Speichertechnologien setzen muss und ein deutlicher Ausbau der Kapazitäten in Deutschland unvermeidbar ist. Dies gilt auch, wenn der Speicherbedarf in den nächsten Jahren zunächst nur langsam ansteigt und ggf. bisher ungenutzte Kapazitäten im Ausland tatsächlich erschlossen werden können. Während die Pump- und Druckluftspeicherkapazitäten in Deutschland auch perspektivisch nur zur Ausbalancierung von stunden- und tageweisen Schwankungen ausreichen werden, ist das oben beschriebene RPM-Konzept aus NABU-Sicht geeignet, auch längerfristig große Strommengen aus Windkraft- und Photovoltaikanlagen zu speichern. Die Umwandlungsverluste sollten insbesondere bei der Rückverstromung durch Wärmenutzung weiter minimiert werden, wären aber tolerabel angesichts der Tatsache, dass wir alternativ Windräder und Photovoltaikanlagen einfach abschalten und damit erneuerbaren Strom „wegwerfen“ müssten. Die größte Herausforderung stellt daher die künftige Ausgestaltung eines Marktes bzw. Anreizsystems für Speicherstrom dar, in dem sich Bau und Betrieb von RPM-Anlagen für die Investoren auch tatsächlich rechnen und die Kosten für die Verbraucher minimiert werden.

Was bedeutet die Energiewende für die energieintensive Industrie in Deutschland?

Was bedeutet die Energiewende für die energieintensive Industrie in Deutschland?

Als Mitglied des Beraterkreises und Hauptgeschäftsführer der WirtschaftsVereinigung Metalle e.V. möchte ich hier im Expertenblog schildern, was die Energiewende für die energieintensive Industrie bedeutet.

Die Energiewende ist vor dem Hintergrund der Ereignisse in Japan eine nachvollziehbare, dennoch in der Praxis keine einfach zu vollziehende Wende in der Energiepolitik des Industrielandes Deutschland. Sie stellt eine große Herausforderung für die Gesamtgesellschaft und Industrie als Teil der Gesellschaft dar. Es ist wahrlich eine Herkulesaufgabe, zu deren Bewältigung die viertgrößte Volkswirtschaft noch an einigen Klippen vorbeigeführt werden muss und zu der vor allen Dingen ebenfalls ein gesellschaftlicher Konsens benötigt wird. Die vor der Sommerpause festgelegten Eckpunkte und das klar definierte Ausstiegsszenario aus der Kernenergie sind dabei die eine Seite der Medaille - und bedeuten kein Ende der Debatte -, die Energieversorgungssicherheit der modernen Gesellschaft und Industrie die andere Seite. Als Grundstoffindustrie brauchen wir einen grundlastfähigen Energiemix, rund um die Uhr, 365 Tage im Jahr. Da erneuerbare Energien kurz- bis mittelfristig keinen grundlastfähigen Strom erzeugen können und ausreichende Energiespeicher fehlen, sind daher andere grundlastfähige Stromerzeugungsarten erforderlich. Dazu gehören – ob politisch gewollt oder nicht – saubere und moderne Kohlekraftwerke. Dazu müssen die in den vergangenen Jahren zunehmend restriktiven Rahmenbedingungen für die Stromerzeugung auf Kohlebasis, von lokalen Widerständen bis hin zur Verteuerung des CO2-Ausstoßes, auf den Prüfstand bzw. verbessert werden.

Hannelore Kraft hat dies klar formuliert. Sie spricht von einer „Kohlebrücke“, bei der die Braunkohle in den kommenden Jahren eine wichtige Rolle spielen wird. Damit zeigt sie einen Weg auf, der vorurteilsfrei nach Lösungen für einen realistischen Energiemix für das Industrieland Deutschland sucht.

Gerade die Kostenseite bedarf einer näheren Betrachtung. Der für die Industrie maßgebliche Großhandelspreis ist schon beim Abschalten der ersten Kernkraftwerke um gut 10 Prozent gestiegen, das bedeutet knapp 1 Cent je Kilowattstunde. Während das für die Privathaushalte noch zu einem als moderat zu bezeichnenden Anstieg von 35 Euro im Jahr führt, bedeutet der Preisanstieg für die Industrie orientiert am durchschnittlichen Stromverbrauch der letzten Jahre Mehrkosten in Höhe von 1,9 Milliarden. Insbesondere die energieintensiven Industriebranchen sind mit existenziellen Kostensteigerungen konfrontiert. Die Papierindustrie sieht sich Mehrkosten von 150 Millionen Euro gegenüber, die Chemieindustrie wird mit zusätzlich 340 Millionen Euro belastet und die gesamte Metallbranche muss mit 460 Millionen Euro rechnen. Aktuelle Studien beziffern die volkswirtschaftlichen Kosten des Atomausstiegs in einem Rahmen von 32 bis 55 Milliarden Euro. Der private Verbraucher und die Industrie werden sie bezahlen müssen, direkt oder durch Subventionen des Staates. Die Belastbarkeit der Industrie wird dabei leider häufig überschätzt. Da die Energiewende nur mit der Industrie als Wachstums- und Innovationsmotor gelingen kann, müssen wir einen rechtssicheren Weg beschreiten, der Tempo, Kosten und Anpassungen im Auge hat.

Energie muss sicher, sauber und bezahlbar sein. Die Kostenbelastung für die metallerzeugenden und -verarbeitenden Unternehmen war im internationalen Vergleich bereits vor der Energiewende zu hoch. Da passt nichts mehr obendrauf, wenn wir unsere internationale Wettbewerbsfähigkeit nicht aufgeben wollen.
Neben der Kostenfrage, die weder geklärt noch in den bisherigen politischen Beschlüssen des Bundestages berücksichtigt ist, bleiben weitere essenzielle Fragen für die energieintensiven Industrien unbeantwortet:

• Woher kommt der Grundlaststrom im Energiemix?
• Wer investiert in neue, wirtschaftlich unrentable Kraftwerke?
• Wer baut die zur Verteilung des Windstroms notwendigen Netze?
• Wie sollen die beibehaltenen Klimaschutzziele erreicht werden?
• Welche Instrumente sorgen zukünftig für international wettbewerbsfähige Strompreise?
• Wer schafft Konsens im „St. Florians-Land“?

Darauf gibt es bisher keine schlüssigen Antworten, die einem Realitätscheck standhalten würden. Strom kommt eben nicht nur aus der Steckdose und Energierealität ist komplexer als viele es sich wünschen.
Die Vorreiterrolle Deutschlands und Europas im Klimaschutz, der Energie- und Ressourceneffizienz ist eng verzahnt mit der Zukunft der hiesigen Industrieproduktion. Ökologische Herausforderungen werden wir nur ökonomisch lösen können. Die Industrie ist dabei nicht das Problem, sondern notwendiger Gestalter unserer Zukunft. Dafür braucht sie weiterhin internationale Wettbewerbsfähigkeit „Luft zum Atmen“. Von einer Industrie, die von Subventionen gelenkt wird, werden wir nicht leben können, schon aus Gründen der Staatsverschuldung und Haushaltskonsolidierung. Daher müssen auch Erneuerbare Energien zügig in den Markt integriert werden, um Gelder freizumachen für Projekte wie Gebäudesanierung, Leitungs- und Kraftwerksbau.

Die Belastungsaddition aus hohen Stromkosten und zusätzlichen politischen Kosten schwächen die internationale Wettbewerbssituation deutscher Unternehmen, den tatsächlichen Vorreitern in Sachen Klimaschutz, Ressourcen- und Energieeffizienz. Der Schlüssel hierfür liegt in der tagtäglichen Praxis der Balance von Ökonomie und Ökologie in den Unternehmen. Hierzu brauchen wir ein kontinuierliches Monitoringverfahren als Realitätscheck.

Die politisch gewollte Neuausrichtung und Umsetzung der Energiepolitik sind ohne die energieintensiven Industrien nicht möglich, denn ohne energieintensive Grundstoffe wie Aluminium, Stahl, Kupfer, Glas, Zink, Blei, Nickel und andere Metalle wird kein Kraftwerk gebaut, kein Stromnetz betrieben, kein Strom aus Erneuerbaren produziert - und keine Speicher hergestellt. Der für alle Energieformen notwendige Ausbau der Netze und Energiespeicher ist voranzutreiben. Dies erfordert ein aktives Eintreten für die Akzeptanz von Großprojekten und Infrastruktur. Anders werden die Planungen und die Umsetzung von Kraftwerksbauten und das Ziehen von Stromtrassen quer durch die Republik nicht möglich sein.

Deutschlands Industrie weist eine weitgehend intakte komplette Wertschöpfungskette auf und stellt so Energietechnologien auf höchstem internationalem Niveau her und ist in vielen Bereichen Weltmarktführer. Der Anteil des produzierenden Gewerbes an der Bruttowertschöpfung ist mit 30 % existentiell für alle Lebensbereiche der modernen Industriegesellschaft. Die deutsche Industrie bietet bereits heute ein breites Spektrum an Technologien für den Klimaschutz und insbesondere auch für die Erneuerbaren Energien, die ohne die Produkte der energieintensiven Industrien nicht vorstellbar wären. Es sollte zudem nicht vergessen werden, dass die Industrie in Deutschland, flankiert von politischen Maßnahmen zur Krisenbewältigung, uns erneut auf einen Wachstumspfad gebracht hat, der Wohlstand und sozialen Frieden sichert. Das brauchen wir in Zeiten von Wirtschafts- und Finanzkrise notwendiger denn je. Mit Dienstleistungen allein und vergehendem Wohlstand lässt sich die Zukunft nicht gestalten.

Wer die Standards in der Ökologie auch zukünftig sichern, das Industrie-, Innovations- und Investitionsland Deutschland stärken und Industriearbeitsplätze erhalten will, muss die ökonomischen Grundlagen für eine international wettbewerbsfähige Grundstoffindustrie politisch flankieren. Das setzt voraus: international wettbewerbsfähige Energiekosten, international vergleichbare Umweltstandards, fairen Welthandel und freie Märkte, Rohstoff und Energieversorgungssicherheit und eine konstruktive Industriepolitik.

Der notwendige gesellschaftliche Konsens für Klima-, Energie- und Industriepolitik hat keine Zukunft, wenn offene Fragen ausgeblendet werden. Gesellschaftspolitische Grundsatz- und Akzeptanzfragen sind durch ideologiefreien Konsens und sachliche Entscheidungen lösbar. Wir leisten unseren Beitrag dazu und geben gerne Diskussionsanstöße mit aller Klarheit und unserer Erfahrung.

Antworten auf Fragen zum Expertenblog

Antworten auf Fragen zum Expertenblog

Herzlichen Dank für Ihre rege Teilnahme am Expertenblog. Das Büro Bürgerdialog freut sich, dass dieses begleitende Format zum Online-Dialog so gut angenommen wird. In den vergangenen Wochen sind drei Fragen hinsichtlich des Formats des Expertenblogs häufiger gestellt worden. Wir möchten sie an dieser Stelle kurz beantworten.

Welchen Ursprung haben die Fragen, die die Experten auf dem Blog beantworten?

Das Büro Bürgerdialog sondiert wöchentlich, welche aktuellen Fragen die Bürgerinnen und Bürger auf den Bürgerkonferenzen, den Bürgerwerkstätten und im Online-Dialog umtreiben. Aus diesen Fragen filtern wir eine heraus und geben sie einem Experten zur Beantwortung.

Wie häufig schreiben die Experten?

Auf dem Expertenblog erscheint i.d.R. einmal wöchentlich ein Beitrag. Bitte verstehen Sie, dass die Experten nicht häufiger schreiben können, nehmen sie sich doch zusätzlich zu ihrer beruflichen Tätigkeit die Zeit, um hier zu publizieren. Dies ist auch der Grund, warum die Experten nicht immer ganz so schnell auf einzelne Kommentare reagieren können, wie es von manchem Nutzer und mancher Nutzerin gewünscht wird.

Wird der Expertenkreis noch erweitert?

Ziel des Blogs ist es, Experten mit unterschiedlichen Expertisen und Sichtweisen auf das Thema „Energie“ zu Wort kommen zu lassen. Als Kernteam haben Prof. Ortwin Renn (Mitglied der Ethikkommission), Dr. Jens Kube (Welt der Physik) und das Ehepaar Dr. Brandt-Bohne (Science Meets Society) begonnen. Wir werden den Kreis der Experten nun schrittweise erweitern. In dieser Woche wird Martin Kneer (WirtschaftsVereinigung Metalle) als ein Vertreter der energieintensiven Industrie einen Beitrag schreiben. In der kommenden Woche hat sich Carsten Wachholz (NABU Deutschland) bereit erklärt, auf eine Frage aus dem laufenden Bürgerdialog zu antworten.

Wo liegen das Potenzial und eventuelle Herausforderungen im Bereich Intelligente Stromnetze?

Wo liegen das Potenzial und eventuelle Herausforderungen im Bereich Intelligente Stromnetze?

Mit dem Begriff "intelligente Stromnetze" (Smart Grids) wird ein komplexes Zusammenspiel im Bereich der Verteilung und Nutzung elektrischer Energie bezeichnet. Grundsätzlich sind die intelligenten Netze ein moderner Ansatz, Verbrauch und Produktion elektrischer Energie in Einklang zu bringen.

Wieso müssen Produktion und Verbrauch überhaupt in Einklang gebracht, ja sogar synchronisiert werden? Der Grund liegt darin, dass elektrische Energie zwar eine sehr hochwertige Energieform ist, was ihren Einsatz betrifft. Man kann mit Strom heizen, Dinge bewegen oder Suchanfragen im Internet durchführen. Leider kauft man sich diese vielen Vorteile jedoch mit dem Nachteil ein, dass elektrische Energie nur sehr schwer speicherbar ist. Batterien enthalten sehr kleine Mengen chemische Energie, die in elektrische Energie umgewandelt werden kann: 1500 mAh eines modernen AA-Akkus entsprechen in etwa 0,002 kWh, in einer Auto-Starterbatterie sind etwa 0,1 kWh. Auch im großtechnischen Maßstab gibt es keine direkte Speichermöglichkeit für große Mengen Strom. Hier ein Überblick über verschiedene Speichermethoden, mit denen elektrische Energie quasi-gespeichert werden kann: http://www.weltderphysik.de/de/8153.php

Damit ich also in diesem Moment diese Zeilen schreiben kann, muss irgendwo ein Kraftwerk den Strom dafür produzieren. Der durchschnittliche Verlauf des Stromverbrauchs für einen Tag im Sommer und im Winter ist hier zu sehen: http://www.weltderphysik.de/de/8253.php?i=8257

Unser bisheriges Stromnetz regelt den Unterschied zwischen Verbrauch und Produktion elektrischen Stroms bisher einzig auf der Angebotsseite: Kraftwerke werden hoch- und runtergeregelt, je nachdem, wie viel Energie die Nutzer zu jeder Sekunde nachfragen. Dies funktioniert einigermaßen brauchbar, solange die Angebotsseite regelbar ist. Doch nicht alle zukünftigen Kraftwerke sind regelbar: Wind und Sonne wehen und scheinen zwar vorhersagbar, aber nicht kontrollierbar. Als regelbare Kraftwerke bleiben langfristig Biomasse-, Laufwasser-, Pumpspeicher- und ggf. Gaskraftwerke - in ferner Zukunft vielleicht auch mal Fusionskraftwerke.

Um also weiterhin den Ausgleich zwischen Bedarf und Produktion herzustellen, muss nun auch an der Bedarfsseite geregelt werden. Dies ist natürlich nur in begrenztem Umfang möglich - doch wenn man genau hinschaut in erstaunlich großem. Gut regelbar sind Verbraucher, die selbst ein Energiespeicher sind. Ein ganz klassisches Beispiel ist die Nachtspeicherheizung, die vielleicht der ein oder andere noch kennt: Nachts - wenn der Strombedarf gering ist - wird eine Steinplatte in einem Heizkörper aufgeladen. Tagsüber wird die geheizte Platte von Luft umströmt und die Wärme so an den Raum abgegeben.

Die potenziellen smarten Verbraucher sind zahlreich: Kühlhäuser beispielsweise können zu Zeiten geringen Strombedarfs bzw. Angebotsüberschusses stark heruntergekühlt werden und so ihren Energiebedarf decken. In Hochlastzeiten laufen die Kühlaggregate einfach nicht, durch die Isolierung bleibt das vorher tiefer als gewöhnlich gekühlte Kühlhaus kalt genug. Auch mit modernen Haushaltskühlschränken wäre eine solche Steuerung gut möglich. Ein Indiz dafür sind Werbeversprechen wie "Kältereserve 24h" - eine so gekennzeichnete Tiefkühlbox könnte statt rund um die Uhr auf -20°C zu kühlen zu Zeiten wenn viel Wind weht oder die Sonne scheint z.B. auf -40°C kühlen und dann über viele Stunden ohne weitere Energieversorgung auskommen.

Sobald die Umstellung auf Elektromobilität erfolgt ist, gibt es ein weiteres großes Speicherpotenzial: Die meisten Elektrofahrzeuge werden nachts unbenutzt an ihren Ladesäulen stehen. Im einfachsten Fall würde man sie mit Nachtstrom laden, später - im echten intelligenten Netz - würden sie bei Stromüberangebot intensiv geladen werden und könnten sogar bei Strommangel aus ihren Batterien (die dann wahrscheinlich auch effizienter arbeiten werden also heute) das Netz mit zusätzlicher Energie unterstützen. Damit dies funktioniert, muss der Fahrzeugnutzer natürlich dem Netz auch den Bedarf vormelden. Es ist ja schließlich nicht sinnvoll, die Batterie des eigenen Fahrzeugs leerzuverkaufen, wenn man eine Stunde danach eine längere Fahrt plant.

Und damit sind wir auch schon bei der meiner Einschätzung nach größten Herausforderung eines konsequenten "Smart Grid": Die "smarte" Komponente "Mensch"! Heute sind wir es gewohnt, dass der Strom einfach so und rund um die Uhr gleichwertig aus der Steckdose kommt. Es gibt keinen offensichtlichen Grund und erst recht keinen Anreiz, die Geschirrspülmaschine, den Wäschetrockner oder die Waschmaschine genau dann laufen zu lassen, wenn gerade mehr Strom produziert als nachgefragt wird. Doch diese Anreize werden kommen müssen, damit Smart Grids funktionieren.

In einem ersten Ansatz wird konsequente smarte Stromnutzung sich im Preis niederschlagen: Wenn der Strompreis mit der Differenz aus Angebot und Nachfrage zumindest teilweise zum Endkunden durchgereicht wird, dann lohnt sich, die vollbeladene Waschmaschine in Wartestellung auf einen günstigen Tarif vielleicht 2-3 Stunden lauern zu lassen oder den Geschirrspüler nachts laufen zu lassen (was übrigens auch eine praktische Zeit ist, denn dann nervt er nicht mit seiner Lautstärke). Im hypothetischen Idealfall könnte der Endkunde übrigens durch Stromverbrauch auch Geld verdienen, denn bei einem starken Überangebot an elektrischer Energie bei viel Wind könnte der Großhandelsstrompreis sogar negativ werden!

Damit all dies funktioniert, muss eine Standardisierung der technischen Komponenten des Smart Grid erfolgen. Dazu gibt es Bestrebungen und europaweite Forschungsprojekte, siehe z.B. www.smartgrids.eu.

Spannend wird im Zuge dieser Entwicklungen, wie sich die wirtschaftliche Seite darstellen wird. Die Kosten für die intelligente Netzinfrastruktur werden sich Netzbetreiber und Kunden vermutlich teilen. Intelligente Stromzähler, die verschiedene Preisniveaus zu verschiedenen Zeiten anzeigen, sowie die zusätzlichen Telekommunikationseinrichtungen, werden sich die Kunden in Haus und Wohnung installieren müssen. So wie jetzt auch werden die Netzbetreiber dafür eine Miete verlangen. Die Bedarfsdaten und die passenden Prognosen werden von den Betreibern geliefert werden, und eine ganze Reihe altbekannter und neuer Hersteller werden in den Haushalten intelligente Applikationen entwickeln, die mit möglichst niedrigem Komfortverlust das Bedarfsprofil des Benutzers mit Blick auf Preis und Preisprognose optimieren werden. Wie aber schon oben gesagt: Gerade im Haushalt ist dafür die Bereitschaft des einzelnen Nutzers und der einzelnen Nutzerin für eine vorausschauende Benennung des Energiebedarfs erforderlich.

Ausgeblendet habe ich in dieser Betrachtung bisher Industrie und Gewerbe. Es gibt sicher einige Bereiche (wie die genannten Kühlhäuser), die gut als regelbare Komponenten in intelligente Netze eingebunden werden können. Doch auch die nicht regelbaren Komponenten wie Öfen jeglicher Größe, Förderbänder usw. sind auch im intelligenten Netz kein Hindernis, denn sie sind planbar und können bei Prognosen und Bedarfsanmeldungen gut berücksichtigt werden.

Wie groß ist das Einsparpotenzial durch intelligente Netze? Nun, vermutlich ist es nahe Null, solange kein nicht wegregelbarer Überbedarf an elektrischer Energie besteht. Aber das ist ja auch nicht das Ziel intelligenter Netze! Intelligente Netze haben einzig die Aufgabe, auch auf Nutzerseite eine Anpassung von Bedarf und Angebot im Strommarkt herzustellen. Und das ist notwendig, wenn wir beim Umstieg auf erneuerbare Energien eben nicht mehr 100% Kontrolle auf die Angebotsseite im Stromnetz haben.

Wie schaffen wir es, die Planungen für eine neue Energieinfrastruktur voranzutreiben, dabei aber die Bürgerinnen und Bürger vor Ort mitzunehmen?

Wie schaffen wir es, die Planungen für eine neue Energieinfrastruktur voranzutreiben, dabei aber die Bürgerinnen und Bürger vor Ort mitzunehmen?

Ortwin Renn

Politikverdrossenheit, St.-Florians-Prinzip, Wutbürger, Protestkultur, Besitzstandwahrung, Anspruchsmentalität – diese Schlagworte kennzeichnen die aktuelle Debatte um die Rolle der Bürgerin und des Bürgers in unserer heutigen Gesellschaft. Allein die Tatsache, dass ein Beschluss demokratisch zustande gekommen ist, reicht oft nicht mehr aus, um Akzeptanz bei den Betroffenen zu erreichen. Dies zeigt sich auch bei Konflikten um Netzausbau, Pumpspeicherkraftwerke oder Windenergieanlagen. Obwohl mehr als 80 Prozent der Deutschen die Energiewende begrüßen, sind Infrastrukturmaßnahmen, die zur Energiewende beitragen können, stark umstritten.

Warum ist es zu dieser Legitimationskrise gekommen? Ohne diese Frage erschöpfend beantworten zu wollen, erscheinen folgende Faktoren von besonderer Bedeutung zu sein:

− In einer zunehmend dichteren Besiedlung und Vernetzung sind Risiken und Nutzen von Planungsvorhaben nicht gleich verteilt. In der Regel fällt der Nutzen bei einer Menge meist anonymer Konsumenten oder Produzenten an (etwa beim Netzausbau), während überwiegend die Standortbevölkerung das Risiko trägt. Dies führt zu wahrgenommenen Verletzungen des Fairness-Prinzips. Warum soll ein Teil der Bürgerschaft Nachteile in Kauf nehmen, wenn überwiegend andere von dem Nutzen profitieren?

− Die Notwendigkeit der jeweiligen Planungsziele und -inhalte ist häufig auch unter Fachleuten umstritten (zumindest in dem Ausmaß, wie es viele Antragsteller wünschen). Das gilt etwa für Fernleitungsnetze vom Norden in den Süden Deutschland oder bei großen Pumpspeicherkraftwerken. In der öffentlichen Auseinandersetzung um das Für und Wider bestimmter Planungsinhalte lässt sich daher jede mögliche Haltung durch Rückgriff auf irgendeinen Experten begründen. Das Expertendilemma führt dazu, dass Sachwissen als potentiell integrative Kraft für den Ausschluss von Behauptungen nicht mehr oder nur in geringem Maß zur Verfügung steht.

− Es klafft häufig eine Kluft zwischen den von den Fachleuten berechneten Konsequenzen und Risiken der jeweiligen Vorhaben und den von der Bevölkerung wahrgenommenen Folgeproblemen. Wie psychologische Untersuchungen nachweisen, spielt bei der Beurteilung von Risiken neben der Wahrscheinlichkeit und des Ausmaßes des Risikos auch sogenannte qualitative Risikomerkmale eine wichtige Rolle. So macht es einen wichtigen Unterschied, ob Risiken beispielsweise freiwillig auf sich genommen oder von dem Risikoträger aktiv kontrolliert werden können.

− Der Protest gegen zentrale politische Planung nährt sich auch aus der Erfahrung der Bedrohung der eigenen Lebenswelt. Immer mehr Bürger sehen sich in ihrem Alltagshandeln durch professionelle Expertenurteile und institutionelle Eingriffe eingeengt. Was sich in ihrer Gemeinde abspielt, entzieht sich mehr und mehr ihrer Kontrolle und ihrer Einflussnahme. Als Gegenreaktion versuchen sie, alles, was Ihnen von außen aufgezwungen erscheint, abzuwehren und ihre eigene kollektive Identität zu wahren.

− Schließlich ist der Protest gegen Risikoanlagen häufig auch ein Protest gegen die Art, wie Beschlüsse in der politischen Arena zustande kommen. Der Prozess der Entscheidungsfindung ist mindestens ebenso bedeutend wie die Entscheidung selbst. Mit zunehmenden Bildungsstand und ökonomischen Wohlstand wächst der Wunsch nach Teilhabe an der Entscheidungsfindung, vor allem dann, wenn die persönliche Lebenswelt betroffen ist.

Misstrauen gegenüber öffentlicher Planung ist durch viele Faktoren begründet und von daher auch nicht als ein vorübergehendes Phänomen zu sehen. Vertrauensverluste lassen sich nicht durch Information ausgleichen. Dementsprechend laufen auch alle Vorschläge, die auftretenden Konflikte durch bessere Erziehung, Aufklärung oder Informationskampagnen zu bewältigen, ins Leere. Aktive Beteiligung der Bürger an öffentlichen Planungen setzt zweierlei voraus: eine Legitimation durch Verfahren und eine offene Auseinandersetzung mit den betroffenen Bevölkerungsgruppen. Im ersten Fall geht es um einen transparenten und nachvollziehbaren Prozess der Entscheidungsfindung, in dem alle Interessen und Werte berücksichtigt werden; im zweiten Fall um eine angemessene Beteiligung der Menschen, die direkt oder indirekt von den Konsequenzen dieser Entscheidung betroffen sind. Beteiligung ist aber nicht nur notwendiges Übel in einer auf Mitsprache bedachten Gesellschaft, sondern eine funktionale Bereicherung des Entscheidungsprozesses sowie eine auf der demokratischen Grundordnung basierende Verpflichtung gegenüber den betroffenen Bürgern.

Bürgerbeteiligungsverfahren bieten vor diesem Hintergrund einen möglichen Lösungsweg an. Als Bürgerbeteiligungsverfahren sind hier kommunikative Prozesse gemeint, in denen Personen, die qua Amt oder Mandat keinen Anspruch auf Mitwirkung an kollektiven Entscheidungen haben, die Möglichkeit erhalten, durch die Eingabe von Wissen, Präferenzen, Bewertungen und Empfehlungen auf die kollektiv wirksame Entscheidungsfindung direkten oder indirekten Einfluss zu nehmen. Dabei wird der Fokus weg von der eigentlichen Entscheidung und hin zu dem Weg, auf dem die Entscheidung getroffen wird, verlagert. Es gibt fünf Gründe, die bei komplexen Planungsentscheidungen für eine stärkere Einbindung der Bürgerinnen und Bürger in die Entscheidungsfindung sprechen:

− Durch Einbezug von örtlich betroffenen Bevölkerungsteilen kann zum ersten die Wissensbasis erweitert werden. Neben dem systematischen Wissen der Experten und dem Prozesswissen der Entscheidungsträger kann für viele Entscheidungsprobleme auch das Erfahrungswissen der betroffenen Bevölkerung von besonderer Bedeutung sein. Dieses Erfahrungswissen kann je nach Problemtyp eine wichtige Bereicherung und gelegentlich auch eine Korrektur des Expertenwissens darstellen, vor allem dann, wenn die Ursache-Wirkungszusammenhänge in der Realität stark streuen oder die Wirkungen von den Entscheidungen der betroffenen Bevölkerung mit abhängen.

− Zum zweiten kann Bürgerbeteiligung den jeweiligen Entscheidungsträgern wichtige Informationen über die Verteilung der Präferenzen und Werte der betroffenen Bevölkerungsteile vermitteln. Da Entscheidungen auf Folgewissen und Urteile über die Wünschbarkeit der zu erwartenden Folgen beruhen, ist es für Entscheidungsträger häufig unverzichtbar, die Wahrnehmung der Wünschbarkeit der Folgen explizit zu erheben und (mit) als Grundlage für die eigene Entscheidung aufgreifen. Es gibt viele Formen, Präferenzen zu erkunden und in die Entscheidungsfindung einzubinden. Das reicht von den eher passiven Instrumenten der Befragung und der Fokusgruppen bis zu den eher gestaltenden Formen von Konsensuskonferenzen, Bürgerforen, Planungszellen u.a.m.

− Zum dritten kann Beteiligung als Instrument zu einem fairen Aushandeln von Ressourcen dienen. Die Literatur zu Spieltheorie, Mediation, Schlichtung und Aushandlungsprozessen ist ein beredtes Zeugnis für diese konfliktvermittelnde Funktion von Bürgerbeteiligung. Dahinter steht die Auffassung, dass diejenigen, die in Konkurrenz mit anderen Anspruch auf eine Ressource erheben, am besten in einem „fairen“ Verfahren (procedural equity) eine eigene Lösung für eine faire Verteilung finden sollen. Traditionelle Tarifrunden zwischen Arbeitgebern und Arbeitnehmervertreter sind ebenso Beispiele für diese Funktion wie Aushandlungsprozesse über Emissionszertifikate oder Kompensationsverhandlungen für erlittene Umweltbelastungen. Beim Netzausbau kann man etwa Gemeinden an dem Gewinn der Netzbetreiber beteiligen oder Anwohner von lokalen Windenergieanlagen können von dem betreibenden Unternehmen Aktien erhalten.

− Zum vierten kann Bürgerbeteiligung als ein Element der Gestaltung der eigenen Lebenswelt angesehen werden. In dieser Funktion wird den betroffenen Menschen die Möglichkeit gegeben, in Form von Selbstverpflichtungen oder von Verantwortungszuschreibungen Veränderungen in ihrer eigenen Lebenswelt herbeizuführen.

Aktive Beteiligung der Bürger an öffentlichen Planungen setzt nicht nur eine Legitimation durch Verfahren und eine offene Auseinandersetzung mit den betroffenen Bevölkerungsgruppen voraus. Ein offener Dialog muss auch nach beiden Seiten hin offen sein, d.h. er darf sich nicht auf die Einbahnstraße der Information der Betroffenen beschränken, sondern auch Mitwirkungsrechte der Betroffenen an der Entscheidungsfindung einschließen. Ohne eine solche Rückkopplung wird jeder Dialog letztendlich im Sande der Frustration scheitern. Mitwirkung ist also eine notwendige Bedingung für einen erfolgreichen Dialog.