FAST-Energy-Design

Planungswerkzeug zur optimierten Schnellauslegung für Energiesysteme im industriellen und kommunalen Bereich

1. Zwischenbericht 2018 - Dezember 2018


Laufzeit des Vorhabens: 01.01.2018 bis 30.06.2019 

Berichtszeitraum: 01.07.2018 bis 30.12.2018 

Aufzählung der wichtigsten wissenschaftlich-technischen Ergebnisse und anderer wesentlicher Ereignisse  


AP1 Modellbildung zur Simulation des Energieversorgungssystems

Im Zeitraum des Zwischenberichts wurden die Arbeiten am Rechenkern fortgesetzt. Um das Tool einsteigerfreundlicher zu gestalten, wurden Regressionsfunktionen zur Abschätzung des Wärme- und Stromlastprofils eingebunden, sodass zur Verwendung des Tools kein stündlich aufgelöstes Wärme- bzw. Stromlastprofil vorhanden sein muss. Zur Approximation werden hierfür lediglich der jährliche Wärme- bzw. Strombedarf und die Außenlufttemperatur in einer stündlichen Auflösung benötigt. Standardmäßig sind Wetterdaten für den Standort Düsseldorf mit dem Bezugsjahr 2016 hinterlegt. Diese können jedoch auch vom Anwender individuell angepasst werden. Weiterhin besteht die Möglichkeit, eigene Lastprofile zu verwenden, sofern diese dem Anwender vorliegen.

Momentan kann keine Approximation für ein stündlich aufgelöstes Kältelastprofil erfolgen, da Recherchen bisher kein geeignetes Berechnungsmodell aufgezeigt haben. Eine Berechnung nach VDI 2078 wäre möglich, aber auch mit einer Vielzahl an Eingabeparameter durch den Anwender verbunden. Zur Berechnung der internen und externen Wärmequellen müssten vom Nutzer beispielsweise Daten zur spezifischen Anschlussleistung der Beleuchtung/Maschinen, der Aktivitätsgrad der Personen im Gebäude, der genaue Wandaufbau u.v.m. vorausgesetzt werden. Diese detaillierte Abfrage von Parametern steht im Widerspruch zu dem Ziel, ein möglichst intuitives und einfaches Planungstool zu entwickeln. Aus diesem Grund wird momentan ein Kältelastprofil vom Anwender vorausgesetzt, wenn dieser eine Kälteversorgung in seinem System vorsieht.


Zur Deckung des Kältebedarfs wurden eine Kompressionskältemaschine und eine Absorptionskältemaschine in den Rechenkern implementiert. Der entsprechende Wärme- und Strombedarf kann direkt durch den Wärmespeicher bzw. durch die eigenen Stromerzeuger gedeckt werden. Aufgrund von energetischen, ökonomischen und technischen Vorteilen wird auch bei der Kälteerzeugung ein Kältespeicher verwendet, der den Kältebedarf von der Kälteerzeugung entkoppelt. Zur Abbildung des Kältespeichers wird dasselbe Modell verwendet, welches bereits beim Wärmespeicher Anwendung fand. Neben dem zuvor implementierten Blockheizkraftwerk wurden dem Rechenkern eine Photovoltaikanlage, kleine Windkraftanlagen mit einer Nennleistung von 2,5 bis 50,0 kW und große Windkraftanlagen mit einer Nennleistung von 900,0 bis 7580,0 kW hinzugefügt. Die Möglichkeit der Nutzung des Stromnetzes und der Einspeisung ins Stromnetz ist weiterhin möglich. Darüber hinaus kann nun auch Abwärme aus industriellen Quellen oder kommunalen Abwässern genutzt werden. Die Abbildung der Strombzw. Kälteerzeugern erfolgt, wie bereits bei den Wärmeerzeugern, in Form von Energiebilanzen oder Wirkungsgradkurven. Bei der Wirtschaftlichkeitsbetrachtung werden Investitionskosten, Brennstoffkosten, Kosten für Wartung und Instandhaltung sowie Förderungsprogramme berücksichtigt.

Im Berichtszeitraum wurde darüber hinaus ein Kompatibilitätsproblem behoben. Dadurch ist das Excel-Tool nun mit unterschiedlichen PC-Systemen (32-Bit/64-Bit) und Office-Versionen (32-Bit) kompatibel. Entstanden sind die Kompatibilitätsprobleme durch die Einbindung des dynamischen Speichermodells, welches über Visual Basic for Applications (VBA) als Dynamic Link Library (DLL) umgesetzt wurde. Eine Umsetzung des Excel-Tools für Office 64-Bit steht noch aus. Um die Verwendung von DLL´s für den Anwender zu vereinfachen, wurde das Kopieren der benötigten Dateien und die Aktivierung des Excel Add-Ins automatisiert.


Weitere Anpassungen am Rechenkern sind während der Projektlaufzeit, aufgrund von Erkenntnissen aus den folgenden Arbeitsschritten, möglich. 


AP2 Programmierung des automatisierten Optimierers

Im Folgenden soll der finale Stand der automatisierten Optimierung vorgestellt werden. Diese ist ein Ergebnis aus der Entwicklung und dem Vergleich unterschiedlicher Ansätze. Zu diesen gehören:

  • Ansatz 1: Klassische Versuchsplanung und Modellbildung anhand einer quadratischen Funktion

Konkret wird ein zentral zusammengesetzter Versuchsplan mit orthogonalen Eigenschaften verwendet, um die Parameter einer Polynomfunktion 2. Grades zu ermitteln. 

  • Ansatz 2: Kopplung von klassischer Versuchsplanung und gleichverteilten Versuchsplänen zur Modellbildung von künstlichen neuronalen Netzwerken (angesprochen im letzten Zwischenbericht) 

Es wird ein zweistufiger Versuchsplan zur Abtastung von Informationen in den Ecken des Versuchsraums sowie ein gleichverteilter Versuchsplan zur Abtastung von Informationen im Versuchsraum gekoppelt. Der gleichverteilte Versuchsplan wird hinsichtlich eines metrischen Kriteriums sowie der Korrelation der Faktorspalten optimiert. Die so gewonnenen Informationen werden zum Training eines künstlichen neuronalen Netzwerkes genutzt. Das Training (bzw. die Ermittlung der optimalen Netzwerk Parameter) erfolgt dabei über Bayesian Regularization, welches zum Schutz vor Überanpassung an die Trainingsdaten ebenfalls die Netzwerkgewichte optimiert. Es erlaubt die Nutzung aller Informationen. 

  • Ansatz 3: Nutzung gleichverteilter Versuchspläne zum aktiven Lernen von KNN-Ensembles

Analog zum zweiten Ansatz mit folgenden Unterschieden: Es wird ein orthogonaler gleichverteilter Versuchsplan als Basis für das Training verwendet. Diese erlauben ein Abtasten des Versuchsraums ohne eventuell auftretende Redundanz und damit eine Generierung von diverseren Informationen. Anstatt nur ein Netzwerk zu trainieren, werden fünf Netzwerke trainiert. Aufgrund von unterschiedlichen Startbedingungen für das Training der Netzwerke entstehen unterschiedliche Prognosemodelle. Wird eine Faktorstufenkombination prognostiziert, ergeben sich demnach fünf unterschiedliche Ergebnisse. Der Mittelwert über diese Ergebnisse bildet dann die eigentliche Prognose und die dazugehörige Standardabweichung ein Maß für die Unsicherheit. Sofern die vorhandenen Informationen nicht ausreichen, um eine generalisierende Prognose zu gewährleisten, werden neue Information im Versuchsraum abgetastet. Dies geschieht über das Hinzufügen eines gleichverteilten Versuchsplan, welcher nach der spaltenweisen Korrelation sowie der maximalen Unsicherheit des Netzwerk-Ensembles ausgewählt wird. 


Im Folgenden werden die drei Ansätze genutzt, um die Rosenbrock-Testfunktion (s. Gl. 1) abzubilden.


Es zeigt sich, dass das quadratische Polynom, gebildet an insgesamt neun individuellen Trainingsdaten des zentral zusammengesetzten Versuchsplans, weder in der Lage ist, die eigenen Trainings- bzw. Modelldaten, noch die unabhängigen Testdaten, zu approximieren. Dahingegen weisen der zweite und dritte Ansatz eine hohe Generalisierungsfähigkeit auf. Der dritte Ansatz besitzt dabei den Vorteil, dass kein fester Versuchsplan vorgegeben werden muss und der Anwender das Training verfolgen (und bei Bedarf abbrechen) kann.

Die automatisierte Optimierung wurde im Berichtszeitraum anhand von Testfunktionen entwickelt und soll in AP3 mit dem eigentlichen Simulationskern gekoppelt werden. Dabei ist entscheidend, wie zuverlässig die automatisierte Modellbildung mit der tatsächlichen Simulationsumgebung arbeitet. Eine fortgehende Verbesserung der Methodik wird daher zwingend.


Ausblick: AP3 Programmierung der Input/Output-Schnittstellen

Ein erster Entwurf für die Benutzeroberfläche wird im Folgenden weiter ausgearbeitet und programmiertechnisch umgesetzt. Im Anschluss wird dieser intern erprobt und hinsichtlich der Benutzerfreundlichkeit optimiert. Der Entwurf sieht insgesamt vier unterschiedliche Eingabemöglichkeiten in Abhängigkeit zu den gewählten Modi vor. Zunächst muss der Anwender den Berechnungsmodus auswählen. Hierbei wird unter reiner Simulation und Optimierung unterschieden. Im Modus reine Simulation wird eine spezifische Systemkonfiguration ausgewählt und analysiert. Beim Modus Optimierung wird hingehend eine Systemkonfiguration innerhalb gewählter Parameter mit Hilfe neuronaler Netze optimiert ausgelegt. Zusätzlich kann der Anwender zwischen einem Einsteiger- und Expertenmodus wählen. Diese unterscheiden sich in den Individualisierungsmöglichkeiten des Systems, sodass im Expertenmodus detaillierte Eingabemöglichkeiten wie beispielsweise Brennstoffpreise, Zinssätze u.v.m. möglich sind. Die Vorgehensweise wird in Abbildung 5 schematisch dargestellt.


Die Auswahl, ob ein Wärme-, Kälte- oder Strombedarf anliegt, erfolgt bereits über drag and drop Reiter. Hierbei hat der Anwender ebenfalls die Möglichkeit auszuwählen, ob ein eigenes Verbrauchsprofil vorliegt oder ob über Regressionsfunktionen ein Verbrauchsprofil erstellt werden muss. Sofern ein Verbrauchsprofil über Regressionsfunktionen angefertigt werden soll, müssen der Anwendungsbereich und der jährliche Energiebedarf angegeben werden. In Abbildung 6 werden die entsprechenden drag and drop Reiter zur Auswahl des Berechnungsmodus (Simulieren/Optimieren) und der Auswahl des Energiebedarfs dargestellt. 

Je nachdem welcher Energiebedarf ausgewählt wird, erscheint unter dem Punkt Systemkonzept eine Zeile mit den entsprechenden Erzeugern. Über Kontrollkästchen können diese an- bzw. abgewählt werden. Visualisiert wird die Auswahl der Erzeuger über eine symbolische Darstellung unterhalb des entsprechenden Kontrollkästchens. Die Übergabe der Erzeugerparameter an den Rechenkern erfolgt über die Eingabe-Maske des jeweiligen Erzeugers. Diese werden über einen Klick auf die symbolische Darstellung des entsprechenden Erzeugers aufgerufen. In Abhängigkeit davon, ob der Modus zur Simulation oder zur Optimierung gewählt wurde, passt sich die Eingabe-Maske automatisiert an. Künftig wird noch die Auswahl zwischen dem Einsteiger- und dem Expertenmodus integriert. Abbildung 7 zeigt die Auswahl der Erzeuger exemplarisch anhand des Wärmebedarfs. 


Der Schwerpunkt des Arbeitspaket 3 liegt in der Einrichtung der Kommunikation zwischen dem Rechenkern und des Optimierers. Die Vorgehensweise soll dabei analog zur Implementierung des Speichermodells erfolgen.