FAST-Energy-Design
Planungswerkzeug zur optimierten Schnellauslegung für Energiesysteme im industriellen und kommunalen Bereich
1. Zwischenbericht 2018 - Dezember 2018
Laufzeit des Vorhabens: 01.01.2018 bis 30.06.2019
Berichtszeitraum: 01.07.2018 bis 30.12.2018
Aufzählung der wichtigsten wissenschaftlich-technischen Ergebnisse und anderer wesentlicher Ereignisse
AP1 Modellbildung zur Simulation des Energieversorgungssystems
Im Zeitraum des Zwischenberichts wurden die Arbeiten am Rechenkern fortgesetzt. Um das Tool einsteigerfreundlicher zu gestalten, wurden Regressionsfunktionen zur Abschätzung des Wärme- und Stromlastprofils eingebunden, sodass zur Verwendung des Tools kein stündlich aufgelöstes Wärme- bzw. Stromlastprofil vorhanden sein muss. Zur Approximation werden hierfür lediglich der jährliche Wärme- bzw. Strombedarf und die Außenlufttemperatur in einer stündlichen Auflösung benötigt. Standardmäßig sind Wetterdaten für den Standort Düsseldorf mit dem Bezugsjahr 2016 hinterlegt. Diese können jedoch auch vom Anwender individuell angepasst werden. Weiterhin besteht die Möglichkeit, eigene Lastprofile zu verwenden, sofern diese dem Anwender vorliegen.
Momentan kann keine Approximation für ein stündlich aufgelöstes Kältelastprofil erfolgen, da Recherchen bisher kein geeignetes Berechnungsmodell aufgezeigt haben. Eine Berechnung nach VDI 2078 wäre möglich, aber auch mit einer Vielzahl an Eingabeparameter durch den Anwender verbunden. Zur Berechnung der internen und externen Wärmequellen müssten vom Nutzer beispielsweise Daten zur spezifischen Anschlussleistung der Beleuchtung/Maschinen, der Aktivitätsgrad der Personen im Gebäude, der genaue Wandaufbau u.v.m. vorausgesetzt werden. Diese detaillierte Abfrage von Parametern steht im Widerspruch zu dem Ziel, ein möglichst intuitives und einfaches Planungstool zu entwickeln. Aus diesem Grund wird momentan ein Kältelastprofil vom Anwender vorausgesetzt, wenn dieser eine Kälteversorgung in seinem System vorsieht.
Zur Deckung des Kältebedarfs wurden eine Kompressionskältemaschine und eine Absorptionskältemaschine in den Rechenkern implementiert. Der entsprechende Wärme- und Strombedarf kann direkt durch den Wärmespeicher bzw. durch die eigenen Stromerzeuger gedeckt werden. Aufgrund von energetischen, ökonomischen und technischen Vorteilen wird auch bei der Kälteerzeugung ein Kältespeicher verwendet, der den Kältebedarf von der Kälteerzeugung entkoppelt. Zur Abbildung des Kältespeichers wird dasselbe Modell verwendet, welches bereits beim Wärmespeicher Anwendung fand. Neben dem zuvor implementierten Blockheizkraftwerk wurden dem Rechenkern eine Photovoltaikanlage, kleine Windkraftanlagen mit einer Nennleistung von 2,5 bis 50,0 kW und große Windkraftanlagen mit einer Nennleistung von 900,0 bis 7580,0 kW hinzugefügt. Die Möglichkeit der Nutzung des Stromnetzes und der Einspeisung ins Stromnetz ist weiterhin möglich. Darüber hinaus kann nun auch Abwärme aus industriellen Quellen oder kommunalen Abwässern genutzt werden. Die Abbildung der Strombzw. Kälteerzeugern erfolgt, wie bereits bei den Wärmeerzeugern, in Form von Energiebilanzen oder Wirkungsgradkurven. Bei der Wirtschaftlichkeitsbetrachtung werden Investitionskosten, Brennstoffkosten, Kosten für Wartung und Instandhaltung sowie Förderungsprogramme berücksichtigt.
Im Berichtszeitraum wurde darüber hinaus ein Kompatibilitätsproblem behoben. Dadurch ist das Excel-Tool nun mit unterschiedlichen PC-Systemen (32-Bit/64-Bit) und Office-Versionen (32-Bit) kompatibel. Entstanden sind die Kompatibilitätsprobleme durch die Einbindung des dynamischen Speichermodells, welches über Visual Basic for Applications (VBA) als Dynamic Link Library (DLL) umgesetzt wurde. Eine Umsetzung des Excel-Tools für Office 64-Bit steht noch aus. Um die Verwendung von DLL´s für den Anwender zu vereinfachen, wurde das Kopieren der benötigten Dateien und die Aktivierung des Excel Add-Ins automatisiert.
Weitere Anpassungen am Rechenkern sind während der Projektlaufzeit, aufgrund von Erkenntnissen aus den folgenden Arbeitsschritten, möglich.
AP2 Programmierung des automatisierten Optimierers
Im Folgenden soll der finale Stand der automatisierten Optimierung vorgestellt werden. Diese ist ein Ergebnis aus der Entwicklung und dem Vergleich unterschiedlicher Ansätze. Zu diesen gehören:
- Ansatz 1: Klassische Versuchsplanung und Modellbildung anhand einer quadratischen Funktion
Konkret wird ein zentral zusammengesetzter Versuchsplan mit orthogonalen Eigenschaften verwendet, um die Parameter einer Polynomfunktion 2. Grades zu ermitteln.
- Ansatz 2: Kopplung von klassischer Versuchsplanung und gleichverteilten Versuchsplänen zur Modellbildung von künstlichen neuronalen Netzwerken (angesprochen im letzten Zwischenbericht)
Es wird ein zweistufiger Versuchsplan zur Abtastung von Informationen in den Ecken des Versuchsraums sowie ein gleichverteilter Versuchsplan zur Abtastung von Informationen im Versuchsraum gekoppelt. Der gleichverteilte Versuchsplan wird hinsichtlich eines metrischen Kriteriums sowie der Korrelation der Faktorspalten optimiert. Die so gewonnenen Informationen werden zum Training eines künstlichen neuronalen Netzwerkes genutzt. Das Training (bzw. die Ermittlung der optimalen Netzwerk Parameter) erfolgt dabei über Bayesian Regularization, welches zum Schutz vor Überanpassung an die Trainingsdaten ebenfalls die Netzwerkgewichte optimiert. Es erlaubt die Nutzung aller Informationen.
- Ansatz 3: Nutzung gleichverteilter Versuchspläne zum aktiven Lernen von KNN-Ensembles
Analog zum zweiten Ansatz mit folgenden Unterschieden: Es wird ein orthogonaler gleichverteilter Versuchsplan als Basis für das Training verwendet. Diese erlauben ein Abtasten des Versuchsraums ohne eventuell auftretende Redundanz und damit eine Generierung von diverseren Informationen. Anstatt nur ein Netzwerk zu trainieren, werden fünf Netzwerke trainiert. Aufgrund von unterschiedlichen Startbedingungen für das Training der Netzwerke entstehen unterschiedliche Prognosemodelle. Wird eine Faktorstufenkombination prognostiziert, ergeben sich demnach fünf unterschiedliche Ergebnisse. Der Mittelwert über diese Ergebnisse bildet dann die eigentliche Prognose und die dazugehörige Standardabweichung ein Maß für die Unsicherheit. Sofern die vorhandenen Informationen nicht ausreichen, um eine generalisierende Prognose zu gewährleisten, werden neue Information im Versuchsraum abgetastet. Dies geschieht über das Hinzufügen eines gleichverteilten Versuchsplan, welcher nach der spaltenweisen Korrelation sowie der maximalen Unsicherheit des Netzwerk-Ensembles ausgewählt wird.
Im Folgenden werden die drei Ansätze genutzt, um die Rosenbrock-Testfunktion (s. Gl. 1) abzubilden.