Prognose-Benchmark senkt Energiekosten
Lastprognosen
Der Ausbau der Erneuerbaren erfordert es zunehmend, den Verbrauch an das schwankende Energieangebot anzupassen. Eine möglichst genaue Lastprognose der Folgetage ist dazu nötig. Da sich Prognosefehler ökonomisch auswirken, ist stets zu prüfen, wie die Prognosegenauigkeit erhöht werden kann. Der Prognose-Benchmark schafft hier einen herstellerunabhängigen Vergleich.
Die Thematik ist allgemein bekannt. Bei der Stromversorgung müssen sich die Summen der erzeugten und der bezogenen Energie zu jedem Zeitpunkt ausgleichen [1], um die Netzfrequenz stabil zu halten und damit Versorgungsengpässe zu vermeiden. Die Speicherkapazität in Batterien ist begrenzt, ebenso wie die Möglichkeit, Strom über Trassen in andere Gebiete zu leiten. Somit ist die für einen Bilanzraum zu beschaffende oder abzugebende Strommenge möglichst genau zu planen, was neben der Prognose der Erzeugung eine Kurzfrist-Lastprognose erfordert. Anwender der Lastprognose sind Verteilnetzbetreiber für die Planung von Regelreserven oder Energieversorger für das Fahrplanmanagement.[1] Mit der Zunahme der erneuerbaren Energien schwanken die Strompreise stärker. Dies schafft Anreize für Konsumenten, durch Energieflexibilität in Verbindung mit dynamischen Stromtarifen Strom zu möglichst günstigen oder gar negativen Preisen zu beziehen.[2] Somit steigt auch die Relevanz der Lastprognose im Energiemarkt der Zukunft.
Bei der Prognoseerstellung besteht ein hohes finanzielles Risiko, da Abweichungen zu Strafzahlungen, z. B. in Form von Ausgleichsenergie oder zum Ein- oder Verkauf der falsch geplanten Strommengen zu teils hohen Preisen im Intraday-Handel führen. Aufgrund der vielen Anwender und hohen Anforderungen an Prognosegenauigkeit besteht eine grosse Auswahl an Anbietern für Lastprognose-Software.[3] Welches Software-Tool sich eignet, hängt von den Anforderungen an die Lastprognose ab. Die Prognosegüte ist nicht nur vom Algorithmus abhängig, sondern auch von der Datenlage [4] und schliesslich vom jeweiligen Lastgang [5]. Daher ist die eigene Prognosegenauigkeit stets zu prüfen und mit anderen Tools zu vergleichen. Der Benchmark beschreibt eine systematische Vorgehensweise zur Einordnung der Genauigkeit von Prognosen gegenüber dem Stand der Technik. Mit ihm lassen sich Verbesserungspotenziale ermitteln.
Prognosemethoden und Tools
Die Lastgangprognose für grössere Kunden oder Kundengruppen mit einer registrierenden Leistungsmessung, die typischerweise ab einem Jahresverbrauch von 100 MWh installiert ist [6], erfolgt mit historischen Messdaten. Dafür werden referenzbasierte Methoden eingesetzt wie Fortschreibungsverfahren, der gleitende Durchschnitt oder das Vergleichstageverfahren. Bei Letzterem werden Lastprofile für Tagtypen gebildet, die zwischen Werktagen und dem Wochenende sowie den Jahreszeiten differenzieren. Dieses Verfahren eignet sich aufgrund des zyklischen Verhaltens von Lastgängen mit niedrigerer Last während der Nacht und am Wochenende und mit saisonalen Unterschieden, die durch menschliche Aktivitäten und klimatische Einflüsse bedingt sind.[7, 8]
Statistische Prognosemodelle unterscheiden sich von den referenzbasierten Verfahren durch Modellparameter, die durch die Modellkalibrierung bestimmt werden. Einfache statistische Methoden sind die univarianten Zeitreihenmodelle, die zur Prognose lediglich Lastwerte der Vergangenheit verwenden, oder Regressionsmodelle mit externen Einflüssen, z. B. die Temperaturregression.[8] Methoden des maschinellen Lernens werden zunehmend verwendet, weil sie komplexe Zusammenhänge in hochdimensionalen Eingangsdaten erkennen können. Die Digitalisierung und die steigende Rechenleistung tragen zur erhöhten Beliebtheit von künstlichen Neuronalen Netzen und anderen Modellen des maschinellen Lernens bei.[8, 9]
Zur Vermarktung von Lastprognosen werden Prognosemodelle in eine Softwareumgebung implementiert. Die Umsetzung der Methoden erfordert Erfahrung und Branchenwissen. Deshalb hängt die Prognosegüte von der Anbieterwahl ab.[3] Bei der Bereitstellung von Prognosen wird zwischen Dienstleistern und Systemanbietern unterschieden: Erstere stellen die Prognosedaten, die mit ausgewählten Modellen berechnet werden, bereit, ohne das Prognosetool zur Verfügung zu stellen. Letztere hingegen stellen für grössere Kunden oder Dienstleister Prognosetools bereit, die über eine grafische Benutzeroberfläche und über diverse Prognosemodelle verfügen. Die meisten Anbieter verwenden künstliche Neuronale Netze, einzelne Anbieter berücksichtigen auch klassische Prognosemodelle.[3]
Vorgehensweise des Benchmarks
Beim Benchmark von Prognosemodellen sind zunächst die Anforderungen an die Prognose zu definieren. Die wichtigsten Festlegungen sind der Prognosezeitraum und die Häufigkeit der Aktualisierung der Prognose. Zudem ist bei der Kalibrierung des Prognosemodells zu berücksichtigen, mit welcher zeitlichen Auflösung Leistungsmesswerte vorliegen und wie häufig neue Messwerte eintreffen. Letztlich ist zu prüfen, ob die Prognose mit dem Top-down-Ansatz, also als Summenprognose für eine Gruppe von Marktallokationen erstellt werden soll, oder Einzelprognosen aufsummiert werden (Bottom-up-Ansatz).[3]
Im nächsten Schritt werden die Datenquellen identifiziert. Bestehen Daten von mehreren Lastgängen, ist zunächst eine Gruppe repräsentativer Lastgänge auszuwählen, für die der Benchmark exemplarisch durchgeführt wird. Neben Lastgangdaten können Kontextdaten, wie Produktionsdaten im Fall von Industrieunternehmen, zu genaueren Prognosen führen.[4, 5] Es gibt zudem einige Anbieter, die sowohl historische Wetterdaten als auch Wetterprognosen bereitstellen, mit Unterschieden bezüglich der Anzahl der Wetterstationen, zeitlichen Auflösung, Prognosehorizonte und der Messgrössen.[3] Alle Daten sind anschliessend zu importieren. Die Datenvorverarbeitung umfasst das Füllen von Datenlücken, die aus Ausfällen des Messsystems resultieren.
Die Datenanalyse dient der Bestimmung von Einflussfaktoren auf den betrachteten Lastgang. Dies kann qualitativ erfolgen, beispielsweise durch die Visualisierung des Lastgangs nach Tagtypen oder quantitativ durch die Berechnung statistischer Kennwerte, wie z. B. den Korrelationskoeffizienten oder die Autokorrelationsfunktion.[4] Nach diesem Schritt sind die Modelleingangsdaten bekannt. Für die Modellkalibrierung zu vergleichender Prognosemodelle werden historische Daten benötigt. Der Modellvergleich erfolgt in einem Testzeitraum durch die Simulation von Prognosen, wofür ein Teil der historischen Daten vorbehalten wird. Aus dem Modellvergleich ergibt sich der modellabhängige Prognosefehler (Bild).
Zur Bewertung der Prognosegenauigkeit wird der Betrag der Energieabweichung ermittelt, unter der Annahme, dass sich positive und negative Abweichungen gleichermassen negativ auswirken. Da die absolute Abweichung oft wenig greifbar ist, da sie von der Länge des Testzeitraums abhängt, wird häufig der mittlere Fehler oder dessen Relativwert betrachtet, um den prozentualen Fehler bezogen auf die mittlere Leistung zu berechnen.[9]
Neben der Prognosegenauigkeit sind weitere Kriterien zu betrachten, um zu entscheiden, ob ein Prognosemodell geeignet ist und welche Daten berücksichtigt werden. Komplexere Prognosemodelle und mehr Eingangsdaten bieten häufig Potenzial, die Genauigkeit gegenüber einfachen Verfahren zu steigern, erhöhen jedoch die aufzuwendende Rechenleistung und den Bedarf an Speicherplatz [8, 9], und dadurch die IT-Kosten. Ebenso ist der Berechnungsweg und somit die Ergebnisgenauigkeit in komplexeren Modellen, wie beispielsweise künstlichen Neuronalen Netzen, schwierig nachzuvollziehen, vor allem, wenn diese aus zahlreichen vernetzten Berechnungseinheiten bestehen. Somit ist festzulegen, ob die Erklärbarkeit der Modelle ein entscheidendes Bewertungskriterium ist, und ob dieses durch das betrachtete Modell gegeben ist. Schliesslich bietet eine Kostenabschätzung, die Investitionen, variable Kosten und Erlöspotenziale je nach Prognosegenauigkeit betrachtet, eine Entscheidungsgrundlage für die Wahl eines Prognosemodells.
Fazit
Lastprognosen gewinnen im Energiemarkt an Bedeutung. Ihre Genauigkeit ist entscheidend, um Fehlplanungen zu vermeiden. Die erzielbare Genauigkeit hängt von der Datenlage und dem Prognosemodell ab. Durch die Verwendung zusätzlicher Eingangsdaten können weitere Einflussfaktoren erfasst und damit die Genauigkeit erhöht werden. Der Prognose-Benchmark ermöglicht es EVUs, die Prognosemodelle, die der Dienstleister verwendet, die im beschafften Tool umgesetzt oder die in einer eigenen Softwareumgebung implementiert sind, mit dem Stand der Technik zu vergleichen.
Der Prognose-Benchmark kann gemäss den spezifischen Anforderungen konfiguriert werden, um mit verschiedenen Datenquellen oder Modellen erstellte Prognosen einheitlich zu vergleichen. Dafür ist ein repräsentativer Testzeitraum zu wählen, in dem Prognosen im Anschluss der Modellkalibrierung simuliert werden. Zur Quantifizierung der Genauigkeit dienen gängige Bewertungskennzahlen. Somit lassen sich Aussagen treffen, wie akkurat Prognosemodelle für den betrachteten Anwendungsfall sind. Die Prognosegenauigkeit und weitere Kriterien bilden die Entscheidungsgrundlage für EVUs zur Wahl eines Prognosemodells bzw. eines Dienstleisters oder eines Systemanbieters.
Referenzen
[1] Michael Fiedeldey, Analyse und Prognose elektrischer Lastgangzeitreihen, Cuvillier Verlag, Göttingen, 2010.
[2] Alexander Sauer, Eberhard Abele, Hans Ulrich Buhl, Energieflexibilität in der deutschen Industrie, Ergebnisse aus dem Kopernikus-Projekt Synergie, 2020.
[3] Patrick Kronig et al., Schlussbericht ELBE – Validierung und Verbesserung von Lastprognosen, BFE, 2009.
[4] Feras Alasali et al., «Day-ahead industrial load forecasting for electric RTG cranes», Journal of Modern Power Systems and Clean Energy, Feb. 2018.
[5] Bastian Dietrich et al., «Machine learning based very short-term load forecasting of machine tools», Applied Energy, Okt. 2020.
[6] Wolfgang Schellong, Analyse und Optimierung von Energieverbundsystemen, Springer, 2016.
[7] Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH, Optimierung der Fahrplanprognose für die Beschaffung elektrischer Energie durch Einsatz messtechnisch ermittelter Kundenlastgänge anstelle von Standardlastprofilen.
[8] Thilo Walser et al., «Readiness of Short-term Load Forecasting Methods for their Deployment on Company Level», Proc. of Grid Service Market, Okt. 2020, S. 89–103.
[9] Frederik Scheidt et al., «Data analytics in the electricity sector – A quantitative and qualitative literature review», Energy and AI, Aug. 2020.
Kommentare