Datengetriebene Netzbetriebsplanung
Integrierte Werkzeuge für Netzzustandserkennung und Erstellung dynamischer Tarife
Durch den Einsatz fortschrittlicher digitaler Technologien lassen sich Verteilnetzbetrieb und Dekarbonisierung optimieren: Daten und automatisierte Workflows verknüpfen komplexe Informationen und liefern Netzbetreibern wertvolle Einblicke zur Steigerung der Effizienz bestehender Betriebsplanungsprozesse.
Traditionell bereitet die Netzbetriebsplanung die Übertragungsnetzbetreiber auf den Echtzeitbetrieb vor, um die Wahrscheinlichkeit unerwarteter Abweichungen von Angebot und Nachfrage zu minimieren und geeignete Gegenmassnahmen im Voraus zu definieren. Solche Betriebsplanungsprozesse waren für Verteilnetze bisher nicht nötig, da auf Netzebene 7 keine Erzeugungseinheiten installiert waren. Mit zunehmender Integration erneuerbarer Energien in Verteilnetzen und der Transformation einiger Verbraucher zu Prosumenten wird mehr Information über den aktuellen und künftigen Netzzustand entscheidend, um das Verteilnetz resilient und kosteneffizient zu betreiben.
Da zunehmend Daten in Niederspannungsnetzen über Hausenergiemanagementsysteme, Smart Meter und Netzsensoren erfasst werden, sind automatisierte Prozesse erforderlich, um diese Daten zu verwalten und für verschiedene Werkzeuge zur Abrechnung, zum Betrieb und zur Planung verfügbar zu machen. Solche heterogenen Daten können genutzt werden, um die Day-Ahead- oder Week-Ahead-Betriebsplanung zu unterstützen, um das Netz besser zu steuern, kritische Belastungen von Leitungen und Transformatoren zu vermeiden und Knoten-Spannungsverletzungen zu verhindern. Digitale Zwillinge solcher Betriebsplanungsprozesse können zudem in kurz- (mehrere Jahre) und langfristige (Jahrzehnte) Netzinfrastrukturplanungen integriert werden, um genauere Szenarien für erneuerbare Energien, Wärmepumpen und Elektromobilität zu erstellen. Nicht-invasive Konzepte wie dynamische Netznutzungstarife schaffen Anreize, um Flexibilität von Verbrauch und dezentraler Erzeugung gezielt zu nutzen, um die Netzbelastung durch Spitzenlasten oder PV-Einspeisung zu reduzieren. Dynamische Tarife sind ein besonders interessanter Anwendungsfall, bei dem integrierte Werkzeuge basierend auf Daten, Netz-, Verbrauchs- und Erzeugungsmodellen nötig sind.
In diesem Artikel werden Datenstrategiekonzepte und Werkzeuge zur optimalen Nutzung von Daten für Netzzustandserkennung und zur Erstellung dynamischer Netztarife für Verbrauch und dezentrale Erzeugung im Kontext der Betriebsplanung für Verteilnetzbetreiber (VNB) diskutiert. Zudem wird das AISOP-Projekt vorgestellt, die Vision einer KI-basierten Entscheidungsunterstützung für die Betriebsplanung in Verteilnetzen [1].
Komponenten eines digitalen Prozesszwillings
Der Ansatz besteht aus Workflows für die Netzzustandserkennung im Verteilnetz und dynamischen Tarifen für die implizite Steuerung des Energiebedarfs und der dezentralen Erzeugung. Digitale Zwillinge (DT) und Internet-of-Things (IoT)-Technologien werden eingesetzt, um ein modulares Framework zu entwickeln, das spezifische Workflows für die Netzüberwachung und -analyse ausführt. Diese Workflows erhöhen die Beobachtbarkeit des Netzes und ermöglichen die Bewertung der Auswirkungen nicht-invasiver Anreizmechanismen wie dynamischer Tarife auf den Netzbetrieb. Ebenso wird ein Digitaler Prozesszwilling (DPT) erstellt, der Netzzustandserkennung über die aktuelle Netzsituation und Prognosen für die nächsten Stunden oder Tage liefert.
Oft wird nicht zwischen DT und DPT unterschieden. Eine klare Vorstellung dieser Konzepte hilft, die digitale Strategie der VNBs besser zu verstehen und den dafür nötigen Aufwand sowie die Reihenfolge der Umsetzungsschritte gezielt zu planen. Tabelle 1 gibt einen Überblick über den Fokus von DTs, der sich auf physische Anlagen, ihre Überwachung, die Vorhersage ihrer Lebensdauer und die Optimierung ihrer Leistung während des Betriebs konzentriert. Der Fokus von DPT liegt hingegen auf der Prozessautomatisierung. Es verbindet Modelle oder DTs, um Workflows zu automatisieren, die Betriebs-, Planungs- oder Geschäftsprozesse darstellen.
Wir untersuchen DPTs, bei denen Datenanalyse und Netzmodellierung angewendet werden, um Daten zu assimilieren, Anomalien zu erkennen und Prognosen über zukünftige Risiken zu erstellen. Anomalien können beispielsweise auf Netzstörungen oder Unregelmässigkeiten beim Verbrauch bzw. der Erzeugung zurückzuführen sein. Sequenzielle Lastflusssimulationen dienen der Abschätzung des Risikos von Netzverletzungen, wie z. B. Leitungsüberlastung, und helfen bei der Gestaltung effektiver Netztarife. Dieses DPT-Framework ist um die Ebenen eines cyber-physischen Energiesystems herum strukturiert.
- Die physische Ebene entspricht dem Netz und den Sensoren selbst, wo die Datenerfassung beginnt und automatische Steuerungsaktionen oder menschliche Eingriffe stattfinden.
- Die IKT-Ebene umfasst das gesamte Software-Framework mit den folgenden Kernbausteinen: Datenverifizierungsprozess, permanente Datenspeicherung, physische und datengesteuerte Modelle, Netzsimulationswerkzeuge, GIS-Systeme und Informationsextraktion.
- Die Business-Ebene stellt den Netzbetreiber dar, der für das Netz- und Störungsmanagement, die Cybersicherheit, Wartungsaktivitäten usw. verantwortlich ist.
Die Implementierung ist modular geplant. Ein Bestandteil des Prozesses sind verifizierte heterogene Datensätze mit einer eindeutigen Identifizierung. Zunächst werden Daten aus der physischen Ebene mit einem Datenverifizierungsprozess aufgenommen, der zu einer Single Source of Truth (SSoT) führt.
Die permanente Datenspeicherung und der Datenkatalog werden ständig mit neu verifizierten Daten aktualisiert, wobei SSoT dazu dient, die gesammelten Daten mit hoher Qualität und Vertrauenswürdigkeit zu pflegen. Darüber hinaus speichert SSoT die Daten, die von den Modulen der DPT-Workflows erstellt werden.
Globaler Datenkatalog
Ein globaler Datenkatalog erleichtert die Nutzung vielfältiger Datensätze über verschiedene Dienste und Stakeholder hinweg. Um Daten zu assimilieren, kann jedoch jedes Softwaremodul oder DT seine eigenen lokalen Verifizierungs- und Qualitätsprüfungen durchführen, die sich auf seinen spezifischen Modellierungsumfang beziehen. Physikalische und datengetriebene Modelle werden dann verwendet, um Netzsimulationen durchzuführen oder Datenanalysen anzuwenden, um Anomalien in den Daten zu erkennen. Der genaue Umfang dieser Modelle muss für jeden Anwendungsfall und digitalen Prozess definiert werden. Zu den Modellen zur Vorhersage des Risikos von Netzengpässen gehören beispielsweise ein Prognosemodell für den Verbrauch und Erzeugung sowie ein Lastflussmodell. Ein weiteres Beispiel ist die Erkennung von Anomalien ausschliesslich aus Messdaten, also ohne Modell. Dabei können überwachte oder unüberwachte Lernmodelle direkt auf die Daten angewendet werden. Der Umfang und die Granularität dieser Modelle kann erweitert werden, um vollwertige DTs von Netzkomponenten wie Umspannwerken, Freileitungen, Verteilungskabeln usw. einzubeziehen. Diese Modularität wird durch SSoT und durch die Definition von Tools und Workflows ermöglicht, die konfigurierbar sind und über klare Schnittstellen verfügen, um sie wiederverwendbar zu machen. Der letzte Schritt ist der Informationsextraktionsblock, in dem assimilierte Daten, Modellausgabedaten und Benutzereingaben kombiniert werden. Mit diesem Block kann der Benutzer mit dem DPT interagieren, um bestimmte Workflows auszuführen, Algorithmen zu konfigurieren und Ergebnisse zu visualisieren. Bild 1 zeigt relevante Datenquellen, beginnend mit den Informationen über die Netztopologie, die im Idealfall die Eigenschaften und den Standort jeder Komponente des Verteilnetzes vom Umspannwerk HV-MV (NE 4) bis zum Anschlusspunkt jedes Kunden an NE 5 und NE 7 enthält. Dazu gehören u. a. Informationen über den Kundenanschluss, Metadaten und SCADA-Daten von Erzeugungseinheiten, den von der Zählerinfrastruktur erfassten Verbrauch sowie zusätzliche Sensoren — etwa an Transformatoren oder sogar hinter dem Kundenanschluss. Ebenfalls möglich sind kommerzielle oder regulatorische Informationen wie Nutzungszeittarife.
Die IKT-Ebene zeigt die Kernblöcke des DPT und die Business-Ebene die strategischen Funktionen, die die Netzbetreiber erfüllen wollen. Die Netzplanung ist insbesondere für die Aktivitäten im Rahmen des AISOP-Projekts relevant. Zudem werden DTs und DPTs von den VNB aktiv entwickelt, um diverse Funktionen zu unterstützen, beispielsweise die Reduktion der Wartungskosten durch vorausschauende Wartungsstrategien oder die Überwachung des Netzes gegen Cyberangriffe.
Im Rahmen des AISOP-Projekts zielt der DPT insbesondere darauf ab, Überwachungsinstrumente bereitzustellen, die den Netzbetreiber für den aktuellen und erwarteten Zustand des Netzes informieren und die Abschätzung von Risikozuständen wie Überlastung von Leitungen oder Transformatoren, Spannungsverletzungen sowie potenzielle Störungen und Ausfälle von Anlagen verbessern. Zudem ermöglicht es, den Einsatz dynamischer Tarife für eine nicht-invasive Verbrauchs- und Erzeugungssteuerung zu untersuchen.
Verwendung heterogener Datensätze
Die Implementierung von DTs und DPTs erfordert die Integration heterogener Datenquellen, die den Netzbetrieb und die Wartung, die dezentrale Energieerzeugung und die Kundenanschluss und -abrechnung sowie Asset-Management-Daten umfassen. VNBs sind zunehmend gezwungen, sich in dieser komplexen Datenlandschaft zurechtzufinden, in der herkömmliche SCADA-Messungen durch Advanced Metering Infrastructure (AMI), Home Energy Management Systeme (HEMS), Wetterstationen, geografische Informationssysteme (GIS) und IoT-Sensoren ergänzt werden. Einige Datensätze wie AMI und meteorologische Daten haben zudem unterschiedliche zeitliche Auflösungen, Formate und Qualitätsanforderungen. Die Smart Meter liefern Verbrauchsdaten in 15-Minuten- oder Stundenintervallen, die ständig erfasst werden, während Netzsensoren Spannungs-, Strom- und Netzqualitätsparameter mit hoher Auflösung überwachen, aber oft nur für eine begrenzte Zeit an bestimmten Orten eingesetzt werden. Daten von meteorologischen Stationen und Modellen unterstützen die Vorhersage erneuerbarer Energien und erweiterte Lastvorhersagen, die die Integration von Temperatur, Sonneneinstrahlung, Windgeschwindigkeit, Wolkeninformationen und Niederschlagsmessungen erfordern.
IoT-Geräte in Smart Grids können neben strukturierten Messungen auch unstrukturierte Daten wie Bilder von Inspektionsdrohnen oder Wartungsarbeiten generieren. Daher erfordert die Etablierung einer SSoT ausgereifte Datenmanagementansätze, die sowohl Streaming-Daten als auch historische Archive verarbeiten können und gleichzeitig die Datenqualität und die zeitliche Ausrichtung beibehalten.
Es empfiehlt sich, Anwendungsfälle zu definieren, die auf bestimmte Geschäftsfunktionen (z. B. Netzmanagement) abgestimmt sind. Diese sollten klare und messbare Ziele enthalten, wie etwa die Integration eines hohen Anteils an Solar-PV, die Verringerung der Häufigkeit von Überspannungsverletzungen oder die Senkung des System Average Interruption Duration Index (SAIDI). Anschliessend werden die dafür benötigten Daten den Prozessen zugeordnet, die einen konkreten Mehrwert bringen, wie zum Beispiel die optimale Planung von Wartungsteams. Im nächsten Schritt können verschiedene Datenmanagementansätze in Betracht gezogen werden, bevor die Basistechnologien und der Umfang der DPT-Modellierung spezifiziert werden. Bild 2 veranschaulicht moderne Ansätze für das Datenmanagement, von zentralisiert bis dezentral (d. h. basierend auf Datenföderation und verteilter Governance).
Die Data-Hub-Architektur ist eine Datenmanagement-Architektur, die Daten zentralisiert, indem sie einen einheitlichen Zugangspunkt über standardisierte Konnektoren und APIs bereitstellt [3]. Eine Datenplattform ist komplexer und weniger zentralisiert, zielt aber dennoch darauf ab, Daten zu integrieren und einheitliche Governance-Richtlinien für alle Geschäftsteams zu etablieren: Netzmanagement, Netzplanung, Markt- und Abwicklungsdienste usw.
Am anderen Ende des Spektrums fördert ein Data Mesh [4] eine föderierte und rechnergestützte Data Governance, die es den Geschäftseinheiten ermöglicht, Datenprodukte zu besitzen und ihre Nutzungsrichtlinien zu formulieren. Dies erlaubt ihnen volle Autonomie. Gleichzeitig wird eine Self-Service-Dateninfrastruktur aufgebaut, die domänenübergreifend gemeinsam genutzt wird.
Ein Data Space bietet auch einen dezentralen Ansatz, der sich jedoch hauptsächlich auf den Datenaustausch zwischen Versorgungsunternehmen und Akteuren im Energiesektor konzentriert. Im Einklang mit dem European Data Act und dem Interoperable Europe Act zielen die laufenden Initiativen zum Energy Data Space darauf ab, den Datenaustausch zu fördern, um einen einheitlichen Datenmarkt zu schaffen.
All diesen Ansätzen ist gemeinsam, dass die Daten für die relevanten Nutzer im Rahmen der Richtlinien zur Datensicherheit und zum Datenschutz auffindbar und zugänglich sein müssen. Daher besteht ein agiler Ansatz zur Etablierung von SSoT bei der Entwicklung von DPT-Prototypen darin, zunächst Datenmodelle und Standards für die Datenaufnahme und Interoperabilität zu definieren, die die Grundlage eines Datenkatalogs bilden. Auf diese Weise könnte man inkrementell ein zentrales oder föderiertes Repository entwickeln, das Datenquellen, Tabellen, Schemata usw. beschreibt, um einen vollständig entwickelten Datenkatalog zu erstellen, der die Implementierung von SSoT darstellt.
Mögliche Implementierungen
Ein Datenmanagement-Ansatz kann auf verschiedene Weise implementiert werden. Standards wie Data Package, IEC 61850, CIM oder FMI werden oft in Datenmodellen von Smart-Grid-Komponenten und Netzsimulationsmodellen eingesetzt. Die Data-Package-Spezifikation ist einfach und erweiterbar und eignet sich daher für den inkrementellen Aufbau eines Datenkatalogs in Kombination mit dem Frictionless Framework für die Datenvalidierung und -transformation.
In unserer dateibasierten Proof-of-Concept-Implementierung für die Anomalienerkennung wurde ein Datenassimilationsmodul entwickelt. Dieses Modul, ein Python-Skript, liest Smart-Meter- und Netz-Sensordaten in CSV-Dateien aus und wendet die Datenpaketspezifikation (Metadatendeskriptor und Ressourcen) an. Die Metadaten beschreiben die Struktur und den Inhalt des Datensatzes, z. B. Lizenz, Herausgeber, Quelle, Liste der Ressourcen und Schemas. Bei den Ressourcen handelt es sich um die eigentlichen Daten, die sich im Deskriptor als Text befinden können, um Dateien, die lokal mit dem Paketdeskriptor gebündelt sind, oder um Dateien oder Datenbanken, auf die für den Remotezugriff verwiesen wird.
Zudem wurde die Datenföderation in AISOP als Standardimplementierungen von Datenräumen untersucht, namentlich der Minimum Viable Data Space (MVDS), der von den International Data Spaces und der Eclipse Data Space Working Group erstellt wurde. MVDS besteht aus einem Minimalansatz von Komponenten mit genügend Funktionen, um mit der Bereitstellung von Identitäten und der Erstellung von Datenkonnektoren zu experimentieren. Wir haben mit der Bereitstellung eines MVDS experimentiert, das auf offenen, vorkonfigurierten Implementierungen basiert. Diese sind im IDS Testbed Git-Repository enthalten und umfassen eine Zertifizierungsstelle, einen Dynamic Attribute Provisioning Service, einen Dataspace Connector und einen Metadata-Broker. Zwar konnte im Kontext von AISOP kein vollwertiger Datenraum geschaffen werden, das MVDS vermittelte jedoch ein Verständnis der zugrunde liegenden Technologien und schuf Synergien mit Forschungsinitiativen, die sich auf Datenräume im Energiebereich konzentrieren.
Tools und Workflows
Sobald die Architektur des DPT etabliert ist, wird eine Definition von Tools und Workflows verwendet, um eine modulare Implementierung zu unterstützen. Tools sind kleinere Softwarekomponenten oder Module, die an bestimmten Aufgaben beteiligt sind und in verschiedenen Arbeitsabläufen wiederverwendbar sein können. Zudem können diese Tools über standardisierte Schnittstellen (APIs) auch von autonomen KI-Agenten oder grossen Sprachmodellen genutzt werden, wobei ein konkreter Anwendungsfall ein assistierender KI-Agent ist, der die bereitgestellten Tools nutzt, um Dokumentationen abzufragen und die notwendigen Parameter für spezifische Workflows automatisch einzurichten [5]. Workflows beschreiben Abfolgen von Verarbeitungsschritten. Bild 3 zeigt die wichtigsten bisher betrachteten Workflows und hebt diejenigen hervor, die zurzeit entwickelt werden.
- Der Workflow von sequenziellen Lastflusslösungen umfasst die Assimilation aktueller Messungen von Smart-Meter, Netzsensoren und dem SCADA-System, das Parsen der Netztopologie und ihrer Konfiguration. Zudem umfasst der Workflow die Definition des Zeithorizonts und die Erstellung einer Eingabetabelle, die die Last in jedem Knoten des Netzes für diesen Zeithorizont durch eine Lastflusssimulation berechnet. Ein solcher Zeitreihen-Lastfluss-Ansatz wird häufig mit kommerziellen Tools erreicht, die Funktionen zum Laden von Wind-, Solar- und Lastprofilen bieten, um die Auswirkungen des Anschlusses von mehr PV, Elektroautos oder Wärmepumpen zu charakterisieren.
- Der Workflow für die Lastflussprognose umfasst das Anwenden von Prognosen, um Eingaben für den Lastfluss-Solver zu erstellen, die Erzeugung und Verbrauch besser darstellen können als Standardlastprofile. So kombiniert es die Zeitreihenprognose mit dem Workflow von Sequential Power Flow Solutions. Mehrere Ansätze werden in Betracht gezogen, die von klassischer Quantilsregression über eindimensionale Convolutional Neural Networks bis hin zu leistungsfähigeren Deep-Learning-Architekturen reichen.
- Der Workflow für die Anomalienerkennung: Im Rahmen von AISOP werden zwei Arten von Anomalien behandelt: Die erste Art sind Netzfehler wie Kurzschlüsse, Ausfälle von Betriebsmitteln und entstehende Fehler, die Störungen verursachen, die zwar messbar, aber schwer zu erkennen sind. Die zweite Art betrifft Unregelmässigkeiten bei den Endverbrauchern, welche sich als Abweichungen von erwarteter Stromqualität, dem Stromverbrauch oder Erzeugungsmuster zeigen. Dies kann auf neue und möglicherweise nicht gemeldete Verbraucher oder Erzeugungsanlagen hinweisen. Die rechtzeitige Erkennung dieser Anomalien ist nötig, um einen effizienten Netzbetrieb zu gewährleisten, Systemausfälle zu verhindern und die Ressourcen zu optimieren.
- Der Workflow der Risikobewertung umfasst die dynamische Berechnung von Risikometriken, sobald genügend neue Spannungs- und Lastüberwachungsdaten verfügbar sind. Zunächst wird eine Verteilungsfunktion aus historischen Daten erstellt und eine Schweregradfunktion entsprechend der ausgewählten Risikometrik definiert. Im zweiten Schritt wird über die Verteilungsfunktion eine Überschreitungswahrscheinlichkeit berechnet, die dann mit der Schweregradfunktion gewichtet wird, um den Risikowert zu berechnen. Die Verteilungsfunktion kann eine empirische Verteilung sein, indem die Häufigkeit des Auftretens aus den Daten berechnet wird, oder sie kann durch Anpassen einer Wahrscheinlichkeitsverteilungsfunktion erstellt werden, häufig einer Gaussschen oder einer Weibull-Funktion. Ein weiterer Aspekt bei der Abschätzung von Risiken von Überlastungen oder Spannungsverletzungen ist die Einhaltung von Normen, insbesondere bei Spannungsschwankungen: Während jedes 7-Tage-Intervalls müssen 95 % der 10-Minuten-Mittelwerte innerhalb von ± 10 % der Nennspannung gemäss EN 50160 liegen. Weitere Risikokennzahlen, die derzeit im Fokus stehen, sind das betriebliche Über- (oder Unter-)Spannungsrisiko (OVR und UVR) mit exponentiellen Schweregradfunktionen.
Zusätzlich zu diesen Workflows braucht es eine Benutzeroberfläche, die Informationen für die Entscheidungsfindung bereitstellt. Zudem können sie mit dem DPT interagieren, um bestimmte Workflows auszuführen, Daten zu visualisieren und spezifische Analysen zu konfigurieren. Wir haben ein Konzept erstellt, das grundlegende Interaktionen zum Auslösen vordefinierter Workflows vorsieht und Unterstützung durch generative KI bietet [5].
Unterstützung bei dynamischen Tarifen
Der vorgestellte DPT und die Workflows können als Schlüsselkonzepte in einem Datenmanagementansatz dienen, um Entscheidungsunterstützungstools für die operative Planung zu erstellen. Dynamische Tarife sind ein gutes Beispiel für nicht-invasive Ansätze, die Prosumenten und Verbraucher zu netzfreundlichem Verhalten motivieren. Im Rahmen dieser Arbeit untersuchen wir, wie ein Datensatz genutzt werden kann, um dynamische Tarife für Nachfrage und lokale Erzeugung zu entwerfen. Wie in Bild 4 dargestellt, werden Daten von Smart Metern, Netzsensoren und Wettervorhersagen mit den Ergebnissen der Arbeitsabläufe für die Lastflussprognose und die Risikoprognose konsolidiert. Zusätzliche Datenmerkmale (d. h. Einfluss- und Zielgrösse) werden erstellt und getestet, um Machine-Learning-Modelle zu trainieren und kausale Korrelationen zu finden, die die Netztopologie und -beschränkungen sowie die Stromerzeugungs- und -verbrauchsmuster widerspiegeln. Mit diesen werden die Netznutzungstarife aktualisiert.
Bei der Gestaltung dynamischer Tarife werden zwei Aspekte berücksichtigt: die Berechnung der Tarife und die Datenverfügbarkeit, d. h. die Art, die zeitliche und die räumliche Auflösung der Daten, die dem EVU zur Verfügung stehen. Tarife können offline für einen bestimmten Zeitraum (z. B. saisonal oder jährlich) gestaltet werden. Alternativ können Tarife nahezu in Echtzeit (z. B. Day-Ahead oder sogar Intraday) auf der Grundlage eines Tarifmodells berechnet werden. So sinken beispielsweise für den nächsten Tag die Einspeisepreise, wenn prognostiziert wird, dass die maximal überschüssige PV kritische Leitungsbelastungen oder Überspannungsverletzungen verursachen wird.
Es werden drei Optionen in Betracht gezogen, um den Grad der Verfügbarkeit der Daten für das Versorgungsunternehmen zu verbessern:
- Der Idealfall, in dem die PV-Erzeugung, der konventionelle Verbrauch, das Laden von Elektrofahrzeugen (EV) und der Betrieb von Wärmepumpen (HP) an jedem Knoten separat gemessen werden und dem EVU in einer zeitlichen Auflösung von weniger als einer Stunde zur Verfügung stehen.
- Der Nettobedarf wird an jedem Knoten gemessen und dem EVU in einer zeitlichen Auflösung von weniger als einer Stunde zur Verfügung gestellt (z. B. über Smart Meter).
- Es stehen nur Leistungsmessungen von Transformatoren (NE6) zur Verfügung.
In jedem Zeitschritt werden statistische Korrelationsanalysen durchgeführt und Machine Learning eingesetzt, um die Muster und die wichtigsten Faktoren zu identifizieren, die zu einer erhöhten Netzbelastung bzw. -verletzung führen. Mit dieser Information werden dynamische Netznutzungstarife entworfen, die die gewünschte Reduktion von Netzbeschränkungen oder kritischen Situationen erreichen und gleichzeitig für die Endkunden nur minimal invasiv sind.
Ausblick
Getrieben durch die Ziele der Energiestrategie 2050 investieren die Schweizer Energieversorger in fortschrittliche Planungs-, Steuerungs- und Flexibilitätslösungen, um dezentrale erneuerbare Energien kosteneffizient zu integrieren und den steigenden Strombedarf durch die Elektrifizierung von Wärme und Mobilität zu decken. Digitalisierung und Intelligenz in der Betriebsplanung spielen eine wesentliche Rolle, um den Anschluss erneuerbarer Erzeugung und neuer Verbraucher zu gewährleisten und gleichzeitig übermässige Netzverstärkungen zu vermeiden. Da sich der Einsatz dieser Technologien beschleunigt, sind Analyse- und Planungswerkzeuge nötig, die über die GIS-Integration hinausgehen und auf integrierte automatisierte Workflows und intelligente Tools ausgeweitet werden. Dazu ist eine effiziente Erfassung und Verarbeitung heterogener Datentypen unerlässlich, da sie aktuelle Daten in einen Digitalen Prozesszwilling (DPT) einspeisen.
Im Rahmen des AISOP-Projekts wird ein DPT-Konzept vorgeschlagen, um die datengetriebene Entscheidungsfindung für VNB zu unterstützen. Der DPT erleichtert die Integration und systematische Verwaltung von Messdaten und Modellausgaben durch dedizierte Workflows, die genaue Schätzungen sowohl der aktuellen als auch der prognostizierten Spannungs- und Lastbedingungen im Verteilnetz ermöglichen.
Die daraus resultierenden Erkenntnisse können genutzt werden, um die verfügbare Netzkapazität zu bewerten, Risiken einer Überlastung kritischer Anlagen zu erkennen und umsetzbare Informationen für die Betriebsplanung, Wartungsstrategien und die langfristige Infrastrukturplanung zu liefern. In künftigen Implementierungen hat die DPT-Technologie das Potenzial, als erster Schritt zur Identifizierung optimaler Szenarien für die Netzrekonfiguration zu dienen und die Flexibilität und Resilienz von Verteilnetzen zu erhöhen.
Neben aktiven Netzmanagementstrategien stellen nicht-invasive Flexibilitätsmechanismen wie dynamische Stromtarife eine vielversprechende Alternative dar, um das Verhalten der Endnutzer bzw. Prosumer zu beeinflussen. Diese Tarife können sie motivieren, ihre Verbrauchs- oder Erzeugungsprofile an die Netzbedingungen anzupassen. Zu diesem Zweck wird im Rahmen des AISOP-Projekts ein dynamischer Tarifrahmen entwickelt, der auf der DPT-Infrastruktur aufbaut und Techniken des maschinellen Lernens einbezieht, um die Netznutzungstarife sowohl für die Last als auch für die Erzeugung nahezu in Echtzeit zu aktualisieren. Ein solcher Ansatz ist besonders wertvoll in Szenarien, in denen ein flexiblerer, adaptiverer und nutzerbewussterer Verteilnetzbetrieb einen Mehrwert schafft und traditionelle Netzverstärkungsmassnahmen ergänzt.
Referenzen
[1] AISOP – KI-assistierte Stromnetz-Situationserkennung und Betriebsplanung, Aramis Forschungsdatenbank, Projekt Nr. 49450. www.aramis.admin.ch/Grunddaten/?ProjectID=49450
[2] Der Digitale Zwilling in der Netz- und Elektrizitätswirtschaft, VDE-Studie, Mai 2023.
[3] Datahub Schweiz: Kosten-Nutzen-Analyse und regulatorischer Handlungsbedarf, BFE, Oktober 2018.
[4] Zhamak Dehghani, Data mesh. Eine dezentrale Datenarchitektur entwerfen, O’Reilly, 2023.
[5] Braulio Barahona et al., «A Data Co-Pilot for Electric Distribution Utilities to Support Grid Situational Awareness», AMLD EPFL, Lausanne, März 2024, doi.org/10.5281/zenodo.14933855