Fachartikel Energienetze , IT für EVU

Datengetriebene Netz­betriebs­planung

Integrierte Werkzeuge für Netz­zustands­erkennung und Erstellung dynamischer Tarife

15.12.2025

Durch den Einsatz fort­schritt­licher digitaler Technologien lassen sich Verteil­netz­betrieb und Dekarbo­nisie­rung optimieren: Daten und auto­mati­sierte Workflows verknüpfen komplexe Infor­matio­nen und liefern Netz­betreibern wertvolle Einblicke zur Steigerung der Effizienz beste­hender Betriebs­planungs­prozesse.

Traditionell bereitet die Netz­betriebs­planung die Über­tragungs­netz­betreiber auf den Echtzeit­betrieb vor, um die Wahr­schein­lichkeit unerwarteter Abweichungen von Angebot und Nachfrage zu minimieren und geeignete Gegen­mass­nahmen im Voraus zu definieren. Solche Betriebs­planungs­prozesse waren für Verteilnetze bisher nicht nötig, da auf Netzebene 7 keine Erzeugungseinheiten installiert waren. Mit zunehmender Integration erneuerbarer Energien in Verteilnetzen und der Transformation einiger Verbraucher zu Prosumenten wird mehr Information über den aktuellen und künftigen Netzzustand entscheidend, um das Verteilnetz resilient und kosteneffizient zu betreiben.

Da zunehmend Daten in Nieder­spannungs­netzen über Haus­energie­manage­ment­systeme, Smart Meter und Netzsensoren erfasst werden, sind automatisierte Prozesse erforderlich, um diese Daten zu verwalten und für verschiedene Werkzeuge zur Abrechnung, zum Betrieb und zur Planung verfügbar zu machen. Solche heterogenen Daten können genutzt werden, um die Day-Ahead- oder Week-Ahead-Betriebsplanung zu unterstützen, um das Netz besser zu steuern, kritische Belastungen von Leitungen und Transformatoren zu vermeiden und Knoten-Spannungs­verlet­zungen zu verhindern. Digitale Zwillinge solcher Betriebs­planungs­prozesse können zudem in kurz- (mehrere Jahre) und langfristige (Jahrzehnte) Netzinfrastrukturplanungen integriert werden, um genauere Szenarien für erneuerbare Energien, Wärmepumpen und Elektromobilität zu erstellen. Nicht-invasive Konzepte wie dynamische Netznutzungstarife schaffen Anreize, um Flexibilität von Verbrauch und dezentraler Erzeugung gezielt zu nutzen, um die Netzbelastung durch Spitzenlasten oder PV-Einspeisung zu reduzieren. Dynamische Tarife sind ein besonders interessanter Anwendungsfall, bei dem integrierte Werkzeuge basierend auf Daten, Netz-, Verbrauchs- und Erzeugungs­modellen nötig sind.

In diesem Artikel werden Daten­strategie­konzepte und Werkzeuge zur optimalen Nutzung von Daten für Netz­zustands­erkennung und zur Erstellung dynamischer Netztarife für Verbrauch und dezentrale Erzeugung im Kontext der Betriebsplanung für Verteil­netz­betreiber (VNB) diskutiert. Zudem wird das AISOP-Projekt vorgestellt, die Vision einer KI-basierten Entscheidungs­unter­stützung für die Betriebsplanung in Verteilnetzen [1].

Komponenten eines digitalen Prozesszwillings

Der Ansatz besteht aus Workflows für die Netz­zustands­erkennung im Verteilnetz und dynamischen Tarifen für die implizite Steuerung des Energiebedarfs und der dezentralen Erzeugung. Digitale Zwillinge (DT) und Internet-of-Things (IoT)-Technologien werden eingesetzt, um ein modulares Framework zu entwickeln, das spezifische Workflows für die Netzüberwachung und -analyse ausführt. Diese Workflows erhöhen die Beobachtbarkeit des Netzes und ermöglichen die Bewertung der Auswirkungen nicht-invasiver Anreizmechanismen wie dynamischer Tarife auf den Netzbetrieb. Ebenso wird ein Digitaler Prozesszwilling (DPT) erstellt, der Netz­zustands­erkennung über die aktuelle Netzsituation und Prognosen für die nächsten Stunden oder Tage liefert.

Oft wird nicht zwischen DT und DPT unterschieden. Eine klare Vorstellung dieser Konzepte hilft, die digitale Strategie der VNBs besser zu verstehen und den dafür nötigen Aufwand sowie die Reihenfolge der Umsetzungsschritte gezielt zu planen. Tabelle 1 gibt einen Überblick über den Fokus von DTs, der sich auf physische Anlagen, ihre Überwachung, die Vorhersage ihrer Lebensdauer und die Optimierung ihrer Leistung während des Betriebs konzentriert. Der Fokus von DPT liegt hingegen auf der Prozess­automati­sierung. Es verbindet Modelle oder DTs, um Workflows zu automatisieren, die Betriebs-, Planungs- oder Geschäftsprozesse darstellen.

Wir untersuchen DPTs, bei denen Datenanalyse und Netz­model­lierung angewendet werden, um Daten zu assimilieren, Anomalien zu erkennen und Prognosen über zukünftige Risiken zu erstellen. Anomalien können beispielsweise auf Netzstörungen oder Unregel­mässig­keiten beim Verbrauch bzw. der Erzeugung zurückzuführen sein. Sequenzielle Last­fluss­simula­tionen dienen der Abschätzung des Risikos von Netz­verletzungen, wie z. B. Leitungs­überlastung, und helfen bei der Gestaltung effektiver Netztarife. Dieses DPT-Framework ist um die Ebenen eines cyber-physischen Energiesystems herum strukturiert.

  • Die physische Ebene entspricht dem Netz und den Sensoren selbst, wo die Datenerfassung beginnt und automatische Steuerungs­aktionen oder menschliche Eingriffe stattfinden.
  • Die IKT-Ebene umfasst das gesamte Software-Framework mit den folgenden Kernbausteinen: Daten­verifizierungs­prozess, permanente Daten­spei­cherung, physische und datengesteuerte Modelle, Netz­simulations­werkzeuge, GIS-Systeme und Informationsextraktion.
  • Die Business-Ebene stellt den Netzbetreiber dar, der für das Netz- und Störungs­management, die Cybersicherheit, Wartungs­aktivitäten usw. verantwortlich ist.

 

Die Implementierung ist modular geplant. Ein Bestandteil des Prozesses sind verifizierte heterogene Datensätze mit einer eindeutigen Identifizierung. Zunächst werden Daten aus der physischen Ebene mit einem Datenverifizierungsprozess aufgenommen, der zu einer Single Source of Truth (SSoT) führt.

Die permanente Daten­spei­cherung und der Datenkatalog werden ständig mit neu verifizierten Daten aktualisiert, wobei SSoT dazu dient, die gesammelten Daten mit hoher Qualität und Vertrauenswürdigkeit zu pflegen. Darüber hinaus speichert SSoT die Daten, die von den Modulen der DPT-Workflows erstellt werden.

Globaler Datenkatalog

Ein globaler Datenkatalog erleichtert die Nutzung vielfältiger Datensätze über verschiedene Dienste und Stakeholder hinweg. Um Daten zu assimilieren, kann jedoch jedes Softwaremodul oder DT seine eigenen lokalen Verifizierungs- und Qualitätsprüfungen durchführen, die sich auf seinen spezifischen Modellierungsumfang beziehen. Physikalische und datengetriebene Modelle werden dann verwendet, um Netzsimulationen durchzuführen oder Datenanalysen anzuwenden, um Anomalien in den Daten zu erkennen. Der genaue Umfang dieser Modelle muss für jeden Anwendungsfall und digitalen Prozess definiert werden. Zu den Modellen zur Vorhersage des Risikos von Netzengpässen gehören beispielsweise ein Prognosemodell für den Verbrauch und Erzeugung sowie ein Lastflussmodell. Ein weiteres Beispiel ist die Erkennung von Anomalien ausschliesslich aus Messdaten, also ohne Modell. Dabei können überwachte oder unüberwachte Lernmodelle direkt auf die Daten angewendet werden. Der Umfang und die Granularität dieser Modelle kann erweitert werden, um vollwertige DTs von Netz­kompo­nenten wie Umspannwerken, Freileitungen, Verteilungs­kabeln usw. einzubeziehen. Diese Modularität wird durch SSoT und durch die Definition von Tools und Workflows ermöglicht, die konfigurierbar sind und über klare Schnittstellen verfügen, um sie wiederverwendbar zu machen. Der letzte Schritt ist der Informations­extraktions­block, in dem assimilierte Daten, Modellausgabedaten und Benutzereingaben kombiniert werden. Mit diesem Block kann der Benutzer mit dem DPT interagieren, um bestimmte Workflows auszuführen, Algorithmen zu konfigurieren und Ergebnisse zu visualisieren. Bild 1 zeigt relevante Datenquellen, beginnend mit den Informationen über die Netztopologie, die im Idealfall die Eigenschaften und den Standort jeder Komponente des Verteilnetzes vom Umspannwerk HV-MV (NE 4) bis zum Anschluss­punkt jedes Kunden an NE 5 und NE 7 enthält. Dazu gehören u. a. Informationen über den Kunden­anschluss, Metadaten und SCADA-Daten von Erzeugungs­einheiten, den von der Zähler­infra­struktur erfassten Verbrauch sowie zusätzliche Sensoren — etwa an Transformatoren oder sogar hinter dem Kundenanschluss. Ebenfalls möglich sind kommerzielle oder regulatorische Informationen wie Nutzungszeittarife.

Die IKT-Ebene zeigt die Kernblöcke des DPT und die Business-Ebene die strategischen Funktionen, die die Netzbetreiber erfüllen wollen. Die Netzplanung ist insbesondere für die Aktivitäten im Rahmen des AISOP-Projekts relevant. Zudem werden DTs und DPTs von den VNB aktiv entwickelt, um diverse Funktionen zu unterstützen, beispielsweise die Reduktion der Wartungskosten durch voraus­schauende Wartungs­strategien oder die Überwachung des Netzes gegen Cyberangriffe.

Im Rahmen des AISOP-Projekts zielt der DPT insbesondere darauf ab, Über­wachungs­instrumente bereitzustellen, die den Netzbetreiber für den aktuellen und erwarteten Zustand des Netzes informieren und die Abschätzung von Risikozuständen wie Überlastung von Leitungen oder Trans­formatoren, Spannungs­verletzungen sowie potenzielle Störungen und Ausfälle von Anlagen verbessern. Zudem ermöglicht es, den Einsatz dynamischer Tarife für eine nicht-invasive Verbrauchs- und Erzeugungssteuerung zu untersuchen.

Verwendung heterogener Datensätze

Die Implementierung von DTs und DPTs erfordert die Integration heterogener Datenquellen, die den Netzbetrieb und die Wartung, die dezentrale Energie­erzeugung und die Kunden­anschluss und -abrechnung sowie Asset-Management-Daten umfassen. VNBs sind zunehmend gezwungen, sich in dieser komplexen Daten­landschaft zurechtzufinden, in der herkömmliche SCADA-Messungen durch Advanced Metering Infrastructure (AMI), Home Energy Management Systeme (HEMS), Wetterstationen, geografische Informations­systeme (GIS) und IoT-Sensoren ergänzt werden. Einige Datensätze wie AMI und meteoro­logische Daten haben zudem unter­schiedliche zeitliche Auflösungen, Formate und Qualitäts­anforde­rungen. Die Smart Meter liefern Verbrauchsdaten in 15-Minuten- oder Stunden­intervallen, die ständig erfasst werden, während Netzsensoren Spannungs-, Strom- und Netz­qualitäts­parameter mit hoher Auflösung überwachen, aber oft nur für eine begrenzte Zeit an bestimmten Orten eingesetzt werden. Daten von meteoro­logischen Stationen und Modellen unterstützen die Vorhersage erneuerbarer Energien und erweiterte Lastvorhersagen, die die Integration von Temperatur, Sonneneinstrahlung, Wind­geschwin­digkeit, Wolken­informa­tionen und Nieder­schlags­messungen erfordern.

IoT-Geräte in Smart Grids können neben strukturierten Messungen auch unstrukturierte Daten wie Bilder von Inspektions­drohnen oder Wartungsarbeiten generieren. Daher erfordert die Etablierung einer SSoT ausgereifte Daten­management­ansätze, die sowohl Streaming-Daten als auch historische Archive verarbeiten können und gleichzeitig die Datenqualität und die zeitliche Ausrichtung beibehalten.

Es empfiehlt sich, Anwendungs­fälle zu definieren, die auf bestimmte Geschäfts­funktionen (z. B. Netzmanagement) abgestimmt sind. Diese sollten klare und messbare Ziele enthalten, wie etwa die Integration eines hohen Anteils an Solar-PV, die Verringerung der Häufigkeit von Über­spannungs­verletzungen oder die Senkung des System Average Interruption Duration Index (SAIDI). Anschliessend werden die dafür benötigten Daten den Prozessen zugeordnet, die einen konkreten Mehrwert bringen, wie zum Beispiel die optimale Planung von Wartungsteams. Im nächsten Schritt können verschiedene Daten­management­ansätze in Betracht gezogen werden, bevor die Basistechnologien und der Umfang der DPT-Modellierung spezifiziert werden. Bild 2 veranschaulicht moderne Ansätze für das Daten­management, von zentralisiert bis dezentral (d. h. basierend auf Datenföderation und verteilter Governance).

Die Data-Hub-Architektur ist eine Daten­manage­ment-Architektur, die Daten zentralisiert, indem sie einen einheitlichen Zugangspunkt über standardisierte Konnektoren und APIs bereitstellt [3]. Eine Datenplattform ist komplexer und weniger zentralisiert, zielt aber dennoch darauf ab, Daten zu integrieren und einheitliche Governance-Richtlinien für alle Geschäftsteams zu etablieren: Netz­management, Netzplanung, Markt- und Abwicklungsdienste usw.

Am anderen Ende des Spektrums fördert ein Data Mesh [4] eine föderierte und rechnergestützte Data Governance, die es den Geschäfts­einheiten ermöglicht, Datenprodukte zu besitzen und ihre Nutzungs­richtlinien zu formulieren. Dies erlaubt ihnen volle Autonomie. Gleichzeitig wird eine Self-Service-Daten­infrastruktur aufgebaut, die domänenübergreifend gemeinsam genutzt wird.

Ein Data Space bietet auch einen dezentralen Ansatz, der sich jedoch hauptsächlich auf den Daten­austausch zwischen Versorgungs­unternehmen und Akteuren im Energiesektor konzentriert. Im Einklang mit dem European Data Act und dem Interoperable Europe Act zielen die laufenden Initiativen zum Energy Data Space darauf ab, den Datenaustausch zu fördern, um einen einheitlichen Datenmarkt zu schaffen.

All diesen Ansätzen ist gemeinsam, dass die Daten für die relevanten Nutzer im Rahmen der Richtlinien zur Datensicherheit und zum Datenschutz auffindbar und zugänglich sein müssen. Daher besteht ein agiler Ansatz zur Etablierung von SSoT bei der Entwicklung von DPT-Prototypen darin, zunächst Datenmodelle und Standards für die Datenaufnahme und Inter­operabilität zu definieren, die die Grundlage eines Datenkatalogs bilden. Auf diese Weise könnte man inkrementell ein zentrales oder föderiertes Repository entwickeln, das Datenquellen, Tabellen, Schemata usw. beschreibt, um einen vollständig entwickelten Datenkatalog zu erstellen, der die Implemen­tierung von SSoT darstellt.

Mögliche Implementierungen

Ein Daten­manage­ment-Ansatz kann auf verschiedene Weise implementiert werden. Standards wie Data Package, IEC 61850, CIM oder FMI werden oft in Daten­modellen von Smart-Grid-Komponenten und Netzsimulationsmodellen eingesetzt. Die Data-Package-Spezifikation ist einfach und erweiterbar und eignet sich daher für den inkrementellen Aufbau eines Datenkatalogs in Kombination mit dem Frictionless Framework für die Daten­validierung und -transformation.

In unserer dateibasierten Proof-of-Concept-Implemen­tierung für die Anomalien­erkennung wurde ein Daten­assimilations­modul entwickelt. Dieses Modul, ein Python-Skript, liest Smart-Meter- und Netz-Sensordaten in CSV-Dateien aus und wendet die Daten­paket­spezifikation (Meta­daten­deskriptor und Ressourcen) an. Die Metadaten beschreiben die Struktur und den Inhalt des Datensatzes, z. B. Lizenz, Herausgeber, Quelle, Liste der Ressourcen und Schemas. Bei den Ressourcen handelt es sich um die eigentlichen Daten, die sich im Deskriptor als Text befinden können, um Dateien, die lokal mit dem Paketdeskriptor gebündelt sind, oder um Dateien oder Datenbanken, auf die für den Remotezugriff verwiesen wird.

Zudem wurde die Datenföderation in AISOP als Standard­implemen­tierungen von Datenräumen untersucht, namentlich der Minimum Viable Data Space (MVDS), der von den International Data Spaces und der Eclipse Data Space Working Group erstellt wurde. MVDS besteht aus einem Minimalansatz von Komponenten mit genügend Funktionen, um mit der Bereitstellung von Identitäten und der Erstellung von Daten­konnek­toren zu experimentieren. Wir haben mit der Bereitstellung eines MVDS experimentiert, das auf offenen, vorkonfigu­rierten Implemen­tierungen basiert. Diese sind im IDS Testbed Git-Repository enthalten und umfassen eine Zertifi­zierungs­stelle, einen Dynamic Attribute Provisioning Service, einen Dataspace Connector und einen Metadata-Broker. Zwar konnte im Kontext von AISOP kein vollwertiger Datenraum geschaffen werden, das MVDS vermittelte jedoch ein Verständnis der zugrunde liegenden Technologien und schuf Synergien mit Forschungsinitiativen, die sich auf Datenräume im Energiebereich konzentrieren.

Tools und Workflows

Sobald die Architektur des DPT etabliert ist, wird eine Definition von Tools und Workflows verwendet, um eine modulare Implemen­tierung zu unterstützen. Tools sind kleinere Software­komponenten oder Module, die an bestimmten Aufgaben beteiligt sind und in verschiedenen Arbeits­abläufen wieder­verwendbar sein können. Zudem können diese Tools über standardisierte Schnittstellen (APIs) auch von autonomen KI-Agenten oder grossen Sprachmodellen genutzt werden, wobei ein konkreter Anwen­dungsfall ein assistierender KI-Agent ist, der die bereitgestellten Tools nutzt, um Dokumen­tationen abzufragen und die notwendigen Parameter für spezifische Workflows automatisch einzurichten [5]. Workflows beschreiben Abfolgen von Verarbei­tungs­schritten. Bild 3 zeigt die wichtigsten bisher betrachteten Workflows und hebt diejenigen hervor, die zurzeit entwickelt werden.

  • Der Workflow von sequen­ziellen Lastfluss­lösungen umfasst die Assimilation aktueller Messungen von Smart-Meter, Netzsensoren und dem SCADA-System, das Parsen der Netztopologie und ihrer Konfiguration. Zudem umfasst der Workflow die Definition des Zeithorizonts und die Erstellung einer Eingabetabelle, die die Last in jedem Knoten des Netzes für diesen Zeithorizont durch eine Lastflusssimulation berechnet. Ein solcher Zeitreihen-Lastfluss-Ansatz wird häufig mit kommerziellen Tools erreicht, die Funktionen zum Laden von Wind-, Solar- und Lastprofilen bieten, um die Auswirkungen des Anschlusses von mehr PV, Elektroautos oder Wärmepumpen zu charakterisieren.
  • Der Workflow für die Lastfluss­prognose umfasst das Anwenden von Prognosen, um Eingaben für den Lastfluss-Solver zu erstellen, die Erzeugung und Verbrauch besser darstellen können als Standard­lastprofile. So kombiniert es die Zeit­reihen­prognose mit dem Workflow von Sequential Power Flow Solutions. Mehrere Ansätze werden in Betracht gezogen, die von klassischer Quantils­regression über eindimen­sionale Convolutional Neural Networks bis hin zu leistungs­fähigeren Deep-Learning-Architekturen reichen.
  • Der Workflow für die Anomalien­erkennung: Im Rahmen von AISOP werden zwei Arten von Anomalien behandelt: Die erste Art sind Netzfehler wie Kurzschlüsse, Ausfälle von Betriebsmitteln und entstehende Fehler, die Störungen verursachen, die zwar messbar, aber schwer zu erkennen sind. Die zweite Art betrifft Unregelmässigkeiten bei den Endverbrauchern, welche sich als Abweichungen von erwarteter Stromqualität, dem Stromverbrauch oder Erzeugungs­muster zeigen. Dies kann auf neue und möglicherweise nicht gemeldete Verbraucher oder Erzeugungs­anlagen hinweisen. Die rechtzeitige Erkennung dieser Anomalien ist nötig, um einen effizienten Netzbetrieb zu gewährleisten, Systemausfälle zu verhindern und die Ressourcen zu optimieren.
  • Der Workflow der Risiko­bewertung umfasst die dynamische Berechnung von Risikometriken, sobald genügend neue Spannungs- und Lastüberwachungsdaten verfügbar sind. Zunächst wird eine Verteilungsfunktion aus historischen Daten erstellt und eine Schwere­grad­funktion entsprechend der ausgewählten Risikometrik definiert. Im zweiten Schritt wird über die Verteilungsfunktion eine Über­schreitungs­wahr­scheinlichkeit berechnet, die dann mit der Schwere­grad­funktion gewichtet wird, um den Risikowert zu berechnen. Die Verteilungsfunktion kann eine empirische Verteilung sein, indem die Häufigkeit des Auftretens aus den Daten berechnet wird, oder sie kann durch Anpassen einer Wahr­schein­lich­keits­verteilungs­funktion erstellt werden, häufig einer Gaussschen oder einer Weibull-Funktion. Ein weiterer Aspekt bei der Abschätzung von Risiken von Überlastungen oder Spannungs­verletzungen ist die Einhaltung von Normen, insbesondere bei Spannungs­schwan­kungen: Während jedes 7-Tage-Intervalls müssen 95 % der 10-Minuten-Mittelwerte innerhalb von ± 10 % der Nennspannung gemäss EN 50160 liegen. Weitere Risikokennzahlen, die derzeit im Fokus stehen, sind das betriebliche Über- (oder Unter-)Spannungsrisiko (OVR und UVR) mit exponentiellen Schwere­grad­funktionen.

 

Zusätzlich zu diesen Workflows braucht es eine Benutzeroberfläche, die Informationen für die Entschei­dungs­findung bereitstellt. Zudem können sie mit dem DPT interagieren, um bestimmte Workflows auszuführen, Daten zu visualisieren und spezifische Analysen zu konfigurieren. Wir haben ein Konzept erstellt, das grundlegende Interaktionen zum Auslösen vordefinierter Workflows vorsieht und Unterstützung durch generative KI bietet [5].

Unterstützung bei dynamischen Tarifen

Der vorgestellte DPT und die Workflows können als Schlüssel­konzepte in einem Daten­manage­mentansatz dienen, um Entscheidungs­unter­stützungs­tools für die operative Planung zu erstellen. Dynamische Tarife sind ein gutes Beispiel für nicht-invasive Ansätze, die Prosumenten und Verbraucher zu netz­freund­lichem Verhalten motivieren. Im Rahmen dieser Arbeit untersuchen wir, wie ein Datensatz genutzt werden kann, um dynamische Tarife für Nachfrage und lokale Erzeugung zu entwerfen. Wie in Bild 4 dargestellt, werden Daten von Smart Metern, Netzsensoren und Wetter­vorhersagen mit den Ergebnissen der Arbeitsabläufe für die Lastfluss­prognose und die Risiko­prognose konsolidiert. Zusätzliche Daten­merkmale (d. h. Einfluss- und Zielgrösse) werden erstellt und getestet, um Machine-Learning-Modelle zu trainieren und kausale Korrelationen zu finden, die die Netztopologie und -beschränkungen sowie die Stromerzeugungs- und -verbrauchsmuster widerspiegeln. Mit diesen werden die Netz­nutzungs­tarife aktualisiert.

Bei der Gestaltung dynamischer Tarife werden zwei Aspekte berücksichtigt: die Berech­nung der Tarife und die Daten­ver­füg­barkeit, d. h. die Art, die zeitliche und die räumliche Auflösung der Daten, die dem EVU zur Verfügung stehen. Tarife können offline für einen bestimmten Zeitraum (z. B. saisonal oder jährlich) gestaltet werden. Alternativ können Tarife nahezu in Echtzeit (z. B. Day-Ahead oder sogar Intraday) auf der Grundlage eines Tarifmodells berechnet werden. So sinken beispielsweise für den nächsten Tag die Einspeise­preise, wenn prognostiziert wird, dass die maximal überschüssige PV kritische Leitungs­belastungen oder Über­spannungs­verlet­zungen verursachen wird.

Es werden drei Optionen in Betracht gezogen, um den Grad der Verfügbarkeit der Daten für das Versorgungs­unter­nehmen zu verbessern:

  • Der Idealfall, in dem die PV-Erzeugung, der konventionelle Verbrauch, das Laden von Elektro­fahr­zeugen (EV) und der Betrieb von Wärmepumpen (HP) an jedem Knoten separat gemessen werden und dem EVU in einer zeitlichen Auflösung von weniger als einer Stunde zur Verfügung stehen.
  • Der Nettobedarf wird an jedem Knoten gemessen und dem EVU in einer zeitlichen Auflösung von weniger als einer Stunde zur Verfügung gestellt (z. B. über Smart Meter).
  • Es stehen nur Leistungs­messungen von Trans­formatoren (NE6) zur Verfügung.

 

In jedem Zeitschritt werden statistische Korrelationsanalysen durchgeführt und Machine Learning eingesetzt, um die Muster und die wichtigsten Faktoren zu identifizieren, die zu einer erhöhten Netzbelastung bzw. -verletzung führen. Mit dieser Information werden dynamische Netznutzungstarife entworfen, die die gewünschte Reduktion von Netz­beschrän­kungen oder kritischen Situationen erreichen und gleichzeitig für die Endkunden nur minimal invasiv sind.

Ausblick

Getrieben durch die Ziele der Energiestrategie 2050 investieren die Schweizer Energieversorger in fortschrittliche Planungs-, Steuerungs- und Flexi­bilitäts­lösungen, um dezentrale erneuerbare Energien kosteneffizient zu integrieren und den steigenden Strombedarf durch die Elektrifizierung von Wärme und Mobilität zu decken. Digitalisierung und Intelligenz in der Betriebsplanung spielen eine wesentliche Rolle, um den Anschluss erneuerbarer Erzeugung und neuer Verbraucher zu gewährleisten und gleichzeitig übermässige Netz­verstär­kungen zu vermeiden. Da sich der Einsatz dieser Technologien beschleunigt, sind Analyse- und Planungs­werkzeuge nötig, die über die GIS-Integration hinausgehen und auf integrierte automatisierte Workflows und intelligente Tools ausgeweitet werden. Dazu ist eine effiziente Erfassung und Verarbeitung heterogener Datentypen unerlässlich, da sie aktuelle Daten in einen Digitalen Prozesszwilling (DPT) einspeisen.

Im Rahmen des AISOP-Projekts wird ein DPT-Konzept vorgeschlagen, um die datengetriebene Entscheidungsfindung für VNB zu unterstützen. Der DPT erleichtert die Integration und systematische Verwaltung von Messdaten und Modellausgaben durch dedizierte Workflows, die genaue Schätzungen sowohl der aktuellen als auch der prognostizierten Spannungs- und Lastbedingungen im Verteilnetz ermöglichen.

Die daraus resultierenden Erkenntnisse können genutzt werden, um die verfügbare Netzkapazität zu bewerten, Risiken einer Überlastung kritischer Anlagen zu erkennen und umsetzbare Informationen für die Betriebsplanung, Wartungs­strategien und die langfristige Infra­struktur­planung zu liefern. In künftigen Implemen­tierungen hat die DPT-Technologie das Potenzial, als erster Schritt zur Identifizierung optimaler Szenarien für die Netz­rekonfi­guration zu dienen und die Flexibilität und Resilienz von Verteilnetzen zu erhöhen.

Neben aktiven Netz­manage­ment­strategien stellen nicht-invasive Flexibilitäts­mecha­nismen wie dynamische Stromtarife eine viel­ver­sprechende Alternative dar, um das Verhalten der Endnutzer bzw. Prosumer zu beeinflussen. Diese Tarife können sie motivieren, ihre Verbrauchs- oder Erzeugungs­profile an die Netz­bedin­gungen anzupassen. Zu diesem Zweck wird im Rahmen des AISOP-Projekts ein dynamischer Tarifrahmen entwickelt, der auf der DPT-Infrastruktur aufbaut und Techniken des maschinellen Lernens einbezieht, um die Netz­nutzungs­tarife sowohl für die Last als auch für die Erzeugung nahezu in Echtzeit zu aktualisieren. Ein solcher Ansatz ist besonders wertvoll in Szenarien, in denen ein flexiblerer, adaptiverer und nutzerbewussterer Verteilnetzbetrieb einen Mehrwert schafft und traditionelle Netz­verstärkungs­massnahmen ergänzt.

Referenzen

[1] AISOP – KI-assistierte Stromnetz-Situationserkennung und Betriebsplanung, Aramis Forschungsdatenbank, Projekt Nr. 49450. www.aramis.admin.ch/Grunddaten/?ProjectID=49450

[2] Der Digitale Zwilling in der Netz- und Elektrizitätswirtschaft, VDE-Studie, Mai 2023.

[3] Datahub Schweiz: Kosten-Nutzen-Analyse und regulatorischer Handlungsbedarf, BFE, Oktober 2018.

[4] Zhamak Dehghani, Data mesh. Eine dezentrale Datenarchitektur entwerfen, O’Reilly, 2023.

[5] Braulio Barahona et al., «A Data Co-Pilot for Electric Distribution Utilities to Support Grid Situational Awareness», AMLD EPFL, Lausanne, März 2024, doi.org/10.5281/zenodo.14933855

Autor
Dr. Braulio Barahona

ist Wissenschaftlicher Adjunkt an der Hochschule Luzern.

Autor
Dr. Cansin Yaman Evrenosoglu

ist Principal Expert an der Forschungs­stelle Energie­netze (FEN).

  • ETH Zürich, 8006 Zürich
Autor
Dr. Adamantios Marinakis

ist Principal Expert an der Forschungs­stelle Energie­netze (FEN).

  • ETH Zürich, 8006 Zürich
Autor
Philippe Buchecker

ist Wissen­schaft­licher Assistent an der Forschungs­stelle Energie­netze (FEN).

  • ETH Zürich, 8006 Zürich
Autor
Dr. Severin Nowak

ist Dozent in elektrischer Energie­ver­sorgung an der HSLU.

Autor
Apl. Prof. Dr.-Ing. Ulf Häger

ist Apl. Professor am Institut für Energiesysteme, Energieeffizienz und Energiewirtschaft (ie3).

  • TU Dortmund
    DE-44221 Dortmund
Autor
Dr. Antonios Papaemmanouil

ist ehemaliger Insti­tuts­leiter Elektro­technik der HSLU und Projektleiter an der HEIG-VD.

  • HEIG-VD, 1400 Yverdon-les-Bains