Die Daten fliessen lassen
Digitalisierung in der Fertigung
Die Entwicklung generiert Produktdaten, die in weiteren Abteilungen verwendet werden. Mit geeigneten Tools können die Daten frei fliessen – Qualität und Produktivität erhöhen sich.
Unternehmen, die physische Produkte entwickeln und herstellen, sind auf Produktdaten angewiesen. Es gibt zwar gesetzliche Vorgaben, diese zu verwalten, aber keine Vorgaben, sie effizient zu nutzen. Nicht selten kommt es vor, dass in den diversen Abteilungen wie Entwicklung, Support oder Vertrieb IT-Lösungen eingesetzt werden, die benötigte Produktdaten nicht direkt aus den Pools anderer Abteilungen beziehen können. Solche Insellösungen erfordern eine manuelle Übertragung spezifischer Produktdaten, die fehleranfällig und ineffizient ist. Andererseits haben Insellösungen oft den Vorteil, dass der Zugriff auf bereits erfasste Daten den jeweiligen Nutzern massgeschneidert zur Verfügung gestellt wird – diesbezügliche Optimierungen innerhalb einer Abteilung lassen sich einfacher durchführen als in abteilungsübergreifenden Gremien.
Seit geraumer Zeit gibt es nun Software-Lösungen, die diese Datengräben überbrücken. Intelliact, ein Spin-off der ETH Zürich, befasst sich mit der Spezifikation und auch Implementierung solcher Lösungen. Gemäss Geschäftsführer Patrick Henseler erfordern solche Lösungen aber gewisse Grundvoraussetzungen, um diese digitale Transformation erfolgreich zu meistern.
Die Basis muss stimmen
Bevor man sich an das digitale Abbilden der Datenflüsse machen kann, muss die Datenbasis, die Stammdaten, stimmen. Nur mit sauber strukturierten und beschriebenen Produktdaten kann man Datenflüsse automatisieren. Dabei ist es auch wichtig, dass das oft nur in den Köpfen der Entwickler und der Produktionsmitarbeitenden vorhandene Produktwissen explizit gemacht, festgehalten und in die Datenstruktur eingebaut wird. «Die Ordnung muss bereits bestehen, bevor man solche Lösungen implementieren kann», so Henseler. Dabei muss zwischen den Abteilungen geklärt werden, welche Daten wo benötigt werden. Diese Initialarbeit kann sehr anspruchsvoll sein, denn sie erfordert einen offenen Dialog zwischen den Beteiligten. Bei solchen Diskussionen kann es auch vorkommen, dass man auf Probleme trifft, die den Involvierten so nicht bewusst waren. Solche Probleme können gewisse Optimierungsprojekte in eine andere Richtung lenken.
Die Systematisierung des Datenfundaments sollte schrittweise geschehen. Wenn man zu viel gleichzeitig verändern möchte, indem man beispielsweise einen Wechsel von 2D- auf 3D-CAD mit anderen grösseren Veränderungen im Datenfundament, wie z. B. der Einführung einer neuen ERP-Lösung, kombiniert, können Projekte scheitern oder sehr lange dauern, da eine stabile Basis fehlt. Technologische Veränderungen brauchen Zeit zum Reifen. Die Optimierung der Daten ist ein kontinuierlicher, nie ganz abgeschlossener Prozess. Dies und der damit einhergehende Wert von Daten sollte möglichst oben in der Unternehmenshierarchie verankert sein, damit jemand die Diskussion führt und zwischen den Abteilungen vermittelt. Es muss vermieden werden, dass jede Abteilung ihre eigenen Daten optimiert, ohne die Anforderungen der anderen Abteilungen zu berücksichtigen. Für Patrick Henseler ist klar: «Wenn gewisse Sachen anders gemacht würden, aus einer ganzheitlichen Perspektive, könnte die Übergabe der Daten zwischen den Abteilungen oft besser funktionieren.» Ist der Chief Information Officer ein Geschäftsleitungsmitglied, steigt die Bedeutung des Themas und somit die Wahrscheinlichkeit, solche Projekte erfolgreich zu bewältigen. Dieser Arbeit die angemessene Bedeutung zuzumessen, lohnt sich, denn die Veränderungen des Fundaments prägen ein Unternehmen stark.
In diesem Bereich haben kleine und mittelgrosse Unternehmen klare Vorteile, denn sie sind flexibler und können solche Umbauprozesse leichter durchführen. In grösseren Unternehmen sind für solche Vorhaben oft viele Stakeholder involviert. Es ist dann meist zeitraubend, bis man Transparenz erreicht und zu einem Konsens kommt. Einen grossen Vorteil haben Firmen, die sich solche Datenoptimierungsfragen kontinuierlich stellen, bereits vor dem Wunsch, etwas zu automatisieren. Sie können viel schneller von der Digitalisierung profitieren, denn die Daten liegen schon in einer strukturierten Form vor.
Prozesse abbilden
Ausgangspunkt für die Optimierung der Daten ist die Unterstützung der Unternehmensprozesse. Man muss zuerst in Regeln fassen, was aktuell wie geschieht, und in einem zweiten Schritt, welche Daten automatisiert zugänglich gemacht werden sollten, um die Arbeit zu vereinfachen. Eine gezielte und umfassende Abbildung solcher Prozesse kann einen hohen Nutzen bringen. Gemäss Patrick Henseler gibt es Projekte, die sich in der Projektlaufzeit amortisiert haben, weil man die Durchlaufzeit mit der Automatisierung bei höherer Qualität deutlich verkürzt hat und dadurch viel effizienter wurde.
Interne Datennutzung
Bei internen Produktdaten steht der einfache Zugriff im Vordergrund. Werden rollengerecht aufbereitete Daten verfügbar gemacht, steigert man die Produktivität auf nachhaltige Weise. Heute muss man oft mehrere Systeme parallel bedienen können, um eine Aufgabe zu lösen. Bietet man den Nutzern Daten überall plattformunabhängig gemäss den rollenspezifischen Ansprüchen an, d. h. möglichst intuitiv nutzbar, spart man viel kostbare Zeit. Ein Beispiel: Wenn ein Entwickler entscheiden soll, ob ein Teil modifiziert werden soll, muss er wissen, wie viele solcher Teile an den Aussenstandorten noch gelagert werden. Solche Informationen können heute dem Anwender auf einfache Art und Weise zur Verfügung gestellt werden, ohne auf mehrere Systeme zugreifen zu müssen.
Ein Beispiel illustriert den Nutzen der Automatisierung: In einer Firma ist die Entwicklungsabteilung stark von der Produktion getrennt. Man arbeitet in Release-Zyklen, zeitlich gestaffelt. Früher wurden Produktzeichnungen mit neuen Informationen sozusagen kommentarlos der Produktion übergeben. Die Produktion hat dann von der Entwicklung gewünscht, die neuen Aspekte zu markieren, damit sie die Zeichnungen nicht zeitraubend mit den Vorversionen vergleichen müssen. Diese Vergleichsfunktion lässt sich automatisieren. Intelliact hat im Enterprise-Resource-Planning-System (ERP) eine Zusatzfunktion integriert, die beim Download der Zeichnung die Veränderungen zur Vorversion grafisch darstellt. Innerhalb weniger Wochen war diese Funktion produktiv und hat den Mitarbeitenden enorm viel gebracht. Ausserdem entfiel die zusätzliche Arbeit, die Änderungen in Textform zu definieren, was teilweise recht aufwendig war. Wenn man international tätig ist, ist dabei Englisch vorgeschrieben, was Sprachkompetenzen erfordert. Dabei ist die grafische Darstellung nicht nur leichter verständlich, sondern auch einfacher automatisierbar.
Mit der Aussenwelt kommunizieren
Ein Projekt der seit 107 Jahren auf Glasverpackungen spezialisierten Vetropack-Gruppe zeigt die Vorteile der automatisierten Datenübertragung bei der externen Kommunikation auf. Auf der Vetropack-Website sowie auf dem von vielen bestehenden Kunden genutzten E-Katalog (katalog.vetropack.com) wird das Standard-Glasflaschen- und Konservengläser-Sortiment mit allen technischen Angaben wie Füllmenge, Füllhöhe, Flaschenhöhe, Durchmesser und Nettogewicht vorgestellt. Früher hatte die Website ein Datenmanagement, das vom ERP (SAP) getrennt war. Immer, wenn neue Flaschen aus der Entwicklung kamen, mussten die Daten nicht nur im ERP-System gepflegt, sondern zusätzlich manuell im Online-Katalogtool nachgetragen werden. Dies führte manchmal zu ungleichen Datensätzen. Dann kam die Idee, diese Datenpools zu verbinden. Intelliact half auf der technischen Seite, um diese Daten aus dem ERP zu extrahieren und in den Katalog einfliessen zu lassen. Heute sind wenige Minuten nach dem Erfassen der Daten im ERP die Produktdetails automatisch korrekt online verfügbar.
Den Kreis schliessen
Das Thema Internet-of-Things birgt auch im Zusammenhang mit den Produktdaten ein beträchtliches Potenzial. IoT ermöglicht es beispielsweise, Produkte zu vermieten, statt sie zu verkaufen. Um ein gutes Preismodell zu finden, muss man wissen, wie das Produkt funktioniert und wie es eingesetzt wird. Die Firmen wissen oft nicht, was es dabei zu berücksichtigen gilt. Ist eine Verrechnung pro Stunde oder pro Output sinnvoll? IoT hilft den Unternehmen zu verstehen, wie ihre Produkte in der Realität eingesetzt werden. Dieses empirisch ermittelte Wissen kann anschliessend bei der Entwicklung berücksichtigt werden, um Produkte so zu modifizieren, dass sie den Bedürfnissen des Marktes noch besser entsprechen. Dieses Zurückführen der Information und ihre «Verdichtung» ist auch ein Arbeitsfeld von Intelliact. Einfach ist dies nicht, denn man entwickelt ein Produkt, das dann Tausende Male irgendwo im Einsatz steht und sich entsprechend oft meldet. Die Auswertung dieser Rückmeldungen ist zentral, um Anhaltspunkte dafür zu haben, welche Komponenten zu verbessern sind bzw. wie das gesamte System optimiert werden könnte. Dabei muss man wissen, welche Entwicklungsstände und Revisionsdaten wo verbaut sind. Das Tracing über Strukturen hinweg ist nötig. Dies erschliesst neue Möglichkeiten wie Predictive Maintenance, Überwachung oder das Feststellen von unerwünschten Abweichungen. Die durch das IoT ermöglichte Kombination von aktuellen Messdaten mit Produktversionen bringt einen klaren Mehrwert.
Es gibt aber auch Situationen, wo solche Methoden gemäss Patrick Henseler (noch) nicht eingesetzt werden können. Dies hängt häufig mit der Firmenkultur zusammen. Es braucht nebst dem erwähnten soliden Datenfundament eine gewisse Offenheit für solche Automatisierungen. Und oft trifft man bei Firmen Situationen an, bei denen das Optimierungspotenzial nicht primär im Automatisierungsbereich liegt. Die Unternehmen müssen dann bereit sein, allfällige ungelöste Probleme, beispielsweise bei der Kommunikation zwischen Abteilungen, anpacken zu wollen. Dies geschieht vorerst noch mittels «natürlicher», menschlicher Intelligenz – also ohne Software-Tools.
Kommentare