Skip to content
Stuart Nathan Di, Nov 30, '21 8 min read

Warum Raumdaten so wichtig für digitale Zwillinge sind

Erfahren Sie, wie Gartner, das Digital Twin Consortium und NavVis den Begriff „digitaler Zwilling“ definieren und welche Rolle dabei Raumdaten spielen.

Was wohl die meisten über Zwillinge wissen: Es gibt immer genau zwei von ihnen und sie sind nie exakt gleich. In Hinblick auf die Technologie des digitalen Zwillings ist es daher umso passender, dass es für diesen Begriff zwei Definitionen gibt, die sich zwar in vielerlei Hinsicht ähneln, aber auch unterscheiden in gewissen Punkten.

Digitale Zwillinge stellen einen wichtigen Bestandteil cyber-physischer Industriesysteme dar - einer Technologie, die für die laufende vierte industrielle Revolution so wichtig ist wie die Dampfkraft für die erste im 18. und 19. Jahrhundert. Obwohl praktisch jeder Anbieter von Hardware oder Software aus dieser Branche behauptet, dass sie mit digitalen Zwillingen kompatibel seien, so bezieht sich doch jeder auf seine eigene Definition. Zwei davon, die viele Gemeinsamkeiten aufweisen, stammen von dem Technologieforschungs- und Beratungsunternehmen Gartner und dem Digital Twin Consortium, einem Zusammenschluss von Hochschulen, Regierungsstellen und der Industrie, mit dem Ziel, die Entwicklung, Einführung, Interoperabilität und Sicherheit von Technologien für digitale Zwillinge zu unterstützen.

Alles eine Frage der Definition

Laut Gartner haben „alle digitalen Zwillinge zwei Hauptfunktionen zur Verbesserung der Geschäftsergebnisse“. Eine dieser Aufgaben besteht darin, das Lagebewusstsein zu stärken: „Alle digitale Zwillinge fungieren als Schnittstelle für die Überwachung von Daten, um unser Lagebewusstsein zu verbessern.“ In der Praxis bedeutet das, dass ein digitaler Zwilling auf eine bestimmte Art und Weise einen laufenden Prozess abbildet. Dafür kommen mit Hilfe von Sensoren gesammelte Daten zum Einsatz, die dann für die Überwachung gewisser Prozesselemente (z. B. Maschinen in einer Produktionslinie) verwendet werden. So lässt sich der Verlauf eines Prozesses jederzeit einsehen und analysieren, um Erkenntnisse darüber zu gewinnen, wie der Prozess optimiert werden könnte. So können wiederum die Produktion effizienter gemacht und die Umweltverträglichkeit verbessert werden. Wenn der digitale Zwilling werksseitig an Aktoren angeschlossen ist, kann diese Optimierung sogar automatisch erfolgen. Dabei kann es sich um eine grafische Darstellung handeln (z. B. ein Flussdiagramm des Prozesses oder eine 3D-Darstellung einer Produktionslinie in einer Fabrik) oder um eine Anzeige in Form einer Tabelle oder eines Dashboards.

Das Digital Twin Consortium hingegen definiert einen digitalen Zwilling als „eine virtuelle Darstellung von realen Einheiten und Prozessen, die mit einer bestimmten Frequenz und Genauigkeit synchronisiert werden“, welche „Echtzeit- und Verlaufsdaten verwenden, um die Vergangenheit und Gegenwart darzustellen und die Zukunft zu simulieren“. Im Gegensatz zu der von Gartner ist in dieser Definition eine Echtzeitanbindung von Sensoren nicht zwingend erforderlich. Im Rahmen der Definition des Digital Twin Consortiums kann eine Aktualisierung der Daten demzufolge stündlich, täglich, wöchentlich oder sogar monatlich erfolgen, solange eine konkrete Häufigkeit angegeben wird.

gartner-digital-twin_DE

Was ist ein digitaler Zwilling?

Das Gartner-Modell fußt auf drei „Säulen“ und besteht aus vier „Blöcken“. Die Säulen entsprechen drei Fragen: „Was wäre wenn?“ (Simulationen, also wie das System auf bestimmte Eingangsbedingungen reagieren würde), „Was ist jetzt?“ (wie sich das System derzeit verhält, abgeleitet aus Live-Daten von verteilten Sensoren) und „Was kommt als Nächstes?“ (wie sich das System in Zukunft verhalten wird, z. B. in Hinblick auf zukünftige Störfälle von Komponenten).

Bei den Blöcken handelt es sich um die Daten und die Software, die zur Ableitung der Säulen benötigt werden. Zunächst muss das System durch die so genannten „Entitätsmetadaten“ definiert werden - sämtliche Informationen über jede Komponente des Systems, die sich nicht ändern. Dabei könnte es sich beispielsweise um Seriennummern von Maschinen, Maße und ein detailliertes physisches oder grafisches Modell handeln. Die Auswahl der richtigen Menge an Metadaten ist von entscheidender Bedeutung - zu wenig, und der digitale Zwilling kann das Gerät nicht genau identifizieren; zu viel, und überflüssige Informationen könnten es schwierig machen, die relevanten Fakten herauszufiltern. Sobald das System definiert ist, muss es die „generierten Daten“ überwachen und aufzeichnen. Das bedeutet, dass alle Informationen über den Zustand der Systemkomponenten, die mit Hilfe des verteilten Sensornetzes der IoT-Geräte gesammelt werden, miteinander verbunden werden soll. Auch hier ist es entscheidend, den richtigen Datenumfang zu wählen.

Sobald all diese Daten gesammelt sind, sollten diese auch für einen bestimmten Zweck genutzt werden; hier kommen die beiden anderen Blöcke ins Spiel. Der erste dieser Blöcke sind „analytische Modelle“ - definiert als „virtuelle Darstellungen des Verhaltens von Zwillingen, die das Situationsbewusstsein verbessern“. Diese erzeugten Daten müssen so verknüpft werden, dass sie der Aufgabe des Zwillings entsprechen, z. B. mit den Energiekosten, die entstehen, wenn eine Werkzeugmaschine mit einer bestimmten Geschwindigkeit betrieben wird, oder mit den Auswirkungen einer Prozessänderung auf die Produktion.

Der letzte Block sind die „Softwarekomponenten“, die nach Gartners Definition „die Datenerfassung, die Analyse, die Erzeugung von Ereignissen und - falls erforderlich - die Visualisierung und den Workflow (zur Automatisierung von Geschäftsreaktionen) steuern“. Beispiele für Softwarekomponenten könnten ein System zur Erstellung und Planung von Wartungsaufgaben als Reaktion auf die vom digitalen Zwilling generierten Daten oder ein Analysemodell sein, oder ein grafisches Rendering-Paket eines Drittanbieters. Denkbar wäre sogar eine Gaming-Engine, um eine Augmented- oder Virtual-Reality-Visualisierung der Anlage zu erstellen.

Nach der Definition des Digital Twin Consortiums bedeutet der Verweis auf Echtzeit- und Verlaufsdaten, welche die Vergangenheit und die Gegenwart repräsentieren und die Zukunft simulieren, dass alle drei Säulen als entscheidend angesehen werden. Dabei gibt es einen Unterschied in der Art und Weise, wie die Daten gesammelt und der digitale Zwilling aktualisiert wird.

navvis-digital-twin-image2

Wie ein digitaler Zwilling mit Hilfe von Raumdaten realisiert wird

Daten, die von Geodatensystemen wie etwa von NavVis geliefert werden, können den Blöcken der Entitätsmetadaten und der Softwarekomponenten zugeordnet werden. Dr. Lorenz Lachauer, Head of Solutions bei NavVis, erklärt: „Auf der einen Seite liefert NavVis Daten, die mit unseren mobilen Mappern, z.B. dem NavVis VLX, erzeugt werden. Im Rahmen der Definition von Gartner fallen diese Daten - dabei handelt es sich um Punktwolken und Panoramabildern - in die Kategorie der externen Datenquellen, genauer gesagt in die Kategorie der physischen Daten. Darüber hinaus setzt sich der digitale Zwilling aus vier wesentlichen Bausteinen zusammen, bei einem davon handelt es sich um die Softwarekomponenten. Dazu gehören auch Visualisierungskomponenten, und in diese Kategrie passt NavVis IVION hinein.“

Lachauer betont, dass mit den NavVis-Systemen der Fokus auf der jeweiligen Fabrik oder verfahrenstechnischen Anlage läge, und nicht auf dem Produkt. Echtzeitdaten können mit Raumdaten/Visualisierungen der zugehörigen Maschinen verknüpft werden und genaue Punktwolkendaten und Panoramabilder liefern, mit denen interagiert werden kann. Anhand von Informationen zu Formen und Maßen kann eine visuelle Darstellung des Fertigungsvorgangs bereitgestellt werden, denen dann die generierten Daten zugeordnet werden können, um die Navigation im System zu erleichtern und relevante Standorte für einen späteren Zeitpunkt zu identifizieren und vermerken.

„Digitale Zwillinge werden nie von nur einem Unternehmen bereitgestellt “, sagt Lachauer. „Jeder Software- oder Hardwarehersteller in der Branche behauptet: ‚Wir erstellen einen digitalen Zwilling'. Aber wie aus der Gartner-Definition ersichtlich wird, umfasst ein solcher Zwilling mindestens eine Handvoll Komponenten.“ Es gebe eine wachsende Zahl von IoT-Unternehmen, die Systeme entwickeln und anbieten sowie Sensoren, Live-Daten und Konnektivität bereitstellen, aber keine gute Visualisierung der Produktionsanlage bieten, so Lachauer weiter. „Wenn man also IoT- und Sensordaten einbezieht und sie mit genaueren visuellen Daten kombiniert, kann man einen umfassenden und nützlichen digitalen Zwilling erhalten.“

Phillip Quadstege, Senior Solution Manager und Mitglied des Teams um Lachauer, verweist auf die Rolle von NavVis in Bezug auf die Definition des Digital Twin Consortiums: „Sie besagt, dass es innerhalb des digitalen Zwillings mehrere digitale Modelle gibt, die miteinander zusammenhängen. Es wird klargestellt, dass es sich bei digitalen Modelle um 3D-Messungen, 3D-CAD-Modelle, mathematische Gleichungen usw. handeln kann. Wir fallen am ehesten in die Kategorie ‚3D-Messungen‘. In diesen virtuellen Darstellungen gibt es mehrere Modelle, die miteinander korrelieren und miteinander kommunizieren.“

Raumdaten als Schlüsselelement bei der Digitalisierung von Produktionsanlagen

Mittlerweile verfügen immer mehr physische Geräte über einen digitalen Zwilling. Für Produktionsanlagen oder sonstige Anlagen jedoch, so Lachauer weiter, gäbe es diese Art der Darstellung deutlich seltener. Raumdaten sind essenziell für digitale Zwillinge von Fertigungsumgebungen, um den generierten Daten einen visuellen Kontext aus der realen Fabrik zu geben. Vor allem, wenn mehrere Teilprozesse räumlich verteilt ablaufen, bieten NavVis-Geräte und -Systeme eine unkomplizierte Möglichkeit, diese Daten regelmäßig zu erfassen, Änderungen im physischen Layout der Fabrik zu verfolgen und den digitalen Zwilling bei Bedarf zu aktualisieren.

Die zwei betrachteten Definitionen stimmen also bezüglich der digitalen Zwillinge in vielerlei Hinsicht überein: Beide erfordern das Vorhandensein von Daten, welche die verschiedenen Komponenten eines Herstellungsprozesses identifizieren und unverändert bleiben, während der Prozess abläuft, als auch das Sammeln von sich ändernden Daten über den Betrieb dieser Komponenten erfordern. Diese sich verändernden Daten werden analysiert, um Erkenntnisse darüber zu gewinnen, wie der Prozess in Hinblick auf bestimmte Kennwerte optimiert werden kann. Dabei tragen sowohl Hardware- als auch Softwarekomponenten zum Aufbau und Betrieb des digitalen Zwillings bei.

Die beiden Definitionen unterscheiden sich in Hinblick darauf, ob die Betriebsdaten zur sofortigen Aktualisierung des Zwillings verwendet werden oder ob die Aktualisierung in regelmäßigen Abständen erfolgt. Mit Hilfe der Hardware- und Softwarelösungen von NavVis können Raumdaten erfasst und visualisiert werden, um das physische Layout des Fertigungsbereiches abzustecken. Diese Systeme können auch dafür genutzt werden, das einem digitalen Zwilling zugrundeliegende Modell zu aktualisieren, wenn Änderungen an diesem Layout vorgenommen werden. Auf diese Weise fallen die NavVis-Systeme in die Kategorie der Softwarekomponenten.

navvis-digital-twin-image

Fazit

In den nachfolgenden Artikeln erfahren Sie, wie mit Hilfe von digitalen Zwillingen die Effizienz von Produktionsanlagen und -abläufen gesteigert werden kann und wie beispielsweise von NavVis erfasste Raumdaten dabei einen großen Beitrag leisten können.

Möchten Sie mehr über unsere NavVis Digital Factory Solution erfahren? Dann treten Sie gerne mit uns in Kontakt und wir werden uns in Kürze bei Ihnen melden. Alternativ finden Sie hier unseren Digital Factory Guide  zum kostenlosen Download.

Sources

Stuart Nathan lebt in London und arbeitet als Wissenschaftsjournalist. Früher war er als Redakteur für das britische Magazin The Engineer tätig und verfasste Beiträge für Publikationen wie The Economist 1843, Ingenia und das MIT Technology Review Magazin. Er ist der Ansicht, dass gute Kommunikation der Schlüssel ist, um das Potenzial von Wissenschaft und Technologie voll auszuschöpfen.