Die von Automatisierungssystemen erzeugten Daten können neue Perspektiven aufzeigen - aber nur, wenn sie effizient zugänglich sind. Silvia Gonzalez, Mitarbeiterin bei Emerson, nennt die Hauptgründe für die Produktion von Datensilos durch automatisierte Systeme und erklärt, wie man den Zugriff auf diese wertvollen Informationen mit einer Edge-to-Cloud-Lösung für das Industrial Internet of Things (IIOT) vereinfachen kann.
Automatisierte Systeme erzeugen ungeheure Mengen an Daten, die zur Verbesserung der Geschäftsergebnisse genutzt werden können. Allerdings muss man auf diese wertvollen Daten zugreifen und sie effektiv verwalten und analysieren können. Leider bleiben sie aus verschiedenen technischen und geschäftlichen Gründen oft unzugänglich. Neue Architekturen ändern dies, indem sie flexibles und effizientes Edge-Computing mit einem Cloud-Computing-Modell kombinieren. Sie stellen eine konkrete und praktische Möglichkeit dar, Daten zu analysieren, neue Daten zu gewinnen und die Ergebnisse den Interessengruppen zur Verfügung zu stellen. In diesem Artikel beschäftigen wir uns mit den Hauptgründen für Datensilos und der Frage, wie man mithilfe einer modernen Edge-to-Cloud IIOT-Lösung problemlos auf Daten zugreifen und sie nutzen kann.
Bestehende Infrastrukturen als Ursprung von Datensilos
Bis vor kurzem stammte der Großteil der Produktionsdaten von APIs, HMIs, einem Scada und Historian-Systemen, die im Bereich der operativen Technologien (OT für Betriebstechnik). Das Hauptziel dieser Systeme besteht darin, Kontroll- und Sichtbarkeitsmerkmale zu bieten, um die betriebliche Effizienz und Verfügbarkeit zu optimieren. Daher ist der Zugang zu den zugehörigen Daten und deren Analyse über die unmittelbaren Produktionsziele hinaus ein nachrangiges Anliegen.
Die OT-Infrastruktur wird so konzipiert und angepasst, dass sie den betrieblichen Anforderungen entspricht und beinhaltet Entscheidungen, die z. B. mit folgenden Aspekten zusammenhängen: Auswahl proprietärer Kommunikationsprotokolle, die Leistungsanforderungen erfüllen, aber nicht die Flexibilität fördern und die Interoperabilität zwischen Anbietern nicht unterstützen; Reduzierung der Steuerung und Erfassung von Sensordaten, um die Zuverlässigkeit und Einfachheit der Systeme zu optimieren; Implementierung lokalisierter Architekturen vor Ort, um IT-Bedrohungen zu reduzieren, und proprietärer Sperrprogramme, um geistiges Eigentum zu schützen und den zuverlässigen Betrieb von Maschinen zu fördern, oft auf Kosten der Konnektivität.
Die Systeme, die aus diesen Entscheidungen hervorgehen, sind im Hinblick auf ihre betrieblichen Ziele unglaublich leistungsfähig, leiden aber unter "blinden Flecken" in Bezug auf die Daten und profitieren nicht von der Analyse aller potenziell zugänglichen Daten.
Innerhalb einer OT-Umgebung scheinen die Datenquellen offen zu sein, doch in Wirklichkeit sind sie für Anwendungen außerhalb dieser Umgebung, in denen die Daten leichter zu analysieren sind, ziemlich schwer zugänglich. Darüber hinaus werden viele potenziell nützliche Datenquellen, wie z. B. Umweltbedingungen, Informationen zur Zustandsüberwachung und zum Energieverbrauch, nicht für die Produktions- oder Anlagensteuerung benötigt und daher auch nicht von automatisierten Systemen gesammelt. Die Fähigkeiten zur Analyse von Megadaten werden immer besser, aber der eingeschränkte Zugang zu Datensilos schränkt ihr Potenzial weiterhin ein.
Arten von Datensilos
Die Datensilos sind sehr vielfältig und stammen von den Maschinen, der Fabrik und anderen Systemen, die in die EO integriert sind oder mit der Steuerung von Zusatzgeräten beauftragt sind. Diese Daten können so spezifisch sein wie ein einzelner Temperaturmesswert oder so umfangreich wie ein Protokoll mit historischen Daten, aus dem hervorgeht, wie oft ein Bediener einen Alarm erhalten hat. Zu den häufigsten Arten von Silodaten gehören :
Isolierte Daten : Ressourcen innerhalb einer Anlage ohne Netzwerkzugang zu einem OT- oder IT-System. Dies ist der einfachste Fall, aber nicht immer der am leichtesten zu lösende. Nehmen wir als Beispiel einen unabhängigen Temperaturtransmitter mit einer 4-20-mA-Konnektivität oder sogar einem Modbus-Protokoll. Er muss eine Verbindung zu einem Edge-Gerät (SPS, Edge-Controller, Gateway oder ähnliches) herstellen, um diesen Datenstrom zugänglich zu machen. Sehr oft sind diese Daten nicht wesentlich für die Steuerung von Maschinen und daher nicht über herkömmliche bestehende API/SCADA-Datenquellen verfügbar. Der Bezug von Daten über die API der nächstgelegenen Maschine kann die FEO-Garantien aufgrund der unvermeidlichen Änderungen in der Programmlogik ungültig machen.
Ignorierte Daten : Ressourcen, die mit OT-Systemen verbunden sind und Daten produzieren, die nicht genutzt werden. Viele intelligente Edge-Geräte liefern grundlegende und vertiefende Daten. Eine intelligente Messzentrale kann grundlegende Informationen im Zusammenhang mit Volt, Ampere, Kilowatt, Kilowattstunden und anderen über verdrahtete oder industrielle Kommunikationsprotokolle bereitstellen. Tiefergehende Datensätze wie der Klirrfaktor (THD für Total Harmonic Distortion) können jedoch aufgrund fehlender Anwendungsanforderungen, Kommunikation mit geringer Bandbreite oder reduzierter Datenspeicherkapazität des Systems nicht übertragen werden. Die Daten sind zwar vorhanden, werden aber nie abgerufen.
Unterstichprobendaten : Ressourcen, die abgetastete Daten mit einer unzureichenden Bitrate erzeugen. Selbst wenn ein intelligentes Gerät Daten über einen Kommunikationsbus an Steuersysteme liefert, kann es sein, dass die Abtastrate zu niedrig oder die Latenz zu groß ist oder dass der Datensatz so umfangreich ist, dass die erzielten Ergebnisse nicht genutzt werden können. In einigen Fällen können die Daten vor der Veröffentlichung zusammengefasst werden, was zu einem Verlust an Genauigkeit führt.
Unzugängliche Daten Ressourcen, die Daten erzeugen (die oft nicht verarbeitet werden, aber dennoch wichtig sind, z. B. für Diagnosezwecke), die in einem Format geliefert werden, das über herkömmliche Industriesysteme in der Regel nicht zugänglich oder verfügbar ist. Einige intelligente Geräte verfügen über Borddaten wie Fehlerprotokolle, die möglicherweise nicht über Standardkommunikationsprotokolle übermittelt werden, die aber dennoch sehr nützlich wären, um Ereignisse zu analysieren, die zu Ausfallzeiten führen.
Nicht-numerische Daten : Daten, die von den Mitarbeitern manuell auf Papier, Notizblöcken und Whiteboards erzeugt und nicht digital erfasst werden. In vielen Unternehmen füllen die Mitarbeiter Test- und Inspektionsformulare und andere Dokumente ähnlicher Qualität auf Papier aus, ohne dass eine digitale Integration dieser Informationen vorgesehen ist. Ein modernerer Ansatz besteht darin, diese Daten mithilfe digitaler Methoden zu sammeln und sich zu einer papierlosen Fabrik umzuwandeln.
Daten aus dem Edge in der Cloud nutzen
Datensilos sind vor allem für Unternehmen interessant, die ihre betriebliche Leistung über alle oder mehrere Produktionsanlagen hinweg analysieren möchten. Sie suchen nach Lösungen, mit denen sie die Daten aus den Silos vor Ort in die Cloud übertragen können, um sie dort zu speichern, zu visualisieren, auszuwerten und gründlich zu analysieren. Diese Konnektivität wird insbesondere für die hochrangigen IT-Systeme der Unternehmen vor Ort und in der Cloud benötigt, da sie die Historisierung und Analyse zahlreicher Datentypen am Rand ermöglicht, um tiefer gehende und längerfristige Analyseergebnisse zu erzielen, die weit über die übliche, an kurzfristige Produktionsziele gebundene Leistung hinausgehen.
Wenn ein Endnutzer oder OEM Silodaten aus herkömmlichen Datenquellen abruft und sie an in der Cloud gehostete Anwendungen und Dienste weiterleitet, ergeben sich für ihn zahlreiche Möglichkeiten, darunter Fernsteuerung, vorausschauende Diagnosen und Ursachenanalysen. So kann er verschiedene Maschinen, Fabriken und Anlagen planen, langfristige Datenanalysen und vergleichbare Ressourcenanalysen innerhalb einer Fabrik und über verschiedene Fabriken hinweg durchführen, den Maschinenpark verwalten, bereichsübergreifende Daten analysieren (Deep Learning), Informationen über Produktionsengpässe erhalten und die Ursache von Anomalien auf Prozessebene ermitteln, auch wenn diese erst in einem späteren Stadium des Produktionsprozesses entdeckt werden.

Erstellen einer Edge-Lösung
Das Ziel von IIOT-Initiativen ist es, die Herausforderungen von Datensilos zu bewältigen und die Daten am Rand effizient mit der Cloud zu verbinden, wo sie analysiert werden können. IIOT-Lösungen umfassen Hardware-Technologien im Feld, Software auf Edge- und Cloud-Ebene sowie Kommunikationsprotokolle, die alle integriert und effizient gestaltet sind, um Daten sicher und leistungsstark zu übertragen, insbesondere für Analysezwecke.
Edge-Lösungen können ein integraler Bestandteil von automatisierten Systemen sein oder parallel dazu installiert werden, um Daten zu verfolgen, die von diesen Systemen nicht benötigt werden. Viele Nutzer entscheiden sich für die letztere Option, da sie so die benötigten Daten erhalten können, ohne die bestehenden Produktionssysteme zu beeinträchtigen. Es ist jedoch unbedingt zu beachten, dass sich diese neuen digitalen Fähigkeiten mit allen zuvor identifizierten Formen von Silodaten verbinden können.
Edge-Konnektivitätslösungen gibt es in verschiedenen Formen, darunter kompakte oder große SPSen, die für den Anschluss an Industrie-PCs (IPCs), auf denen SCADA oder Edge-Software-Suiten laufen, vorbereitet sind, aber auch Edge-kompatible Steuerungen, auf denen Scada oder Edge-Software-Suiten laufen, und IPCs, auf denen Scada oder Edge-Software-Suiten laufen. Die am Rand eingesetzten Geräte benötigen möglicherweise kabelgebundene I/O-Protokoll- und/oder industrielle Kommunikationsfähigkeiten, um mit allen Datenquellen am Rand interagieren zu können. Die erhaltenen Daten müssen möglicherweise nachbearbeitet oder zumindest organisiert werden, indem ihnen ein Kontext hinzugefügt wird. Besonders wichtig ist die Beibehaltung des Kontexts in Fertigungsumgebungen, in denen Hunderte oder gar Tausende diskreter Sensoren die mechanischen und physikalischen Aktionen der Maschinen überwachen und ausführen. Moderne Automatisierungssoftware trägt dazu bei, relative Verknüpfungen und den Kontext zu erhalten.
Schließlich müssen die Daten mithilfe von Protokollen wie MQTT oder OPC UA an übergeordnete Systeme weitergeleitet werden. Die heutigen OT/IT-Standards entwickeln sich so, dass sie die zukünftige Einheitlichkeit und Flexibilität der Daten und der Kommunikation gewährleisten. Es ist wichtig, dass die Lösungen flexibel sind und gleichzeitig die Standards einhalten, im Gegensatz zu kundenspezifischen Installationen, die langfristig nicht aufrechterhalten werden können. Sobald eine Edge-Lösung eingerichtet ist, die in der Lage ist, Daten zu beschaffen, besteht der nächste Schritt darin, diese Daten durch effiziente Kommunikation mit der in der Cloud gehosteten Software bei höherwertigen IT-Systemen verfügbar zu machen.
Die Peripherie und die Cloud verbinden
Cloud-Hosting-Software bietet eine Reihe von Vorteilen, wie z. B. niedrige Kosten, bei denen der Nutzer nur für das bezahlt, was er nutzt, und nicht in den Kauf und die Verwaltung von IT-Infrastruktur investieren muss. Die Cloud-Computing wird häufig als "elastische IT"-Umgebung bezeichnet. Denn wenn zusätzliche Computerressourcen oder Daten benötigt werden, können diese in Echtzeit hinzugefügt werden.
Die Cloud ermöglicht es den Nutzern, Probleme bei der Konfiguration von Hardware- und Software-Computersystemen sowie bei deren Bereitstellung, Verwaltung, Leistung, Sicherheit und Updates zu vermeiden. Die Ressourcen können auf das Erreichen ihrer wichtigsten Geschäftsziele ausgerichtet werden.
Im Wesentlichen ermöglicht die Cloud die effiziente Verarbeitung von Megadatensätzen, indem die Verarbeitungsleistung des Prozessors an den Analysebedarf angepasst wird. Es ist möglich, den Zugriff auf Daten zu optimieren und sie jederzeit und von überall mithilfe jedes Geräts, das einen Webbrowser hosten kann, abzurufen.
Die Datensicherheit kann durch den Einsatz verschiedener Speicherserver sowie Optionen für Datensicherung und Wiederherstellung nach einem Ausfall verbessert werden. Eine schnellere Entwicklung ist auch durch sofort einsatzfähige Plattformen möglich; es werden lediglich eine Internetverbindung und Zugangsdaten benötigt.
Eine Cloud-Architektur eignet sich besonders für die Bedürfnisse von Organisationen, die IIOT-Datenprojekte umsetzen. Die Cloud ist die Infrastruktur, die viele IIOT-Projekte ermöglicht, und die Kombination dieser beiden Technologien ermöglicht innovative Interaktionen zwischen Menschen, Objekten und Maschinen, wodurch neue Geschäftsmodelle entstehen, die auf intelligenten Produkten und Dienstleistungen basieren.
Schlussfolgerung
Datensilos sind in Fertigungsstätten und Produktionsanlagen auf der ganzen Welt viel zu häufig anzutreffen. Sie sind das bedauerliche Ergebnis alter Technologien, die nicht in der Lage sind, Daten zu verarbeiten, und traditioneller Designphilosophien, die sich auf Kosten der Datenkonnektivität auf die Hauptfunktionalität konzentrieren. Die Bedeutung und der Nutzen von Megadatenanalysen haben sich erst in jüngster Zeit durchgesetzt. Die Endnutzer bemühen sich daher, diese Fähigkeit in neue Systeme zu integrieren und in bestehende Abläufe einzubeziehen.
Die Konnektivität von Edge-to-Cloud-Daten schafft Werte, da sie verschiedene Möglichkeiten bietet, Daten zu visualisieren, aufzuzeichnen, zu verarbeiten und tiefgreifend zu analysieren. Alle IIOT-Lösungen, die einen Datenabgleich zwischen OT und IT ermöglichen, basieren auf digitalen Fähigkeiten, die eine Verbindung zu traditionellen automatisierten Elementen wie APIs oder direkt zu parallelen Datenquellen in jedem bestehenden System herstellen können. Diese Edge-Ressourcen müssen in der Lage sein, Daten bis zu einem gewissen Grad vorzuverarbeiten und mit Kontext zu versehen, bevor sie zur Analyse an Cloud-Systeme weitergeleitet werden.