Automatisierung

Big Analog Data der Zukunft: Analysen am Netzwerk-Edge

11.04.2017 -

Dank der zunehmenden Verbreitung von Sensor- und Netzwerktechnologien lassen sich Systeme heute so einfach und kostengünstig wie nie um Messfunktionen erweitern. Jedoch müssen Unternehmen angesichts des explosionsartigen Datenwachstums über eine solide Strategie für das Datenmanagement verfügen. Ansonsten sind sie schon in wenigen Jahren nicht mehr in der Lage, ihre Datenmengen effektiv zu nutzen und zu verwalten. Deshalb sollten Mess- und Analyselösungen sowohl Netzwerk-Edge-Analysen als auch die intelligente unternehmensweite Verwaltung und Analyse von Daten unterstützen.

Messanalysen am Netzwerk-Edge

Im Laufe der letzten zehn Jahre hat die Intelligenz von Datenerfassungsgeräten und Sensoren immer weiter zugenommen und wurde gleichzeitig stärker dezentralisiert, wobei die Verarbeitungselemente näher an den Sensor gerückt sind. Diese Entwicklung zeigt sich deutlich an den vielen Erfassungssystemen und -knoten mit den neuesten Chips und IP von Unternehmen wie ARM, Intel und Xilinx. Aber nicht nur die Messgeräte sind intelligenter geworden, sondern auch die Sensoren. Die sogenannten Smart Sensors bieten über den Sensor hinaus auch Signalkonditionierung, Embedded-Verarbeitung und digitale Schnittstellen in einem äußerst kompakten Formfaktor bzw. System.

Um diesem Trend Rechnung zu tragen, sind zunehmend intelligente Funktionen und eine erweiterte Signalverarbeitung am Netzwerk-Edge erforderlich. Bei herkömmlichen Messsystemen in der Anlagenüberwachung wird beispielsweise jeder einzelne Datenpunkt auf Festplatte protokolliert – auch dann, wenn sich an den gemessenen physikalischen Größen nichts Wesentliches verändert. Dies führt zu Unmengen von Daten aus unzähligen Systemen – möglicherweise bis in den Terabyte-Bereich –, die offline analysiert und durchforstet werden müssen.

Da die Verarbeitung immer näher an den Sensor rückt, wird innovative Messsoftware benötigt, um Analysen möglichst effizient an den Netzwerk-Edge zu verlagern. Zukünftige Software für Edge-basierte Systeme wird in der Lage sein, tausende vernetzter Messgeräte zügig zu konfigurieren und zu verwalten sowie Unmengen an Analysen und Signalverarbeitungsvorgängen direkt auf den Netzwerkknoten durchzuführen. Um der so produzierten Menge an analogen Daten Herr zu werden, müssen Unternehmen auf intelligentere, softwarebasierte Messknoten umsteigen.

Intelligentere unternehmensweite Verwaltung und Analyse

Nach der intelligenten Datenerfassung besteht der nächste Schritt darin, die Daten an das Unternehmen weiterzuleiten, um sie dort effizient zu verwalten, zu konsolidieren und umfassend zu analysieren. Damit fundierte, datenbasierte Entscheidungen getroffen werden können, müssen die richtigen Daten zum richtigen Zeitpunkt zur Verfügung stehen. Dies lässt sich nur mit einer Lösung realisieren, die die unternehmensweite Verwaltung und Analyse technischer Daten aus zahlreichen Quellen ermöglicht. Hierbei spielen insbesondere sorgfältig dokumentierte Datensätze und intelligentere Analysen eine wichtige Rolle.

Sorgfältig dokumentierte Datensätze

Um über mehrere Quellen hinweg präzise Analysen durchführen zu können, sollten alle Datensätze über konsistente Metadaten bzw. beschreibende Informationen verfügen, aus denen hervorgeht, zu welchem Zweck die Testdaten gespeichert wurden. Metadaten können beispielsweise Informationen zum Testaufbau, Testergebnis und Maßeinheiten enthalten. Laut IDC werden von einem Großteil der Unternehmen zwar 22 Prozent der erfassten Daten dokumentiert, jedoch können im Schnitt nur fünf Prozent der Daten analysiert werden. Das bedeutet, dass viele potenziell kritische Daten quasi ungenutzt bleiben. Durch die Standardisierung von Metadaten lassen sich mehr Daten automatisch analysieren, was wiederum zu mehr Wettbewerbsvorteilen führt.

Um Metadaten zu standardisieren, muss zunächst festgelegt werden, welche Metadaten für die jeweiligen Analysen von Bedeutung sind. Führende Unternehmen verwenden häufig Projektspezifikationen, in denen die Benennungen und Attribute der Metadaten festgelegt sind. Grundsätzlich sollten Anwendungen bereits bei der Erfassung so viele der zuvor festgelegten Attribute wie möglich dokumentieren. Allerdings fügen viele Unternehmen auch nach der Erfassung noch Attribute hinzu, indem sie mithilfe automatisierter Prüfungen fehlende Attribute ergänzen. Dazu zählt auch Jaguar Land Rover. Das Unternehmen war laut eigener Schätzung durch die Automatisierung der Metadaten-Qualitätskontrollen innerhalb eines Jahres nach Einführung der unternehmensweiten Datenverwaltungslösung in der Lage bis zu 95 Prozent seiner Daten zu analysieren. Vorher waren es nur 10 Prozent. Die einheitlichen Metadaten ermöglichten dem Unternehmen konsistente und automatisierte Analysen anhand festgelegter Attribute.

Intelligentere Analysen

Laut dem im September 2015 erschienenen Bericht „Global Big Data Analytics Market for Test & Measurement“ von Frost & Sullivan lassen sich mit Big-Data-Analysen die Produktentwicklungskosten im Prüfbereich um fast 25 Prozent, die Betriebskosten um fast 20 Prozent und die Wartungskosten sogar um 50 Prozent senken. In Anbetracht dessen, dass analoge Daten der am schnellsten wachsende und wichtigste Datentyp im Bereich der Datenerfassung sind, müssen Unternehmen neue Korrelationen finden und zukünftige Verhaltensweisen vorhersagen können, um wettbewerbsfähig zu bleiben.

Dazu muss jedoch die Datenerfassung und -analyse am Netzwerk-Edge genau wie die unternehmensweite Datenverwaltung und -analyse deutlich verbessert werden, damit Unternehmen die erfassten Daten so effizient wie möglich nutzen und datenbasierte Entscheidungen treffen können. Und je eher dies geschieht, desto gewinnbringender lassen sich die erfassten Daten nutzen.

Zitat
„Edge-Analysen im IoT und anderen Industrielösungen spielen für die Bewältigung der Herausforderungen im Zusammenhang mit Big Analog Data eine wichtige Rolle. Mithilfe intelligenter Messknoten lassen sich Daten inline analysieren, was schneller zu aussagekräftigen Ergebnissen führt. Denn es kommt in erster Linie darauf an, wie schnell sich aus Big Data Erkenntnisse gewinnen lassen.“

– Dr. Tom Bradicich, General Manager und Vice President, Hyperscale Servers und IoT Systems, Hewlett Packard Enterprise

 

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2024 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2024 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon