COOKIES
WIR BRAUCHEN IHRE ZUSTIMMUNG
Wir setzen auf unserer Website Cookies ein. Einige von ihnen sind erforderlich, während andere nicht erforderlich sind, uns jedoch helfen unser Onlineangebot zu verbessern und wirtschaftlich zu betreiben. Sie können in den Einsatz der nicht erforderlichen Cookies mit dem Klick auf die Schaltfläche "Alle Cookies akzeptieren" einwilligen oder per Klick auf "Nicht erforderliche Cookies ablehnen" sich anders entscheiden. Zudem können Sie über die Schaltfläche "Cookie-Einstellungen aufrufen" individuell dem Einsatz bestimmter Cookie-Kategorien zustimmen. Wenn Sie dem Einsatz nicht erforderlicher Cookies zustimmen, willigen Sie zugleich gem. Art. 49 Abs. 1 S. 1 lit. a DSGVO ein, dass Ihre Daten in den USA verarbeitet werden. Die USA werden vom Europäischen Gerichtshof als ein Land mit einem nach EU-Standards unzureichendem Datenschutzniveau eingeschätzt. Es besteht insbesondere das Risiko, dass Ihre Daten durch US-Behörden, zu Kontroll- und zu Überwachungszwecken, möglicherweise auch ohne Rechtsbehelfsmöglichkeiten, verarbeitet werden können. Wenn Sie auf "Nicht erforderliche Cookies ablehnen" klicken, findet die vorgehend beschriebene Übermittlung nicht statt.

Sie können die vorgenommenen Einstellungen über die Cookie-Policy jederzeit aufrufen und damit Cookies auch nachträglich jederzeit abwählen. Dort und in unserer Datenschutzerklärung finden Sie zudem weitere Hinweise zu den verwendeten Cookies.
Inhaltsverzeichnis

Das Wichtigste in Kürze

Industrie 4.0 nutzt Konzepte wie Internet der Dinge (IoT) und Big Data zur Schaffung intelligenter Produktionsprozesse, wobei die Datenerfassung und ihre effiziente Verwendung einen erheblichen Mehrwert darstellen. Der Knowledge Discovery Process (KDP) ist eine strukturierte Methode zur Nutzung von Big Data, bei der Data Warehouses eine entscheidende Rolle bei der Integration dieser Methodik in die Produktion spielen. Das Industrial Internet of Things (IIoT) ermöglicht die Sammlung großer Datenmengen und deren Analyse im Rahmen des KDP, um strategisches Wissen zu gewinnen und die Wettbewerbsfähigkeit in einem sich ständig ändernden Umfeld zu sichern.

Begriffe wie Internet of Things (IoT) und Big Data stehen eng in Verbindung mit Industrie 4.0. Die Produktion soll durch das Sammeln von Daten smart gestaltet werden. Welche aktuellen Methoden werden heute zur Datenerfassung verwendet und wie kann man effizient einen Mehrwert daraus generieren? Der Knowledge Discovery Process zeigt ein strukturiertes Vorgehen für Big Data auf, durch das man einen Überblick über seine Daten erhält. Mit Hilfe von Data Warehouses lässt sich diese Methodik effektiv in eine Produktion mit einbinden.

Wissen durch IoT

<div class="hzweiwrapper"><span class="circled-number">1</span><h2 class="c-blog_head" id="1. Veränderung durch das Internet of Things (IoT)">Veränderung durch das Internet of Things (IoT)</h2></div>

Internet of Things bezeichnet die Verbindungphysischer Objekte mit dem Internet. Dabei sind diese zumeist mit Sensoren ausgestattet, welche Informationen aus ihrer Umgebung aufnehmen. Bei einem Smartphone ist die Verbindung mit dem Internet eindeutig zu erkennen, aber auch andere Gegenstände werden vermehrt in das digitale Zeitalter eingeführt. Im Privathaushalt lassen sich Beleuchtung, Haushaltsgeräte, Thermostate und Überwachungsgeräte über das Internet ansteuern. Doch inwieweit kann die Industrie IoT für sich nutzen?

Durch den Übergang zu Industrie 4.0 treten Vernetzung, Transparenz und dezentrale Entscheidungen in den Vordergrund. In all diesen Bereichen hat das Internet of Things (im industriellen Umfeld auch oft als Industrial IoT bezeichnet) einen wichtigen Einfluss. Durch die Vernetzung von Geräten in der Produktion mit dem Internet werden Datenaufgezeichnet. Das ermöglicht Entscheidungen auf einer umfangreichen Datenbasis zu treffen. Der Weg zu einer smarten Produktion durch Erkenntnisse auf Basis von vernetzten Geräten, muss allerdings erst geschaffen werden. Dieser Prozess wird als Knowledge Discovery Process (KDP) bezeichnet.

<div class="hzweiwrapper"><span class="circled-number">2</span><h2 class="c-blog_head" id="2. Erkenntnisgewinn durch den Knowledge Discovery Process (KDP)">Erkenntnisgewinn durch den Knowledge Discovery Process (KDP)</h2></div>

Das Ziel des Knowledge Discovery Process ist die Gewinnung von Wissen. Grundlage dieses Vorgehens ist eine breite Datenbasis. Effizientes und umfangreiches Sammeln von Daten im Umfeld von Industrie 4.0 wird beispielsweise durch das Internet of Things ermöglicht. Lediglich durch die Einführung von IoT und das Erzeugen von Datenmengen ist jedoch noch kein Mehrwert geschaffen. Zur Generierung von Wissen gilt es wichtige Schritte zu durchlaufen:

Knowledge Discovery Process
Knowledge Discovery Process
  • Beginnend mit der Zieldefinition wird festgelegt, welcher Mehrwert durch den Knowledge Discovery Process gewonnen werden soll.
  • Daraufhin gilt es geeignete Daten auszuwählen, die Relevanz für die Zielerreichung aufweisen. Dieser Schritt wird häufig unterschätzt, denn ohne eine geeignete Informationsgrundlage ist es nicht möglich, Wissen zu extrahieren.
  • Wurden passende Daten ausgewählt, müssen diese für die Weiterverarbeitung vorbereitet werden. Dieser Schritt kann je nach Anwendungsfall sehr unterschiedlich aussehen.
  • Im nächsten Schritt werden die zugrundeliegenden Daten analysiert, ein Prozess der auch als Data Mining bezeichnet wird. Die Analyse selbst kann auch anhand von Machine Learning durchgeführt werden.
  • Resultate daraus bilden die Grundlage für die Wissensgewinnung, welche jedoch von einer korrekten Interpretation der Resultate abhängig ist.

Der Knowledge Discovery Process erscheint auf den ersten Blick intuitiv und simpel. Bei genauerer Betrachtung jedoch ist jeder seiner Schritte komplex, da sehr große Mengen von Daten (Big Data) gesammelt und analysiert werden. Eine erfolgreiche Strategie für die Reduzierung der hiermit verbundenen Komplexität ist die Einführung eines Data Warehouse.

<div class="hzweiwrapper"><span class="circled-number">3</span><h2 class="c-blog_head" id="3. Das Data Warehouse als Erfolgsfaktor für Big Data">Das Data Warehouse als Erfolgsfaktor für Big Data</h2></div>

Mit der Sammlung von großen Datenmengen mittels Sensoren und vernetzter Systeme werden in der Produktion unterschiedliche Daten gesammelt. Diese liegen in verschiedener Form und Qualität vor. Beim Aufzeichnen der Daten werden zunächst alle Beobachtungen in einem ungeordneten Speicher gesammelt. Da Daten dort ungefiltert vorliegen wird dieser Speicher als Data Lake bezeichnet.

Exkurs: Data Lake

Ein Data Lake ist ein großer, zentralisierter Datenspeicher, der eine Vielzahl von Daten in ihrem ursprünglichen, rohen Format aufnehmen kann, sei es strukturiert, semi-strukturiert oder unstrukturiert. Data Lakes ermöglichen eine hohe Flexibilität und Skalierbarkeit und sind speziell für Big Data und Echtzeitanalyse konzipiert. Im Gegensatz zu traditionellen Datenbanken, die eine vordefinierte Struktur für gespeicherte Daten erfordern, ermöglichen Data Lakes den Benutzern, die Daten nach Bedarf zu formen und zu extrahieren, wodurch eine größere Agilität und Entdeckungspotential ermöglicht wird.

Prinzipiell ist es nun möglich, Data Mining basierend auf Informationen aus Data Lakes zu betreiben. Erfahrungsgemäß erschwert die unstrukturierte Natur der Daten das Vorhaben des Knowledge Discovery Process erheblich. Aus diesem Grund bieten Data Warehouses eine Möglichkeit, ungeordnete Daten in ein für die Weiterverarbeitung geeignetes Format zu überführen. Hierbei dient das DWH als zentrale Datenbank, die Daten aus mehreren heterogenen Quellen zusammenführt.

Da ein Data Warehouse zudem für Analysezwecke optimiert ist, wird es ebenfalls als Analysedatenspeicher bezeichnet. Durch die Strukturierung der Daten bildet diese Form der Speicherung ein optimales System zur Wissensgewinnung im Bereich Big Data und Internet of Things. Weil der Erfolg des Knowledge Discovery Process vom Zustand der genutzten Daten abhängt, ist es wichtig das Potential der Data Warehouses im Sinne von Industrie 4.0 auszuschöpfen.

Knowledge Discovery Process
Knowledge Discovery Process

Fazit

Das Ziel des IIoT besteht darin, die Vernetzung von Maschinen, Geräten und Systemen in der Industrie zu ermöglichen, um effizientere Prozesse, verbesserte Überwachung und prädiktive Wartung sowie neue Geschäftsmöglichkeiten zu schaffen. Kurz gesagt, es geht um die Generierung neuen Wissens. Der Weg zu diesem strategisch bedeutsamen Wissen erfordert eine gründliche Planung. Während das DWH die Verwaltung von Big Dataübernimmt, beschreibt der Knowledge Discovery Process die gezielte Gewinnung neuen Wissens. Das IIoT ist eng mit der Zukunft verbunden und ermöglicht es Unternehmen, wettbewerbsfähig zu bleiben, indem sie besser auf sich ändernde Bedingungen reagieren können.

Häufig gestellte Fragen

Was ist der Knowledge Discovery Process?

Der Knowledge Discovery Process (KDP) bezeichnet den Prozess der systematischen Identifizierung, Extraktion und Generierung von relevantem Wissen aus großen Mengen von Rohdaten. Dabei werden verschiedene Schritte wie Datenbereinigung, Datenintegration, Datenselektion, Transformation, Data Mining und Interpretation durchgeführt, um neue Erkenntnisse, Muster, Zusammenhänge oder Trends zu entdecken. Der KDP wird oft in Bereichen wie Data Science, Business Intelligence und Forschung eingesetzt, um aus den vorhandenen Daten wertvolles Wissen zu gewinnen und fundierte Entscheidungen zu treffen.

Was lautet die Definition von IIoT?

Das Industrielle Internet der Dinge (IIoT) bezieht sich auf das Netzwerk von verbundenen Geräten, Sensoren und Maschinen in industriellen Umgebungen, das es ermöglicht, Daten zu sammeln, zu analysieren und die Effizienz, Produktivität und Sicherheit in der Industrie zu verbessern.

Wo wird IIoT angewandt?

Das Industrielle Internet der Dinge wird in einer Vielzahl von Branchen eingesetzt, einschließlich Fertigung, Energie, Transportwesen, Gesundheitswesen und Landwirtschaft, um die Überwachung und Steuerung von Maschinen, die Optimierung von Produktionsprozessen, die Fernwartung und die Echtzeitanalyse von Daten zu ermöglichen.

Was sind die Herausforderungen von IIoT?

Sicherheit: Vernetzung von Geräten birgt Sicherheitsrisiken wie Cyberangriffe oder Datenlecks. Robuste Sicherheitsmaßnahmen sind entscheidend. Interoperabilität: IIoT-Geräte von verschiedenen Herstellern erfordern nahtlose Interaktion. Standardisierte Protokolle sind wichtig. Datenverarbeitung und -analyse: Große Datenmengen erfordern leistungsfähige Infrastrukturen und Analysetools. Echtzeitverarbeitung für zeitnahe Erkenntnisse ist eine Herausforderung. Skalierbarkeit: IIoT umfasst viele Geräte und Datenquellen. Skalierbare Systeme müssen mitwachsen können. Datenschutz: Schutz der Privatsphäre und Einhaltung der Datenschutzbestimmungen sind wichtig. Fachkräftemangel: IIoT erfordert Fachkräfte mit Kenntnissen in Datenanalyse, Cybersecurity und Systemintegration. Personalbeschaffung und Weiterbildung sind entscheidend. Verständnis der Technologie: IIoT ist noch in den Kinderschuhen, Verständnis und Auswahl der richtigen Systeme und Lösungen sind eine Herausforderung.

Jakob Procher
Jakob Procher
Consultant für KI & Data Science
Folge uns:

Als Berater im Bereich KI und Data Science beschäftigt sich Jakob Procher mit der Entwicklung und Bereitstellung von KI-Modellen. Seine Themenschwerpunkte umfassen die Bereiche MLOps und IoT. Insbesondere befasst er sich mit Cloud-Technologien und deren Integration. Im Rahmen dieser Tätigkeiten betreut er Kunden aus unterschiedlichen Domänen und entwickelt Produkte zur Unterstützung von Unternehmensprozessen.