Big Data-Architekturen – die sicheren Häuser in der Fertigung

Sebastian von Enzberg, Philipp Sahrhage und Arno Kühn

Industrie 4.0 bietet eine ganze Reihe an Potenzialen für die Fertigung von morgen. Die Automatisierung von physischen Abläufen wird immer mehr ergänzt durch die Automatisierung von kognitiven Arbeiten. Ermöglicht wird dies durch die zunehmende Vernetzung von Maschinen und Produktions-IT und die daraus resultierende Verfügbarkeit verschiedener Daten aus dem Unternehmen. Dies betrifft insbesondere Planungs- und Optimierungsaufgaben beispielsweise für Fertigungsvorgänge. Doch die typischen IT-Systeme aus der Produktion kommen dabei schnell an ihre Grenzen. Es ist daher an der Zeit, sich die Leistung neuer Big Data-Architekturen anzusehen.

Das notwendige Erfahrungswissen zur Einschätzung von Fertigungsprogrammen kann aus historischen Planungs- und Betriebsdaten extrahiert werden. Ein weiteres Beispiel ist die Intelligente Instandhaltung (Smart Mainte-
nance): Die Planung von Instandhaltungsvorgängen wird unter Berücksichtigung verschiedener Prozess-, Planungs- und Maschineninformationen optimal gestaltet. Dies übertrifft teilweise die Fähigkeiten eines menschlichen Planers, wenn Ausfälle vorhergesagt und so schon vorab in die Planung einfließen können. So können Ersatzteile frühzeitig beschafft und Routine- sowie Reparaturaufgaben zeitlich optimal geplant werden.

Grundlage für diese Optimierungen ist die Verfügbarkeit aktueller und historischer Datenbestände aus der Fertigung. Diese sollten nach Möglichkeit system- und datenquellenübergreifend vorliegen. So müssen vielfältige Informationen zusammengebracht werden, beispielsweise bisherige Ausfälle aus Instandhaltungslogbüchern, Sensor- und Betriebsdaten aus der Maschinensteuerung oder historische Priorisierungs-Entscheidungen aus Instandhaltungsplänen.


Herausforderungen einer modernen Produktions-IT

Die typische Fertigung ist heute gekennzeichnet von einer heterogenen IT-Systemlandschaft. Eine mögliche Strukturierung bietet die Automatisierungspyramide wie in Bild 1 dargestellt [1]. Auf oberster Ebene stehen ERP-Systeme, diese stellen Stammdaten zu Ressourcen, Rohstoffen und Produkten bereit. Ergänzt wird es durch spezialisierte Teilsysteme, beispielsweise für die Lagerwirtschaft oder Qualitätssicherung. Betriebs- und Maschinendaten werden in einem MES gesammelt, das – anders als ERP-Systeme – nicht in allen Unternehmen verbreitet ist. 

Bild 1: IT-Systeme in der Produktion

Die Einführung eines MES geht meist mit umfangreichen Änderungen in Hardware, Software und Prozessen einher und ist daher mit großem Aufwand verbunden. Der Fokus liegt hier auf einer Prozessüberwachung und -steuerung mittels übergeordneter Kenngrößen (KPI).

Big Data-Anwendungen greifen auf Datenmengen zurück, die über KPI-relevante Größen hinausgehen: Maschinendaten, die nicht direkt mit der Prozesssteuerung zusammenhängen oder Sensordaten aus dem Umfeld. Diese Daten liegen auf der Prozessleitebene (SCADA) oder Steuerungs-/Feldebene vor, werden aber in einem MES nicht umfassend aufgenommen und gespeichert. Die Herausforderungen in der Big Data-Verarbeitung werden durch vier „V“ beschrieben. Dies sind vor allem die große Gesamtmenge aller historischer Daten (Volume)
und die Geschwindigkeit von mehreren tausend Datenpunkten pro Sekunde (Velocity). Weiterhin muss neben den Maschinendaten gleichzeitig Zugriff auf vielfältige Informationen wie beispielsweise aus der Fertigungsplanung oder der Qualitätssicherung gewährleistet werden (Variety). Zuletzt muss die Qualität der gesicherten Daten sichergestellt sein
(Veracity). All diese Anforderungen können typische IT-Systeme aus der Produktion nicht erfüllen. Es besteht ein zunehmender Bedarf an Big
Data-Architekturen in der Produktion, die Hand in Hand mit der bestehenden Produktions-IT zu einer fortschrittlichen Prozessautomatisierung führen.

Zum Weiterlesen klicken Sie hier