Es gibt Menschen, die beschreiben ihre Cloud-Systeme als “Fog“. Ich bekomme immer mehr das Gefühl, dieses Wortspiel ist tatsächlich Realität. „Blasen” wir in unserem digitalen Zeitalter wirklich so viel Gase mit unseren Daten in die Atmosphäre wie das im Zeitalter der Industrialisierung der Fall war? Ist es möglich, unsere Daten einfach in der Cloud zu deponieren und dann von einer Softwareanwendung zu erwarten, diese bei Bedarf analysieren und organisieren zu können? Um diese Fragen beantworten zu können, muss man erst einmal ein Verständnis dafür entwickeln, was die Cloud leisten kann und was sie nicht kann. Außerdem müssen wir die Voraussetzungen kennen, unter denen die Cloud eine effektive Strategie zur Speicherung von Daten ist, auf die einfach zugegriffen werden kann.
Das Erlebnis Suchmaschine
Wir sind heutzutage durch Suchmaschinen wie Google ziemlich verwöhnt, bei denen man einfach ein paar Worte oder einen Satz eingibt, um ganz bestimmte Details aus einer schier endlosen Informationsflut zu filtern. Es ist verrückt, sich die Datenmenge vorzustellen, auf die diese Suchmaschinen zugreifen, die sich wahrscheinlich alle in einer Art “Cloud” befinden und die der Algorithmus der Suchmaschine durchsuchen muss, um uns das Ergebnis so schnell anzeigen zu können. Die Suchmaschine ist das perfekte Beispiel einer cloudbasierten Plattform. Das einzige, was sich auf dem Gerät befindet, ist eine einfache Benutzeroberfläche und das Suchergebnis, nicht die Software oder die Daten. Suchmaschinen sollen ausnahmsweise den “menschlichen” Aspekt der Daten behandeln, bei deren Entwicklung eine Suche nicht in Erwägung gezogen wurde. Der Mensch muss sich die Trefferliste durchlesen und sich dann für das relevanteste Ergebnis entscheiden. Methoden zur Suchmaschinenoptimierung (SEO) wurden entwickelt, um wichtige Datenelemente auf Webseiten einzufügen, damit die Suchmaschinen dabei unterstützen würden, den Inhalt und die Bedeutung dieser Webdaten im Zuge der Entwicklung des Internets zu verstehen.
Überlegungen zum Thema Cloud-Speicher
Webseiten im Internet bedenken die wahre Natur der Datenspeicherung in der Cloud nicht. Aus Perspektive der Fertigung ist das Speichern von Daten in der Cloud nur eine zusätzliche Methode oder ein Ort zum Ablegen von Daten. Viele Menschen denken, es sei dasselbe, wie ein Server vor Ort (im Folgenden “lokale Cloud”) oder, aus Sicht eines Benutzers, die externe Festplatte seines Computers (im Folgenden „persönliche Cloud“). Es kann vorteilhaft sein, Clouddaten extern zu speichern, bietet höhere Kapazität, muss nicht gewartet werden und verursacht, abgesehen von den Servicerechnungen, keine Betriebskosten. Dennoch gibt es einige wesentliche Aspekte, die man bedenken sollte, wenn es um den Cloud-Speicher geht. Zuallererst ist da der Sicherheitsaspekt der Daten zu erwähnen und in einigen Fällen, wie beispielsweise bei ITAR-Daten, muss sichergestellt sein, dass der Ort, an dem die Daten gespeichert werden, ein „guter“ Ort ist. Selbstverständlich werden Clouddaten in Rechenzentren weltweit gespeichert und in der Regel eben an Orten, die am günstigsten sind. Folglich muss der Zugriff auf die Daten entsprechend geschützt werden.
Der zweite Aspekt, den es zu berücksichtigen gilt, sind die Zugangsvoraussetzungen. Die Internetverbindung bestimmt die Geschwindigkeit der Links einer Website zur Cloud. Obwohl es heutzutage unglaublich schnell geht, etwas hoch- bzw. herunterzuladen, unterstützen dieselben Verbindungen viele unterschiedliche Ressourcen. So nutzen beispielsweise alle Mitarbeiter einen Internetbrowser und selbst die Kaffeemaschine verwendet dieselbe Internetverbindung. Wenn für missionskritische Systeme daher keine dedizierten Leitungen eingerichtet sind, muss die Bandbreite auf immer mehr Geräten und Diensten aufgeteilt werden. Ebenso, wie bereits im vorherigen Abschnitt erläutert, wird die Systemleistung und -kapazität nicht durch begrenzte Verbindungsprobleme eingeschränkt, wenn die Cloud sowohl Ihre Daten als auch Ihre Software hostet. Dies mag in vielen Anwendungssituationen, wie bei der Analyse langfristiger organisatorischer statistischer Trends mit Business-Intelligence-Tools, akzeptabel sein.
Das Bottleneck
Wir Menschen müssen versuchen, das logischste Ergebnis aus einer breiten Internetsuche wie Google zu entziffern und auszuwählen. Anstatt lediglich eine Liste relevanter Webseiten anzuzeigen, sind Technologien wie Siri, Cortana, Alexa, Echo wesentlich intelligenter, indem sie nämlich Fragen auf Antworten liefern. Um dieses Ziel erreichen zu können, wird die Organisation von Daten auf eine völlig neue Ebene gebracht, die über die typischen SEO-Praktiken hinausgeht. Die Umwandlung in aussagekräftige Informationen aus Zufallsdaten ist keine leichte Aufgabe und die Unternehmen, denen dies geglückt ist, haben in dieses Resultat viel Zeit und Geld investiert. Ob cloud- oder serverbasiert, dies war immer der gleiche Engpass für jedes Computersystem. Es ist wie bei der Phrase “Garbage In, Garbage Out ”: es ist einfacher einen Mehrwert aus prägnanten gespeicherten Daten zu schaffen und aussagekräftige Informationen zu erhalten als mit unklaren, vagen Daten.
Licht in die Cloud bringen
Die Cloud ist der perfekte Ort für viele Lösungen und Anwendungen, die möglicherweise die Verarbeitung großer Datenmengen erfordern. Berichte zu Kapazitätsplanungen, Qualitätskennzahlen sowie die Produktivität über einen längeren Zeitraum und die Analyse von Traceability-Daten sind hierfür nur einige Beispiele. Um diesen Anforderungen gerecht werden zu können, muss man sich überlegen, welche Software in der Cloud eingesetzt werden soll. Zur Konfiguration der Datensuchkriterien und der Berichtformate gibt es einfache Methoden, wie Business Intelligence, zusammen mit vielen weiteren Paketen. Allerdings greifen hier leider die Regeln des praktischen Bottleneck. Die tatsächlichen Daten müssen perfekt organisiert und aussagekräftig sein, damit handelsübliche Analysesoftware ordentlich damit arbeiten kann. Aber die Daten, die man direkt aus einem Fertigungsprozess erzielt, sind alles andere als das. So sind beispielsweise Aussagen wie “Stopp statt Fehler” oder “auf Leiterplatte wird gewartet”, die von Maschinen gemeldet werden ohne weitere Details einfach wertlos. Eine grundlegende Bearbeitung müsste erfolgen, um sagen zu können, warum die Maschine für eine Leiterplatte angehalten hat, was auf viele Ursachen zurückzuführen sein könnte. Es bräuchte eine komplizierte Auswertung, um die tatsächliche Bedeutung einer Vielzahl dieser “einfachen Aussagen”, die in einer Stunde tausendfach auftreten können, zu verstehen. Eine Standard-BI Lösung kann nicht den nötigen Algorithmus bieten, der erforderlich wäre, um die Rohdaten aus der Produktion effektiv verstehen zu können. Die Entwicklung eines kundespezifischen “Rohdaten Prozessors” in der Cloud wäre kostspielig aber eine weitere Option für eine „Standardmethode“.
Damit cloudbasierte Lösungen effektiv arbeiten können, ist es entscheidend, dass die intelligente Verarbeitung der Produktionsdaten lokal durchgeführt wird, ehe die Daten in die Cloud gelangen. Der erste Schritt dazu ist, die vielen unterschiedlichen Datenelemente in eine präzise zeitliche Abfolge zu bringen, die von den Maschinen, Barcodelesern, Sensoren und den Transaktionen zur Materialvorbereitung stammen. Anschließend können die Rohdaten in aussagekräftige und umsetzbare Informationen umgewandelt werden, wodurch qualifizierte Ereignisse erzielt werden.
Die Hybrid-Theorie
Fortschrittliche MES Software Systeme beinhalten bereits Direktverbindungen und haben die Möglichkeit, Daten direkt aus automatisierten und manuellen Produktionsvorgängen zu verarbeiten und lokal zu verwalten. Angefangen bei Dashboards, bei denen wichtige Ereignisse eingegeben werden müssen, bis hin zur Generierung von Warnungen auf der Grundlage einer Live-Situation, ist die Anforderung an die Echtzeit-Datenverarbeitung bereits gut umgesetzt. Die neue Generation von intelligenten Systemen, wie Industrie 4.0, verwendet diese Datenverarbeitung in Echtzeit bereits. Diese Arten der Anwendungen benötigen schnellere und genauere Ergebnisse, als die cloudbasierte Datenanalyse bieten kann. Wenn es zu Verzögerungen kommt, die länger als eine Sekunde dauern, wird die Produktivität verringert, beispielsweise bei einer bestimmten Steuerung von Produktionsmaschinen, wie bei der Reaktion auf ein eingehendes Produkt zur Verarbeitung, welches zur Konformität der Route qualifiziert sein muss. Die Daten aus der Fertigung in die Cloud zu senden, kann einfach nicht das passende Mittel sein, da es Minuten oder gar Stunden dauern kann, ehe sie aufgrund von Upload-Einschränkungen dorthin gelangen.
Sowohl für die lokale als auch die persönliche Cloud ist daher zwangsläufig kompatible Software erforderlich. Die intelligente Verarbeitung von Daten aus dem Fertigungsbereich und die anschließende Umwandlung in verständliche Informationen erfolgt im Idealfall mithilfe eines Hybrid-Cloud-Modells. Die eindeutige, aussagekräftige Aufzeichnung in der Cloud steht für Langzeitanalyse, die Analyse der lokalen Alarmerzeugung und die Funktionen der intelligenten Industrie 4.0 zur Verfügung. Ein optimaler Wert wird ohne großen Aufwand erzielt, wenn sowohl die Cloudsoftware als auch die Standortsoftware kompatibel sind.
Fertigungsdaten können nützlich werden und den von ihnen erwarteten Wert erfüllen, wenn die Daten in der Cloud und in cloudbasierten Systemen verwendet werden. Dann wird die Cloud auch nicht mehr länger als nebulös wahrgenommen. Das Standardprinzip “GIGO” gilt auch dann, selbst wenn die Cloudtechnologie relativ neu ist.
Melden Sie sich für unseren Blog an
Bleiben Sie auf dem Laufenden über die neuesten Trends, Erkenntnisse und bewährten Verfahren in der Fertigung.