Künstliche Intelligenz (KI) ist eine der am schnellsten wachsenden Technologien in der heutigen Zeit. Die Anwendungsbereiche reichen von der Gesundheitsfürsorge bis hin zur Automobilindustrie und darüber hinaus. KI-basierte Technologien haben auch in Unternehmen Einzug gehalten und sind in vielen Branchen im Einsatz. Von der Automatisierung von Geschäftsprozessen bis hin zur Vorhersage von Kundenverhalten – KI-Technologien werden immer häufiger eingesetzt, um Unternehmen dabei zu helfen, ihre Geschäftsabläufe zu optimieren und bessere Entscheidungen zu treffen.

Die Integration von Künstlicher Intelligenz im B2B-Vertrieb bietet Unternehmen die Chance, den Turbo einzuschalten und ihren Umsatz zu steigern. Sales Tools mit KI-Technologien können Vertriebsprozesse automatisieren, Analysen durchführen und wertvolle Einblicke in Kundenverhalten und Verkaufsmuster liefern. Sie erlauben es Unternehmen ihre Vertriebsprozesse zu optimieren, bessere Kundenbeziehungen aufzubauen und letztendlich bessere Geschäftsergebnisse zu erzielen.

In den letzten Jahren hat sich die Vertriebslandschaft stark verändert. Kunden haben heute höhere Erwartungen und sind besser informiert als je zuvor. Vertriebsmitarbeiter müssen daher agiler und effizienter arbeiten, um wettbewerbsfähig zu bleiben. Der Einsatz von KI-Technologien im B2B-Vertrieb ist daher nicht nur sinnvoll, sondern mittlerweile unerlässlich, um im heutigen harten Wettbewerbsumfeld noch erfolgreich bestehen zu können.

 

KI Sales Tools zur Lead-Generierung und Lead-Qualifizierung

Die Lead-Generierung ist ein wichtiger Schritt im Vertriebsprozess, bei dem potenzielle Kunden identifiziert werden, die an einem bestimmten Produkt oder einer Dienstleistung interessiert sein könnten. Bislang wird die Lead-Generierung durch Marketing- und Werbeaktionen, Telefonakquise und Networking-Veranstaltungen durchgeführt. Mit dem Einsatz von Künstlicher Intelligenz lassen sich diese Prozesse effektiver und effizienter gestalten. KI Sales Tools können beispielsweise verschiedene Datenquellen analysieren, um potenzielle Kunden zu identifizieren. Dazu gehören z.B. öffentlich zugängliche Informationen wie Firmendaten, soziale Medien, Websites, Foren, Blogs und Artikel. Die KI Sales Tools analysieren diese Informationen, um potenzielle Kunden mit einer höheren Kaufbereitschaft und Kaufwahrscheinlichkeit zu identifizieren, basierend auf Kriterien wie Firmengröße, Umsatz, Mitarbeiterzahl, Standort und Verhaltensmuster. Sobald potenzielle Kunden identifiziert wurden, werden sie von den KI Sales Tools automatisch qualifiziert, wobei verschiedene Faktoren wie z.B. das Kaufverhalten, die Interaktion mit dem Unternehmen auf der Website oder den sozialen Medien, den Standort und das Branchensegment analysiert werden. Basierend auf diesen Kriterien können die Vertriebsmitarbeiter dann entscheiden, welche Leads am wahrscheinlichsten sind, tatsächlich Kunden zu werden, und ihre Zeit und Energie auf die vielversprechendsten Leads konzentrieren. So ermöglicht es die Nutzung von KI Sales Tools zur Lead-Generierung und Lead-Qualifizierung den Vertriebsmitarbeitern, Zeit und Ressourcen zu sparen und den Umsatz und die Kundenzufriedenheit zu steigern.

 

KI Sales Tools zur Vertriebsprognose und Vertriebsoptimierung

Eine Anwendung von Künstlicher Intelligenz im Vertrieb, die sich als äußerst erfolgreich erwiesen hat, ist die Verwendung von KI zur Vertriebsprognose und Vertriebsoptimierung mit dem Ziel, Umsatz und Gewinn zu steigern und gleichzeitig eine maximale Kundenzufriedenheit zu gewährleisten. Traditionell wird die Vertriebsprognose von erfahrenen Vertriebsmitarbeitern auf der Grundlage von historischen Daten und Marktanalysen durchgeführt. Diese Methode ist jedoch fehleranfällig und führt oftmals zu ungenauen oder unzutreffenden Vorhersagen. KI-basierte Technologien bieten hier eine bessere Lösung, denn einer ihrer größten Vorteile ist die Fähigkeit, große Datenmengen in Echtzeit zu analysieren und Muster und Trends in den Daten zu erkennen, die für menschliche Analysten schwer zu erkennen sind. Da es im Vertrieb stets darum geht, die richtigen Produkte oder Dienstleistungen an die richtigen Kunden zu verkaufen, ist eine genaue Prognose darüber, welche Produkte oder Dienstleistungen in welcher Menge verkauft werden können, von entscheidender Bedeutung für den Erfolg eines Unternehmens. KI Sales Tools können mit Hilfe von Machine-Learning-Algorithmen große Datenmengen analysieren, um daraus genaue Vertriebsprognosen zu erstellen, die beispielsweise den Einfluss von Saisonalität, Wettbewerb und Markttrends berücksichtigen.

Auch für eine Optimierung des Vertriebsprozesses ist der Einsatz von Künstlicher Intelligenz geeignet. Eine Analyse von Verkaufsmustern und Kundenverhalten ermöglicht es KI Sales Tools beispielsweise, Empfehlungen für das Upselling oder Cross-Selling von Produkten zu geben oder bei der Planung von Marketingkampagnen zu unterstützen, indem sie Vorschläge für die besten Kanäle und Zielgruppen liefern.

 

KI Sales Tools für die personalisierte Kundenansprache

Für den Vertriebserfolg ist auch eine personalisierte Kundenansprache ein wichtiger Faktor. Kunden erwarten heutzutage, dass Unternehmen ihre individuellen Bedürfnisse und Interessen verstehen und darauf eingehen. Durch die Nutzung von KI Sales Tools können Unternehmen eine personalisierte Kundenansprache auf eine effektivere und effizientere Weise umsetzen. Die KI-Technologien werden dabei eingesetzt, um Informationen über das Verhalten, die Vorlieben und die Kaufhistorie von Kunden zu sammeln und zu analysieren. Dazu gehören Daten aus verschiedenen Quellen wie CRM-Systeme, sozialen Medien, E-Mails, Chats und Transaktionsdaten. Basierend auf diesen Daten erstellen KI-Tools Kundenprofile und passen die Kundenansprache und Angebote entsprechend an.

Des Weiteren können KI-Technologien genutzt werden, um automatisch personalisierte E-Mails, Chats oder Angebote zu erstellen und zu versenden. Die KI Sales Tools analysieren hierfür die Kundenprofile und wählen automatisch die relevantesten Informationen und Angebote aus, um die Kunden auf eine persönliche Weise anzusprechen. Eine personalisierte Kundenansprache durch KI Sales Tools kann dazu beitragen, dass Kunden sich verstanden und geschätzt fühlen, was zu einer höheren Kundenzufriedenheit und -bindung führt. Wodurch dann i.d.R. auch die Verkaufszahlen steigen, da personalisierte Angebote und Informationen relevanter und ansprechender für die Kunden sind.

Bei der personalisierten Kundenansprache ist jedoch zu beachten, dass eine zu starke Personalisierung eventuell auch negative Auswirkungen haben kann, wenn Kunden z.B. das Gefühl bekommen, dass ihre Privatsphäre verletzt wird oder dass sie zu sehr manipuliert werden. Beim Einsatz von Künstlicher Intelligenz im Vertrieb sollte daher sichergestellt werden, dass die personalisierte Kundenansprache ethisch und transparent umgesetzt wird, um das Vertrauen und die Loyalität der Kunden nicht zu verlieren.

 

Die Zukunft des B2B-Vertriebs mit KI Sales Tools

Die Zukunft des Vertriebs wird zweifellos von Künstlicher Intelligenz geprägt sein. KI Sales Tools bieten Vertriebsmitarbeitern die Möglichkeit, ihre Verkaufsprozesse zu automatisieren und zu optimieren, um schneller und effektiver Kunden zu gewinnen, Verkaufschancen besser zu erkennen und potenzielle Kunden zu identifizieren sowie mit einer optimalen KI-gestützten Beratung das Kundenerlebnis zu verbessern. All dies wird zu einer höheren Effizienz und Effektivität der Vertriebsprozesse und somit letztendlich auch zu höheren Umsätzen führen. Unternehmen, die auch künftig noch wettbewerbsfähig bleiben wollen, werden um den Einsatz von KI Sales Tools in ihren Vertriebsorganisationen nicht herumkommen.

 

KI Sales Tools aus der Sales Tool Manufaktur

Die SIC! Software „Sales Tool Manufaktur“ erstellt individuelle, maßgeschneiderte Software-Lösungen für das persönliche Kundengespräch. Ein Sales Tool aus unserer Sales Tool Manufaktur bietet viele Vorteile, mit denen Sie den Erfolg Ihrer Vertriebsmannschaft steigern können. Unsere erfahrenen Spezialisten implementieren dabei auch innovative KI-Technologien, um die Effektivität und Effizienz der Vertriebsprozesse unserer Kunden zu steigern. Mit unseren maßgeschneiderten Sales Tools und unserer Expertise im Bereich der KI-Technologie sind wir der ideale Partner für Unternehmen, die in ihrem B2B-Vertrieb den Intelligenz-Turbo zuschalten möchten.

Sprechen Sie uns an, um mehr darüber zu erfahren, wie wir Ihnen helfen können, mit Hilfe von KI-gestützten Sales Tools Ihren B2B-Vertrieb auf ein neues Level zu heben.

 


 

Aktuell stehen viele Unternehmen vor der großen Herausforderung, weitere Möglichkeiten für Energieeinsparungen zu finden. Neben den Stromkosten stehen dabei zwangsläufig auch die Heizkosten auf dem Prüfstand. Moderne IoT Technologien sind vielfach der Schlüssel, um weitere Einsparpotentiale bei den Heizkosten bzw. den Energiekosten zu heben, indem neue Optimierungsmöglichkeiten für die Temperatursteuerung in den Räumen identifiziert werden.

Temperatur-Monitoring

Mit dem Anbringen eines kleinen Temperatursensors in jedem einzelnen Raum lässt sich schnell und unkompliziert ein permanentes Temperatur-Monitoring realisieren. Durch Vernetzung der Sensoren und die Verbindung mit der Cloud können nicht nur jederzeit die aktuellen Temperaturen von jedem einzelnen Raum zentral und übersichtlich auf einem einzelnen Online-Dashboard gesehen werden, sondern auch die gespeicherten Temperaturverläufe von dem jeweiligen Raum. Mit diesen Informationen wird klar erkennbar, in welchen Räumen durch Anpassungen der Raumtemperatur sofort entsprechende Heizkosteneinsparungen realisiert werden können.

Monitoring der Raumnutzung

Die Optimierung der Raumtemperaturen lässt sich noch präziser gestalten, wenn gleichzeitig ein Monitoring der Raumnutzung stattfindet. Denn in jedem Raum, der sich nicht in Nutzung befindet, könnte vorübergehend die Temperatur abgesenkt werden. Auch hierbei sind IoT Technologien der Schlüssel für neue Einsparpotentiale. Mit vernetzten Sensoren, welche die Raumnutzung registrieren und ihre Daten in die Cloud senden, lässt sich auf dem Online-Dashboard dann nicht nur die aktuelle Nutzung jedes einzelnen Raums in Echtzeit, sondern auch der Nutzungsverlauf des Raums anzeigen. Diese Daten ermöglichen dann – ggf. zusätzlich noch unter Berücksichtigung von Raumbelegungsplänen – eine bedarfsgerechte, automatisierte Steuerung der Raumtemperatur für jeden einzelnen Raum. Ein weiterer Schritt zur Vermeidung von unnötigen Heizkosten.

Neue Mindest-Temperatur am Arbeitsplatz

Dabei ist jedoch zu beachten, dass in Unternehmen gleichzeitig auch die Arbeitsschutzrichtlinien einzuhalten sind, welche bestimmte Mindesttemperaturen für die verschiedenen Arten von Arbeitsplätzen festlegen. Für Büroarbeitsplätze ist beispielsweise eine gesetzliche Mindesttemperatur von 20 Grad vorgeschrieben. Seit dem Inkrafttreten der Energieeinsparverordnung am 01.09.2022 können Unternehmen jedoch aktuell von den Vorgaben der Arbeitsschutzrichtlinie um 1 Grad nach unten abweichen, da nun 19 Grad als neue Minimaltemperatur in den Büros gilt.

Fazit

Temperatursensoren mit Cloud-Anbindung stellen somit nicht nur eine einfache und effiziente Möglichkeit dar, mit Hilfe von IoT Technologien die Energiesparbremse zu ziehen sondern auch die Einhaltung der Arbeitsschutzrichtlinien bezüglich der zulässigen Mindest-Temperatur in Arbeits- und Büroräumen zu überwachen.

 


Das hier beschriebene IoT Anwendungsszenario „Energiesparbremse“ ist nur eines von vielen Beispielen, wie moderne IoT Technologien gewinnbringend in Unternehmen eingesetzt werden können. Weitere Beispiele, Case Studies und Informationen zum Thema IoT finden Sie auch auf den Seiten unserer IoT Manufaktur.

 


Der aktuelle Chipmangel setzt vielen Unternehmen aus den unterschiedlichsten Branchen heftig zu – nach aktuellen Studien leiden insgesamt 169 Branchen unter den fehlenden Mikroprozessoren. Insbesondere die Hersteller von Maschinen und Anlagen trifft der Chipmangel hart, wenn Anlagen im Wert von mehreren Millionen Euro nicht in Betrieb gehen können, nur weil ein kleines Stück Hardware fehlt, in dem „Intelligenz“ für den Betrieb der Anlage steckt. Auch viele IoT-Projekte, bei denen eine Cloud-Anbindung eine zentrale Rolle spielt, liegen aktuell auf Eis, weil die notwendigen IoT Edge Computing Devices nicht erhältlich sind.

Bei einem unserer Kunden, einem mittelständischen Maschinenbau-Kunden, zeichnete sich dieses Problem auch ab. Mit IoT-Technik sollen Werkzeuge in Produktionsmaschinen überwacht werden, um eine gleichbleibende Qualität in der Fertigung sicherzustellen und Handlungsbedarfe rechtzeitig zu erkennen (Predictive Maintenance). Die für dieses IoT-Projekt ausgewählten Edge Devices, welche die von den Sensoren über BLE empfangenen Maschinen-Daten an die Cloud senden sollen, sind aber aufgrund des aktuellen Chipmangels auf dem Markt auf absehbare Zeit nicht mehr erhältlich. Auch bei den übrigen Anbietern auf dem Markt der klassischen IoT Edge Devices ist die Situation identisch.

Um den drohenden Stillstand der Anlagen bei unserem Kunden zu vermeiden, haben unsere IoT Spezialisten nach einer alternativen Lösung gesucht und ein BTLE-fähiges IoT Edge Device gefunden, das nicht von den aktuellen Lieferschwierigkeiten betroffen ist. Einziges Problem: Es handelt sich hierbei um einen Empfänger aus einem geschlossenen IoT-Gesamtsystem, der eigentlich ausschließlich für die BTLE-Kommunikation mit den zugehörigen System-Sensoren des Herstellers konzipiert ist.

Da die IoT Spezialisten im Hause SIC! Software jedoch auch umfangreiches Know-how und viel Erfahrung in der Firmware- bzw. Embedded-Software-Entwicklung besitzen, konnten dank der Kooperationsbereitschaft des Herstellers individualisierte IoT Edge Devices bestellt werden, auf welche der Hersteller eine von SIC! speziell für den Einsatz in diesem IoT Kundenprojekt entwickelte Firmware aufgespielt hat. Damit können diese Devices über BTLE mit den bereits an den Maschinen unseres Kunden vorhandenen Sensoren kommunizieren und ermöglichen eine zentrale Datenerfassung und Verwaltung der Maschinen-Sensoren. Bei der Entwicklung der Firmware wurde auf höchste Sicherheit bei der Datenübertragung Wert gelegt und eine End2End Verschlüsselung integriert. Zudem ermöglicht die individuelle Firmware jederzeit Anpassungen und Aktualisierungen per OTA-Updates, womit eine volle Kontrolle über das System gewährleistet ist.

Diese alternative Lösung hat für unseren Kunden nicht nur den Vorteil einer sofortigen und auf absehbare Zeit unlimitierten Verfügbarkeit der Hardware, sondern auch die gegenüber den klassischen IoT Edge Devices deutlich günstigeren Anschaffungskosten, womit eine komplette BTLE-Ausleuchtung von Werks- oder Lagerhallen zu einem Bruchteil der Kosten von klassischen IoT Edge Devices möglich wird.

So haben die SIC! IoT-Spezialisten mit ihrer Expertise im Bereich der Firmware-/Embedded-Software-Entwicklung in diesem IoT-Kundenprojekt aus der Not eine Tugend gemacht und unserem Kunden geholfen, einen kritischen Engpass dauerhaft zu überwinden und die bei ihm bestellten Anlagen wie geplant ausliefern und in Betrieb nehmen zu können.

 


Gerne unterstützen unsere IoT-Spezialisten mit ihrer umfangreichen Kompetenz und langjährigen Erfahrung im Bereich der Entwicklung von individueller Firmware bzw. Embedded Software auch Sie in Ihren IoT-Projekten. Egal wo Sie mit Ihrer Idee oder Herausforderung im Moment stehen, wir finden einen gemeinsamen Einstieg.
Sprechen Sie uns an, wir freuen uns auf Sie!

Jeder kennt es und fast jeder nutzt es: Excel. Die Tabellenkalkulations-Software von Microsoft ist aus den Büros der Unternehmen heute kaum noch wegzudenken. Denn die leicht zu erlernende, aber mächtige Office-Software wird als Multitool in fast allen Unternehmensbereichen für die unterschiedlichsten Aufgaben eingesetzt. Sobald irgendwo gleichartige Informationen erfasst, gespeichert und ausgewertet werden müssen, werden Excel-Tabellen gerne als einfach zu bedienende Datenspeicher mit komfortablen Auswertungsmöglichkeiten eingesetzt. Dass aber genau dieser vermeintliche Vorteil von Excel sich für Unternehmen auch als Nachteil und echter Zeitfresser erweisen kann, ist leider den wenigsten bewusst.

 

Digitale Prozesse mit Excel-Dateien

Denn sobald mehrere Personen die Daten in der gleichen Excel-Tabelle erfassen, ergänzen und verarbeiten müssen, entstehen digitale Prozesse. Dabei steigen mit zunehmender Zahl der beteiligten Personen, Datenquellen und manuellen Arbeitsschritte sowohl der zeitliche Aufwand – und damit die Kosten – als auch die Fehleranfälligkeit überproportional an. Solche Excel basierten digitalen Prozesse fressen aufgrund ihrer zunehmenden Ineffizienz unnötig viele Ressourcen auf. Insbesondere bei mittelständischen und großen Unternehmen kommt somit dann irgendwann der Zeitpunkt, an dem über den Einsatz einer Software zur integrierten Prozess-Automatisierung nachgedacht werden sollte. Denn durch eine zentrale Datenspeicherung und automatisierte Prozesse, die speziell auf die Bedürfnisse des jeweiligen Unternehmens abgestimmt sind, können sich die Kosten selbst für eine individuell erstellte Lösung aufgrund der Ressourcen-Einsparungen bereits nach wenigen Monaten amortisieren, wie zwei Beispiele aus unserer Praxis für die integrierten Prozess-Automatisierung eindrücklich belegen.

 

Produktionsplanung mit Excel -Tabellen

Bei einem unserer Kunden, einem international bekannten Konzern im Bereich der lebensmittelverarbeitenden Industrie, wurde in der Vergangenheit mangels einer passenden Softwarelösung in einem Bereich die komplette Produktionsplanung mit Excel -Tabellen umgesetzt. Das Ganze lief dann folgendermaßen ab: Als erstes wurden die Daten der zu produzierenden Produkte als csv-Tabelle mit mehreren hundert Einträgen manuell aus SAP exportiert. Daraus hatte dann der Produktionsplaner in Excel einen Maschinenplan erstellt, indem er die Tabelle um die Maschinen und deren Zeiten, zu denen das jeweilige Produkt produziert wird, ergänzte. Im nächsten Schritt wurde diese Excel-Datei dann jeweils sowohl an das Lager als auch an die Logistik weitergegeben. Die Lager-Mitarbeiter prüften daraufhin die termingerechte Verfügbarkeit der Zutaten und ergänzten ihre Excel-Datei um eine eigene Tabelle mit den Gebindegrößen, um die Datei dann an die Produktion weiterzuleiteten. Parallel ergänzten die Logistik-Mitarbeiter ihre Version der Excel-Datei um die Lagerorte der Verpackungen und leiteten diese ebenfalls an Produktion weiter. Anhand der auf Papier ausgedruckten Excel-Listen hat dann die Intralogistik die Produktion mit den entsprechenden Zutaten und Verpackungen versorgt. Jedes Mal, wenn ein Problem innerhalb dieser Kette aufgetaucht ist, z.B. eine Zutatenlieferung nicht eingetroffen ist oder sich verzögert hat, musste der gesamte Planungs-Workflow entsprechend erneut durchlaufen werden. Mit entsprechend korrigierten Daten in einer neuen Excel-Datei. Da der gesamte Planungsprozess in der händischen Bearbeitung und Weiterleitung von Excel-Dateien bestand, war die Geschwindigkeit entsprechend von den beteiligten Personen abhängig. Bei diesem wöchentlichen Produktionsplanungs-Workflow spielten nicht nur die individuellen Kapazitäten für die Bearbeitung eine entscheidende Rolle, sondern teilweise auch die durch Zeitzonen verschobenen Arbeitszeiten.

 

75% Zeitersparnis durch integrierte Prozess-Automatisierung

So waren bei unserem Kunden vier Mitarbeiter jeweils etwa 10 – 12 Stunden pro Woche nur mit der manuellen Bearbeitung und Weiterleitung von Excel-Tabellen beschäftigt. Mit der Zeit wurde klar, dass dieser Produktionsplanungs-Workflow auf Basis von Excel-Listen äußerst suboptimal ist und SIC! Software wurde daher mit der Erstellung einer Softwarelösung für eine integrierte Prozess-Automatisierung beauftragt. Damit sollte nicht nur eine Zeitersparnis bei den wiederkehrenden Routineaufgaben erreicht werden. Insbesondere war es das Ziel, die zu Beginn des Produktionsplanungs-Prozess notwendige Überarbeitung der aus SAP exportierten Daten durch entsprechende Reduktionen und Ergänzungen in eine bedarfsgerechte Darstellung zu automatisieren. Zudem sollte auch die Abhängigkeit von der Verfügbarkeit der am Prozess beteiligten Personen reduziert sowie die Möglichkeit zum schnelleren Reagieren bei Veränderungen geschaffen werden. Mit der neuen Softwarelösung findet heute bei der Produktionsplanung ein automatisierter Informationsfluss in Echtzeit statt. Jetzt werden auch Änderungen von den einzelnen Abteilungen jederzeit extrem schnell an alle Beteiligten kommuniziert und können unmittelbar von diesen bearbeitet werden. Mit der von uns für diesen Kunden individuell erstellten Softwarelösung für eine integrierte Prozess-Automatisierung konnte der wöchentliche Aufwand für den Planungsprozess von 10 – 12 Stunden auf knapp 3 Stunden pro Person reduziert werden. Damit hatte sich das 6-stellige Projektbudget bei unserem Kunden in bereits weniger als 9 Monaten amortisiert.

 

Produktivitätsüberwachung in der Fertigung mit Excel-Listen

Auch bei einem weiteren Kunden, einem Komponentenfertiger im Automotive-Umfeld, konnte sich ein niedriges 6-stelliges Projektbudget für den Ersatz von aufwändigen Excel basierten Workflows durch eine softwaregestützte integrierte Prozessautomation aufgrund der Einsparungen bereits innerhalb nur eines Jahres amortisieren. Dabei ging es um die Erstellung von Auswertungen der Produktionsdaten der verschiedenen Fertigungslinien, mit denen die Produktivität der einzelnen Schichten überwacht wurde. Hier wurden in Excel-Tabellen sowohl die Daten für die einzelnen Maschinen einer Linie erfasst, als auch die einzelnen Linien und am Ende Zusammenfassungen für die einzelnen Komponenten. Diese waren wiederum nach den einzelnen Herstellern und deren Baureihen gegliedert. Diese Excel-Tabellen wurden für jede Schicht, also 3x täglich, manuell erstellt. Dazu wurden zuerst die Produktionsdaten aus MES sowie die Daten aus diversen Steuerungen an den Stationen der Fertigungslinien exportiert, um sie dann in verschiedene Blätter einer Excel-Tabelle zu importieren. Nachfolgend wurden die Tabellen um weitere Kennzahlen der Schichten ergänzt und die fertigen Auswertungen als pdf-Dokumente per Email sowohl an die Verantwortlichen der einzelnen Linien als auch als Gesamtzusammenfassung, dem Liniencockpit, an den Werksleiter gesendet.

 

Zentrale Datenbank für Liniencockpit mit Echtzeitvisualisierung

Die von SIC! Software für diesen Kunden individuell erstellte Softwarelösung für eine integrierte Prozess-Automatisierung basiert auf der Sammlung aller prozessrelevanten Daten in einer zentralen Datenbank. Dazu werden die MES Daten über API im 5 Minuten Takt ausgelesen und die Daten der Steuerungen kontinuierlich gesammelt und per OPC/UA via Edge Computing Device übertragen. Über eine Middleware, die lokal auf einem virtuellen Server läuft, werden dann sämtliche Daten automatisch zusammengeführt und nun als Liniencockpit auf Monitoren in der Fertigungshalle in Echtzeit visualisiert. Bei Störungen einer Maschine werden die davor und dahinter liegenden Stationen automatisch informiert. Die zum Schichtende manuell erfassten Metadaten werden automatisch auf Plausibilität geprüft, womit fehlerhafte Zuordnungen praktisch ausgeschlossen sind. Der Werksleiter hat nun das Liniencockpit auf einem Tablet-PC, während ihm weiterhin automatisch generierte pdf-Auswertungen per Mail zu Archivierungszwecken zugesendet werden.

 

Der Excel Reality-Check

Es sind in der Regel immer zuerst vermeintlich kleine Aufgaben, die mit einer Datenspeicherung in Excel beginnen und sich im Laufe der Zeit zu „Zeitfressern“ entwickeln und im schlechtesten Fall sogar den ganzen Betriebsablauf behindern oder verzögern. Da es sich bei der Entwicklung hin zu solchen Excel basierten komplexen Prozessen meist um über Jahre und Jahrzehnte gewohnte Routinen handelt, wird der Handlungsbedarf hinsichtlich einer Automatisierung der Prozesse und einer zentralen Datenspeicherung nur selten von den beteiligten Mitarbeitern von selbst erkannt. Es könnte daher durchaus von Vorteil sein, wenn Sie in Ihrem Unternehmen mal den „Excel Reality-Check“ machen:

  • Wo werden im Unternehmen Excel-Listen eingesetzt und für welchen Zweck?
  • Wie viele Personen bearbeiten die Excel-Dateien und wie oft?
  • Wie viele Datenquellen fließen in die Excel-Datei?
  • Wie werden die Daten erfasst?
  • Wie viele Personen erhalten Auswertungen und wie oft?
  • Wie oft wird die Excel-Datei oder deren Derivate weitergeleitet und auf welchen Wegen?
  • Wäre eine plausibilisierte Datenprüfung bei der Daten-Eingabe hilfreich?
  • Wären Nachvollziehbarkeit und Änderungshistorien hilfreich?
  • Wie sieht es mit der Datensicherheit der in Excel-Dateien gespeicherten aus?

 

Integrierte Prozess-Automatisierung als Mittel gegen „Zeitfresser-Excel-Prozesse“

Wenn Sie nun feststellen, dass bei einem ihrer Excel basierten Prozesse die Komplexität so groß ist, dass eine Automatisierung mit Hilfe einer individuellen Datenbank basierten Softwarelösung erfolgsversprechend sein könnte, dann sind unsere Spezialisten gerne für Sie da. Mit über 10 Jahren Erfahrung in unterschiedlichen Branchen schärfen wir den Blick unserer Kunden dafür, wie Abläufe effizienter gestaltet werden können und unterstützen Sie mit der Erstellung einer individuell auf Ihre Bedürfnisse abgestimmten Lösung für eine integrierte Prozess-Automatisierung. Sprechen Sie uns an!


Viele IoT-Geschäftsmodelle sind nur mit Hilfe global nutzbarer Konnektivität möglich, wobei aus Gründen der Prozessoptimierung und Kostenminimierung eine intelligente Reduzierung der Datenmenge bereits am Ort ihrer Entstehung stattfinden sollte. Die Lösung dafür sind IoT-Edge-Gateways, welche nahe der Datenquelle – also am Rand („Edge“) des weltweiten Kommunikationsnetzes – positioniert und zu einer intelligenten Datenvorverarbeitung befähigt sind.

Als Hilfestellung bei der Auswahl des richtigen IoT Edge-Gateways vergleichen wir für Euch in einer Video-Serie im Rahmen des SIC! TechTalks die Vor- und Nachteile von aktuell am Markt befindlichen IoT-Edge-Gateway Devices.

Neben den Hardware-Eigenschaften werden insbesondere die nicht sofort so offensichtlich erkennbaren Vor- und Nachteile rund um die Software untersucht, gezeigt und erläutert, wie z.B.

  • welches Betriebssystem kommt zum Einsatz?
  • wie sind die Konzepte zur Verwaltung eigener Software?
  • wie steht es um das Thema Updatebarkeit (a. der eigenen Software / b. des Betriebssystem selbst)?
  • wie sieht es mit der Zukunftssicherheit aus?

 





Der IoT-Edge-Gateway-Vergleich wird fortgesetzt,

Videos zu weiteren IoT Edge Devices sind in Vorbereitung!

 


Edge Computing in der Praxis

Unsere Expertise im Bereich IoT in der Cloud und Embedded Engineering hat bereits zum Erfolg von zahlreichen Innovationen beigetragen.

Einige Beispiele aus der Praxis für den Einsatz von IoT Edge Gateway Devices finden Sie in unseren IoT-Projekt-Referenzen.


Warum Edge Computing?

Erfahren Sie, wie wir den Wert von Daten steigern und die IoT-Cloud-Kosten senken indem wir Sensor-Daten bereits auf den Edge Devices für die Cloud mit AWS Greengrass veredeln:

Vorteile und Funktionen mit Edge Computing


Kostenfreie IoT Projekt-Beratung

Sie haben ein IoT Projekt und benötigen Unterstützung? Profitieren Sie bei unserem „Experten-Feedback“ Angebot von unserem Know-how und der langjährigen Erfahrung aus zahlreichen IoT-Projekten. In einer kostenfreien Online-Beratungsstunde erhalten Sie Feedback für Ihre IoT-Cloud-Projekte von unseren IoT-Spezialisten sowie Best Practice Tipps.

Mehr Info


 

Eine grundlegende Anforderung vieler IoT Projekte ist die Visualisierung der Daten, egal ob Sensor- oder Maschinendaten. Insbesondere steht gerade zu Beginn vieler Projekte eine Visualisierung der Daten direkt am Edge ganz oben auf der Wunschliste von Kunden, aber auch dem Entwickler selbst.

Bei dieser Anforderung geht es in erster Linie darum, schnell und einfach Feintuning an den erhobenen Daten vorzunehmen oder einfach nur zu sehen, ob Sensoren richtig positioniert oder kalibriert sind.

In vielen IoT Projekten und bei Demonstratoren auf Messen sehen wir immer wieder Node-RED als das Mittel der Wahl, um Dashboards auf IoT Edge Geräten zu bauen und diese initiale Visualisierung der Daten zu ermöglichen.

Ohne Frage ist das sicher eine Möglichkeit, vergleichsweise schnell und mit wenigen oder keinen Programmierkenntnissen Datenvisualisierung zu betreiben.

Allerdings hat die Nutzung von Node-RED in der Praxis auch viele Einschränkungen, die uns bewogen haben, hier einen etwas anderen Weg zu gehen. Auch wenn es in Node-RED sehr einfach erscheint, Dashboards zu bauen, so sind diese jedoch trotzdem relativ starr. Sobald sich an den eingehenden Daten etwas verändert – und sei es nur ein neuer Sensorwert – muss sofort wieder am Dashboard Hand angelegt werden. Scripte werden angepasst, neue Widgets werden angelegt und positioniert etc.

Zudem sind die Daten dann meist auch verloren, wenn man sich nicht die Mühe gemacht hat, diese auch in einer Datenbank zwischenzuspeichern.

Um das alles flexibler zu gestalten, bietet sich der Technologistack von Influx, der sogenannte „TICK Stack“ an. TICK steht hier für Telegraf – InfluxDB – Chronograf – Kapacitor. InfluxDB stellt hier den Kern als TimeSeries Datenbank dar. Telegraf ist die universale Waffe, um die Daten von beliebigen Quellen in die Datenbank zu bekommen und Chronograf ist für die Visualisierung zuständig.

Wie sieht das in der Praxis also aus:

 

Die Daten werden vom Sensor oder der Maschine an einen MQTT Broker (z.B. Mosquito) geschickt.

Der Telegraf kann mit Bordmitteln auf den MQTT Broker auf beliebige Topics subscriben und diese Daten dann direkt an die Datenbank weitergeben. Der Vorteil, der diese Konstellation so flexibel macht, ist die Tatsache, dass man nirgends spezifizieren muss, welche Daten erwartet werden. Solange die MQTT Payload aus Key/Value Werten besteht, werden diese alle einfach in die Datenbank übernommen. Wenn einer dazu kommt, muss nichts verändert werden.

Entscheidend ist hier die Konfiguration des MQTT Consumer Plugin:

https://github.com/influxdata/telegraf/tree/master/plugins/inputs/mqtt_consumer

Zum einen muss das Topic spezifiziert werden. In diesem Beispiel würde alles, was unterhalb von Sensor gepublished wird, in die Datenbank übernommen.

topics = [

„sensors/#“,

]

 

Am Ende der Config ist es noch wichtig, das Datenformat zu spezifizieren:

data_format = „json“

 

Ist das gemacht, landen alle Daten vom MQTT Broker automatisch in der Datenbank.

Die Payload des MQTT sollte dieses Format haben:

{

„Druck“: 100,

„Temperatur“: 34.2

}

Damit ist die Arbeit auch schon getan, denn der Chronograf wird diese Daten über den Explore direkt für die Visualisierung zugänglich haben.

Jetzt kann ich ohne weitere Konfiguration mit beliebigen Sensordaten arbeiten und muss mich nicht mehr um die Konfiguration dieser Kette kümmern.

Als weiterer kleiner Nebeneffekt überwacht der Telegraf auch noch den Host und man bekommt ein Systemmonitoring (Speicher/CPU/Festplatte) zusätzlich geschenkt.


Download

Hier können Sie das Beispielprojekt für die HARTING MICA als Datei downloaden:

SIC-TICK-Container_v1.0.tar


Video

Hier finden Sie ein Anleitungsvideo, in dem Schritt für Schritt gezeigt wird, wie man mit dem von SIC! Software bereitgestellten Container für die HARTING MICA den TICK Stack von InfluxDB deployen und damit sehr einfach Maschinen- bzw. Sensordaten in einer Datenbank auf dem Gateway speichern und auf einem Dashboard ganz einfach visualisieren kann.

Video: Flexible IoT Edge Datenverarbeitung mit dem TICK Stack


Stehen Sie aktuell vor einer Edge Computing Herausforderung?

Gerne unterstützen unsere IoT Experten Sie bei Ihren Projekten und helfen Ihnen dabei, möglichst optimale Lösungen zu finden.

Sprechen Sie uns an: Kontakt


 

 

Überall dort wo Cloud-Computing auf die Steuerung und Überwachung im Feld trifft und dies zudem zuverlässig funktionieren muss, wird oft auf Edge-Computing zurückgegriffen.
Dies hilft beispielsweise Unterbrechungen im Betrieb zu vermeiden, da das Gesamtsystem auch ohne eine permanente Online-Verbindung über ein Netzwerk weiter funktioniert.
In der Cloud selbst (und dies gilt auch für jedes vernünftige Rechenzentrum) ist es hier ohne Probleme möglich, eine entsprechende Verfügbarkeit zu gewährleisten.
Wendet man den Blick aber in Richtung Edge, sieht die Welt wieder ganz anders aus: Keine redundante Internetanbindung/-Infrastruktur, Zuständigkeiten verschiedenster Dienstleister/Provider und Netzwerke zwischen Rechenzentrum und Edge-Device.
Hier kann dann schnell mal etwas schiefgehen oder einfach ausfallen – die Fehlerquellen sind sehr vielfältig. Eine Analyse der Probleme ist jedoch unter diesen Umständen relativ zeitraubend und aufwendig.
Aber schieben wir diese sehr kurze Einführung in das Thema Edge-Computing beiseite und betrachten das hieraus resultierende Problem:

Wie verwalte ich die Edge-Devices am besten?

Hat man bereits ein Cloud-Setup für seine IT-Infrastruktur und nutzt hier die Vorteile wie beispielsweise IaC (Infrastrucute-as-Code) und CD (Continuous-Delivery), meldet sich sofort dieses unangenehme Gefühl in der Magengegend, das einem nichts Gutes signalisiert, da solche Tools und Workflows für Edge-Computing – wenn überhaupt – nur sehr schwer umzusetzen sind.
Um genau dieses Thema zu adressieren, haben die großen Cloud Anbieter – und hier allen voran AWS – entsprechende Frameworks für Edge Devices geschaffen. Mit AWS Greengrass steht ein mächtiges Werkzeug zur Verfügung, um Komfortfunktionen, wie man sie aus der Cloud Welt kennt, auch auf einem Edge Device zur Verfügung zu haben.
Zu den wichtigsten Funktionen zählen:

  • Sicherer Remote Zugriff auf die Geräte (Tunnel)
  • Verwaltung von Software, insbesondere die Verteilung von Updates
  • Sicherer Datenkanal in die Cloud mit automatischer Zwischenspeicherung für den Fall, dass die Verbindung nicht möglich ist
  • Eine Laufzeitumgebung, um z.B. Serverless-Anwendungen, wie z.B. Lambda auszuführen

Der Workflow sieht dabei primär vor, die Greengrass Installation in einen Container zu packen und diesen auf dem Edge-Device laufen zu lassen. Da sich tendenziell auch viel häufiger Änderungen an der Anwendung selbst ergeben, als es z.B. nötig ist, eine neue Greengrass Version einzusetzen oder die Firmware des Edge-Devices zu aktualisieren, ist hiermit zumindest schon einmal ein großer Teil der Deployments von Änderungen an der Software sehr einfach möglich.

Firmware und Betriebssystemupdates

Was ist aber mit dem ganzen Rest: Updates von Greengrass selbst, das Betriebssystem, sonstige Systemkomponenten, wie Treiber, Bibliotheken, usw.?
Auch diese Teile des Systems müssen regelmäßig aktualisiert werden!
Um dies zu ermöglichen, ist ein Edge-Device mit einer zuverlässigen Gesamtarchitektur notwendig. Das bedeutet, das es möglich sein muss, die Basis Softwarekomponenten upzudaten, ohne hier im Urschleim der Linux Paketverwaltung herumzuwühlen.
Aus unserer Sicht hat HARTING hier mit der MICA Box ein hervorragendes Gesamtsystem gebaut, welches den Betreiber von diesen Arbeiten großenteils entlastet.
Was bedeutet das in der Praxis?
Bei der HARTING MICA stellt der Hersteller das Basissystem (Linux) sowie diverse Funktionscontainer zur Verfügung. Das Besondere dabei ist der Umstand, dass alle vom Hersteller gelieferten Container mit einer Web-Socket Schnittstelle ausgestattet sind. Damit wird es einem ermöglicht, sehr einfache die Container zu Verwalten und zu Konfigurieren.
Auf diese Weise ist es mit sehr geringem Aufwand möglich, über den von SIC! Software verfügbaren Greengrass Container alle anderen Container auf der MICA und das Betriebssystem selbst über einige wenige API-Aufrufe vollständig zu steuern. Der Greengrass Container ist der Master und somit in der Lage, neue Container zu installieren, bestehende Upzudaten, etc.
Ohne die Bereitstellung dieser Basisfunktionalität von HARTING müsste der geneigte Nutzer das alles selbst in die Hand nehmen. Insbesondere das Update der Basissoftware eines Edge-Device, wie der MICA, ist ohne diese Vorarbeiten nur mit erheblichem Entwicklungsaufwand zu bewerkstelligen.
Um dies zu gewährleisten greift Harting hier auf Container zurück.
Allerdings setzt man hier aufgrund der nur geringen Hardware-Ressourcen, die in der Regel auf einem Edge-Device zur Verfügung stehen, nicht auf Technologien wie Docker oder Podman, sondern verwendet die Basis-Technologie LXC.
Mit Containern kann man alle diese Abhängigkeiten als ein einzelnes Image zur Verfügung stellen, dass mit wenig Handgriffen installiert bzw. aktualisiert werden kann.
Nachdem nun die Application(s) sowie das Image über eine CD-Pipeline ausgerollt werden können, bleibt noch die Aktualisierung des Host-OS bzw. der Firmware selbst.
Hier gilt es ein Edge-Device auszuwählen, das per Netzwerk aktualisiert werden kann.
Integrieren wir nun unseren Management-Dienst mit AWS Greengrass, erhalten wir einen zentralen Management-Hub in der Cloud, der alle Teilbereiche unseres Edge-Devices verwaltet – von Firmware über LXC-Container bis hin zur Greengrass Installation.
Und damit ist dann das Ziel eines jeden Systemadministrators erreicht: Ein transparenter, durchgängiger Prozess, um alle Ebenen der Software eines professionell eingesetzten Edge-Computing-Devices zu verwalten.

Fazit

Unter Verwendung der HARTING MICA und von AWS Greengrass lassen sich grundsätzlich alle Aspekte eines Edge-Devices zentral verwalten. Integrieren wir diese nun in einen Management-Dienst, erhalten wir einen zentralen Management-Hub, der alle Teilbereiche unseres Edge-Devices verwaltet – von Firmware über LXC-Container bis hin zur Greengrass Installation. Außerdem lassen sich so der Status und die Zustände aller Komponenten zentral überwachen, und im Falle von Problemen können diese schnell identifiziert werden oder sogar vor dem Eintreten erkannt und beseitigt werden.


Einige IoT Praxis-Beispiele für den Einsatz der der HARTING MICA mit AWS Greengrass finden Sie bei unseren IoT Case Studies.

Z.B. beim Technologiedemonstrator für vernetzte Ventilatoren, einem Projekt der Firma Rosenberg Ventilatoren:

 


Stehen Sie aktuell vor einer Edge Computing Herausforderung?

Gerne unterstützen unsere IoT Experten Sie bei Ihren Projekten und helfen Ihnen dabei, möglichst optimale Lösungen zu finden.

Sprechen Sie uns an: Kontakt

 


 

Ein seit mehr als 50 Jahren bekanntes Geschäftsmodell erlangt durch die Möglichkeiten der Digitalisierung mit einem Mal ein komplett neues Gewicht und hat weltweit bereits mehr als 50 % aller Fertigungsunternehmen dazu gebracht, ihr Geschäftsmodell zu überdenken und teilweise sogar vollkommen umzukrempeln. Die Rede ist von „Servitization“. Doch was ist das und wem nützt es wirklich?


Was ist Servitization?

„Servitization ist eine Geschäftsmodellinnovation, die für produzierende Unternehmen relevant ist und die Änderung des bisherigen Angebotsportfolios weg von nur Sachgütern und hin zu einer Kombination aus Sachgütern und Dienstleistungen bezeichnet. Damit spiegelt sie den gesamtwirtschaftlichen Trend zur Dienstleistungsgesellschaft auf Unternehmensebene wider.“ – Wikipedia

Anders gesagt: Hersteller ergänzen ihre Produkte durch Services oder tauschen diese sogar komplett damit aus. Dabei sind viele unterschiedliche individuelle Implementierungen möglich und es lassen sich drei grundsätzliche Service-Typen unterscheiden: Base Services, Intermediate Services und Advanced Services. [1]

  • Base Services sind solche Dienstleistungen, die zusätzlich zur Produktbereitstellung kommen. Dies ist in der Regel eine Bereitstellung von zusätzlichen zugehörigen Produkten, wie zum Beispiel Ersatzteile.
  • Intermediate Services dienen dazu, die Funktion eines Produktes und dessen Leistungsfähigkeit zu garantieren, beispielsweise durch Überwachung des Betriebs und präventive Wartungsarbeiten.
  • Advanced Services bedeuten, dass ein Kunde kein physisches Produkt, sondern anstelle dessen eine Leistung erwirbt und pro solch einer erbrachten Leistung bezahlt. Es findet hier vermehrt kein Eigentumswechsel des Produktes statt. Denkbar sind hier viele verschiedene Möglichkeiten.

Ein bekanntes und oft zitiertes Beispiel für die Anwendung eines Advanced Service, bietet der Triebwerkhersteller Bristol Siddeley. Dieser hat mit dem „Power-by-the Hour“-Modell bereits in den 1960er Jahren ein Servitization-Modell eingeführt. Nachdem Bristol Siddeley 1968 von Rolls Royce gekauft wurde, wurde das Konzept aufgegriffen, ausgebaut und seitdem als Service namens TotalCare bis heute angeboten.
Dabei geht es darum, die Triebwerke für Flugzeuge nicht mehr im klassischen Sinne an den Flugzeugbauer zu verkaufen. Der Flugzeugbauer bezahlt lediglich für die tatsächlichen Betriebsstunden des Triebwerks. Das Gerät bleibt dabei vollständig Eigentum von Rolls Royce, die sich dann auch um Wartung und Reparatur kümmern. Rolls-Royce war es so möglich, die Erlösströme zu stabilisieren und höhere Umsätze zu erzielen. Gleichzeitig bietet es dem Kunden wiederum planbare Betriebskosten, reduzierte finanzielle Risiken und ein effizienteres und zuverlässigeres Produkt.

Servitization findet aber auch vereinzelt in anderen Branchen Anwendung. Während Beispiele wie die Betreuung einer Maschine durch den Hersteller relativ naheliegend sind, findet man Servitization auch immer häufiger in zunächst unüblich erscheinenden Bereichen. So hat zum Beispiel das schwedische Bauunternehmen Skanska ein Krankenhaus gebaut und ist nun im Anschluss auch der Betreiber des Krankenhauses.

Ein Servitization Potenzial liegt für einen Hersteller meistens dann vor, wenn die Service-Angebote außerhalb der Kernkompetenz des Kunden liegen. Es entsteht durch sie also zusätzlicher Aufwand und Kosten und somit kein Gewinn für den Kunden.

 

Vorteile durch Servitization

Für Hersteller und Kunden bietet Servitization einen gemeinsamen Fokus auf den reibungslosen Betrieb. Es ergibt sich für Hersteller und Kunde eine Angleichung der Anforderungen an das Produkt. Für Kunden steht in der Regel ein möglichst effizientes und langlebiges Produkt im Vordergrund. Der Hersteller verdient allerdings unter Umständen mehr an seinem Produkt, wenn es gegen Abrechnung repariert wird oder wenn aufgrund eines Defektes ein neues (Austausch-) Produkt verkauft werden kann. Durch Servitization entsteht nun ein Zustand, indem sowohl für den Kunden, als auch den Hersteller, ein wartungsarmes Produkt den größten finanziellen als auch wirtschaftlichen Nutzen bietet.
Da der Hersteller nun auch z.B. für die Wartung zuständig ist, werden für ihn die Bedürfnisse des Kunden deutlich relevanter. Je zuverlässiger und wartungsärmer das Produkt, um so besser für den Hersteller, da jetzt weniger Wartungsarbeiten ausgeführt werden müssen und mehr Betriebsstunden abgerechnet werden können. Überspitzt könnte man sagen, dass theoretisch betrachtet der Hersteller selber die Rolle übernimmt, die bisher sein Kunde eingenommen hatte. Wenn so die Effizienz und Langlebigkeit von Produkten verbessert werden kann, wird im selben Moment der Betrieb automatisch ressourcenschonender und nachhaltiger.

Darüber hinaus kann man Mithilfe eines Servitization-Modells die Beziehung zu Kunden festigen und vertiefen und es ist einem Unternehmen möglich, sich von seinen Mitbewerbern durch mehr als nur die Produktqualität und den Preis zu differenzieren. Ein Lieferant von Sachgütern lässt sich schneller austauschen, als eine enge Zusammenarbeit mit einem Kunden. Außerdem lässt sich so bei einem Kunden der Ausschluss eines Mitbewerbers erzielen.

Natürlich wirkt sich ein Servitization-Modell auch auf den Umsatz aus. So lässt sich durch Service-Angebote beispielsweise ein stetiger Erlösstrom bilden und damit die Erlöse stabilisieren.
Durch die Positionierung als Dienstleister am Markt, kann zusätzlich auch die Wettbewerbsfähigkeit für die Zukunft gesichert werden.

 

Wann ist Servitization für mich lohnenswert?

Als Hersteller ist es zunächst wichtig zu erkennen, ob Servitization Potential vorhanden ist und worin es liegt. Es gilt herauszufinden, welche Aufgaben ein Produkt bei einem Kunden auslöst und welche dieser Aufgaben der Hersteller selbst bewältigen kann. Diese Aufgaben bilden typischerweise immer dann ein geeignetes Servitization Potential, wenn sie außerhalb der Kernkompetenzen des Kunden aber innerhalb der Kernkompetenzen des Herstellers liegen.

Ein typisches Beispiel wäre hier wieder die Wartung von Maschinen. Wer, wenn nicht der Hersteller selber weiß am besten, wie sich seine Maschinen verhalten sollten und wie sie optimal zu warten sind. Darüber hinaus können aber auch andere Bereiche wie der Betrieb, die Installation oder viele weitere individuelle Vorgänge ein Servitization Potential bergen. Wenn erkannt wurde, in welchen Bereichen Servitization Potential vorhanden ist, sollte geprüft werden ob dies einen wirtschaftlichen Nutzen bietet. Hierfür gibt es verschiedene Anhaltspunkte, z.B.
Wie viele bereits in Betrieb befindliche Einheiten gibt es pro neu Verkaufter Einheit? Je mehr Einheiten sich bereits im Betrieb befinden, um so sinnvoller ist es, mit diesen Geschäfte zu machen, statt sich auf die Geschäfte mit neuen Einheiten zu konzentrieren.
Wie ist das Verhältnis der Kosten über die gesamte Produktlebenszeit zu den Anschaffungskosten für den Kunden? Je höher dieses Verhältnis ist, um so lohnenswerter ist das Service-Geschäft.
Weniger Lohnenswert ist eine Dienstleistung zum Beispiel dann, wenn ein Lieferant oder Hersteller im Produktgeschäft zum Beispiel durch Patente oder besondere Technologien sehr stark ist.

So individuell Service Angebote sein können, so unterschiedlich lässt sich auch die Wirtschaftlichkeit eines solchen Service-Angebots ermitteln. Im Endeffekt sollte jeder einzelne Fall separat geprüft werden.

 

Wie gestaltet man einen effizienten Service?

Servitization ist – wie am Rolls Royce Beispiel zu sehen ist – nicht nur durch die fortschreitende Digitalisierung entstanden. Aber die Digitalisierung bietet neue Möglichkeiten, ein Servitization-Modell immer optimaler umzusetzen.

Denn der Servitization Ansatz profitiert von den gleichen oder zumindest von vergleichbaren Technologien, die auch verschiedenen IoT-Anwendungen oder der Industrie 4.0 zugrunde liegen: Sammlung, Übermittlung, Speicherung und Analyse von Daten.

In verschiedenen Bereichen hat die SIC! Software GmbH bereits verschiedenste Sensoren zum Sammeln von Daten eingesetzt und damit ermöglicht, z.B. den Betrieb einer Maschine zu überwachen. Dabei sind verschiedene Möglichkeiten der Analyse denkbar. Ausgelegt auf bloßes Erkennen der Betriebszeit über kleine Änderungen und Abweichungen im Betriebsablauf bis hin zum Erkennen von kompletten Ausfällen.
Bei einer geeigneten Auswertung sind die Daten außerdem dazu geeignet, Wartungsintervalle flexibel auf das tatsächliche Nutzungsverhalten der Maschinen anzupassen. Durch das Überwachen von Verschleißteilen kann ein möglicher Betriebsausfall der Maschine vorhergesagt werden und vorbeugend gehandelt werden („Predictive Maintenance“). So kann die Betriebszeit der Maschine maximiert werden, da unvorhergesehene Ausfälle und Wartungsarbeiten minimiert werden.

Es ist außerdem möglich, das Übermitteln und Visualisieren der Daten in Echtzeit zu realisieren. Über die passende IoT Cloud-Anwendung können die Art der Visualisierung und Alarme individuell konfiguriert und so auf jeden Anwendungsfall abgestimmt werden. Dies ermöglicht in Echtzeit auf Veränderungen im Betriebsablauf zu reagieren, Optimierungen vorzunehmen werden und Daten für weitere Analysen bereitzustellen.

So ist es möglich, eine Abrechnung basierend auf Betriebszeit zu realisieren, vollständig automatisiert Servicetechniker zu Wartungs- und Instandsetzungsarbeiten zu rufen, Verbrauchs- und Verschleißteile automatisch nachzubestellen, eine Rund-um-die-Uhr-Betreuung zu ermöglichen und noch viele weitere denkbare Anwendungsfälle umzusetzen.

Auch über den Einsatz von Servitization-Modellen hinaus birgt die Möglichkeit, Daten über seine Produkte zu sammeln, viele Vorteile. Diese lassen sich unter anderem zur Optimierung der Produkte, Entwicklung von Innovationen und letztendlich auch zur Differenzierung gegenüber Mitbewerbern im Markt einsetzen.

 


[1] [Baines, Tim & Lightfoot, Howard: Made to Serve: How manufacturers can compete through servitization and product service systems. Wiley, 2013, S. 64–68]

Eine kurze Einführung in das Paradigma der Serverless-Architekturen – am Beispiel der AWS Cloud


Da das Schlagwort „serverlose Technologien“ im Kontext der Cloud Nutzung immer wieder genannt wird, fragen Sie sich möglicherweise, was den „serverlos“ in der Praxis genau bedeutet.

Es ist allgemein bekannt, dass man keine Rechenleistung (Compute-Workload) ohne einen physisch vorhandenen Computer bzw. Server erbringen kann. Das führt zu der Frage, wie spiegelt sich dies in den verschiedenen Serverless-Technologien wie Docker, Kubernetes und Function-as-a-Service (FaaS) wider?

Beginnen wir damit warum man diese Technologien überhaupt als „serverless“ bezeichnet, wenn doch immer noch ein Server zur eigentlichen Ausführung benötigt wird?

Ohne Software geht es nicht

Im Grunde genommen ist es aber ganz einfach: Es kommt auf den Betrachtungswinkel an.

In einer klassischen IT-Umgebung würde man einen Server bereitstellen, seine Anwendung dort installieren und diese dann dort ausführen lassen. Dabei muss man natürlich dafür sorgen, dass alle technischen Abhängigkeiten der betreffenden Anwendung (wie z.B. Sprachbibliotheken, Datenbanken, Visualisierungstools, usw.) auf dem betreffenden Server installiert sind.

Wenn ein neues Release der Anwendung verfügbar ist oder man weitere Ressourcen benötigt, weil das System zum Beispiel mehr Rechenleistung erbringen soll, muss ein Entwickler oder Administrator auf den Server zugreifen und dort die betreffende Software installieren. Das kann zwar mit Tools wie Configuration-Management, Continous-Delivery-Pipelines, zentralisiertem Logging, usw. vereinfacht werden, aber am Ende des Tages muss immer eine Person, also ein Entwickler oder Administrator, zumindest etwas Kenntnis über den betreffenden Server und seine darauf installierten Anwendungen haben. Nur dann ist sie in der Lage, im Falle, dass es technische Probleme gibt, nach einer Lösung zu suchen und diese zu beheben.

Container

An diesem Punkt müssen wir einen kleinen Abstecher in das grundlegende Konzept von Serverless machen – den sogenannten „Container“.

Ein „Container“ ermöglicht es eine Anwendung inklusive der benötigten Systemumgebung auszuliefern. Dies macht es überflüssig, anwendungsspezifische Abhängigkeiten separat zu installieren, da sie bereits zusammen mit der Anwendung als Image ausgeliefert werden.
Und daraus resultiert auch der große Vorteil von Containern: Sie laufen praktisch überall.

Mit dem Begriff „Container“ ist übrigens nicht unbedingt nur ein „Docker Container“ gemeint, sondern auch der gute alte LXC Container (worauf Docker basiert) oder jede andere Container-Technologie.

Die Nutzung von Containern verschiebt die Verwaltung der Abhängigkeiten und die Bereitstellung der für die Ausführung der Anwendung erforderliche Umgebung vom Administrator des Servers hin zu den Entwicklern der Anwendung.

Ich bin mir sicher, dass auch Ihr Betriebsteam ein Mitspracherecht haben will und sollte. Im Wesentlichen ist dies der Punkt, an dem Sie eine DevOps-Kultur oder noch besser eine DevSecOps-Kultur benötigen.

Container können verwendet werden, ohne große Änderungen in der klassischen Umgebung umzusetzen. Es ändern sich lediglich ein paar Zuständigkeiten.

Geht man einen Schritt weiter bei der Verwendung von Serverless-Technologien, verschiebt sich die Interaktion zwischen Entwickler und Anwendung vom Server zu dem gewählten Orchestration-Tool (ich verwende für den Rest des Artikels Kubernetes als Beispiel, aber dasselbe gilt auch für andere Tools). Es gibt kein direktes Deployen von Anwendungen auf dem Server oder manuelle Konfiguration von Netzwerk-Komponenten, z.B. ein Load-Balancer. Man übergibt Kubernetes einfach eine neue Konfiguration und die neuste Version der Anwendung wird auf dem verfügbaren Server (Node) oder auf mehreren Servern (Nodes) ausgeliefert.

Doch hier sind sie ja schon wieder, diese verflixten Server!?!

Ohne Server geht es nicht

Die Verwaltung dieser Server häng davon ab ob man sein Kubernetes-Cluster On-Premise oder in der Cloud als Managed-Service betreibt. Das macht einen großen Unterschied, wenn es darum geht, sein Cluster zu verwalten.

Läuft es On-Premise, so muss man das Kubernetes-Cluster selbst verwalten und pflegen. Die Systemadministratoren müssen sich nicht länger mit dem Verwalten einzelner Anwendungen beschäftigen, sondern nur um das Cluster (oder mehrere Cluster) und alle dazugehörigen Server kümmern.

Wenn Kubernetes als Managed-Service in einer Cloud wie Amazon (AWS) Elastic Kubernetes Service (EKS), Google (GCP) Google Kubernetes Engine (GKE) oder Azure Kubernetes Service (AKS) läuft, reduziert sich der Verwaltungsaufwand aufgrund der automatischen Updates und des Betriebs der Master-Nodes durch den Provider drastisch. Das einzige, was von dem Prozess übrig bleibt, ist die Sicherheitskonfiguration der Umgebung.

In beiden Fällen hat man immer noch Zugriff auf die Server VM-Instanzen, auch wenn man einen Cloud-Service verwendet, da die Server als ganz normale virtuelle Maschinen bereitgestellt werden. Aber nachdem das Cluster eingerichtet ist, kann man nach Belieben Server zum Cluster hinzufügen und das Bereitstellen geschieht automatisch. In der On-Premise Variante kommt man um den normalen Verwaltungsprozess nicht herum.

Also hat man bei einem verwalteten Kubernetes-Service zwar immer noch Server aus denen der Cluster besteht und man verwaltet lediglich, wie stark automatisiert es skaliert, aber die Server muss man nicht direkt verwalten.

Somit sind wir schon ein wenig weiter mit unserer Erwartung an eine Serverless-Infrastruktur: Der Entwickler sieht den Server nicht mehr und man muss ihn auch nicht mehr verwalten.

Weg mit der Zuständigkeit

Aber können wir noch ein Stück weiter gehen und Server komplett aus unserer Zuständigkeit entfernen?

Ja, das können wir! Da jedoch das Rechnen ohne Computer / Server nicht möglich ist, ist dies nur durch Dienste möglich, bei denen die untergeordneten Rechenressourcen von jemand anderem verwaltet werden und entsprechend abstrahiert sind.

AWS bietet derzeit den Fargate-Service an, mit dem Sie Docker-Container ausführen können, ohne Compute-Instances (EC2) bereitzustellen, auf denen die Container ausgeführt werden. Dies bedeutet, dass Sie Ihre Docker-Container ausführen können, ohne jemals einen Server zu sehen oder zu verwalten. Es besteht auch die Möglichkeit, dass AWS in Kürze eine Option anbietet, dass EKS-Cluster von Fargate unterstützt werden (https://github.com/aws/containers-roadmap/issues/32). Dies würde bedeuten, dass auch Server (EC2-Instanzen) aus Ihrem EKS-Cluster wegfallen.

Eine andere Möglichkeit, die Server, die Sie mit Rechenleistung versorgen, vollständig loszuwerden, ist FaaS. AWS bietet den Dienst AWS Lambda an, in dem die Anwendung nur dann ausgeführt wird, wenn sie tatsächlich gebraucht wird. Der Service wird ausgeführt, wenn er ausgelöst wird. Wie eine Funktion ausgelöst werden kann, hängt von dem von Ihnen ausgewählten Cloud-Anbieter ab, da diese alle unterschiedliche Funktionsumfänge in diesem Bereich haben. Die Verwendung des systemeigenen Dienstes der Plattform für Nachrichtenwarteschlangen und HTTPs funktioniert mit allen Anbietern. FaaS führt Ihre Anwendung auch in einem Container aus – dies ist möglicherweise nicht direkt ersichtlich, wenn Sie die Dienste verwenden, da Sie kein Container-Image bereitstellen. Ihre Anwendung wird jedoch in einem Container ausgeführt, um sie zu isolieren. GCP bietet außerdem auch einen Dienst „Cloud Run“ an, welcher zwar Docker Container unterstützt aber aktuell nur über einen HTTPS Aufruf getriggert werden kann.

 

Fazit

Sie können nur dann wirklich „serverlos“ werden, wenn Sie Managed-Services von Cloud-Providern wie z.B. AWS verwenden, welche die Interaktion mit den Servern so weit abstrahieren, dass Sie diese nicht mehr direkt verwalten müssen.

Das bedeutet in der Regel, dass die Architektur einer Anwendung entsprechend ausgelegt werden muss. Ja, das macht zunächst ein wenig Arbeit, aber die gesparten Kosten sowohl bei der Administration der Anwendung als auch beim Betrieb in der Cloud machen sich erfahrungsgemäß recht schnell bezahlt.


Gerne beraten Sie unsere Spezialisten zum Thema Serverless mit AWS und unterstützen Sie bei Ihren IoT-Projekten.

Nehmen Sie Kontakt mit uns auf:

zum Kontaktformular


 

Wenn die ersten Konzeptstudien eines IoT-Projektes das Entwicklungslabor verlassen und mit der industriellen Realität konfrontiert werden, geraten die vielfach eingesetzten populären Bastel-Platinen-Rechner wie Raspberry PI oder Beaglebone beim Einsatz als Edge Computing Device schnell an ihre Grenzen. Dann ist eine leistungsfähige, professionelle Hardwareplattform erforderlich.

Hier hat sich in unserem Hause in vielen IoT-Projekten im Industrieumfeld die HARTING MICA® (Modular Industry Computing Architecture) als kleines, leistungsfähiges Edge-Computing System überaus bewährt.

Der gesamte mechanische Aufbau ist sehr robust gestaltet. Egal ob Staub, Öl-Nebel oder feine Eisenspäne aus dem CNC-Bohrwerk – die MICA® Box erfüllt die Schutzklasse IP67 und lässt sich davon nicht beeindrucken. Ebenso genügen die an der MICA® Box verbauten Steckverbinder höchsten Ansprüchen an Lebensdauer und Kontaktsicherheit. Damit ist die MICA® Box ohne Einschränkungen industrietauglich.

HARTING MICA als IoT Edge Computing Device 01

Dem interessierten Leser möchten wir deshalb hier einen Einblick in das Innenleben dieses Edge-Computing Devices geben.

Merkmale der MICA® BOX

Zunächst ist die Harting MICA® BOX eine sehr unscheinbare kleine Box aus Aluminium die nach IP67 geprüft ist. Die Hardware des Systems ist mit einem 1 GHz ARM-Prozessor, 1 GB RAM und 4 GB eMMC Speicher ausgestattet. Zudem kann das System um bis zu weitere 32 GB Flash über eine Micro-SD-Karte nachgerüstet werden.

Als Betriebssystem kommt ein virtualisiertes, auf dem Kernel 3.2.X basierendes, LINUX zum Einsatz. Dies kann mit einer Vielzahl von weiteren Betriebssystem-Komponenten erweitert werden. Zu den Möglichkeiten, die hier auf der Softwareseite beim Einsatz als Edge Computing Device bestehen, folgt in Kürze ein weiterer Blog-Artikel.

Das Gehäuse

Die MICA® Box besitzt ein robustes Alu-Druckgussgehäuse aus einer Aluminum-Slilizium-Magnesium-Legierung (AlSi10Mg). Das gibt dem Gehäuse eine hohe mechanische Stabilität, gute thermische Eigenschaften als passiver Kühlkörper und ein geringes Gewicht.

Das mechanische Konzept der MICA® erlaubt die flexible, modulare Konfiguration mit verschiedenen Schnittstellen. Dabei ist stets die Schutzklasse IP67 erfüllt und die MICA® kann in einem Temperaturbereich von -25 Grad Celsius bis +75 Grad Celsius im Dauerbetrieb eingesetzt werden.

Die Rückwand der MICA® Box ist mit einer Gummidichtung versehen, ebenso alle Bohrungen und Durchlässe für Steckverbinder, LED usw.

Nach dem Entfernen der Schrauben kann die Rückwand abgenommen und der Kühlkörper mit den einzelnen Platinen herausgezogen werden.

Die Module der MICA® Box

Es folgt hier der Blick auf das modulare Platinen-Konzept der MICA® Box. Oben in der Mitte die zentrale Prozessor-Platine mit dem SD-Karten Halter. Links die I/O-Platine – in diesem Falle die Version mit zwei USB 2.0 Schnittstellen. Rechts die Stromversorgungs- und Netzwerkplatine mit LAN-POE-Anschluss und Streckverbindern für eine externe 24V Stromversorgung.

Der Prozessor der MICA® Box ist auf der Unterseite der CPU-Platine montiert. Die Kühlung erfolgt passiv über einen groß dimensionierten Alu-Kühlkörper.

Hier der Blick auf die CPU-Platine mit entfernten Schnittstellenmodulen.

Die Verbindung zwischen CPU Platine und den Schnittstellenmodulen erfolgt über einen Kontaktbügel mit leitfähigem Gummi. Damit ist die Verbindung elektrisch sehr sicher und gegen Vibration geschützt.

So entsteht eine kompakte Einheit von Kühlkörper, Platinen und Steckverbindern die in das Gehäuse eingeschoben wird.

Im Inneren des Gehäuses sorgen dann großzügig dimensionierte Auflageflächen für eine formschlüssige Verankerung der Elektronik im Inneren. Gleichzeitig wird der Kontaktbügel mit definierter Kraft auf die Platinen gedrückt und so eine vibrationssichere elektrische Verbindung der einzelnen Module im Inneren der MICA® Box garantiert.

Es ist dieser intelligente mechanische Aufbau, dem die Harting MICA® Box ihre Widerstandskraft im industriellen Umfeld verdankt.

Hier zum Schluß noch ein Blick auf alle Bauteile einer MICA® Box.

Zusammenfassung

Mit der Harting MICA® Box steht ein Edge-Computing Device mit einer sehr hohen Fertigungsqualität „Made in Germany“ zur Verfügung. Die längerfristige Verfügbarkeit ist durch die Firma HARTING garantiert.


Sie haben eine prototypische IoT Anwendung lauffähig und wollen diese jetzt im Feld erproben?

Sie wollen Sicherheit, dass Ihr wertvolles IoT-Projekt nicht wegen unzulänglicher Edge-Computing Hardware verzögert wird oder gar scheitert?

Dann sprechen Sie uns an.

Gemeinsam mit unseren IoT-Experten finden wir sicherlich einen Weg, Ihr bestehendes IoT-Pilotprojekt von simpler Labor-Hardware wie dem Raspberry Pi auf eine industrietaugliche Edge Computing Plattform wie die HARTING MICA® Box zu heben.