Eine kurze Einführung in das Paradigma der Serverless-Architekturen – am Beispiel der AWS Cloud


Da das Schlagwort „serverlose Technologien“ im Kontext der Cloud Nutzung immer wieder genannt wird, fragen Sie sich möglicherweise, was den „serverlos“ in der Praxis genau bedeutet.

Es ist allgemein bekannt, dass man keine Rechenleistung (Compute-Workload) ohne einen physisch vorhandenen Computer bzw. Server erbringen kann. Das führt zu der Frage, wie spiegelt sich dies in den verschiedenen Serverless-Technologien wie Docker, Kubernetes und Function-as-a-Service (FaaS) wider?

Beginnen wir damit warum man diese Technologien überhaupt als „serverless“ bezeichnet, wenn doch immer noch ein Server zur eigentlichen Ausführung benötigt wird?

Ohne Software geht es nicht

Im Grunde genommen ist es aber ganz einfach: Es kommt auf den Betrachtungswinkel an.

In einer klassischen IT-Umgebung würde man einen Server bereitstellen, seine Anwendung dort installieren und diese dann dort ausführen lassen. Dabei muss man natürlich dafür sorgen, dass alle technischen Abhängigkeiten der betreffenden Anwendung (wie z.B. Sprachbibliotheken, Datenbanken, Visualisierungstools, usw.) auf dem betreffenden Server installiert sind.

Wenn ein neues Release der Anwendung verfügbar ist oder man weitere Ressourcen benötigt, weil das System zum Beispiel mehr Rechenleistung erbringen soll, muss ein Entwickler oder Administrator auf den Server zugreifen und dort die betreffende Software installieren. Das kann zwar mit Tools wie Configuration-Management, Continous-Delivery-Pipelines, zentralisiertem Logging, usw. vereinfacht werden, aber am Ende des Tages muss immer eine Person, also ein Entwickler oder Administrator, zumindest etwas Kenntnis über den betreffenden Server und seine darauf installierten Anwendungen haben. Nur dann ist sie in der Lage, im Falle, dass es technische Probleme gibt, nach einer Lösung zu suchen und diese zu beheben.

Container

An diesem Punkt müssen wir einen kleinen Abstecher in das grundlegende Konzept von Serverless machen – den sogenannten „Container“.

Ein „Container“ ermöglicht es eine Anwendung inklusive der benötigten Systemumgebung auszuliefern. Dies macht es überflüssig, anwendungsspezifische Abhängigkeiten separat zu installieren, da sie bereits zusammen mit der Anwendung als Image ausgeliefert werden.
Und daraus resultiert auch der große Vorteil von Containern: Sie laufen praktisch überall.

Mit dem Begriff „Container“ ist übrigens nicht unbedingt nur ein „Docker Container“ gemeint, sondern auch der gute alte LXC Container (worauf Docker basiert) oder jede andere Container-Technologie.

Die Nutzung von Containern verschiebt die Verwaltung der Abhängigkeiten und die Bereitstellung der für die Ausführung der Anwendung erforderliche Umgebung vom Administrator des Servers hin zu den Entwicklern der Anwendung.

Ich bin mir sicher, dass auch Ihr Betriebsteam ein Mitspracherecht haben will und sollte. Im Wesentlichen ist dies der Punkt, an dem Sie eine DevOps-Kultur oder noch besser eine DevSecOps-Kultur benötigen.

Container können verwendet werden, ohne große Änderungen in der klassischen Umgebung umzusetzen. Es ändern sich lediglich ein paar Zuständigkeiten.

Geht man einen Schritt weiter bei der Verwendung von Serverless-Technologien, verschiebt sich die Interaktion zwischen Entwickler und Anwendung vom Server zu dem gewählten Orchestration-Tool (ich verwende für den Rest des Artikels Kubernetes als Beispiel, aber dasselbe gilt auch für andere Tools). Es gibt kein direktes Deployen von Anwendungen auf dem Server oder manuelle Konfiguration von Netzwerk-Komponenten, z.B. ein Load-Balancer. Man übergibt Kubernetes einfach eine neue Konfiguration und die neuste Version der Anwendung wird auf dem verfügbaren Server (Node) oder auf mehreren Servern (Nodes) ausgeliefert.

Doch hier sind sie ja schon wieder, diese verflixten Server!?!

Ohne Server geht es nicht

Die Verwaltung dieser Server häng davon ab ob man sein Kubernetes-Cluster On-Premise oder in der Cloud als Managed-Service betreibt. Das macht einen großen Unterschied, wenn es darum geht, sein Cluster zu verwalten.

Läuft es On-Premise, so muss man das Kubernetes-Cluster selbst verwalten und pflegen. Die Systemadministratoren müssen sich nicht länger mit dem Verwalten einzelner Anwendungen beschäftigen, sondern nur um das Cluster (oder mehrere Cluster) und alle dazugehörigen Server kümmern.

Wenn Kubernetes als Managed-Service in einer Cloud wie Amazon (AWS) Elastic Kubernetes Service (EKS), Google (GCP) Google Kubernetes Engine (GKE) oder Azure Kubernetes Service (AKS) läuft, reduziert sich der Verwaltungsaufwand aufgrund der automatischen Updates und des Betriebs der Master-Nodes durch den Provider drastisch. Das einzige, was von dem Prozess übrig bleibt, ist die Sicherheitskonfiguration der Umgebung.

In beiden Fällen hat man immer noch Zugriff auf die Server VM-Instanzen, auch wenn man einen Cloud-Service verwendet, da die Server als ganz normale virtuelle Maschinen bereitgestellt werden. Aber nachdem das Cluster eingerichtet ist, kann man nach Belieben Server zum Cluster hinzufügen und das Bereitstellen geschieht automatisch. In der On-Premise Variante kommt man um den normalen Verwaltungsprozess nicht herum.

Also hat man bei einem verwalteten Kubernetes-Service zwar immer noch Server aus denen der Cluster besteht und man verwaltet lediglich, wie stark automatisiert es skaliert, aber die Server muss man nicht direkt verwalten.

Somit sind wir schon ein wenig weiter mit unserer Erwartung an eine Serverless-Infrastruktur: Der Entwickler sieht den Server nicht mehr und man muss ihn auch nicht mehr verwalten.

Weg mit der Zuständigkeit

Aber können wir noch ein Stück weiter gehen und Server komplett aus unserer Zuständigkeit entfernen?

Ja, das können wir! Da jedoch das Rechnen ohne Computer / Server nicht möglich ist, ist dies nur durch Dienste möglich, bei denen die untergeordneten Rechenressourcen von jemand anderem verwaltet werden und entsprechend abstrahiert sind.

AWS bietet derzeit den Fargate-Service an, mit dem Sie Docker-Container ausführen können, ohne Compute-Instances (EC2) bereitzustellen, auf denen die Container ausgeführt werden. Dies bedeutet, dass Sie Ihre Docker-Container ausführen können, ohne jemals einen Server zu sehen oder zu verwalten. Es besteht auch die Möglichkeit, dass AWS in Kürze eine Option anbietet, dass EKS-Cluster von Fargate unterstützt werden (https://github.com/aws/containers-roadmap/issues/32). Dies würde bedeuten, dass auch Server (EC2-Instanzen) aus Ihrem EKS-Cluster wegfallen.

Eine andere Möglichkeit, die Server, die Sie mit Rechenleistung versorgen, vollständig loszuwerden, ist FaaS. AWS bietet den Dienst AWS Lambda an, in dem die Anwendung nur dann ausgeführt wird, wenn sie tatsächlich gebraucht wird. Der Service wird ausgeführt, wenn er ausgelöst wird. Wie eine Funktion ausgelöst werden kann, hängt von dem von Ihnen ausgewählten Cloud-Anbieter ab, da diese alle unterschiedliche Funktionsumfänge in diesem Bereich haben. Die Verwendung des systemeigenen Dienstes der Plattform für Nachrichtenwarteschlangen und HTTPs funktioniert mit allen Anbietern. FaaS führt Ihre Anwendung auch in einem Container aus – dies ist möglicherweise nicht direkt ersichtlich, wenn Sie die Dienste verwenden, da Sie kein Container-Image bereitstellen. Ihre Anwendung wird jedoch in einem Container ausgeführt, um sie zu isolieren. GCP bietet außerdem auch einen Dienst „Cloud Run“ an, welcher zwar Docker Container unterstützt aber aktuell nur über einen HTTPS Aufruf getriggert werden kann.

 

Fazit

Sie können nur dann wirklich „serverlos“ werden, wenn Sie Managed-Services von Cloud-Providern wie z.B. AWS verwenden, welche die Interaktion mit den Servern so weit abstrahieren, dass Sie diese nicht mehr direkt verwalten müssen.

Das bedeutet in der Regel, dass die Architektur einer Anwendung entsprechend ausgelegt werden muss. Ja, das macht zunächst ein wenig Arbeit, aber die gesparten Kosten sowohl bei der Administration der Anwendung als auch beim Betrieb in der Cloud machen sich erfahrungsgemäß recht schnell bezahlt.


Gerne beraten Sie unsere Spezialisten zum Thema Serverless mit AWS und unterstützen Sie bei Ihren IoT-Projekten.

Nehmen Sie Kontakt mit uns auf:

zum Kontaktformular


 

Wenn die ersten Konzeptstudien eines IoT-Projektes das Entwicklungslabor verlassen und mit der industriellen Realität konfrontiert werden, geraten die vielfach eingesetzten populären Bastel-Platinen-Rechner wie Raspberry PI oder Beaglebone beim Einsatz als Edge Computing Device schnell an ihre Grenzen. Dann ist eine leistungsfähige, professionelle Hardwareplattform erforderlich.

Hier hat sich in unserem Hause in vielen IoT-Projekten im Industrieumfeld die HARTING MICA® (Modular Industry Computing Architecture) als kleines, leistungsfähiges Edge-Computing System überaus bewährt.

Der gesamte mechanische Aufbau ist sehr robust gestaltet. Egal ob Staub, Öl-Nebel oder feine Eisenspäne aus dem CNC-Bohrwerk – die MICA® Box erfüllt die Schutzklasse IP67 und lässt sich davon nicht beeindrucken. Ebenso genügen die an der MICA® Box verbauten Steckverbinder höchsten Ansprüchen an Lebensdauer und Kontaktsicherheit. Damit ist die MICA® Box ohne Einschränkungen industrietauglich.

HARTING MICA als IoT Edge Computing Device 01

Dem interessierten Leser möchten wir deshalb hier einen Einblick in das Innenleben dieses Edge-Computing Devices geben.

Merkmale der MICA® BOX

Zunächst ist die Harting MICA® BOX eine sehr unscheinbare kleine Box aus Aluminium die nach IP67 geprüft ist. Die Hardware des Systems ist mit einem 1 GHz ARM-Prozessor, 1 GB RAM und 4 GB eMMC Speicher ausgestattet. Zudem kann das System um bis zu weitere 32 GB Flash über eine Micro-SD-Karte nachgerüstet werden.

Als Betriebssystem kommt ein virtualisiertes, auf dem Kernel 3.2.X basierendes, LINUX zum Einsatz. Dies kann mit einer Vielzahl von weiteren Betriebssystem-Komponenten erweitert werden. Zu den Möglichkeiten, die hier auf der Softwareseite beim Einsatz als Edge Computing Device bestehen, folgt in Kürze ein weiterer Blog-Artikel.

Das Gehäuse

Die MICA® Box besitzt ein robustes Alu-Druckgussgehäuse aus einer Aluminum-Slilizium-Magnesium-Legierung (AlSi10Mg). Das gibt dem Gehäuse eine hohe mechanische Stabilität, gute thermische Eigenschaften als passiver Kühlkörper und ein geringes Gewicht.

Das mechanische Konzept der MICA® erlaubt die flexible, modulare Konfiguration mit verschiedenen Schnittstellen. Dabei ist stets die Schutzklasse IP67 erfüllt und die MICA® kann in einem Temperaturbereich von -25 Grad Celsius bis +75 Grad Celsius im Dauerbetrieb eingesetzt werden.

Die Rückwand der MICA® Box ist mit einer Gummidichtung versehen, ebenso alle Bohrungen und Durchlässe für Steckverbinder, LED usw.

Nach dem Entfernen der Schrauben kann die Rückwand abgenommen und der Kühlkörper mit den einzelnen Platinen herausgezogen werden.

Die Module der MICA® Box

Es folgt hier der Blick auf das modulare Platinen-Konzept der MICA® Box. Oben in der Mitte die zentrale Prozessor-Platine mit dem SD-Karten Halter. Links die I/O-Platine – in diesem Falle die Version mit zwei USB 2.0 Schnittstellen. Rechts die Stromversorgungs- und Netzwerkplatine mit LAN-POE-Anschluss und Streckverbindern für eine externe 24V Stromversorgung.

Der Prozessor der MICA® Box ist auf der Unterseite der CPU-Platine montiert. Die Kühlung erfolgt passiv über einen groß dimensionierten Alu-Kühlkörper.

Hier der Blick auf die CPU-Platine mit entfernten Schnittstellenmodulen.

Die Verbindung zwischen CPU Platine und den Schnittstellenmodulen erfolgt über einen Kontaktbügel mit leitfähigem Gummi. Damit ist die Verbindung elektrisch sehr sicher und gegen Vibration geschützt.

So entsteht eine kompakte Einheit von Kühlkörper, Platinen und Steckverbindern die in das Gehäuse eingeschoben wird.

Im Inneren des Gehäuses sorgen dann großzügig dimensionierte Auflageflächen für eine formschlüssige Verankerung der Elektronik im Inneren. Gleichzeitig wird der Kontaktbügel mit definierter Kraft auf die Platinen gedrückt und so eine vibrationssichere elektrische Verbindung der einzelnen Module im Inneren der MICA® Box garantiert.

Es ist dieser intelligente mechanische Aufbau, dem die Harting MICA® Box ihre Widerstandskraft im industriellen Umfeld verdankt.

Hier zum Schluß noch ein Blick auf alle Bauteile einer MICA® Box.

Zusammenfassung

Mit der Harting MICA® Box steht ein Edge-Computing Device mit einer sehr hohen Fertigungsqualität „Made in Germany“ zur Verfügung. Die längerfristige Verfügbarkeit ist durch die Firma HARTING garantiert.


Sie haben eine prototypische IoT Anwendung lauffähig und wollen diese jetzt im Feld erproben?

Sie wollen Sicherheit, dass Ihr wertvolles IoT-Projekt nicht wegen unzulänglicher Edge-Computing Hardware verzögert wird oder gar scheitert?

Dann sprechen Sie uns an.

Gemeinsam mit unseren IoT-Experten finden wir sicherlich einen Weg, Ihr bestehendes IoT-Pilotprojekt von simpler Labor-Hardware wie dem Raspberry Pi auf eine industrietaugliche Edge Computing Plattform wie die HARTING MICA® Box zu heben.


Messen sind für viele Unternehmen auch in Zeiten der verstärkten digitalen Kommunikation noch immer ein wichtiges Instrument zur Gewinnung neuer Kunden und Interessenten, den sogenannten „Leads“. Denn auf Messen treffen konzentriert an einem Ort viele Kunden, Interessenten auf der einen Seite und Anbieter von Waren und Dienstleistungen auf der anderen Seite aufeinander. Nur Messen bieten diese einzigartige Möglichkeit zur schnellen, einfachen und unkomplizierten persönlichen Kontaktaufnahme für beide Seiten.

Für ein Unternehmen gibt es wohl kaum eine bessere Möglichkeit, so viele persönliche Gespräche in so kurzer Zeit mit potentiellen Kunden und Interessenten zu führen und neue Leads zu gewinnen, wie die Präsentation seiner Waren und Dienstleistungen auf einer Fach- oder Publikumsmesse.

Doch die Beteiligung an einer Messe ist für ein Unternehmen auch immer mit einer entsprechenden Investition in Messestand und Messe-Personal verbunden. Darum ist auch jeder einzelne auf einer Messe gewonnene Lead für das Unternehmen extrem wertvoll und muss nach der Messe vom Vertrieb möglichst zeitnah und individuell auf Basis der beim Messegespräch gewonnenen und im Messe-Leadbogen dokumentierten Interessen und Anforderungen bearbeitet werden.

Doch Achtung, genau hier beim anschließenden Lead-Nurturing nach der Messe lauert eine gefährliche Falle, die unter Umständen für das Unternehmen teuer werden kann. In unserem Video „Vorsicht bei Messe-Leads! Diese böse Falle sollten Sie kennen … „ erfahren Sie, welche das ist und wie Sie dieser Falle mit einer einfachen Maßnahme entgehen können:



 

Jedes Unternehmen, das sich mit der Digitalisierung und dem Internet der Dinge (Internet of Things – IoT) beschäftigt, kommt früher oder später an den Punkt, an dem eine IoT-Plattform ausgewählt werden muss. Denn ganz gleich, ob die Digitalisierung im Unternehmen der Optimierung der eigenen Prozesse dienen soll oder ob neue datenbasierte Geschäftsmodelle entwickelt werden – im Regelfall sind IoT-Funktionen und/oder IoT-Devices im Spiel. Und schon wird eine passende IoT-Plattform als technischer und betriebswirtschaftlicher Enabler benötigt. Diese Plattform muss dann aber auch zu der eigenen Digitalisierungsstrategie des Unternehmens und den individuellen IoT-Anforderungen der IoT-Projekte passen. Doch bei einem aktuellen Angebot von mehreren hundert Plattformen gestaltet sich die Auswahl nicht einfach. Dazu kommt, dass nicht alles, was sich als IoT-Plattform bezeichnet, auch tatsächlich eine IoT-Plattform im eigentlichen Sinn ist.

Was ist eine IoT-Plattform?

Eine IoT-Plattform ist eine zentrale technische Einheit, welche Daten aus unterschiedlichen Quellen (IoT-Sensor-Daten, Nutzer-Daten, Maschinen-Daten, Umgebungs-Daten, etc.) über unterschiedliche Schnittstellen und Protokolle sammelt und aggregiert, um daraus mit Hilfe von speziellen IoT-Applikationen dem Plattform-Nutzer datenbasierte Mehrwerte zur Verfügung zu stellen. Mit einer IoT-Plattform können verschiedenartige Gerätetypen und Anwendungen miteinander verknüpft werden, die sich über ihre jeweils eigenen Kommunikationswege hinweg über die Plattform austauschen und ggf. automatisiert aufeinander reagieren. Als IoT Application Enablement Platform (IoT AEP) stehen dem IoT-Plattform-Nutzer neben der Basis-Funktion der Konnektivität auch Tools für das IoT-Device-Management, für die Daten-Visualisierung und Daten-Analyse, für ein regelbasiertes Aktions-Management, etc. zur Verfügung.

IoT-Plattform Typen

Von entscheidender Bedeutung für die Auswahl einer IoT-Plattform ist der Plattform-Typ. Um eine Entscheidung treffen zu können, müssen zuvor die individuellen Anforderungen an die Plattform bereits definiert worden sein. Diese leiten sich wiederum von den Anforderungen der geplanten IoT-Projekte und der Digitalisierungs-Strateggie des Unternehmens ab. Nur so lässt sich feststellen, welcher IoT-Plattform-Typ für die eigenen IoT-Projekte am geeignetsten ist.

 

 

Die am Markt befindlichen IoT-Plattformen lassen sich grundsätzlich anhand der angebotenen Service-Modelle unterscheiden (siehe Grafik).

Allgemeine Cloud Dienste

Die Basis-Services für jede IoT-Plattform stellen die Server-, Speicher- und Netzwerk-Dienste dar. Diese werden von den Anbietern von allgemeinen Cloud Diensten, wie z.B. AWS, Azure oder IBM in Form von „Infrastructure as a Service“ (IaaS) bereitgestellt. Die Anbieter der anderen Plattform-Typen benötigen diese Services von Drittanbietern, um dann auf diesen ihre eigenen IoT-Service-Modelle aufzusetzen.

Spezialisierte IoT Plattformen

Der größte Teil der am Markt befindlichen IoT-Plattformen bieten „Platform as a Service“ (PaaS) in Kombination mit spezialisierten Applikationen als „Software as a Service“ (SaaS) an. Den Komfort der spezialisierten Plattform auf Mandanten-Basis bezahlt der Nutzer allerdings mit einer beschränkten Hoheit über seine Daten.

Individuelle IoT-Plattformen

Die absolute Hoheit über die eigenen Daten ist – neben einer maßgeschneiderten Anpassung an die eigenen Anforderungen – daher auch der große Vorteil einer individuellen IoT-Plattform. Hierbei werden mit IoT SaaS-Applikationen individuelle Anwendungen erstellt und selektiv mit den passenden PaaS- und IaaS-Komponenten eines allgemeinen Cloud-Dienste-Anbieters kombiniert. Somit bietet die individuelle IoT-Plattform die höchste Flexibilität und Anpassungsfähigkeit an neue oder sich ändernde Anforderungen.

IoT Kompetenz-Partner

Grundsätzlich lassen sich individuelle IoT-Plattformen von Unternehmen mit entsprechenden IoT-Fachkräften auch Inhouse und in Eigenregie erstellen und verwalten. Wer jedoch dabei kein Lehrgeld zahlen und schneller sein IoT-Projekt zum Erfolg bringen möchte, lässt sich von einem erfahrenen Partner mit IoT-Plattform Architektur- und Entwicklungs-Know-how beraten und unterstützen. Für einen einfacheren Einstieg bieten diese IoT-Spezialisten oftmals auch bereits vorkonfigurierte IoT Cloud Plattform Pakete an. Diese können dann als Ausgangsbasis für den schnellen Start dienen und dann im Laufe des Projekts sukzessive an die eigenen Anforderungen des IoT-Projekts angepasst werden.

Drum prüfe …

Die Auswahl des richtigen IoT-Plattformtyps ist insofern wichtig, als die Entscheidung für einen Plattform-Typ eine langfristige Entscheidung ist. Denn läuft ein IoT-Projekt erst einmal auf einem ausgewählten Plattform-Typ, so ist ein aufgrund neuer oder geänderter Anforderungen notwendiger Wechsel des IoT-Plattformtyps zu einem anderen nur mit extremen Anstrengungen und großem zeitlichen und finanziellem Aufwand machbar.


Unser aktuelles Angebot auf Basis einer individuellen IoT-Cloud-Plattform:

IoT-Einstiegspaket

  • Lernen Sie die Möglichkeiten des Internet of Things für Ihr eigenes Unternehmen kennen – im kleinen Rahmen, risikolos und mit geringem Ressourceneinsatz
  • Sammeln Sie grundlegende IoT-Praxiserfahrungen mit den eigenen Anlagen bzw. Produkten und gewinnen Sie dabei wichtige Erkenntnisse für die Entwicklung Ihrer IoT-Strategie
  • Nutzen Sie das IoT-Einstiegspaket als validierte Ausgangsbasis für Ihre Proof-of-Concepts bzw. IoT-Projekte

 

Herausforderungen bei IoT- und Smart Products Projekten

Heutzutage ist Embedded Software Entwicklung nicht mehr vergleichbar mit dem, was noch vor 10 Jahren Stand der Technik war. Die IoT-Produkte werden immer komplexer und die IoT-Hardware immer leistungsfähiger. Steigende Komplexität beim Embedded Software Design führt aber aber zwangsweise auch zu einer höheren Fehleranfälligkeit.

Gerade bei Smart Products ist aber die Robustheit des Embedded Software Designs ein ganz entscheidendes Kriterium. Denn die IoT-Devices müssen häufig über sehr lange Zeiträume laufen, haben aber kein User Interface, um das Gerät neu zu starten, wenn es mal hängt.

Mit klassischen Software-Entwicklungs-Methoden lässt sich aber die Komplexität bei der Entwicklung eines robusten Embedded Software Designs kaum mehr beherrschen. Zahlreiche von uns durchgeführte Code-Review-Projekte zeigen das immer wieder schmerzlich aufs Neue.

Doch wie erreicht man nun einen anderen Level bei der Embedded Software Entwicklung für Smart Products mit einem Real Time OS wie z.B. RTOS oder ThreadX?

 

Quality by Design: Das Standard Finite State Machine Framework

Das Zauberwort heißt hier: Event Driven Architecture. Durch den Einsatz eines Standard Finite State Machine Framework (http://www.state-machine.com/) erreicht man einen neuen Level an Stabilität und Robustheit im Embedded Software Design. Dabei geht die Architektur weg von klassischen Thread-Syncronisations-Methoden hin zu Event gesteuerten Programmabläufen.

Dieses Schaubild verdeutlich diesen Paradigmenwechsel sehr gut:

Embedded Software Design Paradigm Shift

http://embedded-computing.com/eletter-products/asynchronous-event-driven-architecture-for-high-reliability-systems/

Doch warum ist nun eine Event Driven Architecture so viel besser als „klassische“ Embedded Software Entwicklungs-Methoden?

Dafür gibt es zwei Gründe:

 1. Threads

Threads sind eine große Hilfe bei der Entwicklung komplexer Embedded Software. Allerdings gestaltet sich die Synchronisation und Kommunikation schwierig und erfordert vom Entwickler ein sehr hohes Maß and Disziplin, Erfahrung und Überblick über den Code. Mit wachsender Komplexität der Anwendung wird das Thread Handling aber immer anfälliger für Fehler. Die üblichen damit einhergehenden Probleme sind Race Conditions, Deadlocks, Performance Probleme, usw. Fehler in diesem Bereich sind in der Regel auch am schwersten zu finden und zu reproduzieren.

Um diese Probleme beim Embedded Software Design zu adressieren, hat man entsprechende Regeln für die Software Entwickler erdacht.

Siehe: https://herbsutter.com/2010/07/12/effective-concurrency-prefer-using-active-objects-instead-of-naked-threads/


  1. Don’t block inside your code. Instead communicate among threads asynchronously via event objects → This makes threads run truly independently, without blocking on each other
  2. Don’t share any data or resources among threads. Keep data and resources encapsulated inside threads (“share-nothing” principle) and instead use events to share information
  3. Organize your threads as “message pumps” (event queue + event loop)

Wenn man es schafft, diese Regeln konsequent umzusetzen, erhält man entsprechend robusten Embedded Software Code. Die Erfahrung zeigt aber, dass Menschen immer wieder Fehler machen bzw. sich aufgrund von Komplexität Fehler einschleichen.

Die Lösung:
Durch den Einsatz des Standard Finite State Machine Framework erzwinge ich die Einhaltung der oben genannten Regeln einfach durch eine Umkehr der Kontrolle. Das Framework sorgt mit dem Design dafür, dass die Spielregeln bei der Embedded Software Entwicklung eingehalten werden und ich kann als Entwickler keine solchen Fehler mehr einbauen.

 2. Spaghetti Code

In der Regel fängt alles immer ganz harmlos an und der Entwickler schreibt eine Methode, um Events zu verarbeiten. Mit der Zeit kommen jedoch immer mehr neue Events und immer komplexere Bedingungen hinzu. Die if-then-else Statements werden mehr und mehr und immer verschachtelter – bis zu dem Punkt, dass ein Außenstehender nicht mehr versteht, was eigentlich passiert. Dieses Problem lässt sich dann durch entsprechendes Refactoring zwar wieder eindämmen – besser wäre es aber, wenn es erst gar nicht entstehen kann.

Die Lösung:
Auch dafür sorgt das Standard Finite State Machine Framework, weil hier gänzlich anders an die Problemstellung heran gegangen werden muss. Das führt nachweislich zu besseren Ergebnissen bei der Entwicklung eines robusten Embedded Software Designs. Eine sehr schöne Beschreibung (englisch) gibt es hier:
https://www.state-machine.com/doc/Modern_Programming_Slides.pdf


Wenn auch Sie Probleme mit unzuverlässigem Embedded Software Code haben, sprechen Sie uns an! Unsere Spezialisten prüfen gerne gemeinsam mit Ihnen, wie ein Re-Design Ihrer Lösung aussehen kann. Sie profitieren dabei von unserem speziellen Architektur- und Entwicklungs-Know-how für robustes Embedded Software Design und der langjährigen Erfahrung aus zahlreichen IoT- und Smart Products Projekten.

Auch für die Entwicklung neuer Smart Products und in neuen IoT-Projekten hat sich diese Vorgehensweise mit dem Standard Finite State Machine Framework als sehr erfolgversprechend gezeigt.


Vielleicht auch interessant:

Das MQTT Protokoll – Hintergründe (Teil 1)

Das MQTT Protokoll – Praxis (Teil 2)

IoT Protokolle – MQTT vs. AMQP

MQTT Protokoll – Anwendungsbeispiele

Modbus über MQTT – wie geht das?

 

Ausgereifte Bedienkonzepte sparen Zeit und Geld

Es ist eigentlich eine altbekannte Regel der Softwareprogrammierung, die jedoch leider immer wieder unterschätzt wird: Wer bereits mit ausgereiften Bedienkonzepten beginnt, spart auf lange Sicht viel Zeit, Geld und Nerven. Und eines hat sich in unseren zahlreichen Software-Projekten immer wieder bestätigt: Je enger und häufiger wir mit unseren Kunden und den späteren Nutzern in Kontakt stehen, desto schneller können wir uns dem optimalen Bedienkonzept annähern.
Bedienkonzepte sind neue Prozesse in Form von Bedienoberflächen, sozusagen Arbeitsschritte zum Anklicken. Sie sollen so oft wie möglich gemeinsam mit Kunden und späteren Nutzern sach- und fachgerecht beurteilt werden – das nennt sich dann „Review“. Am wichtigsten für die Entwicklung eines Softwareprojekts sind die Reviews der späteren Nutzer sowie deren Vorgesetzte, möglichst sowohl aus dem Management als auch aus dem technischen Bereich. Mit jedem Review kommen wir so der optimalen Software-Lösung ein Stückchen näher. Doch das kostet Zeit: Wie können sich unsere Spezialisten mit den Ansprechpartnern beim Kunden permanent 1 bis 2 mal pro Woche abstimmen, wenn gleichzeitig auch viele weitere Termine und das Tagesgeschäft gemeistert werden müssen?

Moderne digitale Tools machen es möglich

Der Schlüssel dazu sind digitale Abstimmungsprozesse mit Hilfe der Tools von Amazon und Adobe. Amazon kann uns mit seiner Video-Chat-Software Chime dabei helfen mit vielen Personen an verschiedenen Orten gleichzeitig an einem Bedienkonzept zu arbeiten. Chime ist so ähnlich wie Skype oder Team Viewer und funktioniert so: Sie sehen meinen Desktop und ich moderiere durch den Klick-Dummy. Nach ca. einer halben Stunde sind wir uns über Verbesserungen einig und am gleichen Tag können Sie Ihren Kollegen und Vorgesetzten Ihre Vision interaktiv vermitteln – ohne dass eine Zeile Programmier-Code geschrieben wurde.

Um Klick-Dummys zu erstellen, zu teilen und erlebbar zu machen verwenden wir den „Experience Designer“ von Adobe. Adobe hat mit diesem Tool den schnellsten und intuitivsten Prototyp-Builder auf dem Markt gebracht, der die Herzen von Designern, Programmierern und unseren Kunden höherschlagen lässt. Neben dem Feature, einen Klick-Dummy zu teilen, kann ich eine Design-Spezifikation erstellen. Statt einem langen, textbasiertem PDF, das langwierig erstellt wird, liefern wir automatisiert ein interaktives und fehlerfreies Dokument kostenlos zu jedem Zeitpunkt der Konzeption hinzu. So können Ihre Profis aus dem Marketing schnell prüfen, ob alle Vorgaben, die Ihr Erscheinungsbild wiedergeben, eingehalten werden.
Auch Programmierer profitieren von dieser Spezifikation. Sie können selbständig alle Parameter auslesen und müssen nicht auf Beschreibungsdokumente warten. Der Klick-Dummy ist nämlich die interaktive Beschreibung aller programmierrelevanter Werte wie Farbwerte, Farbverläufen Abständen, Satzspiegel, und Schriftbeschreibungen. So kann schnell, genau und effizient Ihre Software entstehen.

Maximale Effektivität und Effizienz

Beide Produkte in Kombination bieten Ihnen nicht nur den komfortabelsten Weg mit uns über Ihre zukünftige Software zu sprechen, ohne dass Sie dazu Ihr Büro verlassen müssen, sondern auch ein Maximum an Effizienz und Effektivität. Und wenn Sie mal keine Zeit haben, dann schauen Sie sich die Aufzeichnung des Meetings an.

Hier können Sie gleich mal einen Klick-Dummy ausprobieren und Ihre Verbesserungswünsche als Kommentar ganz bequem im Klick-Dummy hinterlassen:

Ritter & Burgen – High Performance Kunden-Manager für Aussendienst-Mitarbeiter

Möchten Sie einmal Chime ausprobieren? Sprechen Sie uns einfach darauf an – wir helfen Ihnen gerne dabei.

 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


In einer kürzlich veröffentlichten Studie des IT-Dienstleisters HCL Technologies nannten 46 Prozent der befragten Projektverantwortlichen die Nutzung der richtigen IoT-Plattform als eine der größten Herausforderungen für das IoT-Projekt des Unternehmens.

Typischer Weise werden dabei die folgenden Anforderungen an die IoT-Plattform gestellt:

  • Quantitative Skalierbarkeit
  • Automatisierbarkeit
  • Offenheit, Schnittstellen
  • Technologische Reife der Plattform

Nun versucht das Unternehmen mit den bekannten Methodiken umfassend zu planen und so durch die Auswahl der „perfekten“ IoT-Plattform sein Projekt zum Erfolg zu führen.
Aber: Eine Digitalisierung nach Fahrplan gibt es nicht. Die Evaluation von IoT-Plattformen ist daher vielfach nur eine unnötige Geld- und Zeitverschwendung!

Warum ist das so? Weil eine Entscheidung pro oder Contra einer Plattform oftmals nur an kleinen technischen Detailfragen festgemacht wird, die zudem immer nur auf Basis des jeweils aktuellen Wissenstandes im Projekt erfolgen kann. Bei IoT-Projekten wird aber fast immer Neuland betreten. Die Anforderungen, Zielsetzungen, Use-Cases und Prioritäten ändern sich sehr schnell. Diese Änderungen sind aber unmöglich vorhersehbar. Alle Versuche, die möglichen Szenarien bei der Planung in Summe zu berücksichtigen, führen entweder zu einem Projekt mit gigantischen Kosten oder aber zu einer sehr langwierigen Planungsphase, die am Ende den Projektfortschritt sehr stark verlangsamt.

Unsere Empfehlung lautet daher:

Wählen Sie eine große, flexible Cloud-Plattform und fangen Sie einfach an. Denn während Ihr Wettbewerber noch überlegt, welche IoT-Plattform er nehmen soll, haben Sie schon den ersten Prof-of-Concept am Start und können echte Erfahrungen im Feld sammeln. Bei Umsetzung von IoT-Projekten lassen sich zwar viele technische Aufgaben im Zweifelsfall durch erhöhten Ressourceneinsatz beschleunigen, nicht aber das Sammeln von Erfahrungen im Feld! Wer hier zuerst kommt, mahlt zuerst und kann sich schnell einen Wettbewerbsvorteil sichern, der von der Konkurrenz nur schwer wieder aufgeholt werden kann.

Was ist wirklich wichtig bei der Plattformauswahl?

Über die Jahre haben sich folgende Parameter als wirklich strategisch relevant erwiesen:

  • Größe des Cloud-Anbieters
  • Flexibilität der Architektur und Ihrer Komponenten
  • schnelle Release-Zyklen der Cloud-Dienste

Warum eine große Plattform? Weil dieser Anbieter vermutlich auch in 24 Monaten noch existiert. Weil nur die großen Anbieter genügend in die kontinuierliche technologische Weiterentwicklung investieren können.

Warum Flexibilität? Weil nur damit die Chance besteht, dass auch Ihre künftigen Anforderungen erfüllt werden – und dies sowohl in technologischer als auch in funktionaler Hinsicht. Gerade der mögliche Einsatz verschiedener Technologien im Rahmen einer Microsystemarchitektur erleichtert und beschleunigt die Integration vorhandener Systeme ganz enorm.

Warum schnelle Release-Zyklen? Weil nur so die Chance besteht, dass in den verwendeten Cloud-Diensten die unvermeidlichen Kinderkrankheiten und Fehler schnell verschwinden, fehlende Funktionen in endlicher Zeit ergänzt werden.

Wenn Ihnen also ein Beratungsunternehmen als Einstieg in Ihr IoT-Projekt eine Studie für den Vergleich von 60 IoT-Plattformen empfiehlt, schicken Sie es nach Hause. Das Geld können Sie sinnvoller einsetzen.


Erwecken Sie Ihre Digitalisierungs-Idee zum Leben und präsentieren Sie sie LIVE vor Management, Kollegen und Kunden: IoT-Showcase-Angebot  


Warum hat sich SIC! Software bei IoT-Projekten auf die Cloud-Dienste von AWS fokussiert?

Die Gründe für AWS sind ganz einfach:

  • Großer internationaler Anbieter, der nicht vom Markt verschwinden wird
  • Transparentes Preismodell
  • Ausgereifte Infrastruktur, rationelle Administrationsmöglichkeiten
  • sehr breites Spektrum unterstützter Programmiersprachen
  • Kein erzwungener Technologischer Lock-In
  • Stabile SDKs und Bibliotheken, umfassende Dokumentation
  • Schnelle Release-Frequenz der Dienste
  • Breites MicroService Portfolio
  • Weltweite Hoch-Verfügbarkeit

Weil es sich bei Technologie-Integratoren wie bei einem 5-Sterne-Restaurant verhält: Wenn die Speisekarte zu groß ist, leidet die Qualität! Viel wichtiger ist die Kenntnis wie man mit den Zutaten das optimale Ergebnis erreicht. Daher gibt es in den Top-Gourment-Restaurants nur ein Menü auf der Speisekarte – genauso wie sich unser Top-Expertenteam auf einen flexiblen, leistungsfähigen und zukunftssicheren Technologiebaukasten fokussiert.


Wenn Sie lernen möchten, mit welchen Methodiken man die für die eigene IoT Anwendung strategisch relevanten Schlüsselkomponenten identifiziert, um die Kontrolle über seine Daten zu behalten, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.

Infos & Anmeldung


Weitere Teile dieser Blog-Artikel Serie:

IoT Projekt-Know-how für Entscheider – Teil 1: Warum müssen wir in die Cloud?

IoT Projekt-Know-how für Entscheider – Teil 2: Warum sollen wir jetzt IoT Projekte starten?

IoT Projekt-Know-how für Entscheider – Teil 3: Warum sollen wir in eine eigene IoT Anwendung investieren?


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und unterstützen Sie gerne auch bei Ihrem IoT-Projekt. … mehr 

 


 

SIC! ist wie jedes Jahr nicht nur dabei, sondern auch mittendrin

Am Wochenende fand an der TU Dresden das „mobile Camp Dresden 10“ statt. Der runde Geburtstag war Anlass für viele Programmierer, UX-Designer, Start-up-Founder, SEO-Köche und Enthusiasten vorbeizuschauen und ihr Wissen in Sessions zu teilen.

Oliver (Senior Software Engineer und Project Manager) und ich (Adam, Designer für User Experience und User Interfaces) sind als Allrounder-Team angereist, um an den Sessions teilzunehmen und auch eigene Sessions anzubieten. Oliver gehört seit 10 Jahren zum Barcamp wie ein Akku zu einem Smartphone und ich halte wie immer eine Session zu meinen Forschungsergebnissen aus dem Bereich User Experience und Kreativität. In diesem Jahre stellte ich meine Methode zur Klassifizierung von Kreativ-Techniken vor: Mit ihr können agile Arbeitsweisen oder Methoden aus dem Design Thinking optimal für einen Workshop ausgewählt, kombiniert oder angepasst werden.

Highlight Tag 1: Rückblick auf die letzten 10 Jahre mobile Camp Dresden

Die Organisatoren Antje, Hellen, Linda, Chris, Dirk, Adrian und Phillip zeigten wie sich die Trends und  die Haupthemen des Bar Camps von Jahr zu Jahr änderten: Apples iPhone, Googles Nexus Phone, iOS, Android, Microsofts und Nokias WindowsPhone, FirefoxOS des Browser-Herstellers Mozilla, Tablets, Wearables, Smart Living, Smartphones aus China sowie Themen um Human Computer Interaction, Usability und User Experience waren im Rückblick zu sehen – in den letzten 10 Jahren wurde kein Thema ausgelassen.

Damit wir uns alle kennen und besser planen können stellen sich die Teilnehmenden vor der Session-Planung mit nur drei Hashtags vor.

Auf den Rückblick folgte dann die Session-Planung: Im zehnten Jahr gab es mehr UX-Themen als in den Jahren zuvor und auch größere Sessions zu den Bereichen UX, Kreativ-Methoden, Design Thinking oder dem agilen Arbeitsumfeld. Mein Highlight war dabei die Session zu den UX-Trends 2018 von Caroline Bock und ihren beiden reizenden Assistentinnen –  IT-Frauen-Power pur.

Caroline zeigte anhand von Beispielen die Trends 2018 auf. Ihre Favoriten sind:

  • Reduktion
  • White Space mit Farbe (Anm.AR: Ja! Das geht 😉)
  • Narratives bzw Story Lines
  • Inklusion und das Einbinden von vielfältigen Nutzern
  • Design auf Basis von Content und Context
  • Chat Bots oder smarte Assistenten und somit Sprach-Interfaces

Nicht vergessen darf man den gerade von Adobe und Apple gemessenen Trend der Stille und Zurückgezogenheit, was man empirisch an der Anzahl von Enspannungs-Apps nachweisen konnte.

Der spannende erste Tag aus beiden Perspektiven: links bin ich Speaker und rechts Zuhörer und Mitstreiter

 

Work hard – Party harder: Cocktails, Burger und Musik der letzten 10 Jahre

So wie es ein Highlight am Tag gibt, so gibt es auch eins in der Nacht. Und damit ist die Abendveranstaltung gemeint.

Jan vom Ora-Team legte Musik auf ließ die Puppen tanzen. Zu Cocktail, Bier und Burger gab es von Missy Elliott bis Rage Against the Machine tanzbare Musik. Die Foto-Box wurde kurzerhand ausdem Foyer auf die Tanzfläche verlagert, um die ausgelassene Stimmung festzuhalten. Auch am Abend war also Kreativität angesagt.

 


Tag 2: Club Mate statt Asperin und Keynote Nr. 2

Fast alle Teilnehmer füllten wieder den Session-Saal, um gespannt der Keynote zu lauschen. Club Mate – auch Entwickler-Brause genannt – hilft nicht nur beim Schreiben von Programm-Code, sondern dabei, nach einer feuchtfröhlichen Party, den Speakern besser folgen zu können.

LineUpr – Alles, was sie über Startups wissen wollten und nie zu fragen wagten

Norbert und Philip vom Gründer-Team der Event-App LineUpr erzählten wie sie aus einer Idee ein Startup machten und auf Carsten Maschmeyer trafen. Wie funktioniert das Produkt? Und warum wurde es eine Web-App, die mit Web-Technologie funktioniert? Die Antwort war für viele verblüffend, denn sie war nicht technischer Natur, sondern mit dem Verhalten der User zu begründen: Wegen einem ein- oder- zweitägigem Event installieren die Nutzenden keine App mehr. Ihre Homescreens sind voll, das Daten-Volumen zu wertvoll oder der Speicher nicht ausreichend.

Nach der Technik und dem Nutzer-Konzept erklärten sie wie und wo man einen Pitch macht, ein Preismodel mittels Marktanalyse erstellt oder Kunden für das Produkt gewinnt. Wenn das alles steht und der Geldgeber nach einem Jahr nicht abgesprungen ist, wird man international. Das ist der nächste große Schritt für LineUpr.

Angeregt von dieser Keynote wollten alle ihre Arbeitsweise ändern und produktiver werden. Gleich mehrere Session-Speaker sprachen über ihre Arbeitsweisen in der IT und gaben Tipps zur Koordination von Meetings und der eigenen Arbeit oder dem Schreiben von sauberen Code.

Mein Tipp für die kommenden Jahre, wenn ihr Entwickler, Designer, Projektleiter, Gründer oder Studenten seid: Kommt nach Dresden und haltet eine Session, diskutiert lernt und baut europaweite Netzwerke auf. So entstehen Freundschaften und neue Ideen. Ich bedanke mich ganz herzlich für zwei tolle Tage in Dresden und ziehe meinen Hut vor 10 Jahre mobile Camp Dresden.

Hier habe ich meine Eindrücke in einem kleinen Video zusammengefasst: Adam@MobileCampDresden2018

 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


„Es gibt doch jede Menge „fertiger“ IoT-Lösungen in der Cloud, an die wir ganz einfach unsere Maschinen anschließen können.“

Die Antwort hier ist ganz einfach: Damit klar ist, wem die von Ihren Maschinen und Sensoren erzeugten Daten gehören, ist eine eigene IoT Anwendung die bessere Lösung!

Alle Arten von Daten sind das Gold des 21 Jahrhunderts. Viele „öffentliche“ IoT Dienste vereinnahmen jedoch diese Daten und verkaufen die daraus gewonnenen Erkenntnisse an jedermann – möglicherweise sogar an Ihre direkte Konkurrenz.

„Aber die Vernetzung im IoT Umfeld lebt doch von der Weitergabe von Daten?“

Ja natürlich, eine IoT-Lösung ist ohne die Weitergabe von Daten in der Regel nur von sehr beschränktem Nutzen. Unabhängig davon ist es aber unverzichtbar, dass Sie es selbst kontrollieren können, wer Zugriff auf Ihre Daten erhält und wer nicht, wer die Daten auswerten und daraus lernen kann und wer nicht!

Diese strategisch relevante Kontrolle über Ihre Daten können Sie nur dann sicherstellen, wenn Sie an den Schlüsselstellen in der IoT-Datenschöpfungskette eigene IoT-Anwendungen / -Lösungen/ -Apps implementieren, die zu 100% unter Ihrer Kontrolle stehen.

Nur wenn Sie wissen, an welchen Stellen welche Daten entstehen, was man daraus an Erkenntnisse gewinnen kann ist können Sie „verstehen“ was Ihre Kunden an Daten brauchen. Das wiederum ermöglich es Ihnen, Ihr Produkt mit mehr Kundennutzen zu versehen – und am Ende möglicherweise auch neue Geschäftsmodelle für Ihr Unternehmen zu entwickeln.


Warum wir als Basis für Ihre eigene IoT-Anwendung Amazon Web Services (AWS) Cloud empfehlen, erfahren  Sie hier


Der schnelle Einsatz einer bestehenden IoT-Plattform statt des Aufwands einer eigenen IoT Anwendung ist natürlich sehr verlockend. Für nur ganz wenig Geld können Sie Ihre „intelligenten Maschinen“ auf diese Art und Weise ins Internet bringen. Und für einen ersten Showcase kann dies unter Umständen auch ein sinnvoller Weg sein. Wer aber strategisch und längerfristig denkt, der sollte hier sorgfältig prüfen, welche Konsequenzen solch eine Entscheidung haben kann.

Wenn Sie lernen möchten, mit welchen Methodiken man die für die eigene IoT Anwendung strategisch relevanten Schlüsselkomponenten identifiziert, um die Kontrolle über seine Daten zu behalten, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.  Infos & Anmeldung


Weitere Teile dieser Blog-Artikel Serie:

IoT Projekt-Know-how für Entscheider – Teil 1: Warum müssen wir in die Cloud?

IoT Projekt-Know-how für Entscheider – Teil 2: Warum sollen wir jetzt IoT Projekte starten?


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und unterstützen Sie gerne auch bei Ihrem IoT-Projekt. … mehr 

 


 

 

 

 

 

Mit dieser Serie von Blog-Artikeln werden wir einige grundlegende Gedanken zum Themenkomplex des „Internet of Things“ – auch kurz „IoT“ genannt – für Planer und Entscheider in mittelständischen Unternehmen zusammengefasst haben.

Wir wollen damit häufig gestellte Fragen beantworten und unseren Lesern einen Einstieg geben, um erste Gedanken zum Thema IoT für das jeweilige Unternehmen zu formulieren.


„Unsere Kunden haben doch gar keinen Bedarf für IoT!“

Hier wollen wir Ihnen kurz erläutern, warum Sie gerade deshalb jetzt Ihre ersten Schritte im Bereich des Internet of Things gehen und ihre eigenen IoT-Projekte starten müssen.

Wie wir in vielen Projekten erleben konnten, resultiert der fehlende „Bedarf“ auf Kundenseite aus einem Mangel an Vorstellungskraft, welchen neuen Nutzen eine IoT-fähige Maschine oder ein „Smarter Sensor“ bieten können.

„Na dann haben wir ja noch Zeit und können erst mal abwarten bis unsere Kunden soweit sind“

Dieses Denken kann sehr teuer werden, insbesondere dann, wenn Sie typischerweise Maschinen und Anlagen auf Kundenwunsch hin bauen.

Sobald nämlich Ihre Kunden selbst anfangen, die Chancen des Internet of Things zu erkennen und Anforderungen für eine IoT-Lösung selbst formulieren, hat Ihr Unternehmen die Innovationsführerschaft verloren.

Denn in der Regel wird Ihr Kunde nicht nur mit Ihrem Unternehmen sprechen, sondern auch mit Ihren Wettbewerbern, möglicherweise auch mit ganz neuen potentiellen Lieferanten und dabei eigene IoT Projekte starten.


Wenn wir bei SIC! Software Smart Products, Industrie 4.0- und IoT-Projekte starten, setzen wir primär Amazon Web Services (AWS) Cloud ein. Warum, das erfahren Sie hier


Und schneller als Ihnen lieb ist, befinden Sie sich mit Ihrem Angebot in einem Preiskampf. Die Innovationen werden nicht mehr von Ihnen getrieben sondern von Ihrem Kunden – Sie sind nicht mehr ein Partner auf Augenhöhe sondern nur noch ein Erfüllungsgehilfe.

„Wie sollen wir mit unseren Kunden ins Gespräch kommen, wenn diese den Nutzen nicht erkennen?“

Um diese Engpass zu lösen, empfehlen wir in einem ersten Schritt die Umsetzung eines Show-Case (auch Demonstrator genannt). Damit können Sie den Kunden Ihre grundsätzliche IoT Lösung und die daraus resultierenden Chancen anschaulich zeigen. Aber nicht nur das. Weil der Kunde ein konkretes Szenario vor sich liegen hat, können Sie auch die Wünsche und Bedürfnisse des Kunden mit einer ganz anderen Qualität diskutieren.

Im Ergebnis erhalten Sie in vielen Fällen eine völlig andere Sicht der Dinge. Es werden neue Chancen sichtbar, die zuvor niemand erkennen konnte. So wird der Weg geebnet, dass Sie mit IoT Ihren Produkten einen einzigartigen Nutzen geben und Sie auch in Zukunft als innovativer Partner auf Augenhöhe wahrgenommen werden.

Wie Sie IoT-Projekte starten, indem Sie an die Planung und Konzeption eines kundenorientierten IoT-Showcase herangehen und wie Sie die strategisch relevanten Themen identifizieren, erfahren Sie in Folge 1 unserer Webinar-Reihe „IoT Projekt-Know-how für Planer und Entscheider“ mit dem Titel „Die Cloud als notwendige Basis für IoT-Lösungen – das AWS-Praxisbeispiel „tempmate“.  Infos & Anmeldung


Weitere Teile dieser Blog-Artikel Serie:

IoT Projekt-Know-how für Entscheider – Teil 1: Warum müssen wir in die Cloud?


Übrigens: Als integrativer Entwicklungsdienstleister für AWS (Amazon Web Services) Cloud-Lösungen bieten wir Ihnen ein fundiertes Know-How in den Themenfeldern Internet of Things (IoT), Smart Products und Industrie 4.0 und helfen Ihnen gerne auch dabei Ihre IoT-Projekte zu starten. … mehr