Der IoT-Mythos lässt sich mit einem Satz recht gut und treffend beschreiben: „Wer auch immer eine universelle Plattform realisiert, mit der Organisationen unzählige Millionen sparen, Treibhausgase begrenzen und damit ein Vermögen machen können, wird die Welt beherrschen!“ Im Rahmen des Weltwirtschaftsforums im schweizerischen Davos mag dieser Satz durchaus großartig klingen, aber wir brauchen lediglich einen flüchtigen Blick auf die Vergangenheit zu werfen, um zu sehen, wie das mit ziemlicher Sicherheit ausgehen wird.
Technologiemärkte starten fast immer mit einer vertikalen Lösung oder einem vertikalen Modell durch. Dann steigen sie auf ein horizontales Modell um. Mainframe-Computer waren vertikal, und sie sind von Minicomputern und schließlich von PCs verdrängt worden, die sehr viel horizontaler sind. Das gleiche gilt für den Cloud-Markt. Was wir also stattdessen sehen, ist ein auf Schichten aufbauendes System, das sich durch ein kollektives Zusammenspiel von Datenaustausch und anderen Maßnahmen wie eine nahtlos gestrickte IoT-Plattform verhält.
Diese Abflachung vertikaler Strukturen hin zu horizontalen geschieht, da Dinge komplex sind beziehungsweise komplexer werden. Ein einziges großes Versorgungsunternehmen muss möglicherweise 25 Millionen Zähler und andere Geräte überwachen. Selbst eine mittelgroße Fabrik muss gleichzeitig 100.000 verschiedene Sensoren überwachen. Und das ist einfach zu viel, als dass es eine einzige Plattform bewältigen könnte. Kein einziges System oder Unternehmen kann jedes Problem lösen. Tatsächlich hat eine kürzlich von Cisco durchgeführte Umfrage ergeben, dass 60 Prozent der IoT-Projekte scheitern und dass bei den abgeschlossenen Projekten ein Drittel der federführenden Unternehmen diese nicht als Erfolg ansehen. Wenn wir also niemals eine voll funktionsfähige und effiziente IoT-Plattform sehen werden, was dann? Die Antwort ist eine Anzahl von Schichten:
Geräte: Wir leben im goldenen Zeitalter für die Entwickler von Embedded-Computing. Rohdaten wie Temperatur und Druck werden erfasst und dann an ein Gateway oder irgendein anderes Gerät für die lokale Analyse oder Weiterverarbeitung geleitet. Ein intelligentes Tagebauprojekt kann beispielsweise bis zu zwei Petabyte Daten pro Tag generieren. Umfassende Systeme zur Analyse von Vibrationen können 200.000 oder mehr Signale pro Sekunde liefern. Die Folge: Kleine Geräte werden leistungsstark, komplex und energieeffizient sein.
Datenmanagement: Genauso wie Speichersysteme in Unternehmen und Betriebssysteme entwickelt wurden, um Daten innerhalb von Netzwerken und Datenzentren zu verwalten, wird man die Evolution von Dateninfrastrukturen beobachten können. Sie werden die Daten aus der Hardware und anderen Edge-Geräten übernehmen und diese so organisieren, dass sie vom Menschen oder anderen Software-Anwendungen genutzt werden können. Kompatibilität wird ein noch größeres Thema werden als in der Informationstechnik. Im IoT, und speziell in der indus-
triellen Welt, gibt es Hunderte verschiedener Datenformate, um den schwierigen physikalischen Umgebungsbedingungen gerecht zu werden. Geschwindigkeit, Zuverlässigkeit und Kosten für die Bandbreite diktieren ein Hybridkonzept, für das eine Mischung aus lokalen und Cloud-Architekturen zum Einsatz kommen wird.
Analytik: Man wird zwischen „Analytik zum Reinknien“, das heißt, Ingenieure drängen sich um einen Computer, um ein lokales Problem rasch zu lösen, und „entspannter Analytik“, wo Wissenschaftler die Entwicklung neuer Medikamente in der Cloud vorantreiben, unterscheiden. Das jeweilige Problem bestimmt, wo es gelöst wird. Und man kann eine solche Spezialisierung bereits beobachten. Das Unternehmen Petasense fokussiert sich auf Vibrationsanalysen, während Spark Cognition unter anderem Windparks betreut. Die Spezialisierung erfolgt, weil Analytikanbieter die zugrunde liegenden Märkte verstehen müssen.
Benutzeroberflächen: Balkendiagramme sind einfacher zu verstehen als Codezeilen. Die Geschwindigkeit von IoT-Daten und die Notwendigkeit, diese an ein unterschiedliches Publikum zu übermitteln, wird ein bestimmtes Maß an „Heimarbeit“ stimulieren. Denn das Management will und braucht nicht die gleichen Daten wie die Ingenieure sehen.
Netzwerk- und Kommunikationstechnik: Für Leitungen, durch die diese Daten übertragen werden, braucht es breitbandige, fehlertolerante, redundante und zuverlässige Lösungen.
Öffentliche Cloud-Plattformen: Amazon, Google und Microsoft verfügen bereits über IoT-Angebote für Unternehmen, die eine öffentliche Cloud-Lösung wollen oder brauchen, und arbeiten ständig an Ausbau und Verbesserung ihrer Konzepte. Daneben aber wird man eine Evolution spezialisierter Dienste beobachten können. Das sind hoch verfügbare Cluster, Lösungen für die Vernetzung von Produktentwicklern und Auftragsfertigern sowie aufwändige private Clouds, die daraus und aus anderen Gründen entstehen.
Horizontales Modell gewinnt
Natürlich werden, genau wie in der IT-Welt, auch beim Internet of Things einige verwandte Bereiche ineinander verschmelzen. Datenanalysen werden beispielsweise auf der Datenmanagementebene erledigt. Daneben gibt es auch Analyseunternehmen am Markt, die Datenmanagementdienste anbieten. Vermutlich werden wir auch erleben, wie Anbieter von öffentlichen Clouds ihre eigenen Teile der IoT-Umgebung entwickeln.
Aber eines gilt: Die gezielte Fokussierung aller Beteiligten wird den Fortschritt beschleunigen, die Kosten senken und Hindernisse beseitigen. Ein kohäsives System wäre natürlich einfacher. Es wäre aber nicht genauso gut. Wieder einmal wird ein horizontales Modell auch im IoT-Bereich gewinnen, weil es das Beste für alle herausholt.