Innovationen leben davon, dass das Bestehende immer wieder hinterfragt wird. Manche diskutieren deshalb schon darüber, was nach der Cloud kommen wird.

Verfechter der Cloud behaupten naturgemäß, dass eines Tages 100% der IT in der Cloud stattfinden werden. Es gibt viele Unternehmen, die ihr Geschäftsmodell auf diese Annahme aufbauen. Doch die Realität sieht anders aus. Daten in die Cloud und wieder aus ihr heraus zu bekommen ist schwieriger, als die meisten Entwickler oder zumindest ihre Manager bereit sind zuzugeben. Das große Problem ist die Organisation großer Datenbestände und Bandbreiten. In einer Welt wo immer mehr Menschen, Geräte und Maschinen permanent online sind, wird eben diese Bandbreite zur Herausforderung. Nicht unmittelbar bei den Endgeräten, weil dort ist es stets nur ein Datenkanal, der vom Endgerät in die Infrastruktur führt. Die zentralen Systeme aber, wo die ganzen Verbindungen aller Endgeräte zusammenlaufen, die müssen permanent ausreichend Bandbreiten zur Verfügung stellen um zumindest eine statistische Maximalzahl von Geräten gleichzeitig zu bedienen.

Braucht ein Telematikmodul in einer Maschine zum Beispiel 100kBit/s Bandbreite, dann muss ein Cloud-System für 1.000 Endgeräte schon maximal 100MBit/s bereitstellen, zuverlässig und 24 Stunden am Tag. Das verursacht Kosten für eine leistungsfähige Infrastruktur und Datenübertragung.

Eine mögliche Antwort auf diese Entwicklung ist das Fog Computing. Wie der Name schon ankündigt, wird dabei die Cloud sozusagen etwas aufgelöst und verteilt – eben zum Nebel. Im Wesentlichen bedeutet Fog Computing, dass schon in den einzelnen Endgeräten (d.h. zum Beispiel Telematikmodule) Intelligenz integriert wird, die bisher nur in der Cloud vorhanden war. Fog Computing findet also auf einer Ebene unterhalb der Cloud statt um diese zu entlasten. Im Nebel befinden sich dann viele kleine verteilte Recheneinheiten, welche Funktionen ausführen, die nicht allzu große Anforderungen an die Performance haben (dürfen).

Ein kleines Beispiel. Dr US amerikanische Hersteller Cisco ist bekannt für seine Router, die das weltweite Datennetz am Laufen halten und dafür sorgen, dass die Daten zum richtigen Ziel kommen. Nun gibt es für Cisco die Möglichkeit, solche Router mit Fog Funktionen zu erweitern, die etwa verschieden Daten (die sowieso durch sie fließen) zusammenzutragen, analysieren und Entscheidungen darüber treffen, was mit diesen Daten weiter passieren soll.

Die Konsequenz von Fog Computing ist offensichtlich und muss jedem bewusst sein, der plant diesen Weg zu gehen. Die Verlagerung von Intelligenz von einer Zentrale in viele Endgeräte bedeutet, dass Mechanismen des Geschäftsprozesses dezentralisiert werden. Das kann viele Vorteile bringen, birgt aber auch Risiken.

  • Die Änderung einer Funktion muss auf viele Einzelgeräte aktualisiert werden – zuverlässig und oft auch zeitnah.
  • Der Updateprozess wird also ein kritischer Erfolgsfaktor. Welche Herausforderungen das stellen kann zeigen etwa die Probleme, die es bei Terminals der Gesundheitskarten bei den Ärzten gab und gibt.
  • Die Standardisierung bekommt einen höheren Stellenwert, weil die Interoperabilität zwischen Systemen unterschiedlicher Hersteller benötigt wird.
  • Security wird noch wichtiger, weil Algorithmen in leichter angreifbare Kleingeräte verlagert werden.

Derzeit is Fog Computing noch ein eher virtuelles Phänomen, es gibt kaum konkrete Lösungen im Echtbetrieb. Aber es wird viel geforscht und entwickelt. Die nächsten Jahre werden zeigen, ob es gelingt Konzepte durchzusetzen, die die theoretischen Erwartungen in der Praxis erfüllen.

Aber auch die Cloud hat einige Zeit benötigt, bis sie durchgestartet ist, oder?

Tagged on:                             

One thought on “Von der Wolke in den Nebel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.