Es grünt so grün

Als ich heute früh den Schnee des Wochenendes beiseiteschob, habe ich mir schon die segensreiche Abwärme eines veritablen Rechenzentrums herbeigeträumt. Mit so einem Auslass einer RZ-Klimaanlage kann man schon das bescheidene Grundstück eines mittelständischen Unternehmers schneefrei bekommen. Aber wenn mich dann jemand nach meinem CO2-Footprint fragt, komme ich mir vor wie ein Yeti auf dem Basislager unter dem Mount Everest, pardon: des Tschomolangma, wie der tibetische Name des Bergs in deutscher Aussprache lautet…

Der Energieverbrauch der weltweiten Rechenzentren hat durchaus ein Volumen erreicht, das klimaschutzrelevant sein dürfte. Weltweit werden derzeit rund 1,4 Prozent des globalen Energiebedarfs durch Computer konsumiert. In Deutschland allein waren das 2014 – aktuellere Zahlen liegen mir nicht vor – bereits 9,1 Terawattstunden. Wem das nichts sagt, hilft vielleicht dieser Vergleich: etwa 2,5 Millionen Dreipersonenhaushalte stellen einen vergleichbaren Energiebedarf dar.

Die gute Nachricht: Nach den Prognosen aus den frühen Nuller Jahren dieses Jahrtausends läge der Energiebedarf der weltweiten Computerzentren bei rund zwei Prozent des Weltenergiebedarfs. Dass es so viel weniger ist, liegt vor allem an den enormen Investitionen, die Google, Amazon oder Facebook getätigt haben, um ihre Data Centers effektiver auszustatten. Der zweite wesentliche Schub entsteht aber dadurch, dass immer mehr Rechenzentren mittelständischer Unternehmen in die Cloud migrieren. Und damit wird aus den vergleichsweise ineffizienten Rechenzentren in den Kellerräumen der Unternehmen ein hocheffizienter Cloud-Service.

Man kann also sagen, dass der Wechsel in die Cloud nicht nur eine verbesserte Sicherheitsumgebung ermöglicht, sondern zugleich auch bei der Energieeinsparung hilft. Das ist schon allein dadurch möglich, dass Server, die in Unternehmen eingesetzt werden, häufig nur zu 20 bis 50 Prozent ausgelastet sind. Sie sind auf Peaks ausgerichtet, die selten oder nie erreicht werden. In Cloud-Rechenzentren konsolidiert sich der Rechenbedarf vieler Klienten auf eine Server-Farm mit deutlich besseren Auslastungsquoten.

Rechenzentren, die besonders energie- und ressourcensparend arbeiten, können seit Juli 2012 das Umweltzeichen „Blauer Engel für energiebewussten Rechenzentrumsbetrieb“ tragen. Die Betreiber der Rechenzentren müssen für diese Auszeichnung eine Reihe von Vorgaben erfüllen, wie etwa die Server effizient nutzen, eine intelligente Stromversorgung und eine effiziente Klimatisierungstechnik besitzen. Cloud-Computing ist also gut fürs CSR-Reporting.

Corporate Social Responsibility – also die unternehmerische Gesellschaftsverantwortung – definiert den freiwilligen Beitrag der Wirtschaft zu einer nachhaltigen Entwicklung, der über die gesetzlichen Forderungen hinausgeht. In Deutschland ist dazu – wie gewohnt verspätet – am 19. April 2017 das CSR-Richtlinie-Umsetzungsgesetz in Kraft getreten, das die EU-Richtlinie 2014/95/EU vom 22. Oktober 2014 in deutsches Recht einbindet. Danach müssen zwar vor allem Großunternehmen die Umweltverträglichkeit ihrer Aktivitäten nachweisen. Ein Nachhaltigkeitshinweis tut aber auch den Geschäftsberichten der mittelständischen Zulieferer gut. Mal ganz abgesehen von der Umwelt…

Neben den umwelt- und energierelevanten Aktivitäten in der Produktion wird immer mehr auch der klimarelevante Einsatz von Computertechnik in diesen Berichten interessant. Da kommt es schon durchaus einmal gut an, wenn man berichten kann, dass man die eigene Informationstechnik an einen zertifizierten und hocheffizienten Service-Provider für Cloud-Angebote ausgelagert hat. Doch der Energieverbrauch der Server ist nur ein Aspekt der grünen IT:

Umfassendes Recycling: Altgeräte jeder Art müssen nicht im Abfall enden, sondern  können als zukünftiger Rohstoff eine zweite und dritte Karriere starten.

Sicherheit der Materialien: Oftmals lassen sich umweltgefährdende Stoffe in der Produktion durch weniger schädliche Stoffe ersetzen.

Maßnahmen gegen den Klimawandel: Hier geht es vor allem um Maßnahmen zur Senkung der dauerhaften CO2-Emissionen. Dies kann durch den Einsatz erneuerbarer Energien bei gleichbleibendem Energieverbrauch und/oder durch mehr Energieeffizienz erreicht werden.

Und hier spielt die Cloud tatsächlich eine große Rolle. 60 Prozent des Energieverbrauchs durch Server wird durch unternehmenseigene Rechenzentren verbraucht. Ihr Anteil an der weltweiten Rechenleistung liegt aber bei weniger als 50 Prozent. Wer seine Lösungen in die Cloud verlagert, verbessert diese Quote. Wenn das mal nicht ein Argument für die Cloud ist.

Tausend und Dein Service

Es ist drei Jahrzehnte her, da begab sich die IBM auf die Reise zum Mittelpunkt der Wirtschaft. Das Flaggschiff, mit dem Big Blue aufbrach, hieß erst „Future“, dann „Olympic“, schließlich „Silverlake“, ehe es als „Anwendungssystem 400“ auf den Mittelstand losgelassen wurde. Getreu der selbstauferlegten Marktbeschränkung, keine Anwendungssoftware zu vermarkten, stützte sich IBM auf die Partnerschaft mit zahllosen mittelständischen Softwarehäusern unter einer gemeinsamen Dachkampagne: Tausend und Deine Anwendung.

Alles war gut, denn die Softwareanbieter brachten erst ihre Lösung an den mittelständischen Unternehmer und vertickten dann als Hardware die AS/400. im Ergebnis entstand eine Win-Win-Win-Situation für IBM, die Software-Partner und die Anwender. Die unkaputtbare iSeries, wie die AS/400 heute heißt, tickt noch in vielen mittelständischen Unternehmen – und sie ist möglicherweise eine der stärksten Widersacher der Cloud. Denn sie läuft und läuft und läuft…

Dabei erfährt diese Win-Win-Win-Situation durch die Cloud eine Neuauflage – allerdings mit umgekehrten Vorzeichen. Diesmal suchen die Softwarehäuser die Partnerschaft mit Plattform-Anbietern, um ihre Lösungen an den Mittelstand zu bringen. Jüngstes Beispiel ist die auf höchster Ebene zwischen den CEOs von Microsoft und SAP, also zwischen Satya Nadella und Bill McDermott, vereinbarte Zusammenarbeit, nach der binnen Jahresfrist die SAP HANA Enterprise Cloud vollständig auf Microsoft Azure zur Verfügung gestellt werden soll. Es ist nach Amazon und Google die dritte Cloud-Partnerschaft, die SAP eingeht, um sich performante Umgebungen für ihre Anwendung zu sichern.

Und die Cloud-Anbieter stehen im Wettbewerb untereinander um die meisten Softwarepartner auf ihrer Liste. Denn die Softwareanbieter fungieren als Multiplikatoren. Je mehr Anwender sie mit ihren Lösungen auf die Plattform bringen, desto größer werden die revolvierenden Umsätze mit Cloud-Services. Und mehr noch: Je stärker ein Data Center ausgelastet ist, desto größer wird die Marge. Und schließlich: Je größer ein ausgelastetes Data Center ist, desto größer ist der Gewinn. Das sind die einfachen Regeln der Economies of Scale.

Aber sie lassen sich in den Höhen der Cloud besser verwirklichen als in den Niederungen des klassischen Hardwaregeschäfts. Deshalb stehen die Cloud-Anbieter in den vier wesentlichen Plattform-Eigenschaften unter einem permanenten Verbesserungsdruck. Sie müssen sich in den Nutzungskosten unterbieten, wenn sie sich nicht in puncto Sicherheit, Integrität, Performance und Cloud-Services überbieten können. Das ist zunächst einmal gut für den Anwender. Er bekommt mehr „Bang for the Buck“.

Aber es ist auch gut für die Software-Anbieter, die mehr Services aus der Cloud bekommen. Im Falle von Microsoft Azure sind das nicht nur Sicherheitsfeatures, sondern jede Menge Add-ons der künstlichen Intelligenz – wie zum Beispiel Machine Learning, Bots oder kognitive Systeme. Mit Microsoft 365 können SAP-Kunden diese Vorteile nutzen. Azure bietet darüber hinaus eine Plattform für das Internet der Dinge. Und hier stehen Microsoft und SAP pikanterweise sogar im Wettbewerb zueinander.

Und auch davon profitiert letztendlich der Kunde. Er bekommt zur Anwendungs-Suite S/4 HANA noch Tausend und Deine Services aus der Cloud hinzu. Dabei spart er Geld – denn die Cloud-Umgebung wird sich über kurz oder lang als kostengünstiger erweisen als die klassische Hardware-Umgebung, die ja im Falle von HANA auch besonders leistungsfähig sein muss. Er bekommt aber auch durch Hybrid-Lösungen aus On-Premises- und On-Demand-Diensten die Flexibilität, um seine Anwendungsumgebung ganz allmählich vom eigenen Rechenzentrum ins Azure Data Center zu verlagern. Und er bekommt mehr Sicherheit durch die „Trusted Cloud“-Angebote hinter Azure und der Kooperation mit der treuhänderisch agierenden Deutschen Telekom. Und schließlich gilt Azure als besonders geeignet für S/4 HANA unter Linux.

Und wo bleiben die klassischen Hardware-Anbieter vom Schlage IBM? Abgesehen davon, dass auch IBM als Cloud-Anbieter reüssiert, offenbart die Cloud einen für die „Big Irons“ völlig neuen Vertriebsansatz. Statt Abertausenden von Unternehmen Hardware hinzustellen, müssen nur noch ein gutes Hundert von Cloud-Anbietern betreut werden. Und die Data Center wachsen mit jedem Kunden und jeder neuen Partnerschaft. Und mit den Tausend und Deinen Services, die in einer dynamischen Cloud mit hoher Geschwindigkeit dazukommen.

Unklare Kante

Die ewig oszillierende Informationstechnologie ist wieder einmal im Begriff, die Richtung zu wechseln im fortdauernden Wechselspiel von Zentralisierung und Dezentralisierung. Nachdem auf die zentralen Mainframes die verteilten Personal Computer folgten, die wiederum durch Server zusammengefasst wurden, kommt rund um das Cloud Computing die nächste Restrukturierungsrunde. Denn auf die zentralen Server-Farmen folgte die Auslagerung von Teilen der IT, wobei der Weg zu Hybrid-Lösungen gerade erst begonnen hat. Doch schon folgt der nächste Dezentralisierungsschritt an der Kante zwischen Mensch und Maschine, zwischen Endgerät und Server, zwischen Datenerfassung und Datenanalyse.

Edge Computing ersetzt nicht die Cloud, aber es entlastet sie. Denn je mehr Daten durch mobile Endgeräte und intelligente Maschinen anfallen, desto notwendiger wird eine Infrastruktur, die die Daten abfängt, bevor sie die Kanäle verstopfen. Das Internet der Dinge mit seinen Billionen an Sensordaten benötigt eine Instanz, in der die Minimalinformationen verdichtet werden, ehe sie von den zentralen Unternehmenslösungen zur Planungsgrundlage herangezogen werden.

Edge Computing wird überall dort zum Einsatz kommen, wo unsere Kommunikation auf schnelle Interaktion ausgelegt sein wird. Das kann überall, mit jedem und allem sein: wenn wir von selbstfahrenden Autos, interaktiven Werbeplakaten, Systemen zur Gesichtserkennung und Standortbestimmung umgeben sind und gleichzeitig Posts über Facebook (oder seinem heute noch unbekannten Nachfolger) verbreiten, uns mit Freunden beim nächsten Starbucks verabreden und vorher schnell noch „148 Mails checken“ – dann wollen wir nicht auf die Antwort einer imaginären Cloud warten, sondern kommunizieren, als wäre der nächste Netzknoten „um die Ecke“ oder wir „Close to the Edge“.

Dabei kommen praktisch ausschließlich Systeme zum Einsatz, die es heute schon gibt – Edge Computing nutzt die Rechenleistung von Smartphones, Tablets, Controllern, Routern und Servern für eine schnelle Peer-to-Peer-Vernetzung. Dennoch dürften die Investitionen immens sein, berücksichtigt man die Allgegenwart der Edge. Die Cloud schwebt über allem, Edge schwingt überall.

Dabei sind nicht nur Cloud-Provider und Telekommunikationsanbieter, die Betreiber von Infrastrukturen für Smart Cities oder Smart Factories betroffen. Jede Organisation, deren Geschäftserfolg von der Unmittelbarkeit der Kommunikation mit ihrer Klientel abhängig ist, wird sich auf die Kante konzentrieren müssen. Dabei dürfte der größere Aufwand nicht in der Hardware liegen, sondern in der Entwicklung neuer Apps, die eine interaktive User Experience erlauben. Die „MeNow“-Generation wird Ubiquität und Unmittelbarkeit in praktisch jeder Lebenslage einfordern – bei der Kaufentscheidung, bei Gesundheitsfragen, bei Verabredungen und beim Feedback zu Ereignissen in der aktuellen Umgebung.

Das ist kein Ausdruck einer hypernervösen Gesellschaft, die alles im Jetzt und Hier erleben will. Es ist vielmehr das Symptom einer sich immer genauer synchronisierenden Welt, in der Millisekunden entscheiden können. Ein Auto legt bei Tempo 160 knapp viereinhalb Meter pro Zehntelsekunde zurück. Bei der Darstellung virtueller Realitäten werden Verzögerungen von mehr als fünf Millisekunden, die zwischen Kopfbewegung und Bildaufbau liegen, bereits als störend empfunden. Schon vor zehn Jahren schätzte Amazon-Pionier Greg Linden, dass eine Millisekunde Verzögerung im laufenden Online-Verkauf ein Prozent des Umsatzes kosten kann. Und ebenfalls 2006 rechnete Melissa Mayer vor, dass 500 Millisekunden Verzögerung bei der Online-Suche den Google-Umsatz um bis zu 20 Prozent verringern würden. Und nicht zuletzt entscheiden Millisekunden im Online-Trading an den Börsen über Gewinn und Verlust.

Nach Einschätzung der Gartner Group, die Edge Computing zum nächsten ganz großen Ding in der Informationstechnik erkoren hat, werden in den kommenden fünf Jahren zwei von fünf Unternehmen in diese Technologie investiert haben. Heute schätzt Gartner, dass nicht einmal ein Prozent der Organisationen weltweit Anstrengungen in diese Richtung unternommen hat.

Wie allerdings Unternehmen in die Kante investieren sollen, ist noch weitgehend unklar. Es wird nicht jeder Punkt-zu-Punkt-Verbindungen zwischen wichtigen Knoten in ungebrochenem Fiberglas legen können. Selbst dann würde eine Datenreise von San Francisco nach New York City und zurück immer noch 42 Millisekunden verbrauchen – ohne Verarbeitungszeit für die Anfrage. Edge Computing fordert die Lichtgeschwindigkeit heraus. Ein herrliches Thema für Science Fiction. Wir stehen an der Kante zum Sprawl, wie William Gibson das alles umfassende Datennetz in der Megalopolis seiner Neuromancer-Trilogie nannte. Es lohnt sich, die Welt des Sprawls oder der späteren Matrix noch einmal zu besuchen. Wir stehen an der unklaren Kante zur nächsten Dezentralisierungsrunde.

That´s IT!

Die Informations- und Kommunikationsbranche werde in Deutschland noch allzu häufig unterschätzt, klagte Dieter Kempf. Dabei habe ITK zu den beiden großen Arbeitgebern im Lande aufgeschlossen – dem Maschinenbau und dem Autobau, die beide knapp eine Million Menschen in Lohn und Brot halten. Das war vor vier Jahren, als der heutige BDI-Präsident noch Präsident des Hightech-Verbands Bitkom war.

Heute strahlt sein Nachfolger im Bitkom-Amt, Achim Berg, über eine ungebremste Dynamik in der Branche. Zwar haben die beiden traditionellen Branchen – Maschinenbau und Autobau – inzwischen die Millionengrenze an Arbeitskräften überschritten. Aber der größte Arbeitgeber ist hierzulande inzwischen der ITK- und Unterhaltungssektor – mit 1,077 Millionen Beschäftigten. Schlägt man die Elektronikindustrie noch dazu, dann sind in Deutschland knapp zwei Millionen Menschen mit der Nutzbarmachung der kleinen Elektronen in Kabeln und Schaltkreisen beschäftigt.

Und immer noch wird die Branche unterschätzt. Zwar spricht inzwischen jeder Sonntagsredner von der Bedeutung der Digitalisierung und erkennt das Internet als eine Infrastruktur an, die beinahe wichtiger ist als das Verkehrsnetz. Aber immer noch tun sich beispielsweise Banken schwer damit, Kredite auf immaterielle Werte wie Software zu gewähren. Noch immer ist eine Idee, die auf die Veränderung von Geschäftsmodellen zielt, schwieriger zu finanzieren, als ein Patent auf eine neue Verpackungsmaschine. Dabei müsste allein der Diesel-Skandal die Macht des Immateriellen für jedermann deutlich machen: die Automobilindustrie scheut die Hardware-Nachrüstung wie der Teufel das Weihwasser und singt stattdessen das Hohelied des Software-Updates.

Tatsächlich ist die Bedeutung von Software und Systemen für die Weltwirtschaft gar nicht groß genug zu bewerten . Noch immer also dürfte der ITK-Sektor in seiner Wirkung als Enabler und Hygienefaktor unterschätzt werden. Dabei sind alleine in Deutschland mindestens noch einmal eine Million Menschen auch in anderen Branchen mit Informations- und Kommunikationstechnik befasst. Über kurz oder lang wird jedes Unternehmen – egal aus welcher Branche – auch ein Software-Unternehmen sein. Denn immer mehr Produkteigenschaften wandern in die Bits und Bytes, die mit der Hardware mitgeliefert werden.

In der Tat schreitet die Dematerialisierung der Wirtschaft immer weiter voran. Vor 25 Jahren beschäftigten sich die fünf teuersten Unternehmen der Welt mit Öl, Hardware und Großanlagen. Vor zehn Jahren hielt sich allein der Ölgigant Exxon in den Top-Five. Und heute finden sich neben den „Oldies“ Apple und Microsoft nur noch Internet-Giganten in der Fünfer-Gruppe der Reichsten und Schönsten.

IT-Skill ist bereits seit Jahrzehnten eine Mangel-Ressource. Ihr Fehlen behindert das wirtschaftliche Wachstum. Nach Einschätzung von Bitkom-Präsident Achim Berg könnten es hierzulande rund 50.000 Beschäftigte mehr sein, die im ITK-Sektor unterkommen. Die Zahl hält sich erstaunlich konstant über die letzten zwei Jahrzehnte. Schon zu Zeiten der Greencard fehlten 50.000 IT-Fachleute. Heute fehlen die Konzepte, wie diese Differenz mit ausländischen Fachkräften ausgeglichen werden könnte. Es ist eine der vielen Herausforderungen, vor denen die nächste Bundesregierung steht. Sie muss ein Einwanderungsgesetz formulieren, das sich wie eine Stellenbeschreibung für Hochqualifizierte liest.

Aber die Wirtschaft weiß sich auch selbst zu helfen. Im Silicon Valley ist längst ein erbitterter Kampf um die Talente entbrannt. Wer heute einen Arbeitsplatz im Tal der unendlichen Möglichkeiten verlässt, wird einen lukrativeren Posten zwei Blocks weiter finden. Und wer über besondere Qualifikationen verfügt – wie etwa die Entwicklung von Systemen künstlicher Intelligenz –, kann nach einem Bericht der New York Times inzwischen Gehälter zwischen 300.000 und 500.000 Dollar verlangen – ohne Doktortitel und mit wenigen Jahren Berufserfahrung. In Googles KI-Projekt Deepmind beispielsweise sind derzeit rund 400 Mitarbeiter involviert. Die Personalkosten für das Projekt belaufen sich aber auf 138 Millionen Dollar jährlich. Das entspricht einem Durchschnittsgehalt von 345.000 Dollar im Jahr. Und die Gehälter werden weiter hochgetrieben, weil inzwischen auch der Maschinenbau und die Automobilhersteller händeringend nach KI-Experten suchen – weltweit!

Deutschland befindet sich also in einem äußerst wettbewerbsstarken Umfeld, wenn es darum geht, den Fachkräftemangel im Land zu verringern. Es bedarf mehr als nur halbherziger Anstrengungen, um die Wachstumsdynamik in Deutschland beizubehalten. Sonst laufen die Fachkräfte weg. Ihnen folgt das Knowhow, dann geht die Arbeit und schließlich das Geld.

Das wärs dann. That´s IT.