So what?

Expertise entsteht aus Experimenten! Der im Grunde richtige Lehrsatz scheint zugleich das Credo der Bildungsexperten zu sein, die ständig an neuen Modellen arbeiten. Kaum hat eine Schulreform erste Ergebnisse gezeigt, wird sie durch die nächste bereits abgelöst. Aber es braucht nun mal Zeit, aus Fakten Wissen und aus Wissen Bildung wachsen zu lassen. Da ist es denn auch nur folgerichtig, dass mehr und mehr Bundesländer wieder zum neunjährigen Gymnasium zurückkehren.

Dass Bildung Zeit braucht, müssen auch die Schulungsexperten der künstlichen Intelligenz und des maschinellen Lernens erkennen. Je komplexer die Aufgabenstellung ist, desto langwieriger ist der Aufbau einer Computing-Umgebung für deren Bewältigung. Inzwischen zeigt sich, dass beispielsweise der schlagzeilenträchtige Sieg von IBMs Watson bei der Quizshow Jeopardy! doch ein relativ leichtes Unterfangen war im Vergleich zu den immensen Aufgaben, mit denen IBMs Auftraggeber die Plattform für das Cognitive Computing betrauen wollen. Neben schönen Erfolgen mehren sich inzwischen Nachrichten über abgebrochene oder gar fehlgeschlagene Projekte.

Um Maschinenstürmern gleich den Wind aus den Segeln zu nehmen: Cognitive Computing und Deep Learning erzeugen keine Bildung – die bleibt uns Menschen vorbehalten. Aber diese und andere Formen der künstlichen Intelligenz revolutionieren die Verfügbarkeit von allokiertem Wissen und die Fähigkeit, aus Daten Informationen zu generieren und in großen Datenmengen Muster zu erkennen, aus denen wiederum Schlussfolgerungen gezogen werden können, die uns bei der Entscheidungsfindung unterstützen.

Das hat inzwischen einen unermesslichen Nutzwert. KI-gestützte Systeme erkennen in Netzwerken auffällige Verhaltensmuster, die auf einen Hackerangriff schließen lassen, und ergreifen Abwehrmaßnahmen. Das Potential allein ist immens: Wie der Hightech-Verband Bitkom jetzt mitteilt, ist allein in den vergangenen zwei Jahren rund die Hälfte der deutschen Unternehmen Ziel eines Angriffs geworden. Der dabei entstandene Schaden summiert sich in den zurückliegenden 24 Monaten auf 53 Milliarden Euro. Und dabei wird die Malware immer komplexer, so dass Virenscanner ohne Zuhilfenahme künstlicher Intelligenz versagen. IBM hat jetzt ihr Wissen um Systeme und Netze aus 30 Jahren Projektgeschichte in einen Datenpool geleitet, aus dem Watson schöpfen soll. Die Datenbank unter dem Namen IBM Data Lake soll bei der Automatisierung der Systemadministration helfen und Hackern das Leben schwer machen.

Ein weiteres Paradebeispiel ist das Scannen von Millionen Seiten an Fachliteratur, die mit Hilfe der Fähigkeiten von IBMs Watson, natürliche Sprache auf ihren Inhalt hin zu analysieren und sich bei der Entschlüsselung der Semantik auch nicht durch syntaktische Sprachfallen wie doppelte Verneinung beirren zu lassen, ausgewertet werden. Ebenso sind KI-Systeme hervorragend geeignet, in Bildern typische Muster zu erkennen und damit Abweichungen von der Norm zu identifizieren. Beide Methoden helfen heute Ärzten und Wissenschaftlern in nahezu allen Disziplinen bei der Forschungsarbeit und der Diagnose von Krankheiten. Wenn auf diese Weise auch nur ein Menschenleben gerettet werden konnte, haben sich die Investitionen bereits gelohnt.

Und die Investitionen sind in der Tat immens: IBM allein hat einen zweistelligen Milliardenbetrag in die Entwicklung der Technologie hinter Watson gesteckt und dabei auch zahlreiche Firmenübernahmen gewagt. Aber die Marktchancen sind keineswegs geringer: Im Jahr 2025 sollen Unternehmenslösungen im Wert von 31 Milliarden Dollar verkauft werden. Darin ist die damit verbundene Wertschöpfung noch gar nicht berücksichtigt. Sie dürfte ein Vielfaches betragen.

Kein Wunder also, dass sich die Konkurrenz um die vordersten Plätze rangelt. Nach Einschätzung von Gartner ist IBMs Watson-Plattform die am weitesten entwickelte, doch Anbieter wie GE Digital, Microsoft, PTC und Amazon Web Services folgen auf dem Fuß. Und Internetgiganten wie Google und Facebook entwickeln eigene KI-Plattformen für den Eigenbedarf. Wie IBM wollen sie vor allem die eigenen Datenmengen gewinnbringend auswerten.

Dabei steckt die KI-Forschung auch 50 Jahre nach ihrer Begründung durch Marvin Minsky eigentlich noch in der Trial-and-Error-Phase – also am Beginn der Bildungskarriere. So verfolgen Cognitive Computing oder Deep Learning unterschiedliche Konzepte des Wissensausbaus und der Analyse, was sie keineswegs zu universell einsetzbaren Hochbegabten macht. Sie verfügen eher über singuläre Fähigkeiten, die sie für bestimmte Aufgaben optimal erscheinen lässt, für andere wie3derum nicht. Das ist eine typische Erkenntnis bei komplexen Unternehmenslösungen: Auch ERP-Systeme lassen sich nicht ohne weiteres heute im Maschinenbau und morgen in der Medizin einsetzen. Sie folgen kontextspezifischen Best Practices und keinen universellen Begabungen.

Das muss nun auch das Bildungssystem rund um die künstliche Intelligenz erkennen. IBMs Watson ist ebenso wenig ein Universalgenie wie es die KI-Angebote der Konkurrenten sind. Dass Googles KI-Ansatz den Weltmeister im Go-Spiel besiegt, bedeutet nicht, dass es jedes Spiel beherrschen kann. Aber es kann fahren (im autonomen Google-Fahrzeug) und antworten (über Android-Smartphones).

IBM wiederum versucht nun, Watsons Fähigkeiten zur Mustererkennung für die Prozesssteuerung im Internet der Dinge zu nutzen. Das wäre ein weiterer Riesenmarkt. Und der wäre auch nötig, denn bislang dürfte Watson trotz lukrativster Verträge mit Fortune-500-Unternehmen kaum mehr eingespielt haben als die Kapitalkosten. Mit IoT könnte sich jedoch ein niedrigschwelliger Bildungssektor anbieten, für den man nicht gerade das KI-Abitur benötigt.

Denn für IBM verrinnt die Zeit. Nicht nur wächst die Konkurrenz. Nach 21. Quartalen mit Umsatzrückgang schmilzt auch die Marktbedeutung. Gut, dass die jüngsten Anstrengungen zur Verschlankung die Kosten so weit senken, dass unverändert Gewinn ausgewiesen werden kann. Sonst heißt es für IBMs Watson in wenigen Quartalen wirklich nur noch: „So what?“

 

Größe spielt keine Rolle

Was unterscheidet eigentlich ein Unternehmen mit weniger als 500 Mitarbeitern von einem Unternehmen mit mehr als 1000? Grundsätzlich doch eigentlich nichts – oder doch? Die Aufbauorganisation mag ein wenig komplexer sein: aus Referaten werden Abteilungen, aus Geschäftsführern Vorstände, aus Niederlassungen Landesgesellschaften. Aber die Art und Weise, wie sie ihre Branche definieren, ihre Kunden verstehen, ihre Geschäftsprozesse interpretieren und ihre Produkte entwickeln, ist unabhängig von der Firmengröße gleich.
Lange Zeit galt es aber unter IT-Anbietern als ausgemacht, dass die Komplexität einer Unternehmenslösung mit der Größe des Unternehmens zunehmen muss. Mittelstandsgerecht war demnach gleichbedeutend mit kompakt, Konzerngerecht bedeutete komplex. Small and Medium Companies waren immer knapp bei Kasse, Global Player hatten unerschöpfliche Budgets. Kein Wunder also, dass diese Weltsicht zu zwei völlig unterschiedlichen Vertriebsorganisationen führte: hier die Generalisten mit der Gold-DVD für jede Aufgabenstellung, dort die Spezialisten in einem Stab an Unternehmensberatern und IT-Experten. IBM, SAP, Oracle oder Microsoft – sie alle leisteten sich einen dualen Vertrieb, der – wie man so sagt – auf Augenhöhe mit dem Kunden kommunizieren sollte.
Der digitale Wandel scheint auch dieses Fundament des Software-Vertriebs aufzulösen: Nicht nur zeigt sich mehr und mehr, dass die Geschäftsprozesse in mittelständischen Unternehmen genau so komplex sein können wie in großen Konzernen. Sondern es zeigt sich auch, dass die Weiterentwicklung von IT-Strukturen und die Aktualisierung von Software und Systemen am besten über die Cloud funktioniert. Es ist höchstens noch eine Frage der Economies of Scale, ob 500 oder 1000 Arbeitsplätze aktualisiert werden sollen. Und es ist noch nicht einmal eine Frage der Größe, ob zusätzliche Cloud-Services neue Einsatzmöglichkeiten bieten. Eigentlich wussten wir es schon immer: Größe spielt keine Rolle.
Microsoft scheint diese Dichotomie aus Groß und Klein nun im Rahmen einer groß angelegten Reorganisation auflösen zu wollen, in dem die Trennung von SMB und Enterprise aufgelöst wird. Für mittelständische Kunden bedeutet das möglicherweise, dass der liebgewonnene Microsoft-Vertreter künftig nicht mehr zum Kaffee kommt. Umgekehrt soll die weitere Spezialisierung des Tele-Supports so viel individuelle technische Unterstützung bringen wie bei Konzernen. Auch Microsoft-Partner versprechen sich von der Reorganisation eine bessere Unterstützung im täglichen Geschäft. Denn auch die mittelständisch geprägten Softwarehäuser leiden darunter, dass im globalen Microsoft-Netz nicht immer und nicht sofort der nötige Sachverstand zu finden war. Ein neues Partnernetz soll hier die Ressourcen besser bündeln und durch Cloud-Services ergänzen.
Die von Satya Nadella eingeleitete Neuausrichtung unter dem Motto „Microsoft first, Cloud first“ bedeutet für rund 3000 Vertriebsmitarbeiter weltweit – und das bedeutet: außerhalb der USA – allerdings das Aus. Dass ihnen möglicherweise nach der Kündigung eine Neuanstellung mit allerdings befristetem Vertrag winkt, ist bedingt löblich. Sie werden sich als Opfer der Digitalisierung sehen müssen.
Aber diese Entwicklung war abzusehen: spätestens seit der wenig geglückten Markteinführung von Windows 7 noch unter Steve Ballmer weiß Microsoft, dass es immer schwieriger wird, mit klassischen Methoden neue Software in weit verzweigten Organisationen einzuspielen. Die Deployment-Kosten überstiegen die Lizenzgebühren um ein Vielfaches. Das war die Ultima Ratio für den Weg in die Cloud.
Jetzt übernimmt die Cloud aber neben den Infrastruktur-Leistungen auch mehr und mehr die Aufgabe, zusätzliche Softwareangebote als Services zu einer bestehenden Unternehmenslösung zu ergänzen. Vor allem rund um Anwendungen der künstlichen Intelligenz und der Big Data-Analyse baut Microsoft sein Software-Portfolio aus der Cloud über Partner kontinuierlich aus. Darauf muss sich der Vertrieb bei Partnern und bei Microsoft selbst einstellen. Profitieren sollen davon aber Konzerne ebenso wie mittelständische Unternehmen. Und das ist gerade für den deutschen Mittelstand eine gute Nachricht. Denn in der bislang vernachlässigten Größenklasse zwischen 500 und 1000 Mitarbeitern gibt es Hunderttausende von erfolgreichen Firmen. Größe spielt eben wirklich keine Rolle mehr in der Cloud.

Alles nur die Cloud

Das ist nun schon mal eine Ansage: Der Handels-Riese Amazon – oder ist es eher ein Logistik-Riese? – meldet soeben für das erste Quartal einen Überschuss von 724 Millionen Dollar. Das ist nicht nur das achte Quartal in Folge, in dem die Bezos-Company einen Gewinn ausweisen kann, sie legte auch mit 41 Prozent über dem vergleichbaren Vorjahreswert erstaunlich satt zu. Besonders stark stieg dabei das Geschäft mit den Prime-Kunden, die sich nicht nur einer beschleunigten Belieferung erfreuen, sondern vor allem Filme, Serien und Streaming-Dienste genießen, wie man sie sonst nur bei Netflix bekommt. Aber besonders schön sind die Zahlen aus dem Geschäft mit den Amazon Web Services: der Umsatz aus dem Cloud-Business stieg um 43 Prozent auf satte 3,7 Milliarden Dollar. Bei einem Gewinn von 890 Millionen Dollar aus der Cloud-Sparte subventioniert der Sektor damit andere Investitionen quer. Die Quintessenz aus der Quartalsbilanz kann nur lauten: Es ist alles nur die Cloud.

Aber was ist das für eine Ansage: die Konzernholding Alphabet, die gemessen am Umsatz zu 99 Prozent aus Google besteht, meldete zwar mit 24,8 Milliarden Dollar einen geringeren Quartalserlös als Amazon (34 Milliarden Dollar), konnte aber mit 5,4 Milliarden Dollar einen Rekordgewinn ausweisen, von dem Amazon nur träumen kann. Neben den Werbeumsätzen aus der Suchmaschine und den Einnahmen aus Hardware rund um das Betriebssystem Android sind es vor allem die Cloud-Geschäfte, die Alphabet-Aktionäre glücklich machen. Sie stiegen auf einen Umsatzanteil von 13 Prozent und subventionieren inzwischen auch die anderen, stark defizitären Holding-Aktivitäten mit. Die Quintessenz aus der Quartalsbilanz kann nur lauten: Es ist alles nur die Cloud.

Und was ist das für eine Ansage: Angetrieben durch das im Dezember übernommene soziale Netzwerk LinkedIn steigerte Microsoft seinen Quartalsumsatz um acht Prozent auf 22,1 Milliarden Dollar und generierte daraus einen Gewinn von 4,8 Milliarden Dollar. Die Einbußen bei Surface-Tablets wurden dabei mehr als gut durch die Cloud-Geschäfte rund um Azure kompensiert, die sich ebenso fast verdoppelt haben wie die Erlöse mit der Cloud-Variante der Bürosoftware Office. Die Quintessenz aus der Quartalsbilanz kann nur lauten: Es ist alles nur die Cloud.

Wer noch daran Zweifel hegt, dass sich mit Cloud-Computing Geld verdienen lässt, der sollte spätestens in den ersten drei Monaten dieses Jahres eines Besseren belehrt worden sein. Obwohl alle drei Anbieter im wesentlichen Cloud-Angebote als Infrastrukturmaßnahmen unterbreiten und erst allmählich auch dazu übergehen, eigene Cloud-Anwendungen zu Zukunftstechnologien wie Big Data-Analysen, künstlicher Intelligenz, Machine Learning oder Spracherkennung zu weiteren Umsatz- und Gewinnbringern auszubauen, trägt das Geschäft aus der Web-Wolke inzwischen dreistellige Millionenbeträge zu den Konzernergebnissen bei.

Das wird sich weiter steigern, wenn im Jahr 2020 rund 50 Milliarden Endgeräte als User im Web aktiv sind – mehr als zwei Drittel davon, ohne dass ein Mensch hinter den dann entfalteten Webaktivitäten steht. In der Tat sind das Internet der Dinge und Anwendungen à la Industrie 4.0 ohne Cloud-Dienste nicht denkbar. Irgendwo müssen die Daten, die von Myriaden von Maschinen rund um den Globus und rund um die Uhr ausgespuckt werden, ja zwischengespeichert werden. Und irgendwo müssen sie verarbeitet und ausgewertet werden, wenn aus den Daten Informationen und aus den Informationen Erkenntnisse über das Produktionsgeschehen generiert werden sollen. Das ist Cloud-Computing at its best.

Wir können getrost davon ausgehen, dass sich in weniger als einer Dekade der Großteil des Datenverkehrs, der über das Internet der Dinge ausgespuckt und verteilt wird, in der Cloud abspielen wird, die nicht nur die Infrastruktur für den Datenstrom liefern wird, sondern auch die Plattformen für ihre Verarbeitung bereitstellt. Es wird dabei nicht bei den drei Giganten – Amazon, Alphabet und Microsoft – bleiben. Nach langen, leidvollen Quartalsverlusten strebt auch IBM mit dem Cloud-Business wieder nach der Krone der Marktführerschaft. Auch die Deutsche Telekom und die Steuerberatergenossenschaft DATEV haben – mit dem deutschen Datenschutz im Rücken – das Zeug, sich im Geschäft mit kritischen und zu schützenden Daten in der Cloud Weltruhm zu verschaffen.

Denn es sind die Kunden, die mit ihrem Schwenk von OnPremises zur Cloud diese Erfolgsberichte überhaupt erst möglich machen. Sie entscheiden sich nicht einmal grundsätzlich dafür, die eigene IT-Abteilung durch die Cloud zu ersetzen. Sie setzen vielmehr auf Hybridlösungen, in denen traditionelle Unternehmenslösungen vor Ort weiter geführt werden, aber zusätzliche Computerleistung für Services und Datenspeicher aus der Cloud zugekauft werden.

Es ist an der Zeit, dass Europa in diesem Geschäft massiv nachrüstet – über die Offerten von Telekom, SAP oder DATEV hinaus. Sonst wandert das Zukunftsgeschäft ins Ausland ab. Denn dann ist wirklich alles nur geCloud.

Software-Szene als Ökosystem

Das jüngste DAX-Unternehmen wird dieses Jahr auch schon 45 Jahre alt: SAP. Die Walldorfer sind zugleich das einzige deutschstämmige Softwarehaus von Weltruhm – auf Augenhöhe mit den Riesen Microsoft, Apple, IBM oder Oracle. Hierzulande folgen die Software AG – mit einem Abstand so groß wie die Tabellenlücke zwischen 1899 Hoffenheim und Darmstadt 98 – und die Steuerberater-Genossenschaft DATEV. Selbst die für die Software-Entwicklung zuständigen Abteilungen der großen deutschen Automobilhersteller, Maschinenbauer, der Geldinstitute und Versicherungen sind in der Regel personell besser ausgestattet als der große Mittelstandsbauch der hiesigen Software-Szene.

Das sagt zweierlei über den Wirtschaftsstandort Deutschland: Zwar kommen die meisten Hidden Champions – also die viel zitierten heimlichen Marktführer – aus deutschen Landen, aber außer SAP ist im letzten halben Jahrhundert kein innovativer Weltkonzern entstanden. Und obwohl es in den siebziger und achtziger Jahren einen Boom der Software-Gründungen durch die mittlere Datentechnik und in den neunziger Jahren durch den Personal Computer und das Internet gab, hat es kaum einer der Software-Unternehmer zu mehr als regionaler Größe gebracht.

Warum eigentlich? Software braucht jeder Mensch und jede Organisation – vor allem in Deutschland, wo die Prozessoptimierung gerade durch den Einsatz von modernen Computeranwendungen zur Königsdisziplin aufgestiegen ist. Aber dieser Bedarf wird überwiegend von den Weltmarktführern mit ihren globalen Standardlösungen bedient – und von den laut Schätzungen rund 30.000 deutschen Softwareanbietern verfeinert, ergänzt oder überhaupt implementiert. 30.000 kleine und mittlere Unternehmen – das entspricht rund einem Prozent aller in Deutschland gemeldeten Unternehmen. Zum Vergleich: In den letzten Jahren entstanden rund 3000 digitale Startups – also ein Promille.

Das wird sich auch nicht ändern, wenn Software nun als Treiber des digitalen Wandels eine erneute und erneuerte Position als zentralen Wirkstoff für Fortschritt, Wachstum und Wertschöpfung erfährt. Denn der Umbau der Softwarelandschaft vollzieht sich im größten europäischen Software-Markt nur zögerlich:

  • Noch halten deutsche Software-Unternehmer krampfhaft an alten Geschäftsmodellen fest, die auf Lizenzvertrieb, Software-Installation vor Ort und aufwändigen Beratungsleistungen beruhen – und zögern stattdessen mit dem Schritt ins Cloud Computing.
  • Noch bevorzugen deutsche Software-Entwickler die traditionellen Entwicklungsmethoden, Test- und Implementierungsverfahren und wenden sich erst allmählich einer agilen Methodik zu, die der gestiegenen Geschwindigkeit von Innovation und Weiterentwicklung bei angemessener Qualität, Sicherheit und Wirtschaftlichkeit Rechnung tragen würde.
  • Noch verstehen vor allem mittelständische Software-Unternehmer ihr Ökosystem als verlängerte Werkbank der globalen Anbieter von Standard-Software, statt die Mechanismen einer teilenden Gesellschaft für den eigenen Software-Vertrieb zu nutzen, wie es die digitalen Startups tun.

Der Hightech-Verband Bitkom hat inzwischen die zentrale Rolle, die deutsche Software-Unternehmen bei der digitalen Erneuerung von Wirtschaft und Gesellschaft einnehmen könnten, zu einem Kernthema im Vorfeld der Bundestagswahl erhoben und den Urnengang im Herbst zu einer „Digitalwahl“ stilisiert. Dabei geht es dem Verband darum, für den soften Antriebsstrang der deutschen Wirtschaft neue Rahmenbedingungen zu schaffen. Die Förderung der Software-Kompetenz bei Schülern und Auszubildenden gehört ebenso zu den politischen Maßnahmen, die der Bitkom vorschlägt, wie die Stärkung des Öffentlichen Sektors als Vorreiter der Digitalisierung, der zugleich durch offen gestaltete Ausschreibungen auch kleinen und mittleren Unternehmen den Zugang zu staatlichen Aufträgen verschaffen soll. Und nicht zuletzt sollen offene Architekturen unter Nutzung offener Schnittstellen, Formate und Standards in gemeinsamen Projekten von Wissenschaft und Wirtschaft entstehen.

Das klingt nach Dirigismus und weniger nach dem freien Spiel der Kräfte, für das die digitale und soziale Marktwirtschaft stehen sollte. Und es klingt ein bisschen nach der Kampagne, die Ende der achtziger Jahre ein für alle zugängliches Betriebssystem als Basis für ein offenes Ökosystem hervorgebracht hat: Unix. Auch da waren es die Behörden und halbstaatlichen Organisationen, die sich vor den Karren einer vermeintlichen Offenheit spannen ließen. Herausgekommen ist dabei – nun immerhin das Internet als Basis für ein neues digitales Ökosystem. Es gibt bei aller Regulierung doch immer wieder Überraschungen!