bonnblog.eu


201x – das Jahr des Cloud Computings

Wo waren Sie, als die IBM /360-Architektur angekündigt wurde? Oder: Was machten Sie mit Ihrem ersten PC? Oder mit Ihrem ersten Smartphone? Tablet? Welches Wort googelten Sie als erstes?

Die im Allgemeinen geschichtsvergessene Welt der Informationstechnologie kann nur wenige lokalisierbare Wendepunkte identifizieren. Am Tag zum Beispiel, nachdem Steve Jobs das iPad präsentierte, war nicht alles anders. Die Financial Times witzelte noch, das Ding sei zu groß zum Telefonieren und zu klein zum Computern. Und doch hätte dieser Moment vor fünf Jahren – der 27. Januar 2010 – das Zeug zu einem „Watershed-Moment“, von dem an die Wasser in eine andere Richtung fließen – und die Geldströme auch.

Denn vielleicht werden wir einmal diesen 27. Januar vor fünf Jahren auch als Geburtsstunde des Cloud Computings ansehen, weil damals das erste mobile Endgerät präsentiert wurde, das vollends abhängig von den Angeboten aus der Cloud ist – mehr noch als das iPhone als Urtyp der Smartphone-Familie. Und auf jeden Fall wäre dieses Datum griffiger als die Veröffentlichung jenes Diagramms, in der erstmals eine Wolke als Symbol für ein nicht näher definiertes Netzwerk verwendet wurde.

Es ist also ganz typisch für die Cloud, dass auch ihre Anfänge eher im Diffusen liegen, im Nebel der Vergangenheit abgetaucht, sozusagen. Und ebenso lässt sich an der Schwelle vom alten zum neuen Jahr kein Ereignis rückblickend oder vorausschauend ausmachen, das nun den endgültigen und von vielen kontinuierlich als unmittelbar bevorstehend geweissagten Durchbruch des Cloud Computings markieren könnte.  2014 war keineswegs das Jahr, in dem alle in die Wolke gingen. Und 2015 wird es ebenso wenig sein. Aber in den kommenden zwölf Monaten wird sich ein Prozess fortsetzen, der schon die vergangenen zwölf Monate gekennzeichnet hatte: die schleichende Veränderung der privatwirtschaftlichen und öffentlichen Infrastrukturen vom On-Premise zum On-Demand. Wir befinden uns inmitten eines informationstechnischen Klimawandels.

Deutlich macht dies die aktuelle KPMG-Umfrage zur Umsetzung des Cloud Computings in 800 globalen Unternehmen – und vor allem der Vergleich mit den Ergebnissen aus dem Jahr 2012. Damals wie heute erkannte knapp die Hälfte der Befragten in Kosteneinsparungen den wichtigsten Effekt unter der Wolke. Doch während vor zwei Jahren kaum ein anderes Argument vorgebracht wurde, werden heute qualitative Zielsetzungen wie „Einbindung von mobilen Endgeräten“, „Bessere Einbeziehung von Kunden und Lieferanten“, „Generierung von Einsichten aus Daten“ oder „Schnellere Entwicklung neuer Produkte und Geschäftsmodelle“ angeführt.

Da ist es faszinierend, dass die Ergebnisse, die das Jahr 2014 in der Rückschau brachte, nicht deckungsgleich sind, mit den gesetzten Erwartungen. 70 Prozent der Befragten erfuhren tatsächlich, dass sich durch Cloud Computing die Kosten senken lassen. Aber 73 Prozent erkannten, dass sich die Effektivität der Organisation gesteigert hatte. Und 72 Prozent stellten eine deutlich verbesserte Kundenorientierung fest.

Und in der Tat: Cloud ist als Technologie kein Durchbruch, ihre Nutzungsmotive aber sind es. Das wird an der Schwelle zum neuen Jahr deutlich. Denn während sich die Analysten mit ihren Trends für 2015 geradezu gebetsmühlenartig einig sind in der Wiederholung der ganz großen Trends – Analytics (of Big Data), Mobile und Social Networking -, so sicher ist auch, dass diesen Trends ohne die Cloud keine Zukunft gewiss wäre.

Ihre erste Manifestation erleben wir schon im Januar, wenn auf der Consumer Electronics Show in Las Vegas die ersten Gadgets gefeiert werden. Was immer wir dort an Neuem aus der Welt der 3D-Drucker, der Wearables, der Mess- und Steuergeräte oder der Drohnen und teilautonomen Fahrzeuge und Roboter sehen werden, wird erst durchs Cloud Computing so richtig zum Leben erweckt. Das gilt 2015 ebenso wie schon 2014 und 2013. Mit jedem „Ding“, das ans Internet of Things angeschlossen wird, wächst die Cloud. Wir merken es nur nicht.

SAP und die s-Klasse

Die Cloud wandelt sich und SAP wandelt sich mit ihr – so könnte man die Ankündigungen des größten deutschen Softwarehauses in den letzten Monaten deuten. Die Walldorfer machen nach einem internen Strategiepapier jetzt Ernst, indem sie nicht nur ihre Produkte auf Big Data, Mobile und die Cloud ausrichten, sie strukturieren auch die eigene Spartenstruktur neu: Statt wie bisher zwischen Applikation, Business Intelligence, Mobile Lösungen, Datenbanken und Cloud-Anwendungen zu unterscheiden, sollen künftig andere Schwerpunkte gesetzt werden: Anwendungen, Analyse, Hana und Benutzeroberfläche.

Damit unterscheidet SAP nicht mehr zwischen Anwendungen, die aus der Cloud angeboten werden, und solchen, die wie bisher on Premise im Einsatz sind. Und die Kunden sollen das künftig auch nicht mehr so eindeutig tun müssen, meinte jetzt Vorstandschef Bill McDermott bei der Ankündigung der neuen Produktreihe s-innovations, mit der Anwendungsfall für Anwendungsfall bestehende Großanwendungen in die Cloud verschoben werden können. Den Anfang macht ein Simple Finance, das offensichtlich aus der Finanzanwendung von Business by Design ausgekoppelt wurde. Weitere Anwendungen für den Einkauf (Procurement), das Lieferketten-Management (Supply Chain) und branchenspezifische Anwendungen sind in Planung.

Daran sollen auch Partner ihren Anteil haben – vorausgesetzt, sie sind bereit und geschult, um ihre Lösungen auf der In-Memory-Datenbank Hana abbilden zu können. Das gilt auch für jene Partner, die mehr und mehr bei Business by Design das Mittelstandsgeschäft für SAP übernehmen. Anders als in den ersten sieben „Schmerzensjahren“ der milliardenschweren Cloud-Entwicklung will SAP sich nur noch auf den gehobenen Mittelstand konzentrieren und den Konzerntöchtern betreuen. Das breite Feld der mittelständischen Unternehmen sollen wieder – wie schon seinerzeit bei den On-Premise-Lösungen der SAP – die Partner übernehmen. Dazu soll nicht nur der eigene Branchenskill genutzt werden, sondern auch die Beratungskompetenz zusätzlichen Umsatz bringen, wie Rainer Zinow, der als Senior Vice President diese Produktlinie verantwortet, im Gespräch mit CRN erläuterte. Denn, so rechnet Zinow unverblümt vor, erst nach drei Jahren verdient ein Partner an einer Cloud-Lösung so viel wie bei einer On-Premise-Lizenz.

SAP hat inzwischen erkannt, dass das entscheidende Argument für Cloud-Lösungen nicht aus dem Einsparungspotenzial beim software-Betrieb stammt. Vielmehr sieht Technologievorstand Bernd Leukert in den mobilen Anwendern den wesentlichen Veränderungswillen. Deshalb kooperiert SAP mit Samsung, um auf den gemeinsamen Plattformen zusätzliche Lösungen für den Vertriebsmitarbeiter, den Kollegen in der Logistik oder den Berater im Banken- und Versicherungswesen anzubieten. Diese mobilen Anwendungen der s-innovations-Familie sollen ebenfalls dabei helfen, die bestehenden fest-installierten Anwendungen sukzessive zu erweitern und in Richtung Cloud zu migrieren. Das soll auch mit neuen Anwendungsfeldern gelingen – beispielsweise mit Lösungen für das Gesundheitswesen.

Rund eine Milliarde Euro Umsatz will SAP im zu Ende gehenden Jahr mit ihren Mietangeboten aus der Wolke melken. In drei Jahren strebt man bereits einen Umsatz von 3,5 Milliarden Euro an. Und 2020 will SAP der unangefochtene Stern am Wolkenhimmel über Deutschland sein. Dazu trägt offensichtlich auch bei, dass SAP mit den harschen Datenschutzgesetzgebungen hierzulande weltweit punkten kann. So hat sich die australische Bundesregierung, die als einer der größten Kunden mit Business by Design, die Hosting-Dienste der SAP nutzt, nicht für die Datensammelstelle in den USA entschieden, sondern das Datenzentrum in St.-Leon-Rot ausgewählt.

Beim Datenschutz ist Deutschland eben auch S-Klasse. Und damit auch die SAP.

Über die Wolke

Abgelegt unter ABhörskandal,Allgemein,CeBIT,Cloud,Mobile Internet by hpbonn am 15. Dezember 2014

Von Max Herre (feat. Philipp Poisel) kennen wir die folgenden Weisheiten: „Dinge kommen, Dinge gehen – Sinn und Unsinn des Lebens…“ Es kann nicht ganz absichtslos gewesen sein, dass Max Herre den Song „Wolke 7“ genannt hat. Jedenfalls klingt es, als wende er sich direkt an die IT-Marketiers, die sich in den letzten sieben Jahren fürs Cloud Computing stark gemacht haben: „Mit dieser Leere Bücher vollgeschrieben.“

Cloud Computing befindet sich ohne Zweifel in einer Sinnkrise. Es ist einfach unverständlich, dass dieses vollkommen überzeugende Konzept zur Entlastung der firmeneigenen IT-Abteilung, die nach Analystenmeinung ohnehin den größten Teil ihres Budgets für rein operative Tätigkeiten erübrigen muss, nicht überzeugt. Aber weltweit bleiben die tatsächlichen Umsätze mit Cloud Computing hinter den Erwartungen und Prognosen zurück. Nicht erst seit Snowden stellt der Mittelstand beim Cloud Computing die Vertrauensfrage. Und die Sinnfrage stellen die Unternehmen sowieso: Warum in eine Infrastruktur investieren, die einem nicht gehört?

Inzwischen stellen auch die Marketiers die Sinnfrage – allerdings hinterfragen sie nicht das Konzept, sondern den Begriff: Wolke, Cloud. Was soll man sich darunter vorstellen – oder darin? Eine Wolke ist entweder ein Nichts oder ein diffuses Etwas. Klingt paradox, ist aber so.

Und sie erzeugt offensichtlich völlig falsche Assoziationen: Wolken lösen sich auf (Lies: „Die Daten sind weg!“), ziehen hinüber in andere Länder (Lies: „in Länder mit anderer Datenschutzgesetzgebung“) oder regnen einfach aus (Lies: „das Netz hat geleakt!“).

Inzwischen trauern wir den visionären Begriffen der „Neuromancer“ wie William Gibson hinterher – der Matrix, dem Sprawl oder dem Cyberspace. Sie alle klingen nach Manifestation. Cloud hingegen klingt irgendwie… – wolkig.

Dennoch – Gartner bleibt dabei: nächstes Jahr ist das Jahr, in dem die Wolke durchbricht – also im Sinne von Marktdurchbruch. Das hat Gartner zwar auch schon für 2014 und 2013 prognostiziert. Aber nun ja: jetzt also eben 2015.

Es dauert halt mit dem Cloud Computing, obwohl sich im Prinzip alle einig sind, dass es sich beim Computing on Demand um eine glänzende Idee handelt. Der Grund dürfte in den fehlenden disruptiven Anwendungen liegen, die Cloud Computing eine condito sine qua non werden lässt – also eine Bedingung, ohne die alles nichts ist. Unternehmenslösungen einfach aus der eigenen IT-Abteilung herauszunehmen und von einem externen Datencenter (vielleicht sogar im Ausland, wenn nicht gar „off shore“) hosten zu lassen, ist eindeutig nicht disruptiv genug, um Unternehmen zu einer so schwerwiegenden Entscheidung wie dem Totaloutsourcing zu bewegen.

Dabei gibt es diese Anwendungen längst: mobile Anwendungen und Smartphone-Apps sind längst der Königsweg in die Wolke – allerdings überwiegend für Privatpersonen, die sich synchronisieren wollen – mit anderen Privatpersonen und mit anderen Endgeräten. Ohne Cloud ist Mobile eine Krücke. Und erst durch Mobile bekommt die Cloud ihre Bedeutung.

Der zweite Grund sind die falschen Botschaften für die falschen Zielgruppen. Dem IT-Leiter damit zu kommen, dass ein Großteil seiner Arbeit operativ (Lies: „unproduktiv“) ist, sorgt nicht gerade für Jubelstimmung. Und dem Finanzchef mit einem pauschalen Einsparungspotenzial zu locken, ohne gleichzeitig ein Übernahmeangebot für den dann wertlosen Computerschrott im eigenen Haus zu unterbreiten, klingt ebenfalls nicht wie der ganz große Marketing-Coup.

Vor allem aber handelt es sich beim Cloud Computing um ein Element der Shared Economy, die unter anderem ja die CeBIT seit Jahren auf ihre Fahnen schreibt. „Teilen“ aber ist ein Paradigma des 21. Jahrhunderts, von dem wir wissen, dass es sich dereinst durchsetzen wird. Noch aber befinden wir uns gedanklich im Paradigma des 20. Jahrhunderts, das „Haben“ lautet. Meine Daten, mein Know-how, mein Server. Die Cloud ist unserer Gedankenwelt voraus.

Oder wie es Max Herre (feat. Philipp Poisel) in Wolke 7 formulierte: „Kopf in den Wolken, Kopf im Sand.“ – „Und ich schließe die Augen vor all diesen Fragen.“

Pharma-IT – fast so wichtig wie Chemie

Kaum ein Industriesegment ist so abhängig von großen (und korrekten) Datenmengen wie die pharmazeutische Industrie. Ehe aus 10.000 Molekülen der entscheidende Kandidat für einen Wirkstoff, ehe aus vielversprechenden Wirkstoffen die erhoffte Wirkung nachgewiesen wird, ehe zur Wirkung auch die Nebenwirkungen überprüft werden und schließlich die optimale Wirkdauer und Darreichungsform ermittelt werden vergehen Jahrzehnte, in denen Pentabyte-große Datenmengen produziert werden.

Aber auch wenn Wirkstoffe in die Jahre kommen und ihr Patentschutz ausläuft, entstehen zusätzliche Datenmengen. Dann nämlich, wenn in sogenannten Bioäquivalenzstudien nachgewiesen werden muss, dass die Nachahmerpräparate (Generika) sich genau so verhalten wie die Originale. Diese Studien werden (unter anderem aus Kostengründen) immer häufiger ins Ausland vergeben, wo auf die Erstellung von Studien spezialisierte Unternehmen ein globales Geschäft aufziehen. Eines dieser Unternehmen, die im indischen Hyderabad angesiedelte HVK Bio, ist jetzt der französischen Behörde für Arzneimittelsicherheit (ANSM) bei Stichproben-Untersuchungen der eingereichten Studien aufgefallen: Mehr als 100 Zulassungen, hieß es zunächst, müssen überprüft werden, weil sich Hinweise auf systematische Fälschungen ergeben hatten. Inzwischen wird von rund 1000 Zulassungen weltweit gesprochen, die einer zweiten Überprüfung unterzogen werden sollen. Mögliche Konsequenz: Mehrere Hundert Medikamente weltweit könnten vom Markt genommen werden.

Der Skandal, den man schon jetzt als veritabel einstufen kann, wirft ein Schlaglicht auf die Herausforderungen, denen sich die Pharma-Industrie weltweit gegenüber sieht. Nicht alles, aber beinahe, betrifft dabei den Umgang mit Informationen, haben jetzt die Marktforscher von Pharma IQ herausgefunden. Das gilt vor allem für die Sicherheit vor Fälschungen und die Sicherung der Qualität. 2015 könnte bei Arzneimittelherstellern das Jahr werden, in dem die Informationstechnik beinahe wichtiger wird als die Chemie…

Zum Beispiel Serialisierung: Im kommenden Jahr wird die EU Verordnungen veröffentlichen, mit denen ein erhöhter Schutz vor Fälschungen erreicht werden soll. Eine Maßnahme ist die Vergabe von Seriennummern nicht nur für komplette Chargen, sondern für jede einzelne verkaufsfähige Einheit. Das klingt zunächst trivial, ist aber deshalb eine besondere Herausforderung an die IT, weil nicht nur die einzelne Packung, sondern alle nachfolgenden Verpackungsstufen, also etwa Karton und Palette, serialisiert werden müssen.

Zum Beispiel Datensicherheit: Noch geht im Pharma-Sektor kaum etwas in die Cloud. Aber je intensiver sich Arzneimittelhersteller mit Patienten, Ärzten, Apotheken, dem Großhandel und Versorgungszentren zu einer integrierten Healthcare-Infrastruktur vernetzen, umso entscheidender werden Sicherheitsstrategien, die neben dem Schutz von Know-how, vor allem personenbezogene Daten und anonymisierte Massendaten betreffen.

Zum Beispiel Transparenz: Der Skandal um möglicherweise gefälschte Bioäquivalenzstudien macht deutlich, dass bei klinischen und sonstigen Pharmastudien mehr Transparenz und Nachprüfbarkeit gefordert sind. Doch gleichzeitig muss auch hier der Schutz von firmeneigenem Know-how gewahrt bleiben. Transparenz ohne ungeschützte Offenheit wird vor allem die Informationswirtschaft im Pharma-Sektor herausfordern.

Zum Beispiel soziale Medien: Für viele Branchen haben sich soziale Medien als ideales Werkzeug entpuppt, mit dem Marketingkampagnen aufgesetzt und Kunden-Feedback eingeholt werden können. Und obwohl gesundheitsrelevante Begriffe zu den Wortfeldern gehören,  die am häufigsten gegoogelt werden, ist die Pharma-Branche bislang von sozialen Medien weitgehend unberührt geblieben. Das wird sich 2015 ändern, wenn die von der Food and Drug Administration (FDA) veröffentlichten Richtlinien zur Kommunikation mit den sozialen Medien erste konkrete Umsetzungen erfahren.

Zum Beispiel Mobilität: Allein in Europa sind eine halbe Millionen Jobs mit Pharma-Bezug überwiegend mobil ausgelegt – und damit nur schwer mit Computer-Systemen zu erreichen, da mobile Geräte nicht oder noch nicht die hohen Sicherheitsanforderungen der Arzneimittelindustrie erfüllen. Doch allein im kommenden Jahr sollen nach Branchenuntersuchungen die Ausgaben fürs Mobile Computing im Gesundheitswesen um 25 Prozent steigen – und Pharmareferenten, Großhändler, Logistiker, Wissenschaftler in externen Labors vernetzen.

Ohne chemische Qualität ist in der Pharma-Industrie alles nichts. Aber ohne Datenqualität ist alles noch weniger.

« ältere BeiträgeNeuere Beiträge »