Zum Inhalt springen

Die Zukunft der Informationstechnologie

Ich möchte hier mal meine Einschätzung für die nächsten 10 Jahre unserer Branche abgeben, vielleicht liege ich richtig?

In den 2010er Jahren haben wir den massiven Wechsel hin zu Mobile Devices und einer massiven Zunahme der digitalen Unmündigkeit gesehen. Während die Jahrzehnte zuvor ein Universalrechner in verschiedenen Formen und Leistungsklassen eine vielschichtige und auch „produktive“ Nutzung erlaubt und viele Menschen vermögend gemacht hat, so haben heute immer weniger Menschen einen Desktop-PC oder ein Notebook. Oder die leiseste Ahnung, wie man damit umgeht oder gar selbst „Werte schafft“.

Die Masse der Menschen verfügt über Smartphones, entweder mit Android oder iOS-Betriebssystem. Beide Plattformen sind für den Nutzer „locked“, einzig die meist kostenpflichtige Beschaffung von Apps und Medien, insbesondere in Abo-Modellen (Spotify, Netflix) eröffnet einen gewissen Konsum-Freiraum.

Die Entwicklung von Mobile-Anwendungen ist so gut wie nicht direkt auf Mobilgeräten möglich, erfordert also leistungsfähige „Universal-Rechner“ und entsprechende Kenntnisse (Entwicklung/Konsum-Asymmetrie). Dabei sind die Frameworks und auch die Vermarktungsregeln (Inhalte, Preisgestaltung, Gebühren) strikt von den Anbietern vorgegeben, entweder Apple’s App-Store oder Google Play. Andere Märkte spielen keine nennenswerte Rolle.

Mit einem Smartphone kann man allerdings als Nutzer so gut wie nicht Werte schaffen. Klar, als Dienstleister, Hausmeister, Klempner oder Uber- oder Lieferando-Fahrer ist man per Telefon oder App „erreichbar“ und kann sich darüber als Tagelöhner betätigen und kurzzeitig manche lukrative Markt-Anomalien ausnutzen („Surge-Pricing“ etc.). Die Masse wird aber nie aus diesem Status herausfinden und daher schlechter gestellt sein, als einfache angestellte Fabrikarbeiter von vor 20-30 Jahren.

Aber auch die „digitalen Eliten“ unseres Landes werden noch massiv darunter leiden. Denn der Markt von PCs und Hardware schrumpft, sodass es auch für uns immer schwieriger wird, „neutrale“ Hardwarekomponenten zu beschaffen um damit Geld zu verdienen.

Der Mega-Trend Cloud-Computing sorgt auch auf der „professionellen“ Ebene dafür, dass leistungsfähige Hardware (Prozessoren, NVMe, i/O-Interfaces wie Netzwerkkarten, Router) zuerst bei den großen Abnehmern landen wird, also den drei großen Cloud-Anbietern und ggf. noch Facebook, Apple. Dazu muss man auch sehen, dass die komplette x86 Architektur im Mobilbereich durch ARM abgelöst wurde und hier kein Ökosystem existiert, wo sich Nutzer bausteinartig bedienen können.

Es gibt hier keine gesockelten CPUs, Mainboards oder Erweiterungskarten, die man von unterschiedlichen Herstellern, Preis- und Leistungsklassen auswählen könnte. Man muss hier entweder auf bereits fertig angebotene Komplett-Systeme (System-on-a-Chip) ausweichen. Letztere sind aber insbesondere im low-end-Segment verfügbar, wo Hersteller mit in die Jahre gekommenen Designs noch eine Einnahmequelle erschliessen (siehe Broadcom/RPi, Texas Instruments).

Derweil haben Apple und Amazon eigene Chip-Entwicklungsunternehmen und auch Facebook und Google investieren hier sehr viel in proprietäre Hardware, die (noch) extern nach Maß exklusiv für sie gefertigt wird.

Schauen wir in den Software-Bereich: In der von mir nicht erlebten Anfangszeit des Personal Computings war es üblich, sich Software selbst zu schreiben oder den Quellcode auszutauschen. Mit der Kommerzialisierung durch IBM, Apple und Microsoft, erlebten wir 25 Jahre Closed Source. Nun sieht es so aus, als ob Linux oder Open Source als Gegenpol doch noch gewonnen hätte: Android basiert auf Linux, Microsoft hat ein Linux-Subsystem umgesetzt, das sehr komfortabel für Nutzer ist. Auch macOS basiert auf Unix und immerhin noch zu einem Teil offenen „Userland“. Linux läuft auf allem, was mehr als ein paar Kilobyte Speicher hat.

Aber ich denke wir haben gerade den Peak erlebt: OpenSource Software verrottet. Man merkt den Tools die 20-40 Jahre an, die sie auf dem Buckel haben. Sie sind zu einem großen Teil in C geschrieben und anfällig für alle möglichen Programmierfehler welche für Sicherheitslücken ausnutzbar sind. Evolution unter „laufendem Rad“ ist so gut wie nicht möglich, jeder Wechsel wie bspw von SysVinit auf systemd begleitet von massiven Shitstorms, Bremsern und Innovationsfeinden. Und auch der Linux-Kernel ist ein Monstrum geworden, das noch primär von Linus Torvalds im Zaum gehalten wird.

Von alleine findet keine Innovation, keine Modernisierung statt. Ein Großteil der quelloffenen Software und natürlich der Kernel-Treiber stammt von Unternehmen oder wird von diesen gewartet/gefixt, die entweder Hardware verkaufen oder selbst eine kommerzielle Linux-Distribution anbieten und sich dafür von Großkunden bezahlen lassen: Wie zum Beispiel RedHat. RedHat wurde letztes Jahr von IBM übernommen und ist nun Teil eines Konzerns, der primär mit Consulting und „Lock-In“ im Enterprise-Bereich Geld verdient. Das „Zurückgeben“ an die Community oder die Akquise von „kleineren Mittelstandskunden“ spielt also noch weniger eine Rolle, als bei RedHat zuvor. Auch hier ist ein Switch zu einem Plattformmodell sichtbar, d.h. den „besten“ Support gibt es nur noch für Plattform/Cloud-Kunden und nicht mehr für On-Premise-Installationen auf Kundenhardware am Standord des Kunden oder seines Rechenzentrums.

Fassen wir nun die Entwicklungen aller drei Bereiche zusammen, also Hardware, Software, Cloud-Computing, dann werden wir Ende des Jahrzehntes 2020 keine Enterprise-fähige Hardware mehr am Markt mehr kaufen können. Die einzige Option wird eine in der Cloud bereitgestellte Umgebung sein, mich hochspezialisierter, proprietärer Hardware. Sowohl für allgemeine Berechnungen wie auch bestimmte gehypte Anwendungsfälle wie Machine Learning. Diese Lösungen werden mindestens um den Faktor 3 besser performen, als alles, was man sich „neutral“ am Markt noch zusammenkaufen können wird.

Daran wird auch RISC-V nichts ändern, eine freie Prozessor-Architektur welche im Gegensatz zu ARM keinen kommerziellen Hintergrund hat sondern als Stiftung organisiert ist. Auch hier werden sich die bereits großen Silicon-Vendors austoben und eigene Produkte und Plattformen entwickeln können. Auch hier wird eine große Abnahmemenge nur erreicht, wenn Cloud-Anbieter mit einsteigen oder gleich selbst die Chipentwicklung übernehmen und daraus fertige Services anbieten.

Was bleiben wird, sind vergleichsweise abgespeckte PCs/Macs, die ausreichend dimensioniert sind um Anwendung für die Cloud zu entwicklen, am besten durch Container und Containerumgebungen vollständig von der darunterliegenden Hardware (und teilweise auch Software) entkoppelt. Sie werden nicht mehr zu Betrieb eigener Anwendungen geeignet sein, entweder wegen der schlechten Performanz oder der schlechten Energieeffizienz.

Spätestens in der zweiten Hälfte der 2020er werden wir dann die Aufgabe dieser „Kompatibilitätsschicht“ sehen (Container, Kubernetes) und einen Switch zur „nativen“ Entwicklung auf exakt einen Cloudanbieter, welche dann lokal wirklich nur noch in langsamen Emulatoren testbar sein wird, vergleichbar mit der heutigen Entwicklung für Smartphones.

Der Wechsel wird, nicht ganz unrichtig, als Fortschritt gefeiert werden, weil damit der „alte Zopf“ des x86ers und eines Monokernels wie Linux abgeschnitten werden kann. Wer braucht schon Treiber für Disketten, CD-Laufwerke, Scanner oder Grafikkarten. In der Cloud ist alles schneller und ohne einmalige Hardware-Ausgaben realisierbar…

Wirtschaftlich ist das die vollständige Übernahme und Kannibalisierung der bestehenden IT durch 3-4 in Frage kommende Konzerne. Sie alle haben ursprünglich ihr Geld woanders verdient und tun es auch heute noch: Google mit Werbung, Microsoft mit Software und Amazon mit E-Commerce. Sie alle haben erkannt, dass es eine weitaus lukrativere und – für sie – zukunftssichere Möglichkeit gibt, Geld zu verdienen. Der perfekte Vendor-Lock-In, wie es wohl vor 50 Jahren bei IBM und vielleicht bei Nixdorf war. Die Symbiose aus Hardware und Software als Service. In einem begrenzten Maßstab (ERP und Services darum) ist das bei SAP aktuell ganz gut zu sehen, aber ob die SAP im Kampf um die beste Hardware+Betriebssysteme mithalten wird können, halte ich für fragwürdig. Bisher kauft man zu und diese Zulieferer werden massiv unter Google, Microsoft und Amazon leiden.

Bestenfalls naiv ist auch eine von vielen meiner Kollegen vorgetragene Beschwichtigung, dass im Kampf der „Giganten der Gegenwart“ gegen die „Giganten der Vergangenheit“ (quasi alle DAX und S&P 500-Unternehmen) zuerst die großen Unternehmen angefixt und dann gemolken/geschlachtet werden. Über die Zeit wir auch hier eine Sättigung einsetzen und auch jedes kleine, aber erfolgreiche Startup (oder Mittelständler) wird sich früher oder später „ergeben“ müssen: Es gibt keine neutralen Ressourcen mehr, sodass eine Preiserhöhung des Cloud-Providers, eine strategische Leistungseinschränkung oder ein anderer „freundliche Wink mit dem Zaunpfahl“ keinen Verhandlungsspielraum für angemessene Exits mehr zulassen werden: Entweder der gewählte Cloud-Anbieter kann das Startup für einen sehr guten Kurs übernehmen, oder er wird es durch Kopie oder Preisgestaltung zerstören. So wie man es Microsoft in den 1990ern vorgeworfen hat, nur eben 1000x brutaler.

Optimistischere Menschen würde nun an die Eigenverantwortung appellieren, an „den Ruck“ der durch die Gesellschaft und Wirtschaft gehen müsse, sich nicht in dieser Zwickmühle fangen zu lassen.

Oder an eine Intervention der Politik oder Kartellämter.

Aber letztlich kann das den Wandel nicht aufhalten, nur verlangsamen. Alternativen müssten her, aber wer soll das tun? Und warum? Einerseits wären Unsummen an Risikokapital nötig und andererseits nochmal: Wer könnte es überhaupt? Deutsche Hochschulen und hier ansässige Unternehmen sind abgeschlagen, selbst bei dem Thema RISC-V ist meines Wissens nur die Hochschule München (FH) interessiert. Es fehlt die Kompetenz, das Personal, die wirtschaftliche Denkweise. Jede weitere Fördermillion wird und würde vollständig und ergebnisarm versenkt werden.

Und wer geht freiwillig selbst ein wirtschaftliches Risiko ein, wenn im Falle eines „Lottogewinns“ dann auch noch die erzielten Gewinne brutal zu versteuern wären? Lieber lässt man sich wie ein Frosch im Topf erwärmen und versucht sich über die Zeit zu retten (oder den bis dahin noch aufgebauten Wohlstand in ein anderes Segment oder Region zu verschieben).

Wir leben 2020 in einem Land, bei denen nicht nur die Enduser sondern auch die Administratoren und Entwickler zu einem Großteil längst überfordert (oder inkompetent) sind, wie man aus den „Emotet“-Infektionen, der unfassbar stümperhaften Wartung zB der IT in Berliner Gerichten (Kammergericht), dem Umgang mit dem Citrix-Gau („Shitrix“, CVE-2019-19781) oder der naiven Auslagerung von Diensten wie Mail oder eben „General Cloud-Computing“ an US-Konzerne sehen kann. So war es 2010 und so war es 2000. Es hat keine messbare Steigerung gegeben, kein Ruck, kein „Gas geben“.

Wir haben bisher mindestens 20 Jahre verloren und werden in diesem Jahrzehnt weitere 10 Jahre verlieren.

Update 2021-02-25:

Im Journal der ACM ist ein spannender Artikel erschienen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Die DSGVO-Checkbox ist ein Pflichtfeld

*

Ich stimme zu