Vereinfachen, erneuern, skalieren: Wie die re:Invent 2024 die Weichen für die Zukunft von Cloud und KI stellt

Kopfbild von Dominic Wellington
5 Minuten lesen

Das ist eine weitere re:Invent in den Büchern. Einige Dinge sind Jahr für Jahr konstant: eine Kavalkade von Produktankündigungen, beginnend in den Wochen vor der Veranstaltung mit allem, was nicht in die Keynotes selbst passte. Eine hektische Woche, in der man sich mit Branchenkollegen, aktuellen und potenziellen Kunden, Partnern, Analysten, Journalisten und allen anderen austauscht. Eine epische Abschlussparty, bei der das re:Invent-Publikum Weezer mit seiner enthusiastischen Reaktion überrascht hat.

Weezer-Auftritt bei AWS re:Invent 2024

Einige Dinge sind natürlich neu, sonst gäbe es nicht viel zu berichten. Ich habe die drei großen Keynotes live gebloggt, aber jetzt möchte ich versuchen, einige der gemeinsamen Themen der Woche zusammenzufassen.

Die drei Großen

Hier sind die Live-Blogging-Links zu den drei großen Keynotes der Woche, Schlag auf Schlag, aber ich habe versucht, einige der gemeinsamen Themen unten zu destillieren.

Das übergreifende Thema wurde gleich zu Beginn der Keynote von Matt Garman deutlich. Er begann mit einem Intro-Video, das das Thema "Wir erfinden, damit Sie es können" vorstellte, das sich wie ein roter Faden durch alle drei Keynotes zog und zu Swami Sivasubramanians Konzept der Überlagerung neuer Funktionen auf bestehenden Grundlagen und natürlich zu Werner Vogels "Simplexität" führte. 

Die Neuausrichtung auf einzelne Komponenten ist eine Rückkehr zur alten Form für AWS, bis hin zum Intro-Video mit dem Slogan "We invent so you can". AWS wurde schließlich auf der Idee atomarer Komponenten gegründet, die die Kunden selbst zusammenstellen können, mit stabilen öffentlichen Schnittstellen, auf denen die Menschen aufbauen und sich verlassen können. Aber diese Konzentration auf einzelne Komponenten geht über die Grundfunktionalität dieser Bausteine hinaus und erstreckt sich auch auf die Einhaltung von Sicherheitsrichtlinien und -vorschriften. Die schnelle Reifung der frühen, rein technischen Dienste ermöglichte die rasche Akzeptanz von AWS, und dieser Ansatz wird heute in Form einer neuen Betonung der Nachhaltigkeit fortgesetzt.

Wir bei SnapLogic sind natürlich große Fans dieses Ansatzes. Wir bauen auf den leistungsstarken Primitiven auf, die AWS bereitstellt, und abstrahieren die gesamte Komplexität, damit sich unsere Benutzer auf die Entwicklung dessen konzentrieren können, was sie in den Augen ihrer eigenen Benutzer und Kunden tatsächlich von anderen unterscheidet. Matt Garman erkannte in einem Interview mit CRN auch die Schlüsselrolle an, die AWS-Partner wie SnapLogic für den Erfolg von AWS spielen. 

Das in allen drei Keynotes verwendete Hauptbeispiel war Amazon S3 - der ursprüngliche Simple Storage Service. Inzwischen gibt es S3-Kunden im Exabyte-Maßstab und Tausende im Petabyte-Maßstab - nicht schlecht für einen Dienst, der in seinen Anfängen eher als Spielzeug angesehen wurde, im Gegensatz zu den seriösen On-Premises-Diensten. Der Grund für diese Entwicklung ist die Erkenntnis, dass ein einfacher Dienst nicht bedeutet, dass er keine weiteren Funktionen hinzufügen kann. S3-Tabellen sind jetzt allgemein verfügbar, und S3-Metadaten befinden sich in der Vorschau, um nur zwei Ankündigungen zu nennen, an denen wir mit Freude zusammen mit unseren Kunden arbeiten. 

KI und AWS

Wie zu erwarten war, wurde auf der re:Invent in der Tat über KI gesprochen, wenn auch eher zurückhaltend. Die erste Erwähnung von KI erfolgte nach über einer Stunde in der Keynote von Matt Garman. Dies ist wohl ein Zeichen für die Reifung des Bereichs: Er erzeugt nicht mehr nur einen atemlosen Hype, sondern wird vielmehr Teil eines breiteren Angebots, bei dem die Parameter, wann KI nützlich ist, besser verstanden werden.

Andy Jassy hatte einen Überraschungsauftritt, um darüber zu sprechen, wie Amazon - also Amazon-proper, das Mutterschiff - die Vorteile der KI-Funktionen in AWS nutzt, aber es war an Dr. Swami Sivasubramanian, in seiner Keynote am Mittwoch genauer zu erläutern, was das eigentlich ist und wie sie in der Praxis angewendet werden können. Während einiges von dem, worüber er sprach, nicht so allgemein anwendbar ist, zumindest wenn man nach dem gedämpften Applaus als Reaktion auf neue SageMaker-Funktionen wie intelligentes Scheduling urteilt, sind andere Erkenntnisse sehr wohl anwendbar. Insbesondere bei GenAI-Anwendungen reicht das Modell allein nicht aus; es muss in einen bestimmten Kontext eingebettet sein, einschließlich eines zuverlässigen und kontinuierlichen Zugriffs auf stets aktuelle Daten, aber auch eines Verständnisses des eigentlichen Geschäftszwecks, dem all die ausgefallene KI-Technologie letztlich dienen soll.

Wir bei SnapLogic befürworten diese beiden Aspekte sehr. Einerseits können wir, wenn Amazon Bedrock neue Funktionen hinzufügt, wie z. B. die neuen Nova-Modelle (die bereits in SnapLogic verfügbar sind), diese sofort in die Hände unserer Kunden geben. Andererseits kann die Verbindung all dieser Bausteine komplex sein, mit vielen Details zu den einzelnen Funktionen, ganz zu schweigen davon, wie sie miteinander kombiniert werden, was auf den ersten Blick entmutigend sein kann. Hier kommt Werner Vogels' Begriff der "Simplexität" ins Spiel: einfache Schnittstellen, hinter denen sich eine Menge Komplexität verbirgt.

Dienstleistungen für Kunden

Die Idee hinter dieser Abstraktion und der Konzentration von AWS auf einzelne Bausteine ist, dass die Dienste für die Kunden entwickelt werden sollten, und zwar auf der Grundlage der Anforderungen und nicht der Wahl der Technologie. Die technologische Komplexität sollte daher so weit wie möglich ausgeblendet werden, es sei denn, sie wirkt sich auf den eigentlichen Zweck der Technologie aus. 

Wir haben genau dieses Thema in einer kürzlich erschienenen Folge des Enterprise Alchemists Podcasts diskutiert: Was ist der richtige Weg, um über komplexe Themen der Softwarearchitektur nachzudenken, insbesondere wenn es um eine grafische No-Code Entwicklungsumgebung wie die von SnapLogic geht?

All diese bewährten Praktiken sind Narbengewebe aus früheren Erfahrungen, und wir sollten unbedingt daraus lernen, damit wir neue, aufregende Fehler machen können - und daraus lernen - , anstatt immer wieder die gleichen alten Fehler zu machen.

Wir freuen uns darauf, auf diesen Primitiven aufzubauen und unseren Benutzern das richtige Maß an Komplexität zu bieten. Die neuen Nova-Modelle sind zum Beispiel bereits in SnapLogic verfügbar, und zwar durch unsere bestehende Integration mit Amazon Bedrock. Unsere Benutzer können diese dann übernehmen und darauf aufbauen, um ihren eigenen Benutzern und Kunden neue Funktionen und Möglichkeiten zu bieten, die einen konkreten geschäftlichen Nutzen bringen.

Das ist schließlich das ultimative Ziel - und es war sehr lohnend, mit so vielen bestehenden SnapLogic-Benutzern an unserem Stand zu sprechen, aber auch mit neuen Freunden, die einige der Ideen hinter SnapLogic zum allerersten Mal kennenlernten. Selbst wenn Sie ein erfahrener SnapLogic-Benutzer sind, lohnt es sich, einige der neueren Funktionen, die wir auf der Integreat 2024 angekündigt haben, auszuprobieren, denn ich konnte mehreren langjährigen Benutzern einige neue Tricks zeigen, die sie mit Begeisterung in ihre Teams mitnehmen konnten. Und wenn Sie Fragen oder Ideen haben, die Sie besprechen möchten, wissen Sie natürlich immer, wo Sie uns finden.

Kopfbild von Dominic Wellington
Unternehmensarchitekt bei SnapLogic
Kategorie: Partner
Innovation mit Einfachheit fördern: Eindrücke von AWS re:Invent

Wir stellen ein!

Entdecken Sie Ihre nächste große Karrierechance.