...und es sieht kafka-esk aus. Sozusagen.
SnapLogic hat heute seine Frühjahrsversion 2016 der Plattform und Snap angekündigt. Insgesamt glauben wir, dass diese Version unseren Kunden helfen wird, sich auf Dateneinblicke zu konzentrieren, nicht auf Data Engineering. Viele der sich wiederholenden, zeitaufwändigen Aktivitäten rund um die Datenaufnahme, -aufbereitung und -bereitstellung werden damit wiederverwendbar und einfach. Wir glauben auch, dass diese Version unseren Kunden helfen wird, mit dem sich ständig verändernden Ökosystem der Big-Data-Technologie Schritt zu halten und die richtigen Tools und Frameworks für jede Aufgabe auszuwählen.
Die vielleicht größte Neuerung in der Frühjahrsversion 2016 sind die neuen Snaps für den Apache Kafka Message Broker. Ein Großteil der Daten, die in Big Data fließen
Seen sind Echtzeitdaten mit hohem Durchsatz aus E-Commerce-Transaktionen, Website-Klickströmen, Wearables und anderen Quellen des Internets der Dinge. Daher ist die Fähigkeit, Daten mit geringer Latenz und Streaming-Daten zu verarbeiten, für Unternehmen, die ihre Data-Lake-Strategie planen, entscheidend. Mit unseren neuen Snaps lassen sich Big-Data-Pipelines mit niedriger Latenz ohne Programmieraufwand erstellen. SnapLogic trägt dazu bei, Kafka in Kombination mit Snaps für gängige Datentransformationsvorgänge sowie Konnektoren für mehr als 400 Endpunkte unternehmenstauglicher zu machen. Kafka kann in Verbindung mit SnapLogic Ultra Pipelines für stets aktive Datenflüsse verwendet werden.
Die Frühjahrsversion 2016 bringt auch mehrere Verbesserungen, die SnapLogic-Projekte wiederholbarer und einfacher zu steuern und zu verwalten machen. Wir haben neue Algorithmusoptionen für die Datenzuordnung zu SmartLink und neue Spark-fähige Snaps für gängige Datenvorbereitungsaktivitäten wie JSON-Parser, Formatter und Splitter hinzugefügt. Dadurch können Benutzer viele der für Analysen erforderlichen Datenvorbereitungs- und Transformationsaufgaben operationalisieren.
Hinzu kommt die Snap-Versionierung, mit der Administratoren entscheiden können, wann sie zu einer neuen Version eines Snap wechseln, sowie der Metadaten-Snap, der die Metadaten der SnapLogic-Plattform so offenlegt, dass allgemeine Aufgaben wie das Erstellen, Löschen und Massenaktualisieren von Elementen wie Konten und Aufgaben als Teil einer Pipeline automatisiert werden können.
Von diesen Verbesserungen profitieren sowohl erfahrene Integratoren, die bei sich wiederholenden Aufgaben Zeit sparen müssen, als auch Selbstbedienungs-Integratoren/Analysten, die einfache Möglichkeiten zur Formung und Umwandlung von Daten benötigen, bevor sie eine Verbindung zu einem BI- oder Datenvisualisierungstool herstellen.
Wir freuen uns auch, eine Vorschau auf unseren "containerisierten" Snaplex geben zu können. Sie erinnern sich, dass Snaplex die elastisch skalierbare Datenverarbeitungskomponente der SnapLogic-Plattform ist. Nach der Veröffentlichung können diese Snaplex-Container in jeder Cloud-Umgebung eingesetzt werden, die Docker-Container hosten kann, z. B. im Amazon Container Service, der Google Container Engine oder dem Azure Container Service. Snaplex-Container können auch in Rechenzentren eingesetzt werden, in denen Docker Swarm, Kubernetes oder Mesos laufen. Container sind vielversprechend für Datenintegrationsprojekte, insbesondere für solche mit variablen Ausführungslasten, da sie die Effizienz der Ressourcennutzung steigern.
Wir haben auch Unterstützung für Microsoft HDInsight hinzugefügt. Mehr dazu in einem separaten Beitrag. Melden Sie sich unbedingt für die SnapLogic Live-Übersicht am Donnerstag an.