La semaine dernière, j‘ai pris place pour un TechTalk avec Greg Benson, scientifique en chef de SnapLogic. Greg est à la croisée des chemins entre le monde universitaire et l‘industrie et apporte toujours un éclairage intéressant sur les tendances émergentes de l‘industrie. (Vous pouvez consulter certains de ses articles de blog ici). Dans cet enregistrement webinar, nous avons parlé de Hadoop et de SnapReduce 2.0la plus récente innovation de SnapLogic qui aide les clients à s‘engager dans la voie du Big Data. Greg a partagé son point de vue sur des technologies telles que Sqoop, Canal, HDFS et des plates-formes d‘intégration de données anciennes et modernes. Il s‘est entretenu avec de nombreux clients et prospects de SnapLogic qui nous demandent de les aider dans leurs initiatives en matière de big data. Les organisations informatiques ne veulent pas manquer l‘occasion de rafraîchir leurs investissements dans les technologies de soutien, comme l‘intégration de données, lorsqu‘elles investissent dans Hadoop. Les clients s‘adressent à SnapLogic pour les raisons suivantes Gaurav Dhillonés dans le domaine de la gestion des donn Nouvelles récentes sur la nouvelle intégration élastique de l‘entreprise, plateforme , qui peut répondre aux besoins d‘intégration des applications et des données.
Greg a fait remarquer que les services financiers, la vente au détail et les entreprises de télécommunications sont quelques-uns des principaux secteurs verticaux qui ont adopté Hadoop dès le début. Nous avons discuté de certains des moteurs de l‘adoption d‘Hadoop dans les entreprises, notamment les ressources moins coûteuses pour l‘archivage et l‘analyse de grands volumes de données par rapport aux entrepôts de données traditionnels des entreprises. Non seulement les entrepôts de données traditionnels ont un coût prohibitif du point de vue matériel et logiciel, mais ils ne sont pas non plus adaptés à la nouvelle ère des données semi-structurées et non structurées. De même, ces clients remarquent que leurs technologies ETL traditionnelles sont dépassées par le traitement de gros volumes de données non structurées et semi-structurées. Les outils et approches d‘intégration de données traditionnels ne sont pas à la hauteur sur ce front non plus, car ils ne parlent pas nativement la lingua franca du big data - JSON (Java Script Object Notation) - et ne sont pas conçus pour s‘adapter.
De plus en plus de clients cherchent à faire d‘Hadoop leur outil de gestion des données de facto plateforme du futur et à amortir son coût sur plusieurs projets. Au fil du temps, de plus en plus de tâches de gestion des données seront exécutées sur Hadoop, y compris la migration des intégrations de données et des tâches ETL existantes vers Hadoop pour les exécuter à l‘échelle Hadoop. Toutefois, les clients sont suffisamment pragmatiques pour ne pas s‘attendre à pouvoir mettre fin à leurs investissements dans l‘entreposage de données du jour au lendemain, voire jamais dans certains cas. Ils considèrent les nouvelles technologies telles que SnapLogic comme le conduit entre Hadoop et l‘entrepôt de données relationnel, où SnapLogic agit comme un mécanisme de livraison pour les ensembles de résultats analytiques provenant d‘Hadoop. Avec cette approche, ils peuvent continuer à produire de la valeur en utilisant leurs outils de veille stratégique (BI) existants et leurs investissements dans la gestion des données, tout en mettant en place leur compétence Hadoop.
Dans ce TechTalk, Greg a également spéculé sur l‘avenir de Hadoop et de l‘industrie du big data en général. Vous pouvez visionner l‘enregistrement de webinar ici et j‘ai publié les diapositives ci-dessous. Les personnes intéressées par le programme d‘accès anticipé à SnapReduce 2.0 de SnapLogic peuvent s‘inscrire ici.