La scorsa settimana mi sono seduto per una TechTalk con Greg Benson, Chief Scientist di SnapLogic. Greg si trova a cavallo tra il mondo accademico e l'industria e offre sempre grandi intuizioni sulle tendenze emergenti del settore. (Potete vedere alcuni dei suoi post sul blog qui). In questo webinar registrato, abbiamo discusso di Hadoop e di SnapReduce 2.0, la più recente innovazione di SnapLogic che aiuta i clienti a intraprendere il loro viaggio nei big data. Greg ha condiviso le sue intuizioni su tecnologie come Sqoop, Fiume, HDFS e le piattaforme di integrazione dei dati, sia legacy che moderne. Ha parlato con molti clienti e potenziali clienti di SnapLogic che si rivolgono a noi per essere aiutati nelle loro iniziative sui big data. Le organizzazioni IT non vogliono perdere l'opportunità di aggiornare i loro investimenti tecnologici di supporto, come l'integrazione dei dati, quando investono in Hadoop. I clienti si rivolgono a SnapLogic per i seguenti motivi Gaurav Dhillon'nel settore della gestione dei dati e di alcune delle notizie recenti sulla nuova piattaforma di integrazione elastica dell'azienda, in grado di soddisfare i requisiti di integrazione di applicazioni e dati.
Greg ha osservato che i servizi finanziari, il commercio al dettaglio e le telecomunicazioni sono alcuni dei principali settori verticali che stanno adottando Hadoop. Abbiamo discusso alcuni dei fattori che determinano l'adozione di Hadoop nelle aziende, tra cui le risorse a basso costo per l'archiviazione e l'analisi di grandi volumi di dati rispetto ai data warehouse aziendali tradizionali. I data warehouse tradizionali non solo sono proibitivi dal punto di vista hardware e software, ma non sono nemmeno adatti alla nuova era dei dati semi-strutturati e non strutturati. Allo stesso modo, questi clienti si accorgono che le loro tecnologie ETL tradizionali stanno facendo i salti mortali nel tentativo di gestire grandi volumi di dati non strutturati e semi-strutturati. Gli strumenti e gli approcci tradizionali per l'integrazione dei dati sono insufficienti anche su questo fronte, perché non parlano nativamente la lingua franca dei big data - JSON (Java Script Object Notation) - e non sono costruiti per scalare.
I clienti cercano sempre più di fare di Hadoop la loro piattaforma di gestione dei dati del futuro e di ammortizzarne il costo su più progetti. Nel corso del tempo, sempre più attività di gestione dei dati verranno eseguite su Hadoop, compresa la migrazione delle integrazioni di dati e delle attività ETL esistenti in Hadoop per eseguirle su scala Hadoop. Tuttavia, i clienti sono abbastanza pragmatici da non aspettarsi di poter abbandonare da un giorno all'altro gli investimenti in data warehousing, se non mai. Guardano a nuove tecnologie come SnapLogic per fare da tramite tra Hadoop e il data warehouse relazionale, dove SnapLogic agisce come meccanismo di consegna dei set di risultati analitici da Hadoop. Con questo approccio, possono continuare a fornire valore utilizzando gli strumenti di business intelligence (BI) e gli investimenti nella gestione dei dati esistenti, mentre ottengono le competenze di Hadoop in modo operativo.
In questo TechTalk, Greg ha anche ipotizzato il futuro di Hadoop e del settore dei big data in generale. È possibile visualizzare la registrazione del webinar qui e ho pubblicato le diapositive qui sotto. Chi fosse interessato al programma di accesso anticipato a SnapReduce 2.0 di SnapLogic può iscriversi qui.