Cosa succede quando ci si trova di fronte alla sfida di mantenere un data warehouse legacy e allo stesso tempo di gestire volumi, varietà e velocità di dati sempre crescenti?
Pur essendo potenti ai tempi dei dati strutturati, i data warehouse legacy erano generalmente costituiti da tecnologie RDMS di Oracle, IBM, Microsoft e Teradata. I dati venivano estratti, trasformati e caricati nei data mart o nel data warehouse aziendale con strumenti ETL tradizionali, costruiti per gestire casi d'uso orientati al batch, in esecuzione su costosi server multi-core. Nell'era del self-service e dei big data, è in corso un ripensamento di queste tecnologie e approcci nell'IT aziendale.
In risposta a queste sfide, le aziende si stanno spostando con costanza verso soluzioni moderne di gestione dei dati che consistono in database NoSQL come MongoDB, distribuzioni Hadoop di fornitori come Cloudera e Hortonworks, sistemi basati su cloud come Amazon Redshift e visualizzazione dei dati da Tableau e altri. Nel corso di questo viaggio verso i big data e i data warehouse cloud , molte persone con cui ho parlato si sono rese conto che è fondamentale non solo modernizzare le loro implementazioni di data warehouse, ma anche rendere a prova di futuro il modo in cui raccolgono e gestiscono i dati nelle loro nuove infrastrutture di analytics, richiedendo una soluzione di integrazione dei dati agile e multi-punto, in grado di gestire senza problemi i dati strutturati e non strutturati in streaming in tempo reale e batch-oriented. Man mano che le aziende riposizionano l'IT e l'infrastruttura di analisi da centri di costo per la gestione dell'infrastruttura back-end a partner end-to-end dell'azienda, i modelli di servizio diventano parte integrante delle roadmap sia IT che aziendali.
Flessibilità, potenza e agilità necessarie per il nuovo data warehouse
Oggi, nella maggior parte delle aziende, l'attenzione dell'IT si sta spostando dall'utilizzo delle sue preziose risorse per lavori pesanti e indifferenziati verso la fornitura di valore aziendale differenziante. Utilizzando SnapLogic per spostare la gestione dell'integrazione dei big data più vicino all'edge, è possibile liberare risorse per progetti e attività a maggior valore, semplificando e accelerando l'intero processo data-to-insights. Il costruttore di pipeline di dati drag-and-drop e la piattaforma di integrazione in streaming di SnapLogic eliminano l'onere e la complessità dell'ingestione dei dati in sistemi come Hadoop, trasformando l'integrazione dei dati da un processo rigido e dispendioso in un processo maggiormente gestito e controllato dall'utente finale.
Incremento della produttività con un'integrazione dei dati più rapida
Un approccio più rapido all'integrazione dei dati non solo aumenta la produttività, ma in molti casi si traduce in un sostanziale risparmio sui costi. In un caso, un cliente SnapLogic con oltre 200 interfacce di integrazione, gestite e supportate da un team di 12 persone, è stato in grado di ridurre l'ingombro della gestione dell'integrazione a meno di 2 FTE, realizzando un risparmio annuo sui costi fissi di oltre il 62%, un miglioramento di 8:1 FTE annui, un risparmio infrastrutturale di oltre il 50% e un miglioramento del 35% nel calendario delle release dev-ops. Con effetti secondari, lo stesso cliente ha ottenuto un guadagno netto di produttività e una maggiore velocità di commercializzazione trasferendo la proprietà del processo di ingestione dei dati Hadoop ai data scientist e ai marketer. Questo cambiamento ha permesso all'azienda di essere più reattiva e di snellire in modo significativo l'intero processo di analisi dei dati per un processo decisionale più rapido, più economico e migliore in tutta l'azienda.
Azienda più agile
Aumentare l'agilità dell'integrazione significa avere la possibilità di effettuare spostamenti e modifiche in modo più rapido, migliore e meno costoso. Il design modulare di SnapLogic consente ai data scientist e agli esperti di marketing di non avere problemi, di effettuare aggiunte, spostamenti e modifiche in un attimo, con la certezza necessaria quando nascono nuove idee e entrano in gioco nuove fonti di dati.
Integrandosi con Hadoop attraverso la SnapLogic Enterprise Integration Platform, con un'integrazione dei dati veloce, moderna e multi-punto, i clienti hanno la possibilità di connettersi senza problemi e di effettuare lo streaming dei dati da praticamente qualsiasi endpoint, sia esso basato su cloud, basato a terra, legacy, strutturato o non strutturato. Inoltre, semplificando l'integrazione dei dati, i clienti SnapLogic non devono più utilizzare preziose risorse IT per gestire e mantenere le pipeline di dati, liberandole per contribuire alle aree di maggior valore aziendale.
Randy Hamilton è un imprenditore e tecnologo della Silicon Valley che scrive periodicamente su argomenti legati al settore, tra cui cloud, big data e IoT. Randy ha ricoperto il ruolo di Istruttore (Open Distributed Systems) presso la UC Santa Cruz e ha lavorato presso Basho (database Riak NoSQL), Sun Microsystems e Outlook Ventures, oltre a essere uno dei membri fondatori e VP Engineering di Match.com.
Prossimi passi:
- Leggete il whitepaper: La morte dell'integrazione tradizionale dei dati
- Contattateci per discutere i vostri requisiti di integrazione di cloud e dei big data.