Per settore
Per funzione
Per workflow comuni
Per soluzione
Piattaforma di integrazione di dati e applicazioni all-in-one.
Creare agenti, assistenti e automazioni di livello aziendale.
Mobilitare i dati su cloud con ETL/ELT visuali e reverse ETL.
Collegate ogni applicazione con la nostra soluzione iPaaS no-code/low-code.
Provate voi stessi la principale piattaforma di integrazione self-service.
La guida per adottare un approccio moderno all'integrazione di dati e app, grazie a GenAI.
Portate l'automazione in ogni parte della vostra organizzazione.
Guidare la redditività e la crescita attraverso strategie di vendita e marketing congiunte.
Partnership per ISV, MSP, OEM e fornitori embedded.
Ottenere l'accesso a un ecosistema di partner di livello mondiale.
Accedere al portale SnapLogic Partner Connect.
Ottenete l'accesso gratuito alle risorse dei partner SnapLogic.
Cercate i partner nella nostra solida rete globale.
I risultati dei nostri clienti continuano a determinare il successo di SnapLogic.
La nostra comunità per la leadership di pensiero, il supporto tra pari, la formazione dei clienti e il riconoscimento.
Riconoscere gli individui per il loro contributo alla comunità SnapLogic.
Migliorate le vostre competenze in materia di integrazione intelligente e automazione aziendale.
In evidenza i clienti e i partner che hanno trasformato le loro organizzazioni con SnapLogic.
Scoprite come i nostri clienti traggono vantaggio dall'utilizzo di SnapLogic.
La nostra casa per eBook, white paper, video e altro ancora.
SnapLogic è qui per supportarvi durante tutta la vostra esperienza.
Seguite la ritrasmissione in APAC!
Date un'occhiata alle sessioni di San Francisco disponibili on-demand!
Cercate un termine o una frase che vi incuriosisce!
ADLS in Azure si riferisce ad Azure Data Lake Storage, una soluzione di archiviazione dati scalabile e sicura fornita da Microsoft Azure.
Un agente di intelligenza artificiale è un'entità o un programma software che percepisce il proprio ambiente, prende decisioni e intraprende azioni in modo autonomo per raggiungere obiettivi specifici.
Apache Hive è un software open-source creato per l'utilizzo nel data warehousing. Consente di analizzare e interrogare grandi quantità di dati.
Un'API consente a diverse applicazioni software di comunicare e condividere dati.
Uno sviluppatore di API è un ingegnere software specializzato nella creazione, manutenzione e implementazione di API (Application Programming Interfaces).
Un ecosistema di API è una rete di API interconnesse che consentono alle diverse applicazioni, servizi e piattaforme software di comunicare e interagire.
La funzionalità dell'API si riferisce ai metodi e ai formati di dati specifici che un'API può gestire.
La governance delle API comprende l'insieme di pratiche che assicurano la gestione e l'utilizzo efficace delle API.
Un'API (Application Programming Interface) è un insieme di strumenti di programmazione utilizzati dagli ingegneri per integrare funzionalità offerte da terzi. L'uso di un'API consente agli ingegneri di sviluppare il software più rapidamente, con una serie più ricca di funzionalità e una minore necessità di manutenzione continua.
Il ciclo di vita dell'API comprende le fasi che un'API attraversa dalla sua creazione alla sua dismissione.
La gestione delle API consente di creare, valutare e analizzare le API. Scoprite le piattaforme API e come vengono utilizzate nelle aziende.
Un API Manager è uno strumento che gestisce e protegge il traffico API, facilitando la connessione tra diverse applicazioni.
La monetizzazione delle API comporta l'implementazione di strategie per far pagare agli utenti o agli sviluppatori l'accesso e l'utilizzo delle funzionalità e dei dati delle API.
Un portale API è un hub centralizzato per la gestione e l'accesso alle API.
La razionalizzazione delle applicazioni è il processo di valutazione e ottimizzazione delle applicazioni software di un'organizzazione.
Un flusso di lavoro automatizzato è una serie di azioni automatizzate che sostituiscono le fasi manuali di un processo aziendale.
AWS Redshift è un servizio di data warehouse e analisi basato su cloud e gestito da Amazon Web Services. Ecco perché AWS Redshift è così importante.
Scoprite lo scopo dello storage Blob e come viene comunemente utilizzato dalle aziende per archiviare una serie di file.
Azure Data Lake fa parte dell'offerta pubblica di Microsoft cloud e consente l'archiviazione di big data.
L'architettura dei big data è la struttura che sta alla base dei sistemi di big data. Per saperne di più sui componenti comuni dell'architettura dei big data, cliccate qui.
L'ingestione dei big data raccoglie i dati e li porta in un sistema di elaborazione dati dove possono essere archiviati, analizzati e consultati.
L'integrazione dei big data è l'uso di software, servizi e/o processi aziendali per estrarre i dati da più fonti e trasformarli in informazioni coerenti e significative.
I modelli di maturità dei big data (e i modelli di maturità analitica) aiutano le organizzazioni a sfruttare le tendenze e le informazioni dei dati per ottenere misure specifiche di successo.
L'archiviazione Blob, acronimo di Binary Large Object storage, è una soluzione progettata per archiviare enormi quantità di dati non strutturati.
Il software di integrazione aziendale è un sistema di applicazioni e strumenti che mirano a unificare i set di dati e i vettori aziendali per una migliore supervisione e centralizzazione della governance.
Un modello di dati canonico è una rappresentazione standardizzata e semplificata delle entità di dati e delle relazioni all'interno di un'organizzazione o tra sistemi diversi.
L'acquisizione dei dati di modifica è il processo di cattura delle modifiche apportate a un database per ulteriori analisi o repliche.
Un data warehouse cloud è un archivio online per tutti i dati che un'organizzazione consolida da varie fonti, dati che possono essere consultati e analizzati per gestire l'azienda.
Scoprite la strategia di integrazione di cloud prima di trasferire i vostri dati aziendali su cloud.
Cloud parlare è la terminologia che si riferisce alla tecnologia di cloud , compresi gli acronimi e il gergo.
Scoprite cos'è l'integrazione basata su cloud e come può aiutare la vostra azienda.
L'analisi di coorte è un sottoinsieme dell'analisi comportamentale che raggruppa i dati di un determinato set di dati in gruppi correlati per l'analisi.
La Continuous Data Protection (CDP) è un sistema di backup e ripristino dei dati che salva automaticamente una copia di ogni modifica apportata ai dati.
L'integrazione CRM comporta il processo di collegamento di un sistema di Customer Relationship Management con altre applicazioni.
Il servizio clienti dell'era dei dati ha dovuto adattarsi alle mutevoli esigenze delle aziende. Con la trasformazione digitale dell'impresa, i servizi forniti devono comprendere, prevedere e soddisfare le esigenze dei clienti. I nuovi processi e la tecnologia in rapida evoluzione implicano che l'assistenza deve avere una maggiore conoscenza e assumere un ruolo più proattivo nell'educazione e nella cura del successo dei clienti.
L'aggregazione dei dati è il processo di raccolta e combinazione di dati provenienti da fonti diverse in un formato sintetico per l'analisi.
Acquisire una conoscenza di base dell'analisi dei dati e del ruolo che svolge nel business.
Determinare cosa sia una risorsa di dati di valore e cosa no è un processo complesso. Sempre più spesso è aiutato da programmi e processi automatizzati che permettono di selezionare i terabyte di big data.
L'automazione dei dati si riferisce all'automatizzazione delle attività relative ai dati per migliorare l'efficienza e ridurre l'intervento manuale.
Un catalogo di dati funge da glossario dei big data e contiene riferimenti ai metadati per le varie tabelle, database e file contenuti nei data lake o nei data warehouse.
Il consolidamento dei dati è il processo di combinazione dei dati provenienti da più fonti in un'unica visione unificata.
L'estrazione dei dati è il processo di recupero dei dati da varie fonti per una successiva elaborazione o archiviazione.
Il Data Fabric è un'altra variante di un framework di analisi e gestione dei dati distribuito e decentralizzato, come proposto da Gartner, ed è in gran parte considerato un framework concorrente del Data Mesh.
La federazione dei dati è una strategia di gestione dei dati che prevede la creazione di un database virtuale integrando i dati provenienti da più fonti diverse senza spostare i dati dalla loro posizione originale.
La Data Governance si riferisce alla gestione e alla protezione delle risorse di dati all'interno di un'organizzazione.
L'idratazione dei dati, o idratazione del data lake, è l'importazione di dati in un oggetto. Quando un oggetto è in attesa di essere riempito di dati, è in attesa di essere idratato. La fonte dell'idratazione può essere un data lake o un'altra fonte di dati.
Scoprite cos'è una pipeline di ingestione dei dati e come sfruttarla per le esigenze aziendali.
L'integrazione dei dati è una parte fondamentale della scienza e dell'analisi dei dati. I dati possono essere sovraccarichi, fornendo una quantità eccessiva di dati tra le varie fonti da analizzare per prendere decisioni aziendali tempestive ed efficaci. L'integrazione dei dati consente di selezionare i set di dati strutturati e non strutturati, strutturandoli per fornire informazioni e approfondimenti mirati.
L'integrazione dei dati è un compito a sé stante. Spesso richiede di prendere i processi legacy di un'azienda che sono centrali in un sistema attuale e di aggiornarlo per gli utenti digitali moderni.
Scoprite quali sono gli ostacoli che il settore sanitario deve affrontare nel passaggio dei dati al sito cloud e come superarli.
Scoprite quali sono i principali modelli di integrazione dei dati e quali utilizzare per il passaggio dei dati aziendali a cloud.
Una piattaforma di integrazione dati è utilizzata e gestita principalmente da professionisti IT. Consente di raccogliere, ordinare e trasformare i dati provenienti da più fonti, in modo da poterli applicare a vari scopi aziendali o indirizzarli a utenti specifici, unità aziendali, partner, applicazioni o soluzioni prospettiche.
Il processo di integrazione dei dati è il metodo con cui un'azienda combina i dati provenienti da diverse piattaforme e set di dati per creare un'architettura digitale coesa e globale.
Un piano di integrazione dei dati aiuta a definire un quadro di riferimento per la trasformazione digitale, incorporando le tempistiche, gli obiettivi, le aspettative, le regole e i ruoli che comprenderanno la completa integrazione dei dati.
Le strategie di integrazione dei dati aiutano a scoprire e implementare le soluzioni più efficienti e intelligenti per archiviare, estrarre e collegare le informazioni ai sistemi e alle piattaforme aziendali.
Un esempio di strategia di integrazione dei dati è una panoramica del funzionamento delle strategie di integrazione dei dati. In genere, comprende un elenco di alcuni elementi delle strategie di integrazione dei dati.
Un data lake è un tipo di sistema di archiviazione dei dati di grande capacità che conserva i dati "grezzi" (semi-strutturati e non strutturati, ad esempio streaming, IoT, ecc.) nel loro formato nativo fino a quando non sono necessari. A differenza delle architetture di archiviazione dati gerarchiche, che archiviano i dati strutturati in cartelle, un data lake utilizza un'architettura piatta.
Scoprite quali sono i prodotti disponibili per gestire il data lake e sfruttare al meglio i dati aziendali.
Un Data Lakehouse è una piattaforma di dati ibrida che combina le caratteristiche dei data lake e dei data warehouse.
Il termine "data lineage" si riferisce al tracciamento e alla visualizzazione del flusso dei dati durante il loro ciclo di vita, dall'origine alla destinazione finale.
Un data mart è un sottoinsieme specifico di dati conservati in un data warehouse e consente a reparti specifici di trovare i dati di cui hanno bisogno in modo più semplice e veloce.
Il Data Mesh è un framework di gestione dei dati aziendali che definisce come gestire i dati specifici del dominio aziendale in modo da consentire ai domini aziendali di possedere e gestire i propri dati.
Data mesh e data fabric sono strutture di analisi e gestione dei dati in gran parte simili e sovrapponibili, ma con alcune aree di distinzione.
Gli strumenti di migrazione dei dati assistono i team nelle loro attività di migrazione dei dati, compresa la migrazione dei dati on-premises, la migrazione dei dati basata su cloud e la migrazione dei dati open-source.
Il data mining è una tecnica chiave della scienza dei dati che prevede l'estrazione di informazioni preziose da grandi insiemi di dati. È essenziale per il riconoscimento dei modelli, l'estrazione delle informazioni e la scoperta della conoscenza, svolgendo un ruolo fondamentale nel processo decisionale guidato dai dati in diversi settori.
L'offuscamento dei dati è una tecnica di sicurezza che prevede l'alterazione dei dati sensibili per proteggerli da accessi non autorizzati, pur mantenendone l'usabilità.
Una pipeline di dati è un servizio o un insieme di azioni che elaborano i dati in sequenza. La funzione abituale di una pipeline di dati è quella di spostare i dati da uno stato o da una posizione a un'altra.
L'architettura di una pipeline di dati è un sistema che cattura, organizza e instrada i dati in modo che possano essere utilizzati per ottenere approfondimenti. I dati grezzi contengono troppi punti di dati che potrebbero non essere rilevanti.
Una piattaforma dati è una soluzione tecnologica progettata per archiviare, gestire e analizzare i dati.
La profilazione dei dati è il processo di analisi dei dati provenienti da fonti di informazione esistenti per raccogliere statistiche e informazioni sulla struttura, il contenuto e la qualità dei dati.
La provenienza dei dati si riferisce alla storia dettagliata e al percorso di un pezzo di dati, comprese le informazioni sulle sue origini, trasformazioni e movimenti.
Le metriche di qualità dei dati sono standard essenziali utilizzati per valutare la condizione e l'idoneità dei dati per scopi specifici.
La replica dei dati è il processo di copia dei dati per garantirne la coerenza tra più sedi o sistemi.
Una palude di dati è un termine usato per descrivere un archivio di dati mal gestito che rende difficile l'analisi dei dati e il processo decisionale guidato dai dati.
La sincronizzazione dei dati garantisce la coerenza e l'aggiornamento dei dati su diversi dispositivi, sistemi o applicazioni. Ciò contribuisce a mantenere l'integrità dei dati.
La virtualizzazione dei dati comporta la creazione di un livello virtuale che si colloca tra le fonti di dati e le applicazioni che li utilizzano.
Scoprite quali aziende tecnologiche possono fornire servizi di data warehouse per le esigenze di archiviazione dei dati della vostra azienda.
La grande popolarità e le opportunità derivanti dai data warehouse hanno incoraggiato lo sviluppo di numerosi strumenti di data warehousing.
Un database è una raccolta strutturata di dati che possono essere facilmente accessibili, gestiti e aggiornati.
La replica dei database comporta la creazione e il mantenimento di versioni duplicate di un database per garantire la coerenza e la disponibilità dei dati.
Uno schema di database è un progetto che delinea la struttura di un database, comprese le tabelle, i campi e le relazioni.
Scoprite tutto sull'apprendimento profondo, dalla sua relazione con l'apprendimento automatico a come la sua applicazione sta aumentando in molti campi.
Un cliente solo digitale è esattamente quello che sembra: un cliente con cui un'azienda si impegna a qualsiasi livello non fisico. A loro volta, i clienti digitali hanno una propria serie di best practice aziendali.
La Digital Marketing Analytics prevede la misurazione, la raccolta e l'analisi dei dati di marketing per ottimizzare le strategie di marketing digitale.
L'EAI, o Enterprise Application Integration, è un framework che permette di collegare diverse applicazioni aziendali per consentire la condivisione dei dati e l'automazione dei processi.
L'EDI, o Electronic Data Interchange, è un metodo per trasferire dati tra sistemi diversi senza l'intervento umano.
L'Enterprise Architect è un professionista responsabile della progettazione e della gestione della struttura IT di un'organizzazione.
Un Enterprise Data Warehouse è un database su larga scala che consolida i dati aziendali provenienti da varie fonti per la creazione di report e analisi.
L'Enterprise Resource Planning (ERP) è un tipo di software che consente a un'organizzazione di gestire e automatizzare molte delle attività aziendali quotidiane.
Un enterprise service bus (ESB) è un'architettura che consente la comunicazione tra ambienti diversi, come le applicazioni software.
Un processo di integrazione dei dati che prevede l'estrazione, la trasformazione e il caricamento.
Una pipeline ETL è un insieme di processi per estrarre, trasformare e caricare i dati da un sistema a un altro.
Il processo ETL prevede l'estrazione dei dati dai sistemi di origine, la loro trasformazione in un formato analizzabile e il loro caricamento in un data warehouse.
Il test ETL comporta il processo di convalida, verifica e qualificazione dei dati, evitando la duplicazione dei record e la perdita di dati.
GenAI, acronimo di Generative Artificial Intelligence, si riferisce a sistemi di intelligenza artificiale in grado di generare nuovi contenuti, idee o dati che imitano la creatività umana.
Le applicazioni GenAI si riferiscono all'uso pratico delle tecnologie di intelligenza artificiale generativa in vari settori e industrie.
L'intelligenza artificiale generativa è una forma di intelligenza artificiale in grado di creare nuovi dati simili a quelli su cui è stata addestrata.
L'integrazione generativa è un approccio avanzato all'integrazione di dati e applicazioni che sfrutta l'intelligenza artificiale generativa e i modelli linguistici di grandi dimensioni (LLM).
Guidewire è una piattaforma che offre un software back-end di base per il settore assicurativo property e casualty.
Un data lake Hadoop è costruito su una piattaforma composta da cluster Hadoop ed è particolarmente popolare nell'architettura dei data lake perché è open source.
L'acquisizione dei dati, o ingestione, per l'archiviazione, lo smistamento e l'analisi dei dati è un processo continuo alla base dell'architettura di sistema e della gestione dei dati. La velocità di ingestione è parte integrante della creazione di approfondimenti sui dati in tempo reale e di un vantaggio competitivo per la strategia aziendale.
I vantaggi di Hive consentono una più facile integrazione con elementi personalizzati, come estensioni, programmi e applicazioni. Inoltre, è più adatto per l'ingestione e l'elaborazione dei dati in batch.
L'iperautomazione prevede l'uso di tecnologie avanzate come l'intelligenza artificiale e l'apprendimento automatico per automatizzare processi aziendali complessi.
L'integrazione è il processo di combinazione di diversi sistemi e applicazioni.
Software di integrazione delle applicazioni, generalmente classificato come "middleware", cioè software che costituisce il collegamento tra sistemi operativi, software e database interfacciati.
Scoprite le best practice per l'integrazione di cloud e come possono aiutare la vostra azienda.
Integration Platform as a Service (IPaaS) è un sistema di integrazione basato su cloud che collega applicazioni software provenienti da ambienti diversi, tra cui dispositivi, IoT, applicazioni e così via.
Un documento sui requisiti di integrazione valuta e descrive i requisiti per il successo dell'integrazione dei dati. In modo simile a una Specifica dei requisiti di sistema/software (SRS), i Requisiti di integrazione articolano il comportamento e le caratteristiche attese del progetto di integrazione e dei sistemi correlati. La maggior parte dei documenti sui requisiti di integrazione fa parte di un più ampio piano di requisiti di integrazione dei dati e di standard di qualità del servizio.
Scoprite come l'Internet delle cose (IoT) utilizza l'AI e la GenAI per trasformare le industrie con dispositivi intelligenti e connessi e dati in tempo reale.
Scoprite cos'è l'architettura iPaaS e come può aiutarvi a spostare l'infrastruttura digitale della vostra azienda su cloud.
Un test delle prestazioni Java verifica le prestazioni di un'applicazione Java in termini di velocità ed efficienza.
Scoprite cos'è e a cosa serve il codice Java per i test di velocità.
In questo articolo forniamo una breve descrizione di JSON e spieghiamo come viene utilizzato principalmente.
Un Large Language Model (LLM) è un tipo di intelligenza artificiale che elabora e genera testi simili a quelli umani sulla base di grandi quantità di dati.
L'integrazione dei sistemi legacy è il processo di collegamento e comunicazione tra sistemi più vecchi, spesso obsoleti, e sistemi o tecnologie più recenti.
Oracle E-Business Suite è un insieme di applicazioni aziendali integrate fornite da Oracle.
Ecco tutto quello che avreste voluto sapere su un algoritmo di apprendimento automatico.
Il software di gestione dei dati master pulisce e standardizza i dati, creando un'unica fonte di verità. Scoprite i numerosi vantaggi dell'utilizzo di un software di gestione dei dati.
Scoprite dove si trovano i server di Microsoft Azure Storage e come le loro co-locazioni possono aiutare la vostra azienda.
Il Modern Data Stack è un insieme di tecnologie ottimizzate per la rapida integrazione, trasformazione e analisi dei dati.
MongoDB è un database NoSQL utilizzato per gestire grandi volumi di dati non strutturati.
Lo spostamento dei dati sul sito cloud, noto anche come migrazione Cloud , avviene quando i dati conservati su server statali, server personali/fisici, vengono trasferiti su una piattaforma di archiviazione completamente digitale.
L'elaborazione del linguaggio naturale è un campo dell'intelligenza artificiale (AI) che si concentra sull'interazione tra computer e linguaggi umani (naturali).
Un'applicazione di rete è un software che esegue funzioni in rete, come la condivisione di file.
In informatica e tecnologia, il termine "nodo" può riferirsi a diversi concetti a seconda del contesto. Ecco le definizioni più comuni.
L'orchestrazione prevede la disposizione e il coordinamento automatico di attività complesse all'interno di un flusso di lavoro.
La Prescriptive Analytics è un tipo di analisi che utilizza dati e algoritmi per fornire raccomandazioni su come gestire potenziali situazioni future.
L'estrazione dei dati da Salesforce con Informatica potrebbe non essere la soluzione migliore per l'estrazione e l'integrazione dei dati.
Python vs. Java: Python e Java sono entrambi linguaggi di programmazione, ognuno dei quali ha i suoi vantaggi. La differenza più significativa tra i due è l'uso delle variabili. Le variabili di Python sono tipizzate dinamicamente, mentre quelle di Java sono tipizzate staticamente.
Python e Java sono due dei più popolari e robusti linguaggi di programmazione. Scoprite le differenze in questo confronto delle prestazioni tra Java e Python.
La replica dei dati in tempo reale è la duplicazione e la sincronizzazione quasi istantanea dei dati su più sistemi per garantire coerenza, alta disponibilità e supporto al disaster recovery in ambienti diversi.
Il Representational State Transfer è uno stile architettonico per il software che fornisce un insieme di principi, proprietà e vincoli per standardizzare le operazioni costruite su http.
La Retrieval Augmented Generation è un approccio di apprendimento automatico che combina i punti di forza dei metodi basati sul recupero e dei modelli generativi per migliorare la qualità e la rilevanza del testo generato.
L'automazione robotica dei processi (RPA) prevede l'uso di robot software per automatizzare le attività ripetitive dei processi aziendali.
La RPA nel settore sanitario si riferisce all'applicazione dell'automazione robotica dei processi in ambito sanitario per attività come la fatturazione e l'inserimento dei dati.
SAP Analytics è un sistema che utilizza l'analisi predittiva di cloud per prevedere i risultati futuri, consentendo agli analisti di dati e agli stakeholder aziendali di prendere decisioni informate.
Le integrazioni SAP prendono i dati da una fonte (come un'applicazione o un software) e li rendono leggibili e utilizzabili in SAP.
La deriva dello schema si riferisce ai cambiamenti graduali che si verificano nella struttura, nel formato o nell'organizzazione dei dati all'interno di un database o di un sistema di dati nel corso del tempo.
Un livello semantico dei dati è un livello concettuale di un sistema informativo che aggiunge significato e contesto ai dati grezzi, consentendo un accesso, un'integrazione e un'analisi dei dati più intuitivi ed efficienti.
La ricerca semantica si riferisce a una tecnologia di ricerca che mira a migliorare l'accuratezza della ricerca attraverso la comprensione del significato contestuale dei termini di ricerca.
L'analisi del sentimento è un processo che utilizza l'NLP, l'analisi del testo e la linguistica computazionale per identificare ed estrarre informazioni soggettive dai dati di testo.
Il database Snowflake è un data warehouse nella soluzione cloud alimentato dal software Snowflake.
L'integrazione software consente di unire più tipi di sottosistemi software per creare un unico sistema unificato.
Scoprite come Spark SQL rende l'uso di Spark più veloce e più facile.
Che cos'è una query Splunk? Scoprite come rende i dati macchina accessibili, utilizzabili e preziosi per tutti.
SQL Azure è un servizio di database relazionale gestito fornito da Microsoft Azure.
SQL nell'analisi dei dati si riferisce all'uso di SQL (Structured Query Language) per interrogare e manipolare i dati a scopo di analisi.
Le funzioni di SQL server sono insiemi di istruzioni SQL che eseguono compiti specifici, consentendo di replicare facilmente i compiti comuni.
L'autenticazione SSL è l'acronimo di Secure Sockets Layer ed è un protocollo per la creazione di una connessione sicura per le interazioni tra utente e server.
Il framework REST utilizzato per le applicazioni basate sulla rete. Si basa su un server stateless basato sul client. L'autenticazione SSL garantisce la sicurezza delle interazioni tra client e server, criptando il collegamento.
Il database transazionale è un tipo specializzato di database progettato per gestire un elevato volume di transazioni. Garantisce l'integrità dei dati e supporta l'elaborazione in tempo reale, rendendolo indispensabile per applicazioni come l'online banking e l'e-commerce.
I tradizionali magazzini di dati relazionali sono sempre più spesso affiancati da big data non relazionali, o in fase di transizione verso questi ultimi. Il passaggio ai big data richiede nuove competenze, approcci e tecnologie.
Nell'SSL bidirezionale, detto anche SSL reciproco, il client conferma l'identità del server e il server conferma l'identità del client.
I database vettoriali memorizzano e ricercano dati ad alta dimensionalità. Scoprite i casi d'uso dell'AI, i dettagli tecnici e l'integrazione per applicazioni scalabili ed efficienti.
Le incorporazioni vettoriali sono un tipo di rappresentazione che converte i dati ad alta dimensionalità in uno spazio vettoriale continuo.
L'indicizzazione vettoriale è una tecnica di apprendimento automatico e di recupero dei dati utilizzata per organizzare e ricercare in modo efficiente grandi insiemi di vettori ad alta dimensionalità.
Una VPC, o Virtual Private Cloud, è una rete virtuale sicura e isolata in un ambiente pubblico cloud .
Workday Cloud Connect for Benefits è una suite di gestione aziendale che offre un unico sistema per gestire i benefit dei dipendenti.
Workday EIB (Enterprise Interface Builder) è uno strumento che fornisce agli utenti un'interfaccia guidata e grafica.
Workday offre applicazioni aziendali e suite di gestione basate su un'unica architettura, cloud, che combinano finanza, risorse umane e analisi in un unico sistema.