Par secteur d‘activité
Par fonction
Par workflows populaires
Par solution
Plateforme tout-en-un d‘intégration de données et d‘applications.
Créez des agents, des assistants et des automatismes de qualité professionnelle.
Transférez vos données dans et vers le cloud avec le visual ETL/ELT et le reverse ETL.
Connectez toutes les applications grâce à notre solution iPaaS sans code/à code réduit.
Faites l‘expérience de la première plateforme d‘intégration en self-service.
Obtenez le guide pour adopter une approche moderne de l'intégration des données et des applications, alimentée par GenAI.
L‘automatisation s‘applique à tous les domaines de votre entreprise.
Favoriser la rentabilité et la croissance grâce à des stratégies conjointes de vente et de marketing.
Partenariats pour les fournisseurs ISV, MSP, OEM et intégrés.
Accédez à un écosystème de partenaires de première classe.
Accédez au portail SnapLogic Partner Connect.
Accédez gratuitement aux ressources des partenaires SnapLogic.
Recherchez des partenaires dans notre réseau mondial de premier ordre.
Les succès de nos clients continuent de façonner celui de SnapLogic.
Notre communauté de réflexion, d‘entraide, de formation des clients et de reconnaissance.
Reconnaître les individus pour leurs contributions à la communauté SnapLogic.
Améliorer votre expertise en matière d‘intégration intelligente et d‘automatisation de l‘entreprise.
Mise en avant des clients et partenaires qui ont transformé leurs organisations grâce à SnapLogic.
En savoir plus sur les avantages que nos clients tirent de l‘utilisation de SnapLogic.
La section où retrouver les eBook, les livres blancs, les vidéos et plus encore.
SnapLogic est là pour vous accompagner tout au long de votre expérience.
Regardez la rediffusion de l'APAC !
Découvrez les sessions de San Francisco disponibles à la demande !
Recherchez un terme ou une expression qui vous intéresse !
ADLS dans Azure fait référence à Azure Data Lake Storage, une solution de stockage de données évolutive et sécurisée fournie par Microsoft Azure.
Un agent d'intelligence artificielle est une entité logicielle ou un programme qui perçoit son environnement, prend des décisions et agit de manière autonome pour atteindre des objectifs spécifiques.
Apache Hive est un logiciel libre conçu pour l‘entreposage de données. Il permet d‘analyser et d‘interroger de grandes quantités de données.
Une API permet à différentes applications logicielles de communiquer et de partager des données.
Un développeur API est un ingénieur logiciel spécialisé dans la création, la maintenance et la mise en œuvre d‘API (interfaces de programmation d‘applications).
Un écosystème d'API est un réseau d'API interconnectées qui permettent à différentes applications logicielles, services et plateformes de communiquer et d'interagir.
La fonctionnalité de l‘API fait référence aux méthodes spécifiques et aux formats de données qu‘une API peut gérer.
La gouvernance des API comprend l‘ensemble des pratiques qui garantissent la gestion et l‘utilisation efficaces des API.
Une API (Application Programming Interface) est un ensemble d‘outils de programmation utilisés par les ingénieurs pour intégrer des fonctionnalités offertes par des tiers. L‘utilisation d‘une API permet aux ingénieurs de développer des logiciels plus rapidement, avec un ensemble de fonctionnalités plus riche et moins de besoins de maintenance continue.
Le cycle de vie d‘une API comprend les étapes par lesquelles passe une API, de sa création à sa suppression.
La gestion des API permet de créer, d‘évaluer et d‘analyser les API. Découvrez les plateformes d‘API et leur utilisation dans les entreprises.
Un gestionnaire d‘API est un outil qui gère et sécurise le trafic API, facilitant ainsi la connexion entre différentes applications.
La monétisation des API implique la mise en œuvre de stratégies visant à faire payer les utilisateurs ou les développeurs pour l'accès et l'utilisation des fonctionnalités et des données de l'API.
Un portail API est un centre centralisé de gestion et d‘accès aux API.
La rationalisation des applications est le processus d‘évaluation et d‘optimisation des applications logicielles d‘une organisation.
Un flux de travail automatisé est une série d‘actions automatisées qui remplacent les étapes manuelles d‘un processus d‘entreprise.
AWS Redshift est un service d‘entrepôt de données et d‘analyse basé sur cloud et géré par Amazon Web Services. Voici pourquoi AWS Redshift est si important.
Découvrez l‘objectif du stockage Blob et la manière dont il est couramment utilisé par les entreprises pour stocker une variété de fichiers.
Azure Data Lake fait partie de l‘offre publique de Microsoft cloud et permet le stockage de données volumineuses.
L‘architecture big data est la structure qui sous-tend les systèmes big data. Pour en savoir plus sur les composants communs de l‘architecture big data, cliquez ici.
L‘ingestion de big data permet de collecter des données et de les introduire dans un système de traitement de données où elles peuvent être stockées, analysées et consultées.
L‘intégration des big data est l‘utilisation de logiciels, de services et/ou de processus d‘entreprise pour extraire des données de sources multiples afin d‘obtenir des informations cohérentes et significatives.
Les modèles de maturité du big data (et les modèles de maturité de l‘analyse) aident les organisations à exploiter les tendances et les informations des données pour atteindre des mesures spécifiques de succès.
Le stockage Blob, abréviation de Binary Large Object storage, est une solution conçue pour stocker des quantités massives de données non structurées.
Le logiciel d‘intégration d‘entreprise est un système d‘applications et d‘outils qui vise à unifier les ensembles de données et les vecteurs d‘activité pour une meilleure supervision et une centralisation de la gouvernance.
Un modèle de données canonique est une représentation normalisée et simplifiée des entités et des relations de données au sein d'une organisation ou d'un système à l'autre.
La capture des données de changement est le processus de capture des modifications apportées à une base de données en vue d‘une analyse ou d‘une réplication ultérieure.
Un entrepôt de données cloud est un référentiel en ligne pour toutes les données qu‘une organisation consolide à partir de diverses sources - des données qui peuvent ensuite être consultées et analysées pour gérer l‘entreprise.
Découvrez la stratégie d‘intégration de cloud avant de transférer vos données professionnelles sur cloud.
Cloud speak est une terminologie qui se réfère à la technologie cloud , y compris les acronymes et le jargon.
Découvrez ce qu‘est l‘intégration basée sur cloud et comment elle peut aider votre entreprise.
L‘analyse de cohorte est un sous-ensemble de l‘analyse comportementale qui regroupe les données d‘un ensemble de données donné en groupes apparentés en vue de leur analyse.
La protection continue des données (CDP) est un système de sauvegarde et de récupération des données qui enregistre automatiquement une copie de chaque modification apportée aux données.
L‘intégration CRM implique le processus de connexion d‘un système de gestion de la relation client avec d‘autres applications.
Le service client de l‘ère des données a dû s‘adapter à l‘évolution des besoins des entreprises. Avec la transformation numérique de l‘entreprise, les services fournis doivent comprendre, prévoir et répondre aux besoins des clients. Les nouveaux processus et l‘évolution rapide des technologies signifient que le service d‘assistance doit être plus perspicace et jouer un rôle plus proactif dans l‘éducation et la prise en charge de la réussite des clients.
L'agrégation des données est le processus de collecte et de combinaison de données provenant de différentes sources dans un format résumé pour l'analyse.
Acquérir une compréhension de base de l‘analyse des données et du rôle qu‘elle joue dans les entreprises.
Déterminer ce qui est une donnée de valeur et ce qui ne l‘est pas est un processus complexe. Il est de plus en plus facilité par des programmes et des processus automatisés qui permettent de trier des téraoctets de données volumineuses.
L‘automatisation des données fait référence à l‘automatisation des tâches liées aux données afin d‘améliorer l‘efficacité et de réduire les interventions manuelles.
Un catalogue de données agit comme un glossaire de big data, contenant des références de métadonnées pour les différentes tables, bases de données et fichiers contenus dans les lacs de données ou les entrepôts de données.
La consolidation des données est le processus qui consiste à combiner des données provenant de sources multiples en une vue unique et unifiée.
L‘extraction de données est le processus qui consiste à récupérer des données à partir de diverses sources en vue de leur traitement ou de leur stockage.
Le tissu de données est une autre variante d‘un cadre distribué et décentralisé d‘analyse et de gestion des données, tel qu‘il a été présenté par Gartner, et il est largement considéré comme un cadre concurrent du maillage de données.
La fédération de données est une stratégie de gestion des données qui consiste à créer une base de données virtuelle en intégrant des données provenant de sources multiples et disparates sans déplacer les données de leur emplacement d'origine.
La gouvernance des données fait référence à la gestion et à la protection des données au sein d‘une organisation.
L‘hydratation des données, ou l‘hydratation du lac de données, est l‘importation de données dans un objet. Lorsqu‘un objet attend que des données le remplissent, cet objet attend d‘être hydraté. La source de cette hydratation peut être un lac de données ou une autre source de données.
Découvrez ce qu‘est un pipeline d‘ingestion de données et comment l‘exploiter pour répondre aux besoins de votre entreprise en matière de données.
L‘intégration des données est un élément fondamental de la science et de l‘analyse des données. Les données peuvent être écrasantes, fournissant trop de données à travers les sources à trier pour prendre des décisions d‘affaires opportunes et efficaces. L‘intégration des données permet de trier de vastes ensembles de données structurées et non structurées et de sélectionner des ensembles de données, en structurant les données pour fournir des informations et des renseignements ciblés.
L‘intégration des données est une tâche en soi. Elle nécessite souvent de reprendre les processus hérités d‘une entreprise qui sont au cœur d‘un système actuel, puis de mettre à jour le système pour les utilisateurs numériques modernes.
Découvrez les obstacles auxquels le secteur des soins de santé est confronté lorsqu‘il transfère ses données sur le site cloud et comment il peut les surmonter.
Découvrez quels sont les principaux modèles d‘intégration de données et lesquels utiliser pour la migration des données de votre entreprise vers le site cloud.
Une plateforme d‘intégration de données est principalement utilisée et gérée par des professionnels de l‘informatique. Elle permet de collecter, de trier et de transformer des données provenant de sources multiples afin de les appliquer à diverses fins commerciales ou de les acheminer vers des utilisateurs, des unités commerciales, des partenaires, des applications ou des solutions potentielles spécifiques.
Le processus d‘intégration des données est la méthode par laquelle une entreprise combine des données provenant de plusieurs plateformes et ensembles de données différents pour créer une architecture numérique cohérente et globale.
Un plan d‘intégration des données permet de définir un cadre pour la transformation numérique en incorporant les délais, les objectifs, les attentes, les règles et les rôles qui engloberont une intégration complète des données.
Les stratégies d‘intégration des données permettent de découvrir et de mettre en œuvre les solutions les plus efficaces et les plus intelligentes pour stocker, extraire et connecter les informations aux systèmes et plates-formes de l‘entreprise.
Un exemple de stratégie d‘intégration de données est une vue d‘ensemble du fonctionnement des stratégies d‘intégration de données. Il comprend généralement une liste de certains éléments des stratégies d‘intégration de données.
Un lac de données est un type de système de stockage de données de grande capacité qui conserve des données "brutes" (semi- et non structurées, c‘est-à-dire en continu, IoT, etc.) dans leur format natif jusqu‘à ce qu‘elles soient nécessaires. Contrairement aux architectures de stockage de données hiérarchiques, qui stockent les données structurées dans des dossiers, un lac de données emploie une architecture plate.
Découvrez les produits disponibles pour gérer le lac de données afin de tirer le meilleur parti des données de votre entreprise.
Un Data Lakehouse est un site hybride plateforme qui combine les caractéristiques des lacs de données et des entrepôts de données.
Le cheminement des données consiste à suivre et à visualiser la manière dont les données circulent tout au long de leur cycle de vie, depuis leur origine jusqu'à leur destination finale.
Un datamart est un sous-ensemble spécifique de données conservées dans un entrepôt de données et permet à des départements spécifiques de trouver plus facilement et plus rapidement les données dont ils ont besoin.
Le maillage de données est un cadre de gestion des données d‘entreprise qui définit la manière de gérer les données spécifiques à un domaine d‘activité d‘une manière qui permet aux domaines d‘activité de posséder et d‘exploiter leurs données.
Le maillage et le tissu de données sont des cadres d‘analyse et de gestion des données qui sont largement similaires et se chevauchent, mais avec quelques domaines de distinction.
Les outils de migration de données aident les équipes dans leurs efforts de migration de données, y compris la migration de données sur site, la migration de données basée sur cloud et la migration de données open-source.
L‘exploration de données est une technique clé de la science des données qui consiste à extraire des informations précieuses de vastes ensembles de données. Il est essentiel pour la reconnaissance des formes, l‘extraction d‘informations et la découverte de connaissances, jouant un rôle critique dans la prise de décision basée sur les données dans diverses industries.
L'obscurcissement des données est une technique de sécurité qui consiste à modifier des données sensibles pour les protéger contre un accès non autorisé tout en conservant leur utilité.
Un pipeline de données est un service ou un ensemble d‘actions qui traitent les données en séquence. La fonction habituelle d‘un pipeline de données est de déplacer des données d‘un état ou d‘un emplacement à un autre.
Une architecture de pipeline de données est un système qui capture, organise et achemine les données afin qu‘elles puissent être utilisées pour obtenir des informations. Les données brutes contiennent trop de points de données qui peuvent ne pas être pertinents.
Une plateforme de données est une solution technologique conçue pour stocker, gérer et analyser des données.
Le profilage des données est le processus d'analyse des données provenant de sources d'information existantes afin de collecter des statistiques et des informations sur la structure, le contenu et la qualité des données.
La provenance des données fait référence à l'histoire détaillée et à la lignée d'un élément de données, y compris les informations sur ses origines, ses transformations et ses mouvements.
Les mesures de qualité des données sont des normes essentielles utilisées pour évaluer l'état et l'adéquation des données à des fins spécifiques.
La réplication des données est le processus qui consiste à copier les données afin d‘assurer la cohérence entre plusieurs sites ou systèmes.
Un marais de données est un terme utilisé pour décrire un référentiel de données mal géré qui rend difficile l'analyse des données et la prise de décision fondée sur les données.
La synchronisation des données garantit la cohérence et la mise à jour des données entre différents appareils, systèmes ou applications. Cela permet de maintenir l'intégrité des données.
La virtualisation des données consiste à créer une couche virtuelle entre les sources de données et les applications qui utilisent ces données.
Découvrez quelles entreprises technologiques peuvent fournir des services d‘entrepôt de données pour répondre aux besoins de votre entreprise en matière de stockage de données.
La grande popularité des entrepôts de données et les possibilités qu‘ils offrent ont encouragé le développement de nombreux outils d‘entreposage de données.
Une base de données est un ensemble structuré de données qui peuvent être facilement consultées, gérées et mises à jour.
La réplication des bases de données consiste à créer et à maintenir des versions dupliquées d‘une base de données afin de garantir la cohérence et la disponibilité des données.
Un schéma de base de données est un plan qui décrit la structure d‘une base de données, y compris les tables, les champs et les relations.
Apprenez tout sur l‘apprentissage profond - de sa relation avec l‘apprentissage automatique à la façon dont ses applications se développent dans de nombreux domaines.
Un client exclusivement numérique est exactement ce qu‘il semble être : un client avec lequel une entreprise s‘engage à un niveau non physique. Les clients numériques s‘accompagnent d‘un ensemble de bonnes pratiques propres à l‘entreprise.
L‘analyse du marketing numérique implique la mesure, la collecte et l‘analyse des données marketing afin d‘optimiser les stratégies de marketing numérique.
L‘EAI, ou intégration des applications d‘entreprise, est un cadre permettant de connecter différentes applications d‘entreprise afin de permettre le partage des données et l‘automatisation des processus.
L‘EDI, ou échange de données informatisées, est une méthode de transfert de données entre différents systèmes sans intervention humaine.
L‘architecte d‘entreprise est un professionnel chargé de concevoir et de gérer le cadre informatique d‘une organisation.
Un entrepôt de données d‘entreprise est une base de données à grande échelle qui consolide les données d‘entreprise provenant de diverses sources à des fins de reporting et d‘analyse.
La planification des ressources de l‘entreprise (ERP) est un type de logiciel qui permet à une organisation de gérer et d‘automatiser un grand nombre de ses activités quotidiennes.
Un bus de service d‘entreprise (ESB) est une architecture qui permet la communication entre différents environnements, tels que des applications logicielles.
Processus d‘intégration de données impliquant l‘extraction, la transformation et le chargement.
Un pipeline ETL est un ensemble de processus permettant d‘extraire, de transformer et de charger des données d‘un système à un autre.
Le processus ETL consiste à extraire les données des systèmes sources, à les transformer dans un format qui peut être analysé et à les charger dans un entrepôt de données.
Le test ETL implique le processus de validation, de vérification et de qualification des données tout en évitant les enregistrements en double et les pertes de données.
La GenAI, abréviation de Generative Artificial Intelligence, désigne les systèmes d‘IA capables de générer de nouveaux contenus, idées ou données qui imitent la créativité humaine.
Les applications de la GenAI font référence à l‘utilisation pratique des technologies d‘intelligence artificielle générative dans divers secteurs et industries.
L‘IA générative est une forme d‘intelligence artificielle capable de créer de nouvelles données similaires à celles sur lesquelles elle a été formée.
L‘intégration générative est une approche avancée de l‘intégration des données et des applications qui s‘appuie sur l‘IA générative et les grands modèles de langage (LLM).
Guidewire est un site plateforme qui propose un logiciel de base pour le secteur de l‘assurance dommages.
Un lac de données Hadoop est construit sur un site plateforme composé de clusters Hadoop et est particulièrement populaire dans l‘architecture des lacs de données car il s‘agit d‘un logiciel libre.
L‘absorption de données, ou ingestion, pour le stockage, le tri et l‘analyse des données est un processus continu à la base de l‘architecture du système et de la gestion des données. Le taux d‘ingestion fait partie de la création de données en temps réel et d‘un avantage concurrentiel pour la stratégie de l‘entreprise.
Les avantages de Hive permettent une intégration plus facile avec des éléments personnalisés, tels que des extensions, des programmes et des applications. Il est également mieux adapté à l‘ingestion et au traitement de données par lots.
L‘hyperautomatisation implique l‘utilisation de technologies avancées telles que l‘IA et l‘apprentissage automatique pour automatiser des processus métier complexes.
L‘intégration est le processus qui consiste à combiner différents systèmes et applications pour qu‘ils fonctionnent ensemble.
Les logiciels d‘intégration d‘applications, généralement classés comme "middleware", c‘est-à-dire les logiciels qui forment le lien entre les systèmes d‘exploitation, les logiciels et les bases de données qui s‘interfacent.
Découvrez les meilleures pratiques pour l‘intégration de cloud et comment elles peuvent aider votre entreprise.
La plateforme d‘intégration en tant que service (IPaaS) est un système d‘intégration basé sur cloud qui connecte des applications logicielles provenant de différents environnements, y compris des appareils, l‘IoT, des applications, etc.
Un document d‘exigences d‘intégration évalue et décrit les exigences d‘une intégration de données réussie. À l‘instar d‘une spécification des exigences des systèmes/logiciels (SRS), les exigences d‘intégration articulent le comportement et les caractéristiques attendus du projet d‘intégration et des systèmes connexes. La plupart des documents d‘exigences d‘intégration font partie d‘un plan plus large d‘exigences d‘intégration de données et de normes de qualité de service.
Découvrez comment l'internet des objets (IoT) utilise l'IA et la GenAI pour transformer les industries grâce à des dispositifs intelligents et connectés et à des données en temps réel.
Découvrez ce qu‘est l‘architecture iPaaS et comment elle peut vous aider à transférer l‘infrastructure numérique de votre entreprise sur le site cloud.
Un test de performance Java vérifie la vitesse et l‘efficacité d‘une application Java.
Découvrez ce qu‘est un code de test de vitesse Java et à quoi il sert.
Dans cet article, nous fournissons une brève description de JSON et expliquons comment il est principalement utilisé.
Un modèle de langage étendu (LLM) est un type d‘intelligence artificielle qui traite et génère des textes semblables à ceux d‘un être humain sur la base de grandes quantités de données.
L‘intégration des systèmes existants est le processus qui consiste à connecter et à permettre la communication entre des systèmes plus anciens, souvent dépassés, et des systèmes ou des technologies plus récents.
Oracle E-Business Suite est un ensemble d‘applications commerciales intégrées fournies par Oracle.
Voici tout ce que vous avez toujours voulu savoir sur un algorithme d‘apprentissage automatique.
Les logiciels de gestion des données de référence nettoient et normalisent les données, créant ainsi une source unique de vérité. Découvrez les nombreux avantages de l‘utilisation d‘un logiciel de gestion des données.
Découvrez où sont situés les serveurs Microsoft Azure Storage et comment leur regroupement peut aider votre entreprise.
La pile de données moderne est un ensemble de technologies optimisées pour l‘intégration, la transformation et l‘analyse rapides des données.
MongoDB est une base de données NoSQL utilisée pour traiter de grands volumes de données non structurées.
Le transfert de données vers le site cloud, également connu sous le nom de migration Cloud , consiste à transférer des données conservées sur des serveurs nationaux, des serveurs personnels/physiques, vers un site de stockage entièrement numérique plateforme.
Le traitement du langage naturel est un domaine de l'intelligence artificielle (IA) qui se concentre sur l'interaction entre les ordinateurs et les langues humaines (naturelles).
Une application réseau est un logiciel qui exécute des fonctions sur un réseau, comme le partage de fichiers.
En informatique et en technologie, le terme "nœud" peut désigner plusieurs concepts différents en fonction du contexte. Voici quelques définitions courantes.
L‘orchestration implique l‘organisation et la coordination automatisées de tâches complexes au sein de un workflow.
L‘analyse prescriptive est un type d‘analyse qui utilise des données et des algorithmes pour fournir des recommandations sur la manière de gérer des situations futures potentielles.
Extraire des données de Salesforce avec Informatica n‘est peut-être pas la meilleure solution d‘extraction et d‘intégration de données.
Python contre Java : Python et Java sont deux langages de programmation, chacun ayant ses avantages. La différence la plus importante entre les deux est la façon dont chacun utilise les variables. Les variables Python sont typées dynamiquement alors que les variables Java sont typées statiquement.
Python et Java sont deux des langages de programmation les plus populaires et les plus robustes. Découvrez les différences dans cette comparaison des performances entre Java et Python.
La réplication de données en temps réel est la duplication et la synchronisation quasi-instantanées de données entre plusieurs systèmes afin d‘assurer la cohérence, la haute disponibilité et la reprise après sinistre dans divers environnements.
Le transfert d‘état représentationnel est un style architectural pour les logiciels qui fournit un ensemble de principes, de propriétés et de contraintes pour normaliser les opérations basées sur http.
La génération augmentée de recherche est une approche d'apprentissage automatique qui combine les forces des méthodes basées sur la recherche et des modèles génératifs pour améliorer la qualité et la pertinence du texte généré.
L‘automatisation des processus robotiques (RPA) implique l‘utilisation de robots logiciels pour automatiser les tâches répétitives dans les processus d‘entreprise.
La RPA dans le secteur de la santé fait référence à l‘application de l‘automatisation des processus robotiques dans le secteur de la santé pour des tâches telles que la facturation et la saisie de données.
SAP Analytics est un système qui utilise l‘analyse prédictive cloud pour prévoir les résultats futurs, ce qui permet aux analystes de données et aux parties prenantes de l‘entreprise de prendre des décisions éclairées.
Les intégrations SAP prennent des données d‘une source (telle qu‘une application ou un logiciel) et les rendent lisibles et utilisables dans SAP.
La dérive des schémas fait référence aux changements progressifs qui se produisent dans la structure, le format ou l'organisation des données au sein d'une base de données ou d'un système de données au fil du temps.
Une couche de données sémantiques est une couche conceptuelle dans un système d‘information qui ajoute un sens et un contexte aux données brutes, permettant un accès, une intégration et une analyse des données plus intuitifs et plus efficaces.
La recherche sémantique est une technologie de recherche qui vise à améliorer la précision de la recherche en comprenant la signification contextuelle des termes de recherche.
L'analyse des sentiments est le processus qui consiste à utiliser le NLP, l'analyse de texte et la linguistique informatique pour identifier et extraire des informations subjectives à partir de données textuelles.
La base de données Snowflake est un entrepôt de données dans la solution cloud alimentée par le logiciel Snowflake.
L‘intégration logicielle permet de réunir plusieurs types de sous-systèmes logiciels pour créer un seul système unifié.
Découvrez comment Spark SQL rend l‘utilisation de Spark plus rapide et plus facile.
Qu‘est-ce qu‘une requête Splunk ? Découvrez comment elle rend les données machine accessibles, utilisables et précieuses pour tout le monde.
SQL Azure est un service de base de données relationnelle géré fourni par Microsoft Azure.
SQL en analyse de données fait référence à l‘utilisation de SQL (Structured Query Language) pour l‘interrogation et la manipulation de données à des fins d‘analyse.
Les fonctions du serveur SQL sont des ensembles d‘instructions SQL qui exécutent des tâches spécifiques, ce qui permet de reproduire facilement des tâches communes.
L‘authentification SSL (Secure Sockets Layer) est un protocole permettant de créer une connexion sécurisée pour les interactions entre l‘utilisateur et le serveur.
Le cadre REST utilisé pour les applications basées sur le réseau. Il repose sur un serveur sans état basé sur le client. Une authentification SSL garantit que les interactions entre le client et le serveur sont sécurisées en chiffrant le lien qui les relie.
La base de données transactionnelle est un type de base de données spécialisé, conçu pour traiter un volume élevé de transactions. Elle garantit l‘intégrité des données et prend en charge le traitement en temps réel, ce qui la rend indispensable pour des applications telles que la banque en ligne et le commerce électronique.
Les entrepôts de données relationnels traditionnels sont de plus en plus souvent complétés par des données non relationnelles (big data) ou remplacés par ces dernières. Le passage au big data nécessite de nouvelles compétences, approches et technologies.
Dans le cas du SSL bidirectionnel, ou SSL mutuel, le client confirme l‘identité du serveur et le serveur confirme l‘identité du client.
Les bases de données vectorielles stockent et recherchent des données à haute dimension. Découvrez les cas d'utilisation de l'IA, les détails techniques et l'intégration pour des applications évolutives et efficaces.
Les encastrements vectoriels sont un type de représentation qui convertit des données à haute dimension en un espace vectoriel continu.
L'indexation vectorielle est une technique d'apprentissage automatique et de recherche de données utilisée pour organiser et rechercher efficacement de grands ensembles de vecteurs à haute dimension.
Un VPC, ou Virtual Private Cloud, est un réseau virtuel sécurisé et isolé dans un environnement public cloud .
Workday Cloud Connect for Benefits est une suite de gestion d‘entreprise qui offre un système unique pour gérer les avantages sociaux de vos employés.
Le Workday EIB (Enterprise Interface Builder) est un outil qui fournit aux utilisateurs une interface guidée et graphique.
Workday propose des applications d‘entreprise et des suites de gestion basées sur une architecture unique, à l‘adresse cloud, qui combinent les finances, les ressources humaines et l‘analyse en un seul système.