BdD des Sciences d’Information

Accueil du site > Technologies de l’Information et de la Communication (NTIC) > Génie Informatique > L’intégration de données se modernise

L’intégration de données se modernise

mardi 8 mars 2005, par Collecte CND R.L

Les solutions offrent de plus en plus de fonctions transactionnelles.

Objectif : augmenter la fréquence de mise à jour des entrepôts de données afin d’assurer un suivi quasi-continu des activités.


Les outils d’intégration de données, communément appelés ETL (pour Extraction Transfer Loading ou extraction, transfert et chargement en français), ont beaucoup évolué depuis quelques années. Initialement centrées sur les méthodes d’agrégation nécessaires à la création de rapports consolidés, ces solutions se sont enrichies au fil du temps de nouvelles fonctions pour prendre en compte d’autres enjeux, autour de la migration et la synchronisation de bases de données notamment.

Classiquement, l’ETL met en oeuvre des flux en mode batch (ou traitement par lots), généralement activés de nuit pour ne pas gêner les systèmes opérationnels, en vue d’alimenter à partir d’une ou plusieurs sources un entrepôt de données centralisé, base sur laquelle sont ensuite appliquées des analyses en vue de générer des rapports de résultat [NDLR : de manière quotidienne par exemple]", détaille David Céron, manager au sein du cabinet de conseil BearingPoint.

"Techniquement, l’outil s’attache à faire correspondre les modèles de données sous-jacents par le biais d’un référentiel de meta-données."

Partant de cette première base fonctionnelle, beaucoup d’éditeurs ont étendu leur offre au design de flux, ainsi qu’à la gestion de la cohérence des données. Autres évolutions : l’ajout de modules de synchronisation et de réplication en temps réel.

"Des mécanismes qui consistent à mettre à jour une base cible à chaque modification du journal de tables de la base source", explique Yves Cointrelle, directeur associé chez Homsys-Aston.

Et David Céron d’ajouter : "l’éditeur Informatica, qui se limitait au départ aux fonctions d’ETL traditionnelles, intègre désormais un tel dispositif. L’idée est d’aboutir à des datawarehouse temps réel permettant de suivre l’activité de l’entreprise au fil de l’eau."

L’ETL reste très différent de l’EAI

Cette montée en puissance de la gestion de flux temps réel au sein des ETL tendrait-elle à rapprocher cette catégorie de produit des solutions transactionnelles d’intégration d’applications d’entreprise (EAI) ?

"Non", répondent de concert Yves Cointrelle et David Céron. "L’ETL, même de nouvelle génération, reste cantonné au traitement des données, là où l’EAI a pour but de gérer des processus métier, telle que la validation d’un nouveau client, impliquant diverses applications du SI (CRM, ERP, SCM, etc.)", explique Yves Cointrelle.

Mais même si l’ETL est loin de s’adapter à tous les projets d’intégration, il n’en reste pas moins beaucoup plus léger à mettre en place qu’une plate-forme d’EAI. Généralement moins chers à l’acquisition, la plupart des ETL sont livrés avec un grand nombre de composants préparamétrés (fonctions de nettoyage, de tri, de transformation, etc.).

"L’EAI nécessite de mettre en oeuvre des processus métier, par nature spécifiques à chaque entreprise, qui ne peuvent donc pas s’appuyer sur des bibliothèques d’objets existants", note Yves Cointrelle. C’est également pour cette raison qu’un ETL est la plupart du temps moins onéreux à déployer.

Le principal point faible de l’ETL : de par son modèle point à point et son caractère encore peu standardisé dans certains domaines, il serait assez intrusif technologiquement pour les systèmes en présence, notamment dans le cas de bases et logiciels plus spécifiques, à la différence de l’EAI qui repose de plus en plus sur des échanges de messages XML.

"Ce langage est très gourmand en bande passante, ce qui ne le rend pas très adapté à l’échange de gros volumes de données pour lequel l’ETL a été conçu à la base", ajoute Yves Cointrelle.


Suivre la vie du site RSS 2.0 | Plan du site | Espace privé | SPIP | squelette