SOLUTIONS PROPULSÉES PAR IA

Offres de solutions Analytiques et Big Data

Maximiser la valeur de vos données.

Parlons-en

Valeur ajoutée de l’analytique & des données

2017 2018
Vision & Stratégie (Facilitation)
Modernisation de l'entrepôt de données - Vision
  • Migration d’un DW traditionnel vers un Data Lake gouverné et hybride, inclus architecture, fonctionnalité et adoption par l'organisation
  • Feuille de route de haut niveau
No Yes
Analyse de rentabilisation des initiatives Data Lake et d’Intelligence Artificielle (IA)
  • Lié les investissements reliés aux projets Data Lake et IA avec les buts et objectifs de l'entreprise
  • Définition, à haut niveau, des coûts associés aux plates-formes de données et analytique et au développement ainsi que les bénéfices
No Yes
Stratégie des données
  • Gouvernance, gestion, architecture, sécurité et conformité
  • Processus, parties prenantes, technologies, considérations bimodales, évolutivité et élasticité, lignage, qualité, utilisation, journalisation, droits d'accès, MDM, analyses, plates-formes, …
  • Priorités, cibles, vision et feuille de route
Yes Yes
Gouvernance et Architecture des données (Guidage)
Stratégie de gouvernance des données
  • Politiques de données d'entreprise couvrant les accès, la disponibilité, la validité, l'intégrité, la conformité, la confidentialité, la couverture, le cycle de vie et les principes de données pour chacune des zones géographiques de l’organisation
  • Cadre de gestion des données guidant les parties prenantes au niveau des processus et des meilleures pratiques
  • Cartographie des données pour soutenir les buts et objectifs de l’organisation
No Yes
Gestion des données
  • Gestion des données de l’entreprise, au quotidien, à l'aide de politiques, principes et meilleures pratiques
  • Objectifs de qualité des données et leurs suivis afin d’atteindre les buts et objectifs de l'entreprise
  • Gestion des données de référence
No Yes
Modernisation de l’entrepôt de données – Architecture et Gouvernance
  • Architecture des plateformes analytiques et de données ainsi que du Data Lake
  • Gouvernance et gestion des données de la chaîne de valeur données et analytiques
  • Feuille de route détaillée pour la migration
No Yes
Gestion des données de référence – Architecture et Gouvernance Pour les actifs de données de base (clients, fournisseurs, produits, etc.), identifier avec les parties prenantes:
  • Celles que l’organisation auraient avantage à « masteriser » ainsi que les sources de données requises
  • Les cibles d'uniformité et de précision requises ainsi que les processus et les technologies requis
  • Stratégie d’enregistrements uniques « golden records » ou de perspectives multiples en fonction de l’utilisation de chaque actif de données de base
No Yes
Architecture du “Data Lake” Définition des zones du « Data Lake » pour couvrir les différents types d'analytiques ainsi que la gouvernance, gestion de données, exploration et opérationnalisation dans un contexte bimodal
No Yes
Modèle de données d'entreprise conceptuel (CEDM)
  • À l'échelle de l'entreprise et en utilisant le langage des affaires
  • Organisé en domaines de données et sous-domaines avec vues
  • Dictionnaire avec ou sans cadre de gestion de données
Yes Yes
Modèle de données d'entreprise dimensionnel (DEDM)
  • Réorganisation du CEDM en dimensions et tables de faits
  • Identification des dimensions conformes et de mesures claires à l'échelle de l'entreprise
  • Utilisé à la fois pour DW et Datamarts traditionnels et / ou la zone de consommation d'un Data Lake
Yes Yes
Qualité des données Sous-ensemble de la gestion de données traitant de l'intégrité, de l'exactitude, de la disponibilité, de l'accessibilité, de la couverture, de la conformité et de l'actualité
Yes Yes
Entrepôt de données et « Data Mart » Architecture de données et modélisation + gouvernance des données couvrant l'entrepôt de données et les datamarts en respectant les standards d’Inmon / de Kimball ou hybride
Yes Yes
Chaîne de valeur données et analytiques (Exécution)
Capturer et gérer les données nécessaires aux opérations Operations
Gestion des données de référence - Exécution
  • Conception, assurance-qualité et mise en œuvre des processus automatisés des actifs de données de base (y compris les règles de concordance) ainsi que des processus / procédures manuels avec les parties prenantes (gouverneur, steward et gardien)
  • Tableau de bord MDM avec feuilles de route pour résoudre les problèmes de données qui requièrent des analyses additionnelles
Yes Yes
Collecter et organiser pour l’analytique
IoT et autre ingestion en temps réel
  • Le processus d'absorption de données par lots, micro-lots et en temps réel à l'aide d'outils tels que Kafka, NIFI, Storm, Streaming Spark, Sqoop, Pig, Oozie, ADF, Kinesis, Data Pipeline…
  • Développement du code d’ingestion, assurance qualité et déploiement
  • Sécurisation de l’acquisition des données, y compris la couche de gestion des dispositifs IoT
No Yes
Migration du traitement ETL vers Hadoop / Spark
  • Migration du code ETL développé avec des outils prenant en charge la génération de code vers Hadoop / Spark, empêchant ainsi la réécriture
  • Stratégie de conversion de licences (y compris stratégie de sortie)
  • Transfert des données dans les différentes zones du lac de données (meilleures pratiques) et tests en parallèle
No Yes
Génération automatisée d’ETL à partir de gabarits
  • L’ingestion / ETL représente une part très importante des coûts de la chaîne de valeur données et analytiques
  • L'ingestion / ETL basée sur des technologies basées sur des gabarits, tels que voûte de données, vise à réduire ces coûts, les économies peuvent atteindre 50%
No Yes
Concevoir et implanter un « Data Lake » avec niveau de gouvernance approprié
  • Un Data Lake peut être un jetable, utilisé dans un but spécifique en utilisant des données non sensibles ou il peut être le référentiel persistant de toutes les données d'une organisation incluant également des données externes avec divers degrés de données sensibles
  • Dans toutes les variantes de ces deux extrêmes, la gouvernance (y compris la sécurité, la conformité et la confidentialité) doit être prise en compte et doit fonctionner en model bimodal
No Yes
ETL Type d'intégration de données qui fait référence aux trois étapes (extraire, transformer, charger) utilisées pour fusionner des données provenant de plusieurs sources. Extract, Load, Transform (ELT) est une approche alternative, mais connexe, conçue pour transférer le traitement dans la base de données afin d’améliorer les performances.
Yes Yes
Analyser (incl. ML/DL/NLP & IA)
Descriptif Interprétation des données historiques pour mieux comprendre les changements survenus dans une entreprise (le quoi). L'analyse descriptive décrit le passé en utilisant une période de temps pour établir des comparaisons. Les indicateurs financiers les plus souvent rapportés sont le produit d'analyses descriptives, telles que les modifications tarifaires d'un exercice à l'autre, la croissance des ventes d'un mois à l'autre, le nombre d'utilisateurs ou le revenu total par abonné
Yes Yes
Diagnostic L’interprétation des données historiques permet de comprendre pourquoi cela s’est passé et s’appuie généralement sur les capacités OLAP permettant le découpage, le forage et le pivotement. Des fonctionnalités supplémentaires telles que, mais sans s'y limiter, aux prévisions ainsi qu’à l’analyse du panier de marché ont également été intégrées aux outils OLAP
Yes Yes
Prédictif
  • Déterminer les tendances et prévoir les résultats et les tendances futurs (ce qui devrait se passer)
  • Utilisation de plusieurs techniques d'extraction de données, de statistiques, de modélisation, d'apprentissage automatique et d'intelligence artificielle appliquées à un ensemble de données existant
Yes Yes
Prescriptif Recommander le meilleur chemin à suivre, en fonction de multiples contraintes, objectifs et métriques (que dois-je faire) en appliquant des algorithmes mathématiques et informatiques
Yes Yes
IA & Big Data - Conseil aux exécutifs Ceci est un mandat de consultation. L’objectif de cette offre est de guider et d’éduquer les CIO et les CDO en matière d’IA et de Big Data. Le public cible est constitué des entreprises qui ont du mal à positionner la variété de concepts, technologies, cadres de modèles IA, distributions Hadoop, offres cloud, applications diverses et spécialisation en IA, services cognitifs, PNL, apprentissage en profondeur, etc.
No Yes
Louer un scientifique des données
  • Sans gouvernance - utiliser l'expertise d'un scientifique de données pour créer des modèles et des algorithmes
  • Avec la gouvernance - fournit l'expertise d'un scientifique de données pour construire des modèles et des algorithmes, ainsi que la gestion de données, l'architecture, la gouvernance et la gestion de projet
No Yes
Déployer
Tableau de bord et rapports Visualiser les informations sous forme de tableaux de bord et / ou de rapports, inclus les présentations multidimensionnelles
Yes Yes
Modèles et algorithmes – déploiement en processus / application
  • Intégration de modèles et d'algorithmes (pour prévoir, recommander ou classer) dans des processus ou des applications
  • Inclut la gestion de tous ces actifs d'analyse (cycle de vie, versions,…)
No Yes
Analytiques appelables
  • Utilisation des API pour appeler des modèles et des algorithmes
  • KPI propose des modèles et des algorithmes, disponibles pour nos clients via un ou plusieurs fournisseurs cloud via des API appelables
No Yes
Contrôler
Surveillance de l'ingestion et de l'intégration des données Via des tableaux de bord et l’utilisation d’alertes, il surveille les aspects liés à l'intégration et à l'intégration de la chaîne de valeur données et analytiques pour informer de l'état des données/information
Yes Yes
Surveillance de la performance des modèles Cette surveillance détecte la dégradation de modèles AI afin d’éventuellement les supprimer ou de les remplacer par d'autres versions ou de nouveaux modèles AI
No Yes
Plateformes de données et d'analyse analytiques (fournir des capacités)
Analyse de volumes pour le dimensionnement des plates-formes de données et analytiques
  • Le dimensionnement d'un Data Lake gouverné implique la compréhension des zones du lac de données, de la stratégie de réplication, de la compression utilisée, du ratio traitement / stockage, des nœuds spéciaux, du ratio des nœuds « edges » et administrateurs, de l'élasticité, de la scalabilité, de l'architecture kappa / lambda,…
  • Traduction de ce qui précède en nombre de nœuds pour dev / QA et production
No Yes
Installation des distributions Hadoop / Spark
  • Un cluster Hadoop / Spark polyvalent, gouverné et sécurisé: plus de 6 mois d'efforts
  • Un cluster Hadoop / Spark à usage unique avec données non sensibles: quelques jours
No Yes
Architecture Big Data (incl. Lamda, Kappa, …)
  • L’adoption de Kappa vs Lambda ou autres variations a des effets immédiats sur l’architecture globale du Big Data
  • Par exemple, l'approche Lambda utilise 3 couches: une couche rapide, une couche de traitement par lots et une couche de services qui utilise les couches traitements par lots et rapide pour prendre en charge les requêtes tout en s’assurant d’une faible latence
No Yes
Sécuriser une plateforme Hadoop / Spark La sécurisation d’un cluster Hadoop inclut: Kerberos, le chiffrement au repos / en mémoire / en mouvement, les profils d’accès, authentification, zones, machine virtuelle à distance, test de pénétration, gestion de clé, gestion de métadonnées, journalisation, stratégies
No Yes
Recommandations sur les plateformes de données et analytiques
  • La quantité de plates-formes de données et d'analyse et leur packaging ne cessent d'augmenter: o Les combinaisons PAAS se multiplient et il en va de même pour les SAAS o L’analytique intégré (Salesforce, SAP,…) devient plus courant
  • KPI Digital fait de la veille technologique sur les plates-formes de données et d'analyse
No Yes
Architecture technique des plateformes de données et analytiques
  • Destinée à diverses plates-formes de données et d'analyse dans un contexte multi-nuagiques et / ou sur site
  • Inclut l'infrastructure hyperconvergée couvrant le plan de données distribué, un plan de gestion (Hortonworks, DataPlane, Nutanix, vmware…) et les considérations SDLC
  • Capacités de traitement élastiques, traitement basé sur GPU, frameworks AI conteneurisés, …
No Yes
Formation KPI offre actuellement une formation à Cognos et s'étendra à d’autres domaines de l’offre KPI Analytics & Big Data
Yes Yes
style="vector-effect: non-scaling-stroke;">