L’industrie 4.0 devient de plus en plus une réalité, alors que les données sont générées sur tous les fronts, de l’usine aux services support, et en externe dans l’écosystème de l’entreprise. Or, les données permettent de gagner en efficacité et en compétitivité à condition d’être préparées pour en extraire de précieuses informations utiles à la décision. C’est pourquoi, de la donnée brute à l’information décisionnelle, l’entreprise doit construire et exploiter son patrimoine data.
Les données sont désormais omniprésentes dans l’entreprise, générées en de multiples points – données commerciales de devis, de commandes, de livraisons, données comptables et de flux financiers, données de production, de stock, de matières premières… À l’extérieur, l’entreprise va aussi récupérer des données du marché, de ses clients, et depuis toutes les interfaces avec son écosystème. Le tout donne à l’industrie l’opportunité de devenir un vaste système global de flux de données qui communiquent entre personnes, logiciels et machines.
Toutefois, cette possibilité peut se concrétiser uniquement si l’entreprise s’attache à construire et entretenir son patrimoine de données dans l’optique qu’il offre une utilité pratique aux métiers. Ainsi, les données générées doivent suivre tout un parcours de valorisation pour permettre aux utilisateurs d’en tirer la valeur informationnelle qu’elles détiennent, mais ne livrent pas d’office à l’état brut.
Collecter et structurer les données
Bien exploiter les données requiert d’entamer la démarche dès la source. Dans et autour de l’entreprise, la génération des données se fait à de multiples points. Aussi, il faut commencer par identifier les données disponibles, leurs sources et leur structure, leur contenu et leur qualité, mais aussi comment elles sont distribuées et sous quel format. Cette cartographie des données permet de savoir où aller les collecter afin de les rassembler pour les préparer à l’analyse.
Par ailleurs, entre données structurées, non structurées, données texte, chiffres ou images, l’ensemble des données collectées n’a initialement rien d’homogène et s’avère inexploitable pour analyse. D’où l’intérêt de les structurer et de les ranger en colonnes et lignes correspondant au niveau d’agrégat qui convient pour l’analyse qui va suivre. Cette tâche prépare le terrain pour que les données soient disponibles dans un format exploitable par les outils d’analyse de l’entreprise, parmi lesquels son ERP.
> lire l'article Industrie 4.0 et « Data Analytics »
Valoriser les données pour analyse
Une fois les bonnes données collectées et agencées, leur qualité va pouvoir monter en force. Leur nettoyage permet de se débarrasser des données caduques, erronées ou de doublons qui peuvent ensuite compromettre la fiabilité et la précision des analyses. Leur enrichissement est un autre processus de valorisation. Le principe : mélanger des données issues de différentes sources métier et les recouper pour qu’elles s’apportent mutuellement du contexte. Cette contextualisation permet de cerner quelles sont les données essentielles pour répondre aux besoins d’analyse de l’entreprise, sachant que toutes ne sont pas indispensables.
Pour mettre au point les scripts de nettoyage et d’enrichissement des données, mieux vaut les roder sur des échantillons restreints de données. Reste ensuite à les valider grandeur nature sur l’ensemble des jeux de données pour garantir la qualité de toute la data exploitée par l’entreprise. Cette opération permet ensuite aux outils tels que l’ERP de livrer toute leur valeur en travaillant sur des données saines et fiables.