Le Big Data plein de promesses pour l’industrie

Ce phénomène est une priorité pour la France et il fait l’objet d’un des « 34 plans de la nouvelle France industrielle ». Qu’est-ce que c’est ? Comment ça marche ? Explications avec trois spécialistes de la donnée, depuis sa récolte jusqu’à son traitement.

 

Big data : ces deux mots sont sur les lèvres des industriels du monde entier. Et la France, bien sûr n’échappe pas à la règle. De quoi s’agit-il ? «  Le big data, c’est une multitude de données qui sont aujourd’hui disponibles et qui peuvent être partagées et utilisées dans tous les systèmes », déclare Jean-Benoît Nonque, vice-président de l’éditeur Infor. Et si ce nouveau concept est très tournée sur le grand public, avec des données principalement issues du web et d’objets connectés, les industriels sont conscients qu’ils peuvent en tirer parti. « Quand on veut gérer au mieux ses activités, on a besoin d’avoir un nombre de données important car c’est dans la corrélation de données qui proviennent d’environnements diverses qu’on arrive à tirer les meilleures stratégies et à être le plus efficace possible. Cette donnée qui est désormais disponible, il faut donc la récolter, mais aussi en tirer des enseignements et aider les utilisateurs à améliorer leurs processus et leurs façons de travailler », poursuit-il. Parler d’un « big data industriel » a d’ailleurs désormais du sens. « Dans l’industrie, il y a quelques années, un simple équipement comme un moteur ou une vanne ne remontait que quelques informations. Aujourd’hui, il est de plus en plus intelligent, de plus en plus instrumenté et va remonter des dizaines ou plus d’informations qu’il va falloir enregistrer, traiter et ensuite restituer. Pour se faire une idée, si l’on prend 100 informations qui proviennent de nos équipements, qu’on les enregistre chaque seconde et que l’on veut les garder pendant un mois, on va générer 259 millions d’enregistrements, soit une dizaine de Go de données », note Eric Poupry, directeur du département M2M chez Factory Systèmes.  

Chez National Instruments, spécialisé dans la mesure et l’analyse des données, on parle de « Le Big Analog Data ». « Ce sont toutes les données qui proviennent d’un environnement physique quel qu’il soit : de la nature, de phénomènes électriques, d’une machine… toutes ces données qui sont issues de la numérisation des signaux », explique Anthonin Goude, ingénieur produits pour l’embarqué chez l’Américain. Parmi ces informations, certaines devront être récoltées à des fréquences relativement lentes, au-delà de la seconde, d’autres à des intervalles beaucoup plus courts ; certaines devront être traitées en temps réel, d’autres à Posteriori. Mais dans tous les cas, là encore, les chiffres donnent le vertige. « Une turbine instrumentée, c’est environ 20 To de données générées par jour et par unité. Il suffit de multiplier par le nombre de turbine que l’on peut trouver et l’on envisage bien ce qu’est le Big Analog Data… », précise-t-il.

 

Des bouleversements dans l’offre

Ces informations temporelles, transactionnelles ou d’environnement deviennent donc vite innombrables, et « on commence à parler de Big quand les outils d’exploitation de ces données doivent être différents des outils conventionnels », commente Eric Poupry. Qu’est-ce que cela change pour les fournisseurs de solutions, tout au long de la chaîne ? Chez national instruments, plus spécialisé dans l’amont du processus, « sur les niveaux inférieurs, nous bénéficions d’une compétence dans l’acquisition et l’analyse. En revanche, pour traiter ces amas de données, il nous faudra développer des partenariats, par exemple avec des fournisseurs d’infrastructures réseau ou de solutions de stockage, du cloud, etc., qui ne font pas partie de la compétence de base de NI ». Pour Infor, « en tant que société de gestion on doit être à même de récupérer ces données, de proposer à nos clients de les exploiter dans des modèles efficaces. Par exemple en maintenance, cela se traduit par le fait de passer d’interventions systématiques à des interventions conditionnées à l’état réel des équipements, comme c’est le cas dans l’automobile. Il nous faut aussi analyser ces données de façon à être impactant sur les actions, donner la bonne information aux utilisateurs en fonction de leur métier et surtout de leur donner les moyens d’intervenir efficacement. Cela nécessite, en tant qu’éditeur, d’avoir une infrastructure qui permettra de collecter ces données, d’analyser ces données et de ramener le fruit de cette exploitation auprès des utilisateurs au moment où ils en ont besoin », commente Jean-Benoît Nonque. Cela passe notamment par des technologies comme le cloud. Chez Factory systèmes, enfin, le big Data a impliqué de revoir l’offre et l’organisation de la société. « Sur notre activité « logiciel », [Factory systèmes est distributeur de Wonderware en France, Ndlr] nous proposons désormais des outils d’archivage de masse, des data historians qui sont capables d’aller récolter des millions d’informations en parallèle, sur un site ou un ensemble de sites industriels. Sur la partie « matériels », nous avons créé 5 grands piliers qui permettent d’assurer à un niveau industriel la collecte des informations, la communication jusqu’à un système qui doit la traiter avec des moyens conventionnels comme le réseau ou la 3G, mais aussi des moyens moins conventionnels comme des réseaux basse fréquence, l’exécution de l’information, sa distribution à tous les exploitants et, enfin, la sécurisation de l’information à chaque maillon de la chaîne », détaille Eric Poupry.

 

Essentielle cybersécurité

Dans ce contexte de partages tous azimuts, la cybersécurité devient en effet essentielle. A chacun ses solutions. « Les sources de données sont de plus en plus importantes et pour un département informatique cela devient de plus en plus complexe d’assurer la sécurité globale. On doit aller chercher des informations à des endroits divers et variés et la redistribuer à des utilisateurs qui sont également éparses. C’est la raison pour laquelle certaines sociétés passent par le cloud car ils s’appuient dans ce cas sur d’autres sociétés comme Amazon ou Microsoft pour garantir ces niveaux de sécurité indispensables dans certains métiers », note Jean-Benoît Nonque.

Sur le plan industriel, la tâche est particulièrement ardue. « L’industriel est décontenancé par le fait que ces systèmes peuvent être attaqués et que cela peut avoir un impact sur la conduite des procédés et leur sécurité. Il y a un travail énorme à réaliser, et on en est au tout début, car les systèmes qu’utilisent aujourd’hui les industriels ont pour la plupart 5 ans, 10 ans, 20 ans ou plus et on ne concevait pas il y a 5 ou dix ans les systèmes industriels pour résister çà une attaque informatique », note Eric Poupry. Reste aussi à définir ce qu’est une donnée critique et pour qui elle est critique…

Qu’il soit tiré par une approche marketing ou tout simplement imposé par un constat de la nécessité de gérer de plus en plus de données, le Big Data arrive au gallot. Que manque-t-il pour le mettre en œuvre efficacement au niveau industriel ? Pas grand-chose. « Au niveau de la récupération de l’information, le niveau capteur, et celui des nœuds d’acquisition, des solutions existent. En revanche, nous aurons besoin de solutions nouvelles sur au niveau des infrastructures réseau », déclare Anthonin Goude. Mais la vraie difficulté et ailleurs. « La plupart des organisations industrielles sont décontenancées par la disponibilité de plus en plus d’informations par le biais des capteurs, des systèmes et des outils informatiques dont ils disposent. Et il y née parfois une difficulté au niveau des gens qui vont devoir utiliser cette infirmation… », note Eric Poupry.

Selon Jean-Benoît Nonque, c’est ainsi l’aspect organisationnel qui constitue le frein le plus important. « Les entreprises sont généralement organisées par silos, alors que l’on parle d’un projet global qui va unifier différents services par rapport à une information qui doit être partagée. Actuellement si l’exécutif d’une société ne prend pas en main le projet de Big Data, on va encore se confronter à des département qui gèrent une partie de la donnée ». Ces freins, il va falloir les lever vite, car si un grand nombre d’industriels ne sont pas véritablement lancés dans des projets dans ce domaine, « beaucoup évoquent le Big Data dans les point d’amélioration de certains processus », prévient le vice-président d’Infor.