DU TSUNAMI DE DONNEES A LA PERFORMANCE DE MACHINE OPTIMISEE
Analyse de données hors ligne
L'analyse de vos données ouvre de nouvelles opportunités pour votre processus de production, en particulier pour le suivi des performances de vos machines. Vous pouvez réaliser cette analyse vous-même, mais des firmes externes peuvent également s'en charger pour vous. Mais dans quelle mesure est-ce sûr? Et comment optimiser ce flux d'informations? Nous vous plongeons dans deux volets dans la théorie et la pratique du traitement de données. Tout d'abord, la théorie. Dans le 2e volet de cet article, nous aborderons les aspects pratiques de l'histoire.

CLOUD? PAS NECESSAIREMENT!
Il était une fois un responsable de production complètement acquis à la cause de l'Industry 4.0. Toutes les données des capteurs seraient analysées dans le cloud grâce à des algorithmes intelligents, les machines pourraient réagir de manière proactive aux nouvelles situations et prendre des décisions de façon autonome grâce à l'intelligence artificielle. Cela déboucherait sur une production impeccablement rationalisée, avec les opérateurs pouvant suivre en temps réel toutes les performances et données sur n'importe quel moyen de communication. Très enthousiaste, il exposa son plan à la direction. Sa réponse à la critique attendue - cela coûtera trop cher - était toute prête: la production flexible séduirait les clients, la surveillance des données des capteurs augmenterait le temps de disponibilité via une maintenance prédictive. Les données permettraient aussi d'optimiser la consommation d'énergie. L'investissement serait donc rapidement amorti ... Il n'a pourtant pas dépassé deux slides de sa présentation. Dès que le terme 'cloud' est tombé, le plan a été rejeté et la réunion a pris fin. Le cloud est souvent considéré par les directions et services IT comme le cheval de Troie. Des visions de hackers russes et chinois en voulant à nos précieuses données s'imposent et semblent difficiles à oublier. Des scénarios catastrophe de robots s'emballant dans un hall de production sans présence humaine alternent avec des confrontations imaginaires avec des ouvriers frustrés craignant pour leur emploi maintenant que l'intelligence artificielle leur vole leur droit de décision. Il s'agit bien sûr là d'un pastiche et cela ne se passera pas ainsi dans la réalité. Mais cela indique vers où nous allons peu à peu: le responsable de la production veut profiter pleinement des innovations, mais la direction et d'autres services refusent pour des raisons financières ou de (cyber)sécurité de s'engager trop vite sur cette voie. Et cela est dommage, car l'analyse de données peut bel et bien être utile et sûre. Elle ne doit, de plus, pas forcément être basée sur le cloud et le processus peut même être maintenu complètement hors ligne et au sein des murs de l'entreprise.


QUELLES DONNEES SONT UTILISABLES?
Dans les grandes usines textiles, les machines à tisser semi-automatiques ont fait leur apparition à la fin du 19e siècle. Il y avait alors une forte pénurie de main-d'œuvre et grâce aux innovations, un seul tisserand pouvait commander plusieurs machines à la fois. Le revers de la médaille, c'est qu'en raison du nombre accru de machines, un tisserand ne pouvait plus détecter préventivement les problèmes potentiels sur chaque machine. D'où l'emploi de 'valets de machine'. Leur seule tâche consistait à surveiller constamment les machines, à contrôler les anomalies au niveau de la mécanique et à les signaler au surveillant. Alors que ce système était révolutionnaire à l'époque, cette tâche est reprise un siècle plus tard par des capteurs. Dans le cas des moteurs et des pompes, il s'agit p.ex. des vibrations, de la température, de la pression, de la tension, du courant, de la qualité de lubrification et autres. Ces dernières années, la gamme de capteurs s'est énormément étoffée, tandis que les prix chutent, permettant à chacun d'équiper ses machines de capteurs.

Mais les données ne se limitent pas aux données de mesure de capteurs. Des données de machine techniques externes, des log files et données de processus de régulateurs de fréquence et de PLC fournissent aussi une quantité immense de matière utilisable. Parallèlement, les moyens pour communiquer les valeurs de mesure à l'utilisateur sont systématiquement devenus plus performants et via Internet, cela peut même se faire sans problème à l'échelle mondiale.
Analyse du processus
En tant qu'entreprise, vous pouvez tirer plusieurs choses des données. La première: l'analyse et l'amélioration du processus de production. Via un audit des données, on peut savoir où se situent les points névralgiques et où il y a une marge d'amélioration. Un exemple simple est la détermination via l'analyse de mesures de température sur un drive de son point critique et l'adaptation de la vitesse de production en fonction de cette analyse.
Recherche d'erreurs
L'analyse d'erreurs est un deuxième groupe majeur. En cas de problème quelque part dans le processus de production, la recherche d'erreurs peut être fastidieuse et frustrante. Si on ne trouve, en outre, pas l'erreur, les conséquences peuvent être désastreuses. Surtout dans des processus complexes, il est difficile d'analyser correctement les corrélations et les rapports. Un exemple: certaines grandeurs n'ont que jusqu'à un certain point un rapport linéaire positif. Une fois qu'une de ces grandeurs a atteint un certain seuil, ce rapport se transforme en une corrélation négative. Cela est très difficile à détecter pour l'homme, surtout si des dizaines de ces rapports interagissent simultanément. Détecter une erreur minime dans un processus de production avec de tels rapports revient alors vraiment à chercher une aiguille dans une botte de foin. Ici, l'analyse de données peut apporter la solution.
Détection d'anomalies
Toutes les erreurs ne sont toutefois pas remarquées par l'homme. Les anomalies non supervisées - les erreurs non reconnues comme telles par l'intelligence humaine - sont bien sûr indésirables. Pour les détecter, l'analyse de données peut aussi être utilisée. Il faut d'abord apprendre quels sont les modèles normaux de l'installation, selon ses variations et sa dynamique. Il peut s'agir de données numériques de capteurs, mais aussi de log files de machines. Ces log files fournissent non seulement des informations sur la situation, mais décrivent aussi ce qu'elles sont exactement en train de faire. On apprend ensuite de manière statistique à l'installation quelles situations sont correctes et lesquelles sont anormales. Les systèmes de ce type peuvent parfaitement tourner au sein d'une entreprise et être intégrés avec toute plate-forme de surveillance de données possible.
La détection d'anomalies dans des ensembles de données est vraiment un travail de spécialistes et exige des logiciels spécialisés. Reconnaître un modèle erroné d'une seule variable est plutôt simple, mais il en va autrement quand plusieurs variables sont en jeu. Prise à part, l'évolution d'une seule grandeur peut être tout à fait normale. Elle peut toutefois s'avérer anormale en relation avec l'évolution d'autres grandeurs (multivariate).
Prenons l'exemple simple d'un coureur cycliste. Un rythme cardiaque augmentant peut être tout à fait normal, p.ex. parce que le coureur accélère. Si un capteur est cependant aussi connecté avec les altimètres, cette même augmentation du rythme cardiaque peut s'avérer étrange si la mesure de l'altitude sur ce même laps de temps diminue. Ce type de relation joue également un rôle essentiel dans le cas des machines. Ici, il n'y a pas que la connaissance de l'installation qui a un rôle important à jouer. Les algorithmes dans le logiciel devant procéder à la détection d'anomalies doivent aussi être d'un excellent niveau. C'est justement ici que des choses très intéressantes se produisent actuellement. Notre pays compte également quelques entreprises constituant de vrais chefs de file dans ce domaine.

CAPTEURS VIRTUELS
Toute grandeur ne peut pas être mesurée avec un capteur physique. Les conditions sont parfois de telle nature (pollution, chaleur, humidité, …) qu'un capteur physique casse directement ou donne lieu à une mesure imprécise. Un autre frein à l'utilisation d'un capteur physique peut être son coût. Certaines grandeurs ne peuvent, en outre, simplement pas être mesurées avec un capteur physique. Ici, les données peuvent constituer une solution, en créant des capteurs virtuels. Les données sont alors utilisées pour connaître tout de même la grandeur souhaitée. Pour cela, on applique des modèles mathématiques aux données disponibles. Ces données d'entrée peuvent être des mesures d'autres grandeurs, des informations de bases de données, des paramètres. On obtient à la sortie le rendu de la grandeur qui ne pouvait pas être mesurée via un capteur physique.
Les capteurs virtuels sont souvent utilisés pour éviter les tests en laboratoire destructifs. Un test de résistance de papier constitue un excellent exemple. Seule une mesure destructive de la résistance de papier était possible. La résistance devait à chaque fois être contrôlée au moyen d'échantillons réguliers. Des capteurs virtuels permettent de mesurer plusieurs propriétés de processus comme notamment l'épaisseur du papier, la vitesse de la machine, la pression et la température. En intégrant ces données dans un modèle, on peut s'approcher de la résistance qui serait mesurée en laboratoire via un test destructif. En comparant encore ces résultats aux résultats de mesure historiques obtenus dans les mêmes conditions, un résultat très précis peut être obtenu. D'autres grandeurs pouvant être mesurées dans l'industrie du papier sont notamment la teneur en humidité, le grammage et la solidité du papier.
AVEC QUI TRAVAILLER?
La question la plus importante est peut-être: à qui pouvez-vous confier vos données? Vos données valent de l'argent, cela est tout à fait clair. Plusieurs fournisseurs de différentes origines se feraient donc un plaisir de travailler avec. Les gros acteurs en matière de logiciels comme Microsoft et IBM misent lourdement sur les applications de cloud industrielles, les gros acteurs procèdent à des lancements dans ce sens (MindSphere de Siemens en est un exemple), mais il est probable aussi qu'une couche intermédiaire d'entreprises proposant leurs services dans ce domaine apparaîtra. Nous pensons au filtrage et à la préparation de données avant leur envoi et à la programmation d'applications propres à l'entreprise. La gestion de données va donc devenir très importante.

UTILISATION EFFICACE DES DONNEES
ECHANTILLONNAGE ET COMPRESSION
Un énorme potentiel réside dans vos données, mais l'art consiste à les utiliser efficacement. Nous nous sommes donc entretenus avec Jan Verhasselt, qui est à la tête de Yazzoom, entreprise active dans l'optimisation de processus grâce à l'utilisation de données. Nous lui avons encore posé quelques questions pertinentes concernant ce sujet.
Beaucoup d'entreprises aimeraient souvent faire quelque chose de leurs données, mais ne savent souvent pas comment s'y prendre. Avez-vous quelques conseils?

“Tout commence par l'objectif. Qu'espérez-vous exactement obtenir avec vos données? Quel est votre besoin concret? Il est alors plus facile de déterminer quels capteurs ou quels log files de machines doivent être utilisés pour l'analyse. La fréquence d'échantillonnage nécessaire (la fréquence à laquelle vous collectez les données) découlera également de cet objectif précis. Cette fréquence d'échantillonnage a une influence directe sur la quantité de données et le coût du stockage. La compression est importante aussi: en comprimant trop (rapidement) les données, l'analyse de données sera compliquée ou donnera même lieu à une conclusion erronée en raison de certaines tendances disparues ou sous-exposées. Il faut ensuite déterminer la période avec laquelle on veut travailler. Jusqu'où faut-il remonter dans le temps pour réaliser un modèle fiable? La connaissance de l'application est ici aussi d'une importance cruciale. Pour certaines applications, un échantillon de 10 ms suffit, en effet, car le cycle entier y revient déjà un certain nombre de fois et l'application est aussi très stable. De l'autre côté du spectre, on retrouve des choses comme les facteurs saisonniers. Si la température extérieure fluctuante doit être intégrée p.ex. dans le modèle prédictif d'une pompe, le temps d'échantillonnage devra bien entendu être bien plus long et plutôt s'étendre sur des mois, voire des années. D'autres facteurs variables ayant une influence sur le processus doivent aussi être intégrés dans l'analyse de données. Il s'agit donc de définir le temps d'échantillonnage de manière à ce que tous les phénomènes variables pouvant avoir une influence sur le processus de production soient intégrés dans les calculs.“
LE COÛT, UN OBSTACLE?
Cet investissement semble impossible pour les entreprises plus petites. Est-ce vrai?
“Cela est vrai dans une certaine mesure, mais tout n'est pas tout blanc ou tout noir. Certaines start-ups surfent directement sur la vague, mais il y a tout autant des multinationales utilisant ces concepts. Ici, l'introspection de la propre entreprise et de l'installation est recommandée. Pouvez-vous réaliser avec l'analyse de vos données quelque chose justifiant l'investissement? Un 'proof of concept', exécuté par une firme spécialisée, peut vous fournir ici une première estimation. Il ressort souvent de la réalité que les cas où une solution à un problème concret est cherchée dans l'analyse des données, réalisent le meilleur résultat. Ce, contrairement aux cas où les données sont analysées sans objectif concret."
ATTENTION POUR TOUTES LES ACTIONS FUTURES
Quid des entreprises restant délibérément encore dans l'expectative? Manquent-elles des opportunités?
“La collecte de données exige un effort en termes de stockage et de hardware. Cela a aussi un coût, retenant parfois des entreprises de déjà procéder à l'investissement. Dans des environnements de production flexibles, les objectifs d'aujourd'hui ne sont toutefois pas toujours les mêmes que ceux de demain. Il est judicieux de déjà exécuter des actions de remplacement avec la collecte de données en tête. Le surcoût d'un capteur ou d'une machine prévu pour cela sera amorti à terme."