Le Machine Learning appliqué à l’énergie

Machine Learning, Deep Learning, Intelligence Artificielle, Big Data, Réseau de neurones, algorithmes génétiques… la technologie s’invite quotidiennement dans les discours marketing, et souvent de manière approximative. Faisons un point sur le Machine Learning et son intérêt pour l’efficacité énergétique industrielle.

 

Définition(s) : le Machine Learning

Le Machine Learning, ou apprentissage statistique, est l’une des disciplines de l’Intelligence Artificielle. Il utilise un ensemble de méthodes et d’algorithmes permettant de développer des logiciels autonomes, capables d’apprendre à reconnaître les états d’un système complexe à partir d’un historique des données du système observé.

Plusieurs types d’algorithmes peuvent y être combinés (arbres de décision, analyse discriminante linéaire, clustering…), dont les réseaux de neurones, célèbres par leur ambition initiale de reproduire le fonctionnement du cerveau humain. Quant au Deep Learning, c’est une « simple » (sic !) application des réseaux de neurones.

 

Applications : un large spectre

D’un point de vue fonctionnel, le Machine Learning comporte deux phases :

1- L’apprentissage initial : réalisé à partir d’un jeu de données d’entrée, et bien sûr des données de sortie correspondantes. Prenons un exemple dans l’industrie agroalimentaire : en entrée, la température d’un biscuit fraîchement cuit, l’hygrométrie et la température ambiante du laboratoire, les dimensions de la friandise, et une photo ; en sortie, sa conformité ou non, et les raisons de son éventuel refus (cuisson, taille, aspect…). Cette conformité ayant été évaluée « manuellement ».

2- Le fonctionnement : l’algorithme est ensuite en mesure de proposer une valeur de sortie, en fonction des données d’entrée qui lui sont fournies. Pour notre exemple : à partir des données collectées par des capteurs, l’application indique à l’automate les biscuits à écarter, et n’envoie que les bons en conditionnement. À noter : la phase de fonctionnement peut aussi comporter des fonctionnalités d’apprentissage, pour affiner les compétences de l’algorithme.

  |  De nombreuses applications concernent la perception d’un environnement et/ou d’un corpus de données complexes et variées :

  • Reconnaissance d’objets dans une image, indexation d’images, reconnaissance vocale…
  • Voiture autonome.
  • Détection de fraude.
  • Diagnostic médical.
  • Analyse financière.
  • Maintenance industrielle préventive/prédictive.

 

Statistique Vs Physique

Le Machine Learning repose sur des approches statistiques. Il diffère donc des modélisations physiques, construites à partir de la compréhension physico-chimique (thermodynamique ou mécanique des fluides par exemple) ou mathématique (économie, finance…) des phénomènes observés.

Trois conséquences doivent être prises en compte :

1- Le Machine Learning ne donne pas les raisons de sa « décision » : son approche statistique établit des corrélations entre plusieurs mesures, sans pour autant s’intéresser à leur causalité.

2- Ses capacités de reconnaissance restent valables à périmètre et conditions « constantes », ou du moins connues de l’algorithme : toute modification dans la nature ou le type des données d’entrée nécessite une nouvelle phase d’apprentissage. Concrètement, une modification du process industriel observé (changement de machine, de régime de température…), des moyens d’observation (capteurs…), ou encore des conditions extérieures (climat, modification du bâtiment…), doit conduire à une évaluation des conséquences sur l’algorithme de Machine Learning.

3- L’apprentissage initial et ses évolutions nécessitent des jeux de données historiques complets : tous les cas de figures doivent être présents, ce qui nécessite en général l’observation d’au moins un cycle complet (saisonnalité). Il est parfois possible de créer des données « virtuelles » à partir d’une modélisation physique partielle (on parle alors d’algorithme hybride).

 

Quels outils pour le secteur énergétique ?

L’Ingénieur process et l’Energy Manager trouveront dans le Machine Learning un allié de poids pour :

  • Prédire des consommations : à partir de la météo, du planning de charge, de la qualité des intrants… il devient possible d’estimer précisément l’intensité énergétique nécessaire pour les heures à venir, et ainsi d’adapter les conditions d’exploitation en avance de phase (stockage d’énergie, allumage / arrêt d’équipement…).
  • Organiser des approvisionnements : qu’il s’agisse de combustibles ou d’intrants dont la qualité impacte les besoins énergétiques, le Machine Learning permet de sélectionner la source d’approvisionnement optimale en fonction de la météo, du planning de charge, de la qualité de l’intrant et de la performance des équipements à un instant t.

 

Un exemple d’application pour une centrale biomasse

Le rendement d’une chaudière biomasse dépend fortement de l’hygrométrie des déchets verts qu’elle brûle, et qui proviennent de plusieurs communes de la région (rayon de 80 km). Les capacités de stockage tampon étant limitées aux abords de l’équipement, il est alors nécessaire d’adapter les livraisons du combustible au plus près des besoins réels de la chaudière, pour répondre à la demande de chaleur. Et la performance de cette production dépend de la qualité du combustible. L’algorithme de Machine Learning fonctionne ainsi sur le principe suivant :

D’une manière générale, il est recommandé de vérifier les conditions de fonctionnement d’un algorithme de Machine Learning au moins chaque trimestre.

 

En conclusion, le Machine Learning constitue un outil d’intérêt pour l’efficacité énergétique industrielle, à la fois pour la compréhension des phénomènes et pour le pilotage de l’activité. Vous voici rassuré : le Machine Learning n’est plus (totalement) une boîte noire pour vous !

 

Métallurgie : Big Data et gros fours font bon ménage

Les industriels électro-intensifs n’ont pas attendus le réchauffement climatique pour s’intéresser à l’efficacité énergétique. C’est le cas de la métallurgie. Pour ses étapes d’aciérie bien sûr (fusion, affinage, recyclage), mais aussi pour la métallurgie extractive (première transformation du minerai), dont les fours impressionnent par leurs dimensions et puissance. Ces équipements très onéreux sont déjà conçus pour être très efficaces, et évoluent désormais peu dans leur design. Prochaine étape pour en réduire encore la consommation énergétique : le Big Data.

 

Métallurgie : une industrie lourde mais subtile

Rappelons brièvement le procédé de la pyrométallurgie, l’une des transformations du minerai brut, généralement extrait sous forme d’un oxyde en alliage, prêt à l’usage pour les aciéristes ou industries chimiques. La « réduction » (au sens chimique, qui consiste à éliminer l’oxygène en le faisant réagir avec du carbone) s’effectue en chauffant le minerai à très haute température (entre 1400 et 1800 °C environ), souvent dans des fours à arcs électriques de plus de 10 mètres de diamètre, affichant plusieurs dizaines de mégawatt de puissance (20 à 80 MW voire plus), et fonctionnant en continu.

Dans le principe, la conduite de ces fours consiste à analyser le minerai entrant (qualité, composition) puis, en fonction du cahier des charges, à ajuster les paramètres procédés (quantités de réducteur, puissance de chauffe instantanée…). En pratique, c’est bien plus compliqué ! D’abord, il n’est pas aisé de connaître précisément la composition ponctuelle du minerai. Ensuite, il y a plusieurs électrodes dans un four, qu’il faut parfois gérer individuellement pour bien répartir l’énergie. De plus, hormis les objectifs énergétiques, le procédé peut devenir instable, ce qui pose des enjeux de sécurité pour le personnel, et le risque de produire un alliage hors spécifications.

 

Peu d’informations techniques mais beaucoup de savoir-faire

Il suffit d’installer quelques capteurs pour monitorer tout cela direz-vous. Certes. Mais là encore, la pratique complique la donne. Il est quasiment impossible d’instrumenter l’intérieur de l’enveloppe réfractaire à cause des températures élevées. De plus, les forts courants et les arcs électriques provoquent des champs électromagnétiques qui compliquent les mesures électriques. Enfin, les capteurs s’encrassent, ainsi que le four lui-même, dont le comportement évolue avec le temps et l’usage. L’intérieur du four serait ainsi une boîte noire ? Pas complètement : certains capteurs de température déportés (plusieurs centaines), des données électriques (résistance, réactance…) et des informations sur l’alliage de sortie (composition, température de coulée) permettent de déduire l’état de fonctionnement des fours. Sans oublier les compétences et l’expérience des métallurgistes, qui savent non seulement conduire leurs fours, mais aussi détecter les situations à risque.

 

Un four 4.0, et toujours des métallurgistes

Reste que certaines situations sont découvertes tardivement, et que l’optimisation énergétique s’avère bien souvent trop fine et/ou trop complexe pour relever uniquement de l’instinct des équipes, fussent-elles brillantes et expérimentées. Certains métallurgistes utilisent des systèmes experts qui croisent les paramètres électriques et la composition du minerai avec des règles métiers. Mais il reste encore compliqué de formaliser des connaissances peu répertoriées, qui relèvent du savoir-faire, et sont souvent spécifiques à un couple minerai/équipement.

Une solution pointe pourtant : le Big Data. Les données existantes sont en effet suffisantes pour construire des modèles statistiques permettant de prédire les comportements d’un four donné. Les résultats sont prometteurs, avec par exemple la prédiction d’un événement probable à 70%, 10 minutes avant son occurrence. Pas de quoi cependant automatiser la conduite à court terme : l’avis du métallurgiste restera prépondérant pendant encore longtemps. A l’instar des boîtiers automobiles, il faut plutôt voir ces outils comme des aides à la conduite. Attention, vous entrez dans une zone de contrôle !

 

Analyse des données énergétiques : n’oubliez pas votre sens critique !

L’essor du Big Data et de l’Intelligence Artificielle laisse à penser que l’analyse des données repose entre les mains des algorithmes. Pourtant, ils ne suffisent pas pour obtenir une analyse efficace des données énergétiques dans l’industrie.

L’intelligence et le sens critique humain restent indispensables. Pour que les analyses débouchent sur une amélioration des performances énergétiques dans les usines, il faut notamment conserver la main sur l’agrégation, le traitement et la qualité des données, en lien avec la réalité opérationnelle et les objectifs recherchés. Mais en agissant avec méthode ! Une méthode livrée ici pas à pas.

 

Commencer par une phase de dialogue 

L’analyse des données énergétiques démarre toujours par une phase de dialogue et d’échanges avec les opérationnels à l’usine. C’est une étape indispensable qui permet de déterminer les enjeux du client, ses problématiques, ses attentes, ses contraintes et ses possibilités d’actions au quotidien.

 

Repérer les stratégies de conduite opérationnelle 

« Notre esprit critique permet également de challenger les pratiques à l’usine, même si elles semblent être efficaces sur le terrain », suggère Zoheir Hadid, ingénieur efficacité énergétique.

Prenons l’exemple d’un client qui avait pour objectif d’optimiser les performances de sa production de froid. L’analyse graphique de l’engagement de puissance des machines indiquait deux fonctionnements différents pour une même production de froid : soit deux groupes froids fournissant chacun 3 mégawatts, soit trois groupes froids produisant chacun 2 mégawatts. « Il existe toujours une méthode plus favorable économiquement que l’autre, affirme Zoheir Hadid. Notre expérience nous permet de dire qu’en général, le rendement des machines frigorifiques est meilleur lorsqu’elles fonctionnent à forte charge. Elles consomment moins d’électricité ». Une nouvelle analyse graphique permettra de vérifier cette hypothèse et de définir la meilleure stratégie de conduite. 

 

Etudier le contexte et comprendre les objectifs métiers avant de se plonger dans l’analyse 

Poursuivons par la définition d’un algorithme : une suite d’opérations permettant de résoudre un problème et d’obtenir un résultat. Si le problème est mal posé… le résultat sera faux ! Notre sens critique doit donc permettre de définir clairement en amont le contexte de l’analyse. Cela, en respectant une logique en quatre étapes essentielles : 

  1. Le choix de l’indicateur de performance – L’indicateur le plus adapté au projet d’optimisation n’est pas forcément celui auquel on pense spontanément. « Logiquement dans le cadre du projet mentionné plus haut, nous avions choisi de suivre le Coefficient d’efficacité frigorifique COP(1), note Zoheir Hadid. À la lumière des premiers résultats, nous aurions pu suggérer à notre client d’arrêter les groupes froids dont les COP étaient les plus bas. Mais cela aurait été sans prendre en compte que ces équipements, responsables des mauvaises performances frigorifiques, produisaient également de l’eau mitigée à 45°C grâce à un système de récupération de chaleur. » Dans ces conditions, le COP n’avait pas de sens en tant qu’indicateur de performance. Les résultats ont été plus pertinents après avoir sélectionné un périmètre physique à optimiser intégrant l’eau glacée et l’eau mitigée, ainsi qu’un indicateur économique (en euros/heure) qui prend en compte les performances cumulées de l’eau glacée et de l’eau mitigée.
  2. Le choix de la période de l’étude – Le choix doit se porter sur une période d’analyse où le fonctionnement de l’usine est stable et, surtout, réaliste avec l’existant. Il ne doit par exemple pas concerner une période trop ancienne. « Reprenons le cas précédent, illustre Zoheir Hadid. Même si la période 2014-2015 paraissait intéressante, elle n’était pas adaptée à l’étude car le site a beaucoup évolué en 3 ans. De nouveaux groupes froids ont été installés et la régulation des équipements a été changée. »
  3. Le choix des filtres contextuels – Le contexte de l’analyse doit être défini selon des scénarios de fonctionnement stable, en fonction des gammes de puissances froides (3 à 4 mégawatts puis 4 à 5 MW, etc.), des températures extérieurs (0°C à 10°C, 10°C à 20°C, 20°C à 30°C), ou encore de l’utilisation par le client d’équipements d’appoint, comme des pompes à chaleur…
  4. Le choix des variables – Il convient aussi d’éliminer les données énergétiques qui n’ont pas de sens pour l’étude. « J’explique. Prenez un incinérateur. Pour optimiser les performances de combustion des déchets, rien ne sert de suivre les paramètres de traitement des fumées ou ceux de production d’électricité à partir de la chaleur. Il faut donc filtrer les résultats et se contenter de la zone de la combustion. C’est une question de bon sens. »

 

Privilégier son sens critique devant les variables influentes conseillées par l’algorithme 

Après avoir sélectionné l’indicateur de performance, la période de l’étude, les filtres et les variables les plus pertinents, « vous allez lancer l’algorithme, approuve Zoheir Hadid. Mais il faut là encore veiller à rester critique pour arbitrer la pertinence opérationnelle des variables d’influence conseillées par l’algorithme, qui lui, n’est jamais allé sur le terrain. »

Il faut savoir faire le tri entre les variables subies, qui génèrent différents scénarios d’exploitations (conditions météorologiques, appels de puissance…), les variables de conséquence, sur lesquelles il n’y a pas d’action directe (la température du four selon différents apports d’air que l’on règle, par exemple), et les variables de réglages. Ce sont celles qui nous intéressent vraiment car elles sont modifiables. Il faut ensuite s’assurer que la variable de réglage soit fiable, qu’elle ne soit pas un artéfact ou/et qu’elle ne corresponde pas à une perte des données, à une erreur ou à un dysfonctionnement.

 

« Si l’on suit ces étapes, nous sommes ainsi assurés de la qualité de l’analyse et à l’abri de toute erreur d’interprétation, conclut Zoheir Hadid. C’est bien à ce niveau que l’intelligence humaine fait toute la différence ! »

 

 

(1) Quantité de froid produite par rapport à l’électricité consommée