Le Machine Learning appliqué à l’énergie

Machine Learning, Deep Learning, Intelligence Artificielle, Big Data, Réseau de neurones, algorithmes génétiques… la technologie s’invite quotidiennement dans les discours marketing, et souvent de manière approximative. Faisons un point sur le Machine Learning et son intérêt pour l’efficacité énergétique industrielle.

 

Définition(s) : le Machine Learning

Le Machine Learning, ou apprentissage statistique, est l’une des disciplines de l’Intelligence Artificielle. Il utilise un ensemble de méthodes et d’algorithmes permettant de développer des logiciels autonomes, capables d’apprendre à reconnaître les états d’un système complexe à partir d’un historique des données du système observé.

Plusieurs types d’algorithmes peuvent y être combinés (arbres de décision, analyse discriminante linéaire, clustering…), dont les réseaux de neurones, célèbres par leur ambition initiale de reproduire le fonctionnement du cerveau humain. Quant au Deep Learning, c’est une « simple » (sic !) application des réseaux de neurones.

 

Applications : un large spectre

D’un point de vue fonctionnel, le Machine Learning comporte deux phases :

1- L’apprentissage initial : réalisé à partir d’un jeu de données d’entrée, et bien sûr des données de sortie correspondantes. Prenons un exemple dans l’industrie agroalimentaire : en entrée, la température d’un biscuit fraîchement cuit, l’hygrométrie et la température ambiante du laboratoire, les dimensions de la friandise, et une photo ; en sortie, sa conformité ou non, et les raisons de son éventuel refus (cuisson, taille, aspect…). Cette conformité ayant été évaluée « manuellement ».

2- Le fonctionnement : l’algorithme est ensuite en mesure de proposer une valeur de sortie, en fonction des données d’entrée qui lui sont fournies. Pour notre exemple : à partir des données collectées par des capteurs, l’application indique à l’automate les biscuits à écarter, et n’envoie que les bons en conditionnement. À noter : la phase de fonctionnement peut aussi comporter des fonctionnalités d’apprentissage, pour affiner les compétences de l’algorithme.

  |  De nombreuses applications concernent la perception d’un environnement et/ou d’un corpus de données complexes et variées :

  • Reconnaissance d’objets dans une image, indexation d’images, reconnaissance vocale…
  • Voiture autonome.
  • Détection de fraude.
  • Diagnostic médical.
  • Analyse financière.
  • Maintenance industrielle préventive/prédictive.

 

Statistique Vs Physique

Le Machine Learning repose sur des approches statistiques. Il diffère donc des modélisations physiques, construites à partir de la compréhension physico-chimique (thermodynamique ou mécanique des fluides par exemple) ou mathématique (économie, finance…) des phénomènes observés.

Trois conséquences doivent être prises en compte :

1- Le Machine Learning ne donne pas les raisons de sa « décision » : son approche statistique établit des corrélations entre plusieurs mesures, sans pour autant s’intéresser à leur causalité.

2- Ses capacités de reconnaissance restent valables à périmètre et conditions « constantes », ou du moins connues de l’algorithme : toute modification dans la nature ou le type des données d’entrée nécessite une nouvelle phase d’apprentissage. Concrètement, une modification du process industriel observé (changement de machine, de régime de température…), des moyens d’observation (capteurs…), ou encore des conditions extérieures (climat, modification du bâtiment…), doit conduire à une évaluation des conséquences sur l’algorithme de Machine Learning.

3- L’apprentissage initial et ses évolutions nécessitent des jeux de données historiques complets : tous les cas de figures doivent être présents, ce qui nécessite en général l’observation d’au moins un cycle complet (saisonnalité). Il est parfois possible de créer des données « virtuelles » à partir d’une modélisation physique partielle (on parle alors d’algorithme hybride).

 

Quels outils pour le secteur énergétique ?

L’Ingénieur process et l’Energy Manager trouveront dans le Machine Learning un allié de poids pour :

  • Prédire des consommations : à partir de la météo, du planning de charge, de la qualité des intrants… il devient possible d’estimer précisément l’intensité énergétique nécessaire pour les heures à venir, et ainsi d’adapter les conditions d’exploitation en avance de phase (stockage d’énergie, allumage / arrêt d’équipement…).
  • Organiser des approvisionnements : qu’il s’agisse de combustibles ou d’intrants dont la qualité impacte les besoins énergétiques, le Machine Learning permet de sélectionner la source d’approvisionnement optimale en fonction de la météo, du planning de charge, de la qualité de l’intrant et de la performance des équipements à un instant t.

 

Un exemple d’application pour une centrale biomasse

Le rendement d’une chaudière biomasse dépend fortement de l’hygrométrie des déchets verts qu’elle brûle, et qui proviennent de plusieurs communes de la région (rayon de 80 km). Les capacités de stockage tampon étant limitées aux abords de l’équipement, il est alors nécessaire d’adapter les livraisons du combustible au plus près des besoins réels de la chaudière, pour répondre à la demande de chaleur. Et la performance de cette production dépend de la qualité du combustible. L’algorithme de Machine Learning fonctionne ainsi sur le principe suivant :

D’une manière générale, il est recommandé de vérifier les conditions de fonctionnement d’un algorithme de Machine Learning au moins chaque trimestre.

 

En conclusion, le Machine Learning constitue un outil d’intérêt pour l’efficacité énergétique industrielle, à la fois pour la compréhension des phénomènes et pour le pilotage de l’activité. Vous voici rassuré : le Machine Learning n’est plus (totalement) une boîte noire pour vous !

 

7 solutions techniques pour optimiser vos groupes froids et tours de refroidissement

Les groupes froids peuvent être complexes à opérer, surtout lorsqu’ils sont couplés entre eux et connectés à une ou plusieurs tours de refroidissement. Leurs performances énergétiques sont en effet étroitement liées à l’efficience de leurs sous-systèmes (compresseurs, pompes, échangeurs, évaporateurs…) ayant chacun un rendement nominal et optimal… Ils sont également extrêmement dépendants de leur environnement (tours de refroidissement, pompes de distribution, réseau, etc). Passons en revue quelques solutions pour en améliorer les performances énergétiques.

 

Avant d’agir : instrumenter pour mesurer le COP global

B.A.-BA de la démarche d’optimisation, le monitoring des groupes froids et des tours de refroidissement est un préalable à toute action correctrice. Il s’agit non seulement de déterminer le COefficient de Performance de chaque groupe et tour (via des mesures de débit, de température d’entrée et de sortie, et de consommation électrique) mais surtout de construire un COP global, intégrant les pompes de distributions, les auxiliaires, les consommations des tours aéroréfrigérantes, et tenant compte de la rigueur climatique (température et hygrométrie). L’idéal étant bien sûr de construire un historique de données d’une année afin de couvrir toutes les saisons et un maximum de conditions de production.

 

1- Investir dans une nouvelle technologie de production de froid

Les groupes les plus récents, à paliers magnétiques, sont particulièrement performants avec un COP atteignant aisément 7 ou 8 (contre 3 ou 4 pour un compresseur classique). Ces groupes froids sont très modulables et ne perdent pas en efficacité car ils contiennent plusieurs petits compresseurs qui démarrent en cascade. Ils sont en revanche très coûteux. En absence de budget, l’ajout de variateurs de puissance sur les compresseurs et pompes existants peut améliorer significativement les consommations.

Potentiel de gains : de 20 à près de 50 %

 

2- Ajouter un stockage tampon

L’ajout d’un réservoir de froid au niveau du by pass permet de faire travailler le compresseur essentiellement à son régime nominal, et de réduire le besoin de pointe. C’est donc une alternative aux cascades de groupes froids, qui offre également une meilleure stabilité électrique à l’échelle de l’usine. Un stockage très volumineux permet même d’optimiser les horaires de production de froid en fonction des contrats d’énergie.

Potentiel de gains : 5 % – 10 %

 

3- Changer d’énergie

Les groupes froids à absorption ont pour principe de « faire du froid avec du chaud »[1]. Si l’usine a par ailleurs des besoins importants en chaleur, il peut être intéressant d’implanter une centrale tri-génération : chaleur au gaz, production d’électricité conjointe, et récupération d’une partie de la chaleur fatale par un groupe froid à ab/adsorption. L’énergie électrique du compresseur, principale consommation des groupes froids classiques, disparaît alors carrément de l’équation !

Potentiel de gains : Dépend du contrat d’exploitation de la cogénération

 

4- Ajouter du « free cooling »

Lorsque les conditions climatiques le permettent suffisamment souvent, l’ajout d’échangeurs passifs à l’air libre (en général sur le toit de l’usine), permet de s’affranchir de l’usage des tours de refroidissement, et des consommations associées.

Potentiel de gains : 5 % – 15 %

 

5- SANS CAPEX : Optimiser les cascades d’engagement

Dès que plusieurs groupes travaillent en parallèle se pose la question de la meilleure combinaison (leurs puissances et performances pouvant être différentes) ainsi que du bon moment pour les démarrer. En s’appuyant sur leurs caractéristiques techniques (courbes de rendement, puissance, débits…) et sur l’historique de données, il est possible de construire des règles d’engagement basées sur des critères objectifs : débit dans le by pass, conditions atmosphériques, plan de production… Ces cascades prennent également en compte les performances des tours de refroidissement et leurs contraintes techniques (nombre, vitesse, délais de démarrage…).

Potentiel de gains : 10 % – 20 %

 

6- SANS CAPEX : Modifier les « set points »

L’analyse des données offre régulièrement des découvertes contre-intuitives, généralement liées à des effets systémiques : « L’optimum global ne résulte pas des optima locaux » explique l’expert Jean Vielle dans Factor.e (Ed#3 : « De l’importance d’une approche systémique »). Concrètement, il arrive fréquemment qu’en augmentant légèrement la consommation d’une tour aéroréfrigérante (simplement en diminuant sa température de consigne), on réduise encore plus celle des compresseurs des groupes froids. L’étude des bons réglages nécessite un solide travail sur les données et des tests en grandeur nature.

Potentiel de gains : 5 % – 10 %

 

7- (Presque) SANS CAPEX : Essayez la HP flottante

Benjamin Franklin n’a pas seulement fait voler des cerfs-volants les jours d’orage. Avant de fonder les USA, il démontra par son expérience « le bouillant de Franklin », qu’une faible pression réduit la température d’ébullition d’un liquide. C’est le principe de la HP flottante : réduire la haute pression du compresseur en fonction de la température extérieure (donc surtout en hiver) pour économiser des « bars » inutiles. L’achat d’un module de régulation spécifique est cependant nécessaire.

Potentiel de gains : 5 % – 15 %

 

Ainsi, avec ou sans investissement, rapidement ou avec un historique assorti de quelques études sur les données énergétiques, les solutions pour optimiser la consommation énergétique de votre production de froid s’avèrent variées. Leur efficacité sera d’autant plus importante que votre SIE (Système d’Information Énergétique) est complet.

 

[1] Une bonne explication ici :

https://www.energieplus-lesite.be/index.php?id=11175#c6324+c6325+c6328

 

7 actions pour optimiser l’énergie dans vos process

Les démarches d’efficacité énergétique industrielle concernent souvent la production d’utilités en premier lieu. Une priorisation compréhensible : après tout, les produits sont l’objet même de l’activité, et ne peuvent souffrir de la moindre baisse de qualité ou de cadence de production. Intouchables donc les process de fabrication !? Pourtant il est possible (et souvent souhaitable) de challenger leur rendement énergétique. Voici déjà quelques pistes…

 

1- Impliquez les opérateurs

À l’usine ou à l’atelier, comme ailleurs, on cherche à bien faire : des produits de qualité, en respectant les consignes et les KPIs, et en s’appuyant sur l’expérience et la connaissance. Sauf que ces bonnes intentions se traduisent parfois (et même souvent) par des attitudes gourmandes en énergie : un confort de conduite exagéré (marges de sécurité en puissance et/ou en durée de fonctionnement), une confusion entre consignes et habitudes (« Ça fait trente ans qu’on fait comme ça, personne ne s’est plaint »), et un manque criant de prise en compte de la chose énergétique. L’efficacité énergétique n’est certes pas la priorité mais ce n’est pas une raison pour la délaisser totalement.

 

Les solutions :

  • Trouvez des compromis sur les marges de sécurité. Ce qui demande une grande confiance en vos installations, en vos équipements, et en vos compétences.
  • Détectez régulièrement les besoins en connaissances, et proposez les formations et/ou les changements de poste qui en découlent.
  • Challengez les habitudes, en vous faisant aider d’outils et d’expertises extérieurs.

 

 

2- Exploitez votre chaleur fatale

Quasiment tous les process produisent de la chaleur résiduelle, pas toujours exploitée. Parfois à raison, par manque évident de rentabilité. Et souvent à tort, faute d’avoir vraiment étudié les possibilités. Le préchauffage de votre eau de chaufferie par l’eau de refroidissement des compresseurs sera-t-il rentable ? S’il existe des échangeurs pour récupérer des calories sous toutes formes (gaz/gaz, liquide/liquide, liquide/gaz…), encore faut-il s’assurer de la synchronisation entre les besoins et la production de chaleur, de puissances et températures compatibles, d’une distance raisonnable entre les producteurs et consommateurs, etc.

 

La solution :

Pratiquez la méthode PINCH.

Cet outil (désormais disponible sous forme logicielle) permet d’analyser l’installation thermique pour en maximiser l’efficacité énergétique via des échangeurs en tenant compte des investissements nécessaires, du prix de l’énergie, etc.

 

 

3- Affinez vos régulations

La stratégie de contrôle commande se heurte régulièrement à deux problématiques. D’abord l’identification des bons paramètres à réguler, ce qui n’est pas aisé si l’on ne connaît pas précisément les process de l’usine et les équipements. Et ensuite la définition des réglages de régulation : comment s’assurer que les corrections PID (proportionnel, intégral, dérivé) ne sont ni « standards », ni arbitraires ?

 

La solution :

Faites dialoguer les opérateurs avec le contrôle commande, avec l’appui d’un outil d’analyse et éventuellement avec l’aide d’un expert extérieur. Au-delà du bénéfice évident du travail collaboratif, il s’agit d’objectiver le fonctionnement de la régulation et de repérer des dysfonctionnements (phénomènes de pompages, bandes mortes, engagement/désengagement des machines, mauvais séquençage/imbrication des boucles de régulation…).

 

 

4- Assouplissez vos paramétrages

« L’humidité résiduelle de notre matière première doit être de 10 %. » Ah ? Que se passe-t-il à 9 %, ou à 11 % ? Quel sera l’impact sur la qualité du produit fini ? Sur la fiabilité des process ? Sur l’entretien et la maintenance des équipements ? Et surtout combien coûte la réduction de ce seul point d’humidité ? N’y a-t-il pas là des gisements de confort de conduite, de productivité, et d’énergie ?

 

La solution :

Passez des « set points » aux « set zones » : 10 % +/– 1.

La démarche demande bien sûr de rentrer profondément dans les process, en associant la qualité, la maintenance, le contrôle commande… Des tests réels sont également utiles.

 

 

5- Évitez l’obsolescence des équipements

Faut-il rappeler qu’une machine usée consommera TOUJOURS plus d’énergie qu’une neuve ? S’il n’est bien sûr pas question de remplacer des équipements encore « bons pour le service » par des modèles plus économes (quoique, cela peut être rentable dans certains cas…), il est tout de même rageant de voir les efforts énergétiques d’une équipe se diluer dans une machine antédiluvienne, simplement parce qu’il n’y a pas de CAPEX au budget.

 

La solution :

Prenez votre bâton de pèlerin, et allez convaincre la direction ! Avec bien sûr en poche un argumentaire financier démontrant un ROI rapide (incluant énergie, qualité, coûts de maintenance…).

Pensez également à l’investissement différentiel, si je dois remplacer dans tous les cas une machine, le ROI d’une machine performante (et coûteuse) se fait en différentiel d’un changement de machine à l’identique.

 

 

6- Rénovez vos réseaux de distribution

Prenons l’exemple d’un réseau d’eau chaude alimentant 5 bâtiments. Vingt ans après sa construction, deux édifices ont disparu, remplacés par un autre, situé plus loin sur le site. Le réseau est ainsi utilisé avec une pression et une température supérieure (afin d’alimenter correctement le bâtiment lointain et gourmand). Une aubaine pour les autres usagers, qui en profitent pour surconsommer allègrement !

 

La solution :

Remettez régulièrement « à plat » vos réseaux de distribution (topologie, paramètres, équilibrage). A minima, installez des équipements et compteurs pour responsabiliser les utilisateurs.

Pensez à isoler les bâtiments quand ils ne consomment pas (nuit, week-end, vacances, etc).

 

 

7- Outillez les managers

Qui connaît le mieux le fonctionnement de l’atelier : le manager qui suit les KPIs sur Excel, ou le chef d’atelier, qui les « vit » au quotidien ? Chacun son job bien sûr. Mais tout de même : comment confronter efficacité énergétique et confort de conduite (qui restent foncièrement antinomiques) si l’on ne comprend pas vraiment les contraintes du terrain ?

 

Les solutions :

Managers, restez proche du terrain ! N’oubliez pas de descendre quotidiennement dans les ateliers : écoutez, interrogez, discutez, avec bienveillance, sincérité, et curiosité. Vous resterez ainsi au contact des enjeux de vos équipes, et garderez  leur confiance pour changer leurs habitudes. Et bien sûr équipez-vous d’une plateforme numérique de management de l’énergie (Vertuoz Industri.e en propose une très bien !), qui vous permettra de matérialiser/appuyer vos analyses et propositions.

 

Métallurgie : Big Data et gros fours font bon ménage

Les industriels électro-intensifs n’ont pas attendus le réchauffement climatique pour s’intéresser à l’efficacité énergétique. C’est le cas de la métallurgie. Pour ses étapes d’aciérie bien sûr (fusion, affinage, recyclage), mais aussi pour la métallurgie extractive (première transformation du minerai), dont les fours impressionnent par leurs dimensions et puissance. Ces équipements très onéreux sont déjà conçus pour être très efficaces, et évoluent désormais peu dans leur design. Prochaine étape pour en réduire encore la consommation énergétique : le Big Data.

 

Métallurgie : une industrie lourde mais subtile

Rappelons brièvement le procédé de la pyrométallurgie, l’une des transformations du minerai brut, généralement extrait sous forme d’un oxyde en alliage, prêt à l’usage pour les aciéristes ou industries chimiques. La « réduction » (au sens chimique, qui consiste à éliminer l’oxygène en le faisant réagir avec du carbone) s’effectue en chauffant le minerai à très haute température (entre 1400 et 1800 °C environ), souvent dans des fours à arcs électriques de plus de 10 mètres de diamètre, affichant plusieurs dizaines de mégawatt de puissance (20 à 80 MW voire plus), et fonctionnant en continu.

Dans le principe, la conduite de ces fours consiste à analyser le minerai entrant (qualité, composition) puis, en fonction du cahier des charges, à ajuster les paramètres procédés (quantités de réducteur, puissance de chauffe instantanée…). En pratique, c’est bien plus compliqué ! D’abord, il n’est pas aisé de connaître précisément la composition ponctuelle du minerai. Ensuite, il y a plusieurs électrodes dans un four, qu’il faut parfois gérer individuellement pour bien répartir l’énergie. De plus, hormis les objectifs énergétiques, le procédé peut devenir instable, ce qui pose des enjeux de sécurité pour le personnel, et le risque de produire un alliage hors spécifications.

 

Peu d’informations techniques mais beaucoup de savoir-faire

Il suffit d’installer quelques capteurs pour monitorer tout cela direz-vous. Certes. Mais là encore, la pratique complique la donne. Il est quasiment impossible d’instrumenter l’intérieur de l’enveloppe réfractaire à cause des températures élevées. De plus, les forts courants et les arcs électriques provoquent des champs électromagnétiques qui compliquent les mesures électriques. Enfin, les capteurs s’encrassent, ainsi que le four lui-même, dont le comportement évolue avec le temps et l’usage. L’intérieur du four serait ainsi une boîte noire ? Pas complètement : certains capteurs de température déportés (plusieurs centaines), des données électriques (résistance, réactance…) et des informations sur l’alliage de sortie (composition, température de coulée) permettent de déduire l’état de fonctionnement des fours. Sans oublier les compétences et l’expérience des métallurgistes, qui savent non seulement conduire leurs fours, mais aussi détecter les situations à risque.

 

Un four 4.0, et toujours des métallurgistes

Reste que certaines situations sont découvertes tardivement, et que l’optimisation énergétique s’avère bien souvent trop fine et/ou trop complexe pour relever uniquement de l’instinct des équipes, fussent-elles brillantes et expérimentées. Certains métallurgistes utilisent des systèmes experts qui croisent les paramètres électriques et la composition du minerai avec des règles métiers. Mais il reste encore compliqué de formaliser des connaissances peu répertoriées, qui relèvent du savoir-faire, et sont souvent spécifiques à un couple minerai/équipement.

Une solution pointe pourtant : le Big Data. Les données existantes sont en effet suffisantes pour construire des modèles statistiques permettant de prédire les comportements d’un four donné. Les résultats sont prometteurs, avec par exemple la prédiction d’un événement probable à 70%, 10 minutes avant son occurrence. Pas de quoi cependant automatiser la conduite à court terme : l’avis du métallurgiste restera prépondérant pendant encore longtemps. A l’instar des boîtiers automobiles, il faut plutôt voir ces outils comme des aides à la conduite. Attention, vous entrez dans une zone de contrôle !

 

Maîtrisez vos centrales de traitement d’air !

Saviez-vous que la CTA – Centrale de Traitement d’Air – fait partie des équipements les plus complexes à maîtriser dans les usines ? Ce système autorégulé est parfois perçu comme une « boîte noire », et il n’est pas aisé d’en jauger les performances énergétiques. Pourtant, avec des outils adéquats, vos équipes sont en mesure de les optimiser. Il ne faudrait surtout pas passer à côté de cette opportunité.

C’est pourquoi une application web métier est indispensable pour le suivi et l’optimisation énergétique de vos centrales de traitement d’air. En effet, les CTA sont exploitées pour atteindre des niveaux de qualité d’air exigeants dans les ateliers (poussières, humidité, température…). Pour cela, elles sont constituées de nombreux éléments contrôlant automatiquement divers paramètres de l’air (température, hygrométrie, pression…). Ces derniers sont si nombreux qu’identifier des pertes ou des dérives est très complexe. Les dysfonctionnements passent donc souvent inaperçus ! D’autre part, les équipes n’ont pas les mêmes expériences et pratiques de conduite, ils ne ciblent pas les mêmes problèmes. L’animation de l’énergie permettra ainsi une plus grande efficacité sur le terrain.

 

La centrale de traitement d’air : complexe ou systémique ?

Bien sûr, la CTA n’est pas un mystère. Cependant son fonctionnement repose sur un “chemin thermodynamique de l’air” qui détermine les traitements successifs à effectuer sur l’air extérieur et/ou intérieur, afin de l’amener à la qualité souhaitée au point de soufflage.

« Les étapes sont simples – chauffage, refroidissement, lavage…– mais sont toutes liées et concourent à ajuster les paramètres de l’air en totale coordination. Les batteries froides serviront à refroidir ou déshumidifier, et les laveurs à humidifier. La CTA offre ainsi plusieurs façons d’obtenir un même résultat, la difficulté réside dans la stabilisation de la configuration la plus performante.» explique Stéphanie Hoarau, Chef de projet efficacité énergétique.

 

Toujours quelque chose à faire

On pourrait penser qu’une fois bien paramétrée, la CTA atteindra puis maintiendra efficacement ses objectifs. C’est sans compter sur les inévitables dérives des sondes, vannes bloquées ou passantes, erreurs et saisies de consignes incohérentes… sans parler des événements exogènes comme la variation des conditions extérieures ou dans l’atelier.

« Le problème réside justement dans l’orientation objectifs  d’une CTA : elle cherche à satisfaire la consigne, et pourra l’atteindre même en mode dégradé, au détriment de sa consommation énergétique. Et même si l’on détecte une anomalie, via ses interfaces, encore faut-il savoir séparer la cause des symptômes. Un air chaud et sec sera humidifié puis refroidi. Si l’air est trop froid en sortie, pour cause de vanne trop ouverte par exemple, des batteries chaudes en aval pourront entrer en jeu. Pas facile de diagnostiquer d’un seul coup d’œil ce problème depuis la supervision ! » précise Stéphanie Hoarau.

 

La data à la rescousse !

Alors comment évaluer ce qui se passe vraiment dans votre CTA ? En collectant un maximum de données sur son fonctionnement, y compris (et même surtout) sur ses sous-systèmes.

« A partir des caractéristiques techniques de tous les composants d’une CTA, nous pouvons construire un modèle de fonctionnement théorique et une banque de situations combinant les données d’entrées (comme les conditions extérieures et consignes) et l’état précis des sous-systèmes : consigne sur telle vanne, niveau de température après tel équipement… On peut ensuite comparer avec la réalité, en temps réel, pour chercher d’éventuelles incohérences et alerter en cas d’écarts » dévoile Stéphanie Hoarau.

 

Les bénéfices du monitoring énergétique des CTA

Les gains potentiels sont significatifs car ils permettent d’échapper à des situations qui durent :

  • les surconsommations sont évitées,
  • la qualité de l’air est améliorée,
  • les coûts de maintenance sont réduits, car les durées de fonctionnement en mode dégradé diminuent (lorsqu’un équipement dysfonctionne, ses voisins vont chercher à compenser).

 

L’application CTA de Vertuoz Industri.e fonctionne déjà. Elle permet en un coup d’œil de savoir tout ce qui se passe dans votre CTA, et surtout de résoudre des problèmes « indétectés » auparavant. Alors on l’ouvre, cette boîte noire ?

Agroalimentaire : des gains énergétiques conséquents en optimisant vos flux d’air

L’industrie agroalimentaire consomme beaucoup d’énergie pour assurer la maîtrise de la température et la qualité d’air des zones de travail. Bien souvent, quelques actions simples permettent de réaliser des économies substantielles. En voici quelques exemples, pour des ateliers emblématiques de l’industrie agroalimentaire : la salle de cuisson et son extraction d’air d’une part, et l’atelier de confection/conditionnement avec sa centrale de traitement d’air d’autre part.

 

Maîtriser l’extraction d’air en salle de cuisson

Les industriels de l’agroalimentaire sont nombreux à faire face au même dilemme : réduire l’exposition à la chaleur de leur personnel en ventilant abondamment les ateliers de cuisson et éviter de contaminer les produits en sortie de four avec un air de refroidissement grossièrement filtré. Pourtant, il est possible de combiner harmonieusement ces enjeux, et quasiment sans CAPEX !

Le refroidissement est généralement confié à des extracteurs d’air, plaçant la salle de cuisson en dépression. Plusieurs dizaines de milliers de m3/h d’air chaud sont ainsi aspirés et remplacés par de l’air « neuf » à température ambiante. « La qualité de cet air neuf peut être très discutable, estime Yves Bergeron, Consultant Industrie. Les prises d’air sont par exemple situées au ras du sol dans l’atelier de maintenance. Les vitesses d’air sont telles que l’effet d’envolement est important. Et cet air est en général simplement préfiltré, car il est difficile de filtrer finement de tels flux d’air ». Dans la démarche d’optimisation, une fois n’est pas coutume, la maîtrise de l’énergie et de la qualité microbiologique se rejoignent : le premier levier de progrès concerne l’ajustement de l’extraction d’air au minimum nécessaire pour assurer une température de travail acceptable.

 

  |  Un cas concret dans une usine de pain de mie tranché

« Le niveau d’extraction était tellement important qu’il aspirait l’air depuis l’autre extrémité de l’usine (la zone de stockage après conditionnement). En arrêtant un des trois extracteurs, l’impact sur la température de la salle de cuisson s’est avéré négligeable, et le phénomène d’aspiration d’air sale a été éliminé. En outre, un tiers de l’énergie consommée a été économisé ! » raconte Yves Bergeron.

 

Une autre action très simple consiste à s’assurer que l’extraction d’air ne fonctionne que lorsqu’on en a besoin. Ne démarre-t-elle pas trop tôt, alors que le four et la salle sont encore froids ? Ne s’arrête-t-elle pas trop tard ? « Le nombre et/ou le niveau de marche des extracteurs doivent être ajustés en fonction de la météo (température extérieure et ensoleillement), mais aussi de l’activité de la salle elle-même » propose Yves Bergeron.

 

Optimiser le point de fonctionnement de la centrale de traitement d’air

Plantons le décor : la centrale de traitement d’air permet d’assurer la conformité de l’air de la salle pendant la production, par rapport à la norme applicable (température de la salle, qualité microbiologique de l’air).

Première piste de travail : optimiser l’énergie dépensée pendant les périodes de hors production. L’enjeu est d’autant plus important si l’atelier tourne peu. Rappelons qu’un atelier qui fonctionne 8 heures par jour, 5 jours par semaine, est trois fois plus souvent hors production qu’en production !

Rappelons que le taux de renouvellement d’air imposé par la norme pendant la production a été calculé pour éliminer la contamination apportée par les flux entrants dans l’atelier (produit, emballages, personnels…).

Hors production et hors maintenance, lorsque les portes des ateliers sont fermées et qu’il n’y a aucun flux, ce taux de renouvellement peut être fortement diminué, tout en assurant la qualité microbiologique de l’air nécessaire.

La contrainte imposée sur la température de la salle en production est également très probablement excessive hors production. « La norme ne s’applique pas puisqu’il n’y a alors pas de production, même s’il faut bien évidemment s’assurer (et pouvoir prouver) que la qualité de l’air reste maîtrisée, et sera conforme à la norme dès le début de production, rappelle Yves Bergeron. Des actions d’accompagnement classiques hors production consistent à consigner les portes, boucher les ouvertures et couvrir les équipements. Et on sera surpris de constater que la qualité du début de production est souvent fortement améliorée par rapport à la qualité obtenue en laissant la centrale de traitement d’air à fond pendant les arrêts de production. »

Ce premier succès légitime la remise en question d’une croyance : « On fait tourner la centrale de traitement d’air à fond. Comme ça on n’a pas de problème ! ». Un petit effort préalable est cependant indispensable : il faut bien connaître la norme applicable. En effet, la bonne compréhension de la norme permet de challenger positivement les responsables qualité et de définir avec eux le point de fonctionnement nécessaire pour le niveau d’activité le plus exigeant. Il devient dès lors possible, en procédant par étapes entrecoupées de longues périodes d’observation, de réduire graduellement le niveau de marche de la centrale de traitement d’air jusqu’à ce point de fonctionnement. Sur certains ateliers, il est même possible d’aller plus loin. « Les besoins réels de renouvellement d’air peuvent dépendre très fortement de l’activité, calcule Yves Bergeron, du nombre de personnes présentes, du flux de produits, d’emballages… Si le produit est tranché et génère beaucoup de particules, ou s’il est refroidi en salle et génère de l’humidité… ». Il n’est pas rare que l’activité la plus exigeante soit en réalité peu fréquente. L’optimisation peut alors se poursuivre pour les niveaux d’activité courants.

 

Piloter vraiment pour gagner tout le temps

À l’évidence, adapter le niveau de marche des extracteurs d’air et des centrales de traitement d’air au niveau d’activité et aux conditions météorologiques augmente la complexité. « Une supervision centralisée prend ici tout son sens. D’abord pour historiser sereinement les états de fonctionnement, les rapprocher des données de production, et analyser leurs conséquences énergétiques, à l’échelle de chaque salle. Mais aussi pour identifier les réglages efficaces et les propager à d’autres ateliers. Il n’est pas nécessaire d’aller jusqu’au contrôle-commande, la diffusion de consignes simples avec les plans de production suffit en général » propose Yves Bergeron. Prévoyez une bonne année pour constituer un corpus de données suffisant, puis récoltez les fruits énergétiques : la division par deux de votre consommation est tout à fait envisageable !

« On trouve toujours un moyen pour connecter une usine ! »

Votre usine reflète naturellement le profil des investissements et des choix passés. Les derniers équipements high tech y côtoient des machines plus rustiques. Toutes sont indispensables à votre process ou vos utilités. Cependant, elles n’utilisent pas forcément les mêmes protocoles de communication : de la relève manuelle au temps réel sans fil. L’arrivée d’un projet d’efficacité énergétique génère donc une question tout autant légitime qu’inquiétante : comment connecter tout ça ?

Quels sont aujourd’hui les enjeux techniques pour collecter les données énergétiques d’une usine ou d’un atelier ?

Commençons tout de suite par rassurer les industriels : on trouve toujours un moyen pour connecter une usine ! La difficulté tient même plutôt à l’ampleur du choix ! Et bien sûr aux contraintes imposées par l’existant, la nature de l’activité, les problématiques énergétiques spécifiques, l’organisation de l’entreprise…  L’enjeu n’est donc pas tant de trouver UNE solution, mais de trouver LA bonne, celle qui sera rentable, pérenne et évolutive.

Quel est le phasage de projet préconisé ?

Il faut d’abord bien comprendre les objectifs de performances énergétiques : quelles mesures sont attendues (nature, précision…), avec quelle fréquence, pour quelle destination numérique, etc. Le choix d’un stockage local (digital factory) ou dans le cloud est par exemple très structurant pour les solutions radio (ndlr : voir notre encadré). Les étapes incontournables consistent bien sûr à réaliser une écoute des besoins et ambitions souhaitées, avant de réaliser une étude de l’infrastructure Télécoms et des réseaux informatiques industriels existant de la couverture IoT sur le site, ainsi qu’une étude de couverture radio pour déterminer les technologies radio adaptées et le type d’antennes à utiliser. Nous sommes aussi particulièrement vigilants sur la fourniture des données au bon format : personne ne veut récupérer la tension brute d’un capteur, mais bien une température ! Nous privilégions donc les capteurs « intelligents », capables d’envoyer des données directement exploitables. In fine, un projet de collecte est réussi quand le système sait se faire oublier.

Comment accéder à des données déjà captées, mais non connectées ?

Là encore, il y a toujours une solution. Certaines centrales et automates peuvent être interfacés simplement. De plus, il y a tout de même des standards récurrents : notre gateway (ndlr : la « passerelle » qui centralise les données des capteurs environnant et les envoie vers le serveur) est ainsi compatible avec 90 % des capteurs du marché. Au pire, s’il faut changer ou ajouter un capteur, les coûts restent très raisonnables.

Connecter son usine, c’est cher ?

Il n’y a pas de réponse absolue à cette question. Je peux en revanche affirmer que le ROI est au rendez-vous, et pas seulement avec les économies d’énergies. Il faut pour cela respecter deux règles simples : ne pas installer des capteurs partout « pour le plaisir », et ne pas hésiter à y aller par étapes, en fonction de ses moyens. Moyens financiers bien sûr, mais aussi moyens d’actions : qu’allez-vous faire des données ? Comment allez-vous les présenter, les diffuser, changer les pratiques, les habitudes, les mentalités… ? Mais ça, c’est le boulot de Vertuoz Industri.e !

Zoom sur :

| 4 protocoles radio incontournables pour votre usine connectée

  • Bluetooth Low Energy: une faible portée (200m) mais un débit permettant la transmission d’image, pour la levée de doute par exemple (2Mb/s). Adapté à un usage 100% privé/local.
  • LoRaWan: très peu sensible aux interférences, ce protocole open source, soutenu par une large alliance d’industriels, affiche un débit lent, adapté aux données très courtes et peu fréquentes. Il existe des solutions LoRaWan privées/locales.
  • SigFox: principal concurrent de LoRaWan dans les réseaux opérés, il permet également le roaming (pour des capteurs mobiles passant d’un pays à l’autre).
  • LTE-M: choisi par 9 des plus grands opérateurs télécoms du monde (AT&T, Verizon, Orange, KDDI, KPN, Docomo, Telefonica, Telstra et Telus), ce protocole est pour ainsi dire la 5G de l’IOT. Très standardisé, il offre des appareils peu coûteux, avec une faible consommation énergétique, et présente une excellente couverture.

 

 

A lire également sur l’usine connectée

A l’ère de l’industrie 4.0, les industriels savent qu’ils peuvent compter sur les technologies Big Data ou d’Intelligence Artificielle, pour améliorer l’efficacité énergétique de leurs usines. Néanmoins, ils n’ont pas toujours conscience que, pour obtenir de bons résultats en matière d’énergie, la qualité des données disponibles prime sur leur quantité.

Découvrez notre article à ce sujet : https://blog.engie-vertuoz.fr/industrie-qualite-des-donnees-essentielle-efficacite-energetique-des-usines/ 

Chez Airbus, la performance énergétique prépare son décollage avec le numérique

Présent depuis plus de 30 ans chez Airbus pour l’exploitation de ses équipements d’électricité, de chauffage, de ventilation et de climatisation, ENGIE Solutions a décidé d’utiliser la solution numérique Vertuoz Industri.e pour booster son contrat de performance énergétique. A la clé, la perspective d’une réduction des consommations d’énergie sur le site toulousain du constructeur aéronautique.

Près de 300 collaborateurs d’ENGIE sont mobilisés afin de mener à bien cette mission multisites à Toulouse, Nantes, Saint-Nazaire, Marignane, Elancourt et Paris-Le Bourget : fournir à Airbus une continuité de service, gérer ses installations de production et distribution d’énergie, et assurer la maintenance des équipements.

 

Un Contrat de Performance Énergétique industriel

Ces prestations sont soumises depuis 2015 à un Contrat de Performance Énergétique (CPE) avec, à la clé, un intéressement proportionnel aux résultats obtenus sur chacun des sites. A travers la mise en place de ces CPE, l’engagement vers une gestion énergétique vertueuse des sites est donc devenu un enjeu majeur pour ENGIE . Dès les premiers mois, cet engagement s’est traduit par la mise en place d’actions de pilotage sans investissement : suivi quotidien des consommations d’énergie, optimisation des programmes horaires ou encore mise en place d’une production d’énergie réduite lorsque les ateliers d’Airbus sont en activité réduite. Efficace, mais après trois années certains sites approchent l’asymptote de limite de performance. Il faut donc aujourd’hui envisager autre chose pour poursuivre la dynamique positive.

 

Analyse Big Data et pilotage prédictif

Pour continuer à progresser en matière de performance énergétique, ENGIE Solutions avait le choix entre la réalisation de travaux avec investissement, pour lesquels la notion de TCO (Total Cost of Ownership) est primordiale, et l’exploitation d’une solution numérique pour de l’analyse Big Data et un pilotage prédictif. C’est cette dernière opportunité qu’il a été choisi de mettre en avant sur le site toulousain d’Airbus.

 

Des gains énergétiques sur les cabines de peinture

Les analyses sur les cabines de peinture ont montré des gisements d’économies importants.  La variabilité de trois Indicateurs de Performance Énergétique (IPE) a été étudiée : électricité, chaleur et quantité d’air extrait, toutes exprimées par mètre cube d’air soufflé. L’analyse a montré que 5 % de l’électricité pouvaient être économisés, en évitant la surchauffe et la sur-humidification dans les cabines. Autre résultat : les données ont mis en évidence que la température et l’hygrométrie ambiante des cabines étaient loin d’être optimisées au regard de la phase d’utilisation de la cabine, la phase la plus énergivore (phase peinture) étant notamment surutilisée par rapport aux temps théoriques de cette phase du process peinture des avions.

 

Des outils de pilotage pour suivre la performance énergétique

Du fait de contraintes fortes s’exerçant sur les cadences de production, Airbus privilégie la qualité et la productivité de son process industriel, redoutant notamment une remontée en température trop longue pour revenir aux conditions d’application de peinture sur les fuselages. L’analyse prédictive de Vertuoz Industri.e à partir d’un modèle fondé sur l’historique des données a démontré qu’il était possible de modéliser le temps de remontée en température et hygrométrie des cabines de peinture pour les laisser en mode économique le plus longtemps possible. L’économie générée serait de l’ordre de 15 % sur les consommations de gaz. Enfin, le ratio d’air extrait par air soufflé variait énormément, ce qui présageait un potentiel de gain très significatif via la supervision de ce ratio en temps réel.

En attendant le déploiement de la solution numérique sur le périmètre des utilités dans le process d’Airbus, ENGIE Solutions a confié aux équipes Vertuoz Industri.e une prestation d’optimisation du pilotage des réseaux de chaud et de froid du site toulousain. Les équipements de production autrefois indépendants ont été récemment interconnectés, créant des réseaux de production et de distribution difficiles à piloter. La composante « investissement » rejoint ainsi la composante « analyse Big Data et prédictif » pour garantir les économies les plus importantes possibles pour Airbus et ENGIE Solutions, dans le cadre du CPE.

 

5 bonnes raisons de commencer votre transition vers l’usine 4.0 avec l’énergie

1/ L’énergie n’est pas votre cœur de métier… si vous n’êtes pas énergie-intensifs

Avantage paradoxal ! Le sujet s’avère bien moins sensible que le travail sur les coûts de matières, les process, ou encore l’organisation. De plus, il concerne souvent les utilités. C’est ainsi un excellent sujet d’expérimentation, d’apprentissage, qui présente des risques très mesurés. Les gains sont en revanche élevés, via les économies d’énergie bien sûr, mais surtout par la mise en place d’une démarche très similaire à celle de l’usine 4.0.

 

2/ L’énergie concerne tout le monde

Certes plus ou moins directement… mais essayez de trouver UN métier de votre usine dont les KPI peuvent s’affranchir de l’énergie ! Pourtant, la priorité est généralement (et légitimement) donnée à la fabrication du produit fini, et non aux économies d’énergie. Ainsi les équipes vont-elles demander des machines plus puissantes, des marges de sécurité confortables, des points de fonctionnement calés sur la demande de pointes, etc.  Il est donc évident qu’une démarche d’efficacité énergétique concerne chaque collaborateur. Un beau galop d’essai vers l’usine du futur !

 

3/ L’énergie est transversale

Autrement dit : les choix énergétiques des uns ont des répercussions sur les autres. Exemple chez un équipementier automobile : la production demande de la vapeur disponible 100 % du temps, à la hauteur de ses besoins ponctuels élevés. L’exploitant des utilités doit donc investir dans des équipements adéquats pour éviter les pénalités (puissance, redondance…). Et la maintenance nécessaire pour assurer le bon fonctionnement des chaudières (et donc la fourniture de vapeur), doit se faire sans impacter la production. Pourtant il est souvent possible d’organiser la production avec un peu plus de souplesse, et avec d’importantes économies à la clé. Réduire les consommations globales d’énergie d’une usine et d’un atelier exige cependant une véritable communication et des synergies entre les métiers. Ajoutons que très souvent, les bonnes pratiques identifiées sur un site peuvent être reproduites sur un autre.

 

4/ Financièrement, il y peu à perdre et beaucoup à gagner

Changer un process ou une machine « core business » présente des risques importants (notamment en termes de qualité) et impose généralement un investissement significatif. En revanche, une grande part des gisements énergétiques d’une usine peuvent être adressés sans CAPEX ou presque. De plus, les évolutions s’effectuant de manière itératives (recommandations de réglages assortis de mesure des résultats), les risques sur le process sont nuls si l’équipe Qualité est associée à la démarche.

 

5/ Efficacité énergétique et excellence opérationnelle sont les deux faces d’une même pièce

Plus précisément, elles font appel :

  • à des infrastructures SI et réseau similaires ou communes : connexion de l’usine, capteurs, automates, data lake, etc.
  • souvent aux mêmes informations/data,
  • au même mindset des équipes et des dirigeants,
  • aux même besoins de communication avec les collaborateurs,
  • au même type d’outils numériques : collecte, historisation, supervision, dataviz, analyse, pilotage…
  • aux mêmes démarches projets,
  • à la même résistance au changement

Ainsi, en lançant un projet d’efficacité énergétique industrielle, vous posez sereinement les bases du succès de votre future usine 4.0.

 

Et s’il ne fallait pas (toujours) répartir la charge entre vos équipements ?

De nombreuses raisons peuvent pousser à répartir uniformément une charge entre plusieurs équipements similaires : usure équilibrée, contraintes de maintenance, sécurisation du process, éléments contractuels, habitudes… et souvent l’impression de faire des économies car « on tourne moins vite ». Las. Les synergies attendues pourraient bien s’avérer négatives.

 

Une histoire de rendement

Premier responsable : le rendement non linéaire de la plupart des équipements. On confond trop facilement la consommation énergétique absolue d’un matériel, qui varie globalement avec la charge et la durée d’utilisation, et sa consommation relative ou rendement : la quantité d’énergie nécessaire par unité traitée. Si nous prenons l’exemple des compresseurs, leur rendement, exprimé en kWh/m3, dépend notamment de 3 critères : la technologie (électro-compression ou turbine à gaz), le taux de compression demandé (Pression finale/Pression initiale), et le débit injecté en entrée. La courbe de rendement obtenue est sans équivoque : pour un taux donné, seule une certaine plage de débit offre un rendement élevé. On comprend ainsi qu’il vaut mieux utiliser un seul compresseur dans sa plage d’usage idéale que deux ou plus, dans une zone peu efficiente.

À noter : La courbe de l’électrocompresseur est inférieure : meilleur rendement énergétique.

 

Quand les indicateurs énergétiques et économiques divergent…

Mais les choses se corsent dès que l’on passe des kWh aux euros. La courbe de rendement technique peut s’avérer insuffisante, et même se voir contredite par le rendement économique, exprimé en €/unité produite. C’est ainsi le cas lorsqu’une technologie l’emporte clairement sur l’autre du fait du prix de l’énergie : à puissance égale, un compresseur à gaz est toujours moins cher à utiliser. D’autres critères peuvent interférer, de manière différente selon les équipements : plafonds ou planchers d’abonnement, pertes au démarrage, durée d’utilisation minimale, contraintes de maintenance, participation à un programme d’effacement… Selon leurs courbes de rendement, et leur énergie de fonctionnement, il est possible de dessiner les courbes de rendement économique de tous les équipements en parallèle : compresseurs, chaudières, groupes froids, pompes… pour pouvoir arbitrer et construire les cascades d’allumage optimales en énergie ».

La courbe de la turbine à gaz est inférieure : meilleur rendement économique sur toute la plage.

 

Une petite étude pour une grosse réduction initiale

Concrètement (et idéalement) les courbes de rendement peuvent être construites à partir des données historiques de fonctionnement. Une étude sur les demandes de charges les plus fréquentes permet alors de construire les stratégies de démarrage des matériels, et de dégager immédiatement des économies très significatives. Les gains sont très variables, pouvant aller jusqu’à des pourcentages de réduction à deux chiffres, et un ROI très rapide. On peut ainsi adapter les cascades de démarrage en temps réel et préconiser des consignes de conduite précises pour chacun des équipements ! ».

 

Vers l’optimisation continue avec le numérique

En effet, l’apport d’une plateforme numérique permet de :

  • Créer les indicateurs de rendement technique grâce aux historiques de data.
  • Construire les indicateurs économiques qui en découlent.
  • Superposer visuellement les courbes pour repérer facilement les cascades de démarrage à appliquer.
  • Comparer les résultats obtenus et en tirer les bonnes pratiques selon les cas d’usages.

 

Et si vous n’avez pas d’outil pour le moment, commencez déjà par allumer vos équipements les uns après les autres, en visant systématiquement un usage à la puissance nominale.