Quels sont les meilleurs outils à la disposition des industriels pour valoriser leurs données ?

Dans l’industrie, différents outils de mesure et de contrôle commande coexistent pour traiter les données. Ces technologies ont évolué pour se spécialiser en 4 familles : superviseur, historiseur, dataviz et data analytics. Lesquels choisir et installer ? Pour quels usages ? Avec quels bénéfices ? Sont-ils complémentaires ? Vertuoz Industri.e vous explique.

4 technologies utiles pour la performance énergétique de votre usine

Pour faire des économies d’énergie sans investissement, il est essentiel de disposer des bons outils de collecte, de traitement et d’analyse de données. Ces technologies sont déjà présentes ou à portée de main ! Vertuoz Industri.e vous en donne la liste.

4 technologies pour la performance énergétique de votre usine - Quels sont les meilleurs outils à la disposition des industriels pour valoriser leurs données ?
Quels sont les meilleurs outils à la disposition des industriels pour valoriser leurs données ?

 

Utilisez un Superviseur pour piloter votre installation

1/ Le superviseur est un système d’acquisition des données, un dispositif de télérelève en temps réel, qui va fournir une image de l’usine, son « état de santé », à l’instant présent. Grâce à cette image, les techniciens pourront contrôler le bon fonctionnement opérationnel des process et conduire l’installation.

 

Complétez avec un Historiseur

2/ L’historiseur permet de stocker de très grandes quantités de données non traitées de l’usine, enregistrées à l’heure, la minute, la seconde, voire à la milliseconde… durant des années ! Il va ainsi constituer le « carnet de santé » de l’usine.

 

Appuyez-vous sur la visualisation des données puis sur leur analyse pour améliorer le fonctionnement de votre installation

3/ La visualisation de données ou Dataviz « fait parler » les données, à l’aide de représentations graphiques, en deux – voire trois – dimensions. Car si une image vaut 1 000 mots, une représentation graphique vaut bien 100 000 données ! La dataviz s’appuie sur les moyens informatiques modernes afin de mettre en forme les données complexes de manière simple, didactique et pédagogique. Pour les Energy Managers, et d’autres métiers opérationnels, c’est une véritable aide à la compréhension et un guide précieux à la décision.

4/ L’analyse de données ou Data Analytics est une approche qui vise à améliorer la compréhension de l’installation. Elle s’appuie sur des outils statistiques et de recherche opérationnelle dont l’application est permise par l’informatique et le Big Data. Les exploitants et les Energy Managers peuvent, avec cet outil, identifier les variables ou paramètres influents et prendre des décisions de pilotage éclairées.

 

 Ces outils peuvent fonctionner isolément dans les usines. Néanmoins, certaines plateformes de pilotage et d’optimisation énergétique, comme la solution Vertuoz Industri.e, présentent les rôles complémentaires de visualisation et d’analyse des données, permettant d’améliorer la performance des usines. L’historiseur, de son côté, peut servir de socle à ces deux fonctions. Il joue un rôle d’accélérateur des projets d’amélioration continue parce qu’il met à la disposition des briques data visualisation et data analytics un stock de données, mais ce n’est pas un prérequis. Une plateforme peut fonctionner sans historiseur, à condition de la connecter suffisamment en amont pour recueillir les données nécessaires. Certaines comme Vertuoz Industri.e comportent même une fonction d’historisation. En cumulant différentes briques dans une même plateforme, les outils s’enrichissent les uns les autres. Sur un incinérateur, un industriel nous a confié qu’il obtenait en une heure les mêmes résultats d’analyse qu’en une semaine avec un tableur, grâce aux outils de visualisation graphique de Vertuoz Industri.e»

 

Wiki Industri.e : des gisements d’économie dans le talon

Maintien des chambres froides à température, du chauffage hors gel, ou de l’air comprimé sous pression : les usines continuent de consommer, alors même que la production est à l’arrêt. Même discret, ce que l’on appelle le « talon de consommation » peut devenir au final coûteux pour un site industriel. D’où l’intérêt de trouver des actions pour réduire ce talon. Lesquelles ? Tour d’horizon.

 

1.  Le talon de consommation, c’est quoi ?

Classiquement dans l’industrie, le talon de consommation est défini comme « la consommation d’énergie d’un atelier hors production ». On songe évidemment aux périodes correspondant à la nuit, aux week-ends, aux ponts, aux congés annuels, à la maintenance…, aux durées plus ou moins longues. Le talon de consommation varie également selon la saison. Logiquement, le talon correspondant par exemple à la période de Noël sera plus consommateur que le talon d’arrêt d’été, car le chauffage continuera de fonctionner pour maintenir les bâtiments et les installations hors gel.

 

2.  Quelles actions mettre en place pour s’améliorer ?

Avant de mettre en place des actions, encore faut-il estimer la consommation d’énergie minimale lors des arrêts. Ce talon de référence sera par exemple mesuré lors des arrêts entre Noël et le Jour de l’An (pour le talon de référence d’hiver), et lors d’un pont en mai (pour le talon d’été). Durant ces deux périodes, un effort particulier est toujours réalisé par les équipes maintenance, pour arrêter tous les équipements consommateurs d’énergie qui doivent l’être. Les autres équipements fonctionneront à un niveau minimal établi en amont. À l’aide de ces données, le manager pourra encourager ses équipes à atteindre le talon de référence, aidé par une interface de supervision, qui lui permet de suivre les résultats des ateliers les plus éloignés du talon de référence pour les améliorer (ou à l’inverse ceux qui sont les plus proches pour les valoriser). Il peut ainsi prioriser les contrôles et repérer les équipements en défaut : autant d’éléments factuels pour animer la démarche de progrès auprès des équipes, pour que la consommation lors de l’arrêt suivant soit plus conforme au talon de référence. L’action mise en place pour réduire le talon peut également passer par la régulation des équipements (pilotage du chauffage par exemple).

 

3. L’autre talon

En plus des situations d’arrêts de production, un talon de consommations fixes existe aussi dans l’usine en activité. Il résulte d’une somme de consommations de natures différentes. Il peut correspondre à un mode de fonctionnement d’un atelier où les machines sont toutes en marche simultanément, même si ce n’est pas nécessaire. Ce peut être également dû à diverses « pertes » latentes, comme des fuites, des défauts thermiques ou des manques d’étanchéité lorsque les équipements sont en pression. Ce « talon de fonctionnement » est intéressant à réduire, car il correspond à une consommation d’énergie continue, pas uniquement durant les arrêts d’activité de l’usine, somme toute limités. Pour le diminuer, il convient d’abord de mesurer la consommation de l’atelier fonctionnant à vide, par machine et par type d’énergie. Vient ensuite l’analyse de ces consommations, pour différencier celles qui sont normales de celles qui correspondent à des pertes inutiles.

Des données en quantité, c’est bien. Des données de qualité, c’est mieux.

A l’ère de l’industrie 4.0, les industriels savent qu’ils peuvent compter sur les technologies Big Data ou d’Intelligence Artificielle, pour améliorer l’efficacité énergétique de leurs usines. Néanmoins, ils n’ont pas toujours conscience que, pour obtenir de bons résultats en matière d’énergie, la qualité des données disponibles prime sur leur quantité. Explications.

 

Quelles données utiliser ? Sont-elles disponibles ?

Paramètres et données de fonctionnement des machines et des utilités, programmes de production, données météo… : les données utilisées ou générées par l’activité industrielle sont multiples. Mais est-ce qu’elles sont adaptées à la démarche d’amélioration de la performance énergétique ? De manière très concrète, est-ce que la consommation d’énergie de chacun des périmètres à optimiser est mesurée correctement ? Est-ce que les facteurs qui impactent la consommation sont connus avec la précision nécessaire ? «Vu de loin, tout va bien » affirme Dominique Martin, responsable du pôle Data Vertuoz.

« Le client dispose de dizaines de compteurs et de dizaines de milliers de données. C’est quand l’information que doit délivrer le futur Système d’Information Énergétique est définie de manière précise qu’on se rend compte parfois que les données disponibles ne sont pas les bonnes. L’approche Big Data pour l’énergie est en effet nouvelle et peut demander des données spécifiques. Le projet est alors bloqué jusqu’à ce que ces données soient mises à disposition. Lorsque ce n’est pas possible, le cas métier doit être redéfini ou même abandonné. »

 

Mettre à niveau ses données pour permettre l’analyse et l’optimisation énergétique industrielle

« Il convient d’identifier les données qui correspondent directement au projet d’efficacité énergétique » poursuit Dominique Martin. Ainsi, pour chaque enjeu énergétique important, on définit l’information que le Système d’Information Énergétique mettra à disposition des opérateurs pour améliorer l’efficacité énergétique, et on identifie les données qui permettront de générer cette information : par exemple, pour maîtriser la consommation pendant l’arrêt des installations (le talon de consommation), il faut connaître le statut ‘marche’ ou ‘arrêt’ des principaux consommateurs et la consommation énergétique des différentes zones d’atelier. Si ces données sont incomplètes, non fiables ou inexistantes, il faut corriger ces données, ou, si ce n’est pas possible, redéfinir le projet d’amélioration énergétique.

Et ce n’est pas tout. Lorsque la donnée est fiable, remonte-elle à la bonne fréquence ? Par exemple, beaucoup de compteurs fonctionnent en mode « impulsion ». Il faut alors contrôler la fréquence d’échantillonnage : au moins 2 fois plus de mesures que la durée du phénomène. Ainsi, si on suit une variation horaire, la mesure doit être réalisée toutes les 30 minutes.

 

La méthode pour améliorer la qualité des données « pas à pas »

La réussite d’un projet d’optimisation énergétique dépend donc beaucoup de la qualité des données. Voici une méthodologie précise pour assurer cette étape :

  1. Inventorier toutes les sources de données existantes dans l’usine.
  2. Récupérer les données vraiment utiles au cas métier étudié.
  3. Qualifier ces données avec :
    • une localisation précise,
    • un nom et une description explicites,
    • une maille de temps (ou fréquence d’échantillonnage) adéquate, en phase avec la réalité de l’usine,
    • une unité de mesure définie (kWh/m3 d’air soufflé par exemple).
  4. Vérifier le bon étalonnage des capteurs.

 

La nécessité d’une gouvernance des données

« Souvent, nous sommes confrontés à la difficulté de bien qualifier les données. Les industriels, parce qu’ils se concentrent sur leur cœur de métier, confient l’acquisition des données à des prestataires. Ils perdent donc la connaissance de leurs data, qu’ils n’ont peut-être pas non plus pris le temps de codifier et de documenter. Parfois aussi, les données qu’ils pensaient avoir ne sont pas les bonnes. » La solution ? Mettre en place une gouvernance des données, pour s’assurer de leur intégrité, pilotée par un nouvel acteur, dont le métier, qu’il reste à inventer, sera de garantir la qualité et la bonne exploitation des trésors de données dont les usines regorgent. « Aujourd’hui, on parle du secret de fabrication dans l’industrie. Demain, ce sera le secret des données. » conclut Dominique Martin.

 

RSE : Greenwashing ou véritable levier de performance industrielle ?

La Responsabilité Sociétale des Entreprises (RSE) est née à l’initiative d’organismes écologiques et humanitaires, qui voulaient pousser les entreprises à prendre conscience des enjeux environnementaux et sociaux de leurs activités, mais aussi qu’elles s’engagent dans une démarche de développement durable. Si certaines entités ont utilisé la RSE comme outil marketing qui a conduit à une communication de type greenwashing, la situation a bien évolué. Les entreprises ont compris que la RSE pouvait se positionner au cœur de leur stratégie et de leurs performances.

 

C’est quoi une démarche RSE ?

Selon l’Union européenne, la Responsabilité Sociétale des Entreprises est « l’intégration dans l’entreprise des préoccupations sociales, environnementales, et économiques dans leurs activités et dans leurs interactions avec leurs parties prenantes sur une base volontaire ». Elle est encadrée par la norme ISO 26000, fondée autour de sept questions centrales : la gouvernance de l’entreprise, les droits de l’homme, les conditions et relations de travail, la responsabilité environnementale, la loyauté des pratiques des affaires, les questions relatives au consommateur, les communautés et le développement local. Concrètement, la RSE varie selon les activités de l’entreprise, même si elle concerne toujours l’environnement, le social et les questions sociétales. Elle peut se traduire par la sensibilisation et la formation des collaborateurs au développement durable, la production de produits responsables et innovants, l’utilisation de matières premières écologiques et locales, ou encore le recyclage des déchets et la réduction de la consommation d’énergie.

 

95 % des entreprises estiment la RSE comme incontournable

Une étude récente(1) a montré que la RSE est désormais incontournable pour les entreprises : 95 % d’entre elles estiment que les enjeux de RSE vont s’accentuer à l’avenir. Preuve de l’intérêt des entreprises pour cette démarche, 70 % la rattachent à la Direction générale et même 77 % à la stratégie globale de l’entreprise. Pourtant, certaines entreprises manquent de visibilité sur la création de valeur engendrée, et d’autres sont freinées par l’immense travail de récolte de données issues de multiples systèmes d’information… Un vrai parcours du combattant pour les responsables RSE !

 

De la préoccupation sociale à la performance de l’entreprise

Et pourtant : des actions de RSE à la performance industrielle, il n’y a qu’un pas, d’autant plus qu’il est possible de commencer sans CAPEX. Quelques exemples suffisent pour bien s’en rendre compte. Une entreprise attentive à l’environnement réduit ses consommations d’eau et d’énergie, avec un bénéfice immédiat. Ses coûts de production d’utilités et ses émissions de CO2 diminuent. L’entreprise qui s’appuie sur un système de management de l’énergie pour la mesure et le suivi, réalise des économies substantielles. Même résultat en sensibilisant et en formant ses équipes au développement durable et à l’efficacité énergétique. Une entreprise préoccupée par la sécurité de ses collaborateurs et par la qualité de vie au travail, voit la productivité et la fidélité de ses salariés monter en flèche, ainsi que le taux d’accident et l’absentéisme diminuer. Ajoutons que, de plus en plus, les jeunes recrues talentueuses en quête de sens y sont de plus en plus sensibles. Sur le plan qualitatif, il apparaît donc évident qu’une stratégie RSE est bénéfique… mais dans quelle mesure ?

 

Des tableaux de bord pour encadrer la démarche RSE

Pour apprécier pleinement les bénéfices apportés par une stratégie RSE, il convient donc de mettre en place des indicateurs de performance qui mesurent les résultats tangibles et les progrès concrets des actions de RSE engagées. Le reporting des indicateurs permet l’évaluation de la RSE de manière quantitative : données énergétiques et environnementales (consommation des fluides, émission de gaz à effet de serre, rejets…), qualité de vie au travail (taux de renouvellement du personnel, taux d’absentéisme, accident du travail…), impacts économiques (partenariats, innovations…), etc. En connectant les usines, avec un système d’information d’entreprise, une historisation et une remontée automatisée des données est possible. Le tableau de bord est alors alimenté par les données terrain, permettant d’avoir une vision claire des actions de l’entreprise reliées à ses performances. Il guide la Direction dans sa stratégie d’entreprise et contribue à la communication dans le sens du dialogue social et du développement durable. Il encourage les collaborateurs à se mobiliser, à poursuivre leurs efforts et à proposer des innovations qui participent à la performance globale de l’entreprise.

 

À condition de la piloter comme un véritable projet d’entreprise, la RSE peut donc être une source significative de performance industrielle et énergétique. Pourquoi s’en priver ?

 

(1) Les nouvelles frontières de la responsabilité sociétale en entreprise : un modèle au service de la performance ? – 2016. Sondage auprès de 192 entreprises.

Analyse des données énergétiques : n’oubliez pas votre sens critique !

L’essor du Big Data et de l’Intelligence Artificielle laisse à penser que l’analyse des données repose entre les mains des algorithmes. Pourtant, ils ne suffisent pas pour obtenir une analyse efficace des données énergétiques dans l’industrie.

L’intelligence et le sens critique humain restent indispensables. Pour que les analyses débouchent sur une amélioration des performances énergétiques dans les usines, il faut notamment conserver la main sur l’agrégation, le traitement et la qualité des données, en lien avec la réalité opérationnelle et les objectifs recherchés. Mais en agissant avec méthode ! Une méthode livrée ici pas à pas.

 

Commencer par une phase de dialogue 

L’analyse des données énergétiques démarre toujours par une phase de dialogue et d’échanges avec les opérationnels à l’usine. C’est une étape indispensable qui permet de déterminer les enjeux du client, ses problématiques, ses attentes, ses contraintes et ses possibilités d’actions au quotidien.

 

Repérer les stratégies de conduite opérationnelle 

« Notre esprit critique permet également de challenger les pratiques à l’usine, même si elles semblent être efficaces sur le terrain », suggère Zoheir Hadid, ingénieur efficacité énergétique.

Prenons l’exemple d’un client qui avait pour objectif d’optimiser les performances de sa production de froid. L’analyse graphique de l’engagement de puissance des machines indiquait deux fonctionnements différents pour une même production de froid : soit deux groupes froids fournissant chacun 3 mégawatts, soit trois groupes froids produisant chacun 2 mégawatts. « Il existe toujours une méthode plus favorable économiquement que l’autre, affirme Zoheir Hadid. Notre expérience nous permet de dire qu’en général, le rendement des machines frigorifiques est meilleur lorsqu’elles fonctionnent à forte charge. Elles consomment moins d’électricité ». Une nouvelle analyse graphique permettra de vérifier cette hypothèse et de définir la meilleure stratégie de conduite. 

 

Etudier le contexte et comprendre les objectifs métiers avant de se plonger dans l’analyse 

Poursuivons par la définition d’un algorithme : une suite d’opérations permettant de résoudre un problème et d’obtenir un résultat. Si le problème est mal posé… le résultat sera faux ! Notre sens critique doit donc permettre de définir clairement en amont le contexte de l’analyse. Cela, en respectant une logique en quatre étapes essentielles : 

  1. Le choix de l’indicateur de performance – L’indicateur le plus adapté au projet d’optimisation n’est pas forcément celui auquel on pense spontanément. « Logiquement dans le cadre du projet mentionné plus haut, nous avions choisi de suivre le Coefficient d’efficacité frigorifique COP(1), note Zoheir Hadid. À la lumière des premiers résultats, nous aurions pu suggérer à notre client d’arrêter les groupes froids dont les COP étaient les plus bas. Mais cela aurait été sans prendre en compte que ces équipements, responsables des mauvaises performances frigorifiques, produisaient également de l’eau mitigée à 45°C grâce à un système de récupération de chaleur. » Dans ces conditions, le COP n’avait pas de sens en tant qu’indicateur de performance. Les résultats ont été plus pertinents après avoir sélectionné un périmètre physique à optimiser intégrant l’eau glacée et l’eau mitigée, ainsi qu’un indicateur économique (en euros/heure) qui prend en compte les performances cumulées de l’eau glacée et de l’eau mitigée.
  2. Le choix de la période de l’étude – Le choix doit se porter sur une période d’analyse où le fonctionnement de l’usine est stable et, surtout, réaliste avec l’existant. Il ne doit par exemple pas concerner une période trop ancienne. « Reprenons le cas précédent, illustre Zoheir Hadid. Même si la période 2014-2015 paraissait intéressante, elle n’était pas adaptée à l’étude car le site a beaucoup évolué en 3 ans. De nouveaux groupes froids ont été installés et la régulation des équipements a été changée. »
  3. Le choix des filtres contextuels – Le contexte de l’analyse doit être défini selon des scénarios de fonctionnement stable, en fonction des gammes de puissances froides (3 à 4 mégawatts puis 4 à 5 MW, etc.), des températures extérieurs (0°C à 10°C, 10°C à 20°C, 20°C à 30°C), ou encore de l’utilisation par le client d’équipements d’appoint, comme des pompes à chaleur…
  4. Le choix des variables – Il convient aussi d’éliminer les données énergétiques qui n’ont pas de sens pour l’étude. « J’explique. Prenez un incinérateur. Pour optimiser les performances de combustion des déchets, rien ne sert de suivre les paramètres de traitement des fumées ou ceux de production d’électricité à partir de la chaleur. Il faut donc filtrer les résultats et se contenter de la zone de la combustion. C’est une question de bon sens. »

 

Privilégier son sens critique devant les variables influentes conseillées par l’algorithme 

Après avoir sélectionné l’indicateur de performance, la période de l’étude, les filtres et les variables les plus pertinents, « vous allez lancer l’algorithme, approuve Zoheir Hadid. Mais il faut là encore veiller à rester critique pour arbitrer la pertinence opérationnelle des variables d’influence conseillées par l’algorithme, qui lui, n’est jamais allé sur le terrain. »

Il faut savoir faire le tri entre les variables subies, qui génèrent différents scénarios d’exploitations (conditions météorologiques, appels de puissance…), les variables de conséquence, sur lesquelles il n’y a pas d’action directe (la température du four selon différents apports d’air que l’on règle, par exemple), et les variables de réglages. Ce sont celles qui nous intéressent vraiment car elles sont modifiables. Il faut ensuite s’assurer que la variable de réglage soit fiable, qu’elle ne soit pas un artéfact ou/et qu’elle ne corresponde pas à une perte des données, à une erreur ou à un dysfonctionnement.

 

« Si l’on suit ces étapes, nous sommes ainsi assurés de la qualité de l’analyse et à l’abri de toute erreur d’interprétation, conclut Zoheir Hadid. C’est bien à ce niveau que l’intelligence humaine fait toute la différence ! »

 

 

(1) Quantité de froid produite par rapport à l’électricité consommée

Pour booster l’efficacité énergétique, et si on veillait aussi sur l’efficacité hydrique ?

L’eau et l’énergie sont des utilités intimement liées dans une usine. La preuve ? Avec une eau de mauvaise qualité, un osmoseur, un échangeur de chaleur, ou une tour aéroréfrigérante voient leur efficacité énergétique chuter : une bonne raison pour veiller attentivement sur « l’efficacité hydrique » dans l’industrie. Une vision défendue par Stéphane Gilbert, Président du Directoire d’Aquassay, entreprise spécialisée dans l’efficacité de l’usage de l’eau.

 

L’efficacité énergétique, tout le monde connaît. Mais qu’est-ce que l’efficacité hydrique ?

Stéphane Gilbert En effet, l’efficacité hydrique est encore peu connue. C’est un concept très récent, du début des années 2010, né d’une conviction forte : celle que l’eau est un bien précieux, altérable, épuisable et coûteux. Concrètement, l’efficacité hydrique est une démarche globale d’optimisation de la gestion de l’eau dans l’industrie, tant sur la qualité que sur la quantité. L’objectif de l’efficacité hydrique est de moins consommer d’eau, de mieux produire et de moins rejeter de polluants. Nous nous appuyons sur les sciences et les techniques du numérique pour faire de l’efficacité hydrique « data driven » et ainsi agir sur les usages du cycle de l’eau.

 

Quels sont les liens entre eau et énergie dans l’industrie ?

SG J’ai l’habitude de dire que l’efficacité hydrique et l’efficacité énergétique dans l’industrie représentent les deux faces d’une même pièce de monnaie. La raison est d’abord de nature physico-chimique : l’eau a la formidable capacité d’emmagasiner l’énergie. En clair, elle joue le rôle de vecteur thermique, permettant à la fois de chauffer ou de refroidir. L’eau est donc au cœur des procédés industriels, pour produire par exemple de l’électricité ou de la vapeur.

On comprend bien dès lors que la qualité de l’eau influe sur la qualité de cette production. Imaginez : prenez de l’eau trop calcaire dans un échangeur de chaleur. Dans l’eau chaude, le calcaire précipite et une couche de tartre se forme sur les parois… qui va se comporter comme un isolant. Non seulement l’échangeur peut perdre 40 % en performance énergétique, mais en plus l’industriel devra supporter des frais de maintenance pour se débarrasser du tartre. Ces dépenses vont pourtant être comptabilisées comme des coûts liés à l’énergie. Or l’eau de mauvaise qualité est la seule responsable de ces médiocres performances.

Récemment, nous avons réalisé un audit pour identifier les coûts de l’eau dans une usine et nous avons constaté que les frais imputables à l’eau étaient largement sous-estimés. Ils sont jusqu’à 10 fois supérieurs aux coûts visibles de l’eau, c’est-à-dire ceux de l’approvisionnement cumulés à ceux du traitement des rejets.

 

Comment une solution numérique reliant eau et énergie apporte-t-elle des bénéfices ?

SG Il est indispensable de considérer l’usine comme un système intégré, qui consomme de l’énergie, de l’eau, de l’air, qui fabrique des produits manufacturés, qui crée et rejette des déchets. Les avancées des sciences et les techniques du numérique permettent désormais de recueillir, trier et analyser ensemble tous types de data, provenant de plateformes digitales variées, dans une banque de données unique.

C’est, pour l’industriel, la possibilité d’étudier conjointement tous les éléments qui interagissent dans son usine, pour mieux en comprendre la complexité et pour apporter une vraie valeur ajoutée. Cette nouvelle vision holistique permet d’optimiser les productions alors même que tout semble bien fonctionner.

Un exemple : en surveillant à la fois le cycle de l’eau et la chaudière vapeur d’une laiterie, nous avons constaté un retour d’eau froide dans les condensats. Le client n’en soupçonnait même pas l’existence ! En interdisant ce retour d’eau froide, il a gagné l’équivalent de 10 000 euros par an en énergie. La preuve qu’en surveillant ensemble la gestion de l’eau et de l’énergie, les solutions sont pertinentes et les bénéfices très rapides.

 

L’idée est donc de surveiller le système industriel dans sa globalité. Uniquement ?

SG – Non, pas seulement. L’usine doit être supervisée en tant que système intégré, comme nous venons de le montrer. Mais pas seulement. Elle doit aussi être suivie en dynamique, car la qualité de l’eau varie en permanence. L’inertie thermique de l’eau et l’inertie liée à sa masse doivent également être considérées. En conséquence, l’influence de l’eau sur la performance énergétique et industrielle doit être étudiée à la fois en temps réel et dans le temps.

Cela permet aux techniciens d’adapter les process et de détecter les incidents précocement grâce aux calculs prédictifs issus de l’historisation des données. Les industriels peuvent ainsi optimiser leur production, mais aussi économiser l’énergie et l’eau. Car contrairement à ce que l’on croit parfois, l’eau n’est ni gratuite, ni inaltérable, ni inépuisable. La surveillance de la gestion de l’eau est même pour nous une question citoyenne qu’il ne faut pas occulter !

 

Aquassay en bref

2015 – la création en juillet

21 collaborateurs

22 sites équipés dans 5 pays : Algérie, Bulgarie, Égypte, France, Suisse

Quelques conseils pratiques pour un renouvellement d’air plus efficace

Vous le savez : les enjeux d’un renouvellement d’air efficace sont centraux dans les ateliers. Mais savez-vous quelles sont les pratiques à respecter pour optimiser la qualité de l’air tout en limitant les consommations d’énergie ?

 

L’optimisation de la qualité de l’air dans un atelier industriel commence toujours par un état des lieux complet des problématiques, des systèmes et des process dans les locaux : poser les bonnes questions, recenser les équipements thermiques et aérauliques, réaliser un diagramme de l’air humide, séparer les fonctions de chauffage et de ventilation… « Cet état des lieux permet de mieux comprendre les conditions de votre atelier et de trouver les solutions adaptées à vos contraintes, affirme Bruno Gilles, Directeur du Marché Industrie. Mais ce n’est pas encore suffisant. Quelques ajustements dans les modes de traitement des polluants et un suivi des performances dans la durée vont vous permettre d’optimiser à coup sûr le renouvellement d’air dans votre atelier. Soyez-en persuadés ! »

 

1. Evacuation des polluants à la source

En évacuant les polluants à l’endroit même où ils sont émis, les volumes de l’atelier à traiter diminuent comme peau de chagrin. « En s’équipant d’extracteurs spécifiques, de hottes aspirantes ou de cabines de confinement au niveau des machines ou des lignes de production, les retours sur investissement sont courts, affirme Bruno Gilles. Entre 1 et 3 ans. C’est une solution très avantageuse. »

 

2. Un renouvellement d’air par déplacement, plutôt que par mélange

Les ateliers sont généralement traités en mélangeant tout le volume d’air du bâtiment. Pour que la qualité de l’air soit meilleure autour des personnes, il convient de traiter les polluants de l’air… là où ils sont et de les rejeter par le plafond du bâtiment. Ce renouvellement d’air « par déplacement » permet d’introduire 3 fois moins de volume d’air conditionné pour la même qualité d’air et les consommations d’énergie sont diminuées de moitié, globalement avec les pertes statiques !

 

3. Optimisation du taux d’air neuf

Les besoins en air propre ne sont pas les mêmes selon l’occupation de l’atelier, l’activité ou les zones. « Il n’est pas nécessaire de ventiler partout avec le même débit d’air. Chaque zone autonome de l’atelier pourra être traitée en fonction de ses concentrations de polluants, plus importantes près des machines en marche que dans les stocks par exemple. ». Avec des traceurs de présence en plus, le débit d’air s’adapte à chaque taux d’occupation.

 

4. Préchauffage de l’air extérieur introduit

Les économies d’énergie sont particulièrement importantes lorsque l’air neuf est préchauffé par l’énergie récupérée sur l’air extrait de l’atelier ou par un échangeur de chaleur avant de pénétrer dans l’atelier : entre 50 et 70 % !

 

5. Proposition d’une régulation par zone

Pour économiser l’énergie, il faut accepter de ne pas se focaliser sur des points de consigne précis, comme l’explique Bruno Gilles : « La régulation portant sur une fenêtre de consignes (par exemple entre 17°C et 19°C et entre 55 et 65 % d’humidité) nécessite beaucoup moins d’énergie qu’une régulation définie sur un point précis (18°C avec 60 % d’humidité). »  Les gains de 30 à 50 % d’énergie sont ainsi possibles, pour ce type de régulation.

 

6. Un contrôle-commande performant

À l’intersaison, les performances des centrales de traitement d’air diminuent, car elles exigent des régulations plus fines. « Lorsque la température extérieure est de 16°, alors que l’on veut 18°C dans l’atelier, la centrale se met en marche, décrit Bruno Gilles. Alors qu’un système de contrôle-commande performant analysera la situation et prendra en compte la chaleur produite par les process de fabrication, pour ne pas déclencher inutilement la centrale. »

 

7. Réalisation de bilans des modes de diffusion d’air

Après avoir suivi les précédentes étapes pour optimiser le renouvellement d’air dans l’atelier, il est temps de réaliser le bilan des modes de diffusion d’air. A-t-on bien séparé les fonctions chauffage et ventilation ? Le renouvellement s’effectue-t-il bien par déplacement d’air et en fonction des besoins réels ? Les mouvements, le brassage et les vitesses d’air sont-ils optimisés ?… Ce bilan doit être effectué régulièrement.

 

8. Suivi, contrôle et mise en place d’une démarche partagée dans la durée

Reste à inscrire les performances du traitement d’air mis en place dans la durée. Il convient donc de suivre et contrôler les paramètres thermiques et aérauliques, en fonction des process de l’usine. L’analyse Big Data multi-variables sur un long historique permet justement d’accompagner ces résultats, d’apporter une vision globale du traitement d’air dans l’atelier et d’établir des corrélations entre les systèmes. Elle permet également d’affiner les réglages pour maintenir les performances en matière de rendement et de coûts. « L’outil Big Data permet en plus d’impliquer les collaborateurs de l’atelier et la direction sur les démarches d’économies d’énergie, conclut Bruno Gilles Sur les courbes d’analyse, ils peuvent visualiser les progrès sur la qualité de l’air et les économies d’énergie grâce à leurs actions : réaliser les bons réglages, fermer les fenêtres, ou encore mettre en marche une hotte aspirante. C’est, pour eux, un outil d’accompagnement valorisant et impliquant ! »

Donnez un nouvel air à votre atelier : l’état des lieux

Les enjeux d’un renouvellement d’air efficace sont centraux dans les ateliers. L’optimisation de la qualité de l’air permet de gagner en productivité, en coûts d’exploitation, sur les dépenses énergétiques, et en qualité de vie au travail. Mais comment faire ?

Apporter des bonnes conditions d’air dans un atelier est exigé par les réglementations sur la santé et l’hygiène, ou sur les taux de polluants admis… « C’est évidemment surtout une question de bien-être pour ceux qui travaillent au quotidien dans le bâtiment, souligne Thierry Beaussé, expert énergéticien dans l’industrie. Quand les collaborateurs se plaignent d’une atmosphère trop chaude, trop froide, trop humide, malodorante dans leur atelier, c’est souvent le reflet de leur mal-être. Avec une meilleure qualité d’air, ils se sentent mieux et la motivation s’en ressent. Je l’ai vérifié au fil de mes expériences en industrie. »

On comprend mieux dès lors l’intérêt de tout mettre en œuvre pour améliorer la qualité de l’air. « Mais plutôt qu’investir directement dans des centrales de renouvellement d’air coûteuses, une démarche séquencée, des bonnes pratiques et du bon sens s’avèrent bien plus efficaces » garantit Thierry Beaussé. Une démarche qui démarre par un état des lieux complet des problématiques et des équipements de l’atelier.

 

1. Se faire aider pour poser les bonnes questions… et formuler les bonnes problématiques

En matière de renouvellement d’air, les questions conditionnent les réponses techniques à apporter. Une évidence ? « Quand on est concentré sur la production, il est difficile de voir toutes les composantes de la situation et d’apporter des réponses innovantes, explique Thierry Beaussé. En revanche, un intervenant extérieur au site verra les conditions dans l’atelier avec un regard neuf, il posera des questions sous des angles différents, pour reformuler les problématiques de renouvellement d’air. »

 

2. Faire un état des lieux aéraulique et thermique

Avant de chercher des solutions, d’investir et d’agir, la bonne pratique consiste à faire un état des lieux de l’existant. « Qu’y a-t-il dans votre atelier ?, questionne Thierry Beaussé. Des générateurs d’air chaud aérothermes ou des panneaux radiants pour le chauffage ? Un extracteur d’air spécifique propre à une machine ou un extracteur global à tout l’atelier pour ventiler l’air ? Des systèmes mixtes comme des centrales de traitement ou des générateurs de ventilation tempérée make-up ?… ». Il s’agit également d’analyser et de recenser les polluants présents dans l’atelier, tout en prenant en compte la météo et les caractéristiques du bâtiment, c’est-à-dire son volume, sa hauteur, l’isolation, les fenêtres, les différentes zones (stockage, production…). « Et enfin, est-ce que vos différents équipements sont suffisamment instrumentés pour permettre un suivi efficace des paramètres de régulation (poids d’eau, températures, pressions…) ? »

 

3. Connaître le diagramme de l’air humide

La réalisation du « diagramme d’air humide » permet de visualiser graphiquement les caractéristiques de l’air dans l’atelier. Elle est nécessaire au dimensionnement de la centrale de traitement d’air. Sous-dimensionnée, la centrale ne sera pas performante pour traiter l’air. Sur-dimensionnée, elle utilisera trop d’énergie pour fonctionner, avec à la clé, des dépenses inutiles !

 

4. Séparer les fonctions chauffage et ventilation

Selon les équipements existants dans l’atelier, les solutions d’optimisation varient, car les fonctionnements diffèrent.

La centrale de traitement d’air, par exemple, aspire l’air neuf extérieur ou recycle l’air de l’atelier. Celui-ci passe à travers un filtre puis dans l’une des deux batteries : chaude (alimentée par de la vapeur d’eau) l’hiver, froide (alimentée par de l’eau glacée) l’été.

« Le make-up, en revanche, utilise uniquement l’air neuf extérieur, qui va passer dans un brûleur au gaz pour chauffer, illustre Thierry Beaussé. L’air est ensuite injecté dans l’atelier. Certains ateliers sont ainsi équipés de make-up uniquement, pour assurer à la fois chauffage et traitement d’air. C’est parfait quand l’usine est en fonctionnement : le rendement est proche de 100 %. Mais le week-end, s’il fait froid dehors, -5°C par exemple, le chauffage se met en hors gel, aspire l’air froid extérieur et doit utiliser beaucoup d’énergie pour souffler de l’air chaud dans l’atelier vide. Le rendement du traitement d’air tombe alors à 20 % environ, voire moins. C’est la raison pour laquelle je conseille non seulement d’être attentif au mode de fonctionnellement des centrales pour adapter le réglage mais aussi de séparer les fonctions chauffage et ventilation. »

 

Une fois cet état des lieux réalisé dans l’atelier, de nombreuses techniques pleines de bon sens vont optimiser encore l’efficacité du système de renouvellement de l’air tout en minimisant les dépenses d’énergie.

Wiki Industri.e : Data Lake ou comment le stockage en masse booste l’analyse des données énergétiques

À l’ère de l’Internet des Objets, du Big Data et du Cloud, l’agrégation et le stockage en masse à moindre coût des données de l’entreprise est possible et pertinent.

La création d’un espace de stockage de données brutes de type Data Lake correspond au besoin nouveau des entreprises d’organiser, centraliser, gérer, exploiter, analyser de grands volumes de données, tout en cassant les silos des systèmes d’information dans lesquels les données des entreprises sont traditionnellement rangées.

Pour mieux comprendre, James Dixon, spécialiste américain en Business Intelligence, comparait en 2011 le Data Lake à une « large étendue d’eau à l’état naturel, dans lequel on peut plonger pour en prélever des échantillons », par opposition au Data Mart (1), espace de stockage de données sélectionnées et structurées, « comptoir de bouteilles d’eau nettoyées, emballées et structurées pour en faciliter la consommation. » L’image est parlante mais le concept nécessite quelques explications supplémentaires.

 

1. Qu’est-ce qu’un Data Lake ?

2. Atouts

3. Limites et risques

4. Application à la performance énergétique industrielle

 

 

1. Qu’est-ce qu’un Data Lake ?

Considéré parfois comme la version nouvelle génération du Data Warehouse, le Data Lake désigne un espace qui permet de stocker des quantités importantes de données, quelles que soient leur nature et leur origine, sans limite de durée et sans schéma strict d’organisation des flux entrants.

Toutes les données brutes et toutes les données transformées d’une entreprise peuvent ainsi coexister au sein d’un même Data Lake.

Les bénéfices ? Plus de fluidité, d’agilité, d’interaction et de facilité dans le traitement, l’exploitation et l’analyse des données. C’est pourquoi le Data Lake est utilisé par de plus en plus d’entreprises, notamment pour la relève de données d’énergie (consommation électrique, puissance, état…).

 

2. Cinq atouts

1. Le Data Lake permet de collecter et stocker toutes les données brutes de l’entreprise en un lieu unique et en temps réel. Cette flexibilité constitue le premier avantage.

2. Ensuite, l’absence de structuration contrainte des données permet de conserver intact tout le potentiel des informations sources. L’utilisateur peut extraire des données natives pour les croiser entre elles afin de les exploiter et de satisfaire les besoins d’analyse présents et futurs.

3. Dans l’industrie, le Data Lake constitue une réelle avancée, car il permet de restituer en temps réel les données de tous les capteurs d’une usine dans une base unique. Les applications métier peuvent ainsi interagir rapidement avec le Data Lake.

4. La capacité de collecte massive de données du Data Lake combinée à de la puissance de calcul permettent d’associer les flux de données à leurs déclinaisons métier et aident à optimiser les process industriels.

5. On peut associer aussi les Data Lake à des démarches de machine learning qui visent à exploiter toutes les données d’entreprises pour constituer des modèles prédictifs.

 

3. Limites et risques

Le manque d’organisation et de hiérarchisation des données risque parfois de conduire au désordre, ce qu’on appelle aussi un « marécage de données », un Data Swamp. Le Data Lake nécessite donc des outils très techniques et des compétences spécifiques, pour bien définir les besoins et mieux maîtriser les données à exploiter.

Il est essentiel de fixer une stratégie, pour trier les données et ne pas collecter des grands volumes inutilement, et de sélectionner prioritairement les données à valeur ajoutée.

 

4. Application à la performance énergétique

Le Data Lake est particulièrement adapté aux besoins des décideurs impliqués dans la performance énergétique industrielle. En effet, les données nécessaires à la constitution des tableaux de bords émanent d’équipements à la fois divers (capteurs, automates, machines, relevés manuels…) et hétérogènes (unités différentes, suites temporelles à pas différents, ou même à pas variables…).

De plus, l’énergie étant un sujet transverse, les informations utiles à la création des ratios et KPIs sont issues d’outils métier (production, maintenance, énergie, qualité) et de systèmes (MES, ERP…) dont le formalisme doit être respecté. Enfin, la démarche de progrès inhérente à la performance énergétique (PDCA) considère par nature que les besoins d’informations futurs dépendent des observations actuelles : il est donc impératif de conserver au maximum les données brutes. C’est le choix fait par Vertuoz Industri.e dans ses outils.

 

(1) Constituant du Data Warehouse, ou Entrepôt de données.

Le digital dans la chaufferie, un bon investissement ?

Les chaufferies font elles aussi leur transition numérique. Les grosses installations sont presque systématiquement équipées d’une GTC (Gestion Technique Centralisée) qui permet de connaitre à tout instant l’état de fonctionnement technique de l’installation mais ne dit pas grand chose sur sa performance. Elles sont donc de plus en plus nombreuses à disposer aussi d’une solution digitale pour optimiser leurs performances énergétiques et mieux gérer la maintenance. Mais ces outils connectés représentent-ils réellement un bon investissement pour ces réseaux de chauffage ? Réponse par les ingénieurs efficacité énergétique de Vertuoz Industri.e.

Les centrales de production d’énergie (chaud, froid…) utilisent des outils numériques pour être plus performantes et cela fonctionne ! Prenez l’exemple du réseau de chaleur de Rillieux-la-Pape, près de Lyon, qui maximise la récupération de chaleur et exploite majoritairement des énergies renouvelables (plus de 90 % !) depuis qu’une solution numérique d’aide au pilotage a été installée. Ou celui de Plaine Commune Énergie, en Île-de-France, qui a gagné environ 10 % de performance sur le rendement d’une chaudière biomasse en seulement 3 mois ! « Ces exemples suffiraient déjà à démontrer les bénéfices apportés par la mise en œuvre d’un outil digital, s’enthousiasme Camille Boutinet. Mais en plus, un outil numérique dans une chaufferie apporte d’autres gains, beaucoup d’autres gains ! »

 

Libérer du temps à l’exploitant du site

Pour l’exploitant du site, par exemple, le quotidien est rythmé par de nombreuses charges qui viennent s’ajouter au cœur de métier technique. Les tâches transverses sont nombreuses : RH (plannings des équipes), administratives (suivi réglementaire…) ou commerciales (établissement des devis, ordre de commandes…), le temps est donc compté. Grâce à la standardisation des meilleures pratiques d’exploitation, au suivi temps réel des consommations d’énergie et à l’automatisation du reporting quotidien et mensuel des indicateurs de performance de la chaufferie, l’exploitant peut se concentrer sur le cœur de ses missions et gagner sur les coûts d’exploitation du site.

 

Réduire la durée des interventions

L’outil digital permet de désigner facilement les dysfonctionnements des équipements de production d’énergie, à condition qu’ils soient équipés des bons systèmes de mesure et de comptage. Sur leur écran, les équipes opérationnelles identifient aisément les anomalies, repérées par des alarmes visuelles déclenchées par plusieurs critères combinés. Ils savent immédiatement où inspecter, même si la panne n’a pas encore été détectée. Le temps gagné est ainsi très important : sur une centrale de traitement d’air par exemple, avant cet outil numérique, les équipes d’exploitation ne repéraient parfois le dysfonctionnement qu’après quelques jours et devaient contrôler jusqu’à cinq ou six équipements.

 

Choisir la bonne cascade d’allumage

Forts de leur expérience, les techniciens avaient déjà repéré les réglages apportant de meilleures performances ou encore quelle chaudière avait un meilleur rendement qu’une autre. « En revanche, personne ne savait jusqu’à présent quel était l’impact des réglages en bout de ligne, confie Antoine Roland. Avec l’outil numérique et sa puissance de calcul, les opérationnels peuvent désormais croiser les paramètres de performance entre eux et mesurer l’influence de chacun. Ils ont accès à des informations invisibles, enfouies, qui permettent de régler la cascade d’allumage des chaudières au mieux. » Concrètement, la mise à disposition des données historiques du site permet de révéler les meilleures pratiques passées et de les définir en tant que règles de conduite à suivre.

 

Décider les bons investissements en fonction d’éléments tangibles

Au moment de choisir un nouvel équipement, un variateur neuf par exemple, on peut se fonder sur sa performance théorique. Mais rien ne garantit que les résultats soient meilleurs à l’échelle du réseau. Sur la base des données de l’installation, l’outil digital désigne précisément l’élément qui freine les performances au global. «Constatant ainsi les résultats médiocres du réseau avec l’ancien matériel, le client n’hésitera pas à engager des travaux ou le remplacement des équipements incriminés. » souligne Meryl Alexandre.

 

Communiquer entre les acteurs du site

Exploitant de chaufferie, energy manager, directeur de site industriel, opérationnels… Tous les acteurs n’ont pas la même compréhension du sujet « énergie ».  L’outil numérique leur proposera des courbes et des analyses, pour communiquer efficacement entre eux. Mieux : le collaborateur en charge du suivi des consommations énergétiques, en général l’energy manager, pourra valoriser l’impact des bonnes pratiques des opérateurs, des réglages des machines ou de la maintenance sur les coûts d’exploitation et les économies d’énergie. « Le travail de l’energy manager s’en trouve renforcéIl démontre concrètement les bénéfices obtenus grâce à ses actions et la participation des équipes de terrain à ces effets. » Une bonne façon de relier la théorie à la pratique.

 

  |  En conclusion…

Un outil digital dans une chaufferie permet non seulement de faire des économies d’énergie, mais aussi de gagner du temps sur le planning d’exploitation, de diminuer la durée des réparations, d’optimiser le fonctionnement du réseau de chauffage, de changer les équipements à dessein et de valoriser le travail de chacun.