Les données produites par les systèmes d’automatisation peuvent révéler de nouvelles perspectives – mais seulement si elles sont accessibles efficacement. Silvia Gonzalez, employée d’Emerson, identifie les principales raisons de la production de silos de données par les systèmes automatisés et explique comment simplifier l’accès à ces précieuses informations grâce à une solution d’Internet industriel des objets (IIOT) « edge-to-cloud ».
Les systèmes automatisés génèrent des quantités prodigieuses de données qui peuvent être utilisées pour améliorer les résultats commerciaux. Il faut cependant pouvoir accéder à ces précieuses données, et les gérer et les analyser efficacement. Malheureusement, pour diverses raisons techniques et commerciales, elles restent souvent inaccessibles. Les nouvelles architectures sont en train de changer la donne en alliant l’Edge computing flexible et efficace à un modèle de cloud computing. Elles constituent une manière concrète et pratique d’analyser les données, d’en obtenir de nouvelles et de mettre les résultats à la disposition des parties prenantes. Dans cet article, nous nous intéressons aux principales raisons à l’origine des silos de données et à la manière d’accéder facilement à celles-ci pour les exploiter grâce à une solution moderne d’IIOT « edge-to-cloud ».
Les infrastructures existantes à l’origine des silos de données
Jusqu’à récemment, la majorité des données de production provenait d’API, d’IHM, d’un Scada et de systèmes Historian actifs dans le domaine des technologies opérationnelles (OT pour operations technology). Ces systèmes ont pour objectif principal d’offrir des caractéristiques de contrôle et de visibilité afin d’optimiser l’efficacité opérationnelle et la disponibilité. Par conséquent, l’accès aux données associées et leur analyse au-delà des objectifs de production immédiats constituent une préoccupation secondaire.
L’infrastructure OT est conçue et adaptée pour répondre aux besoins opérationnels et implique des choix liés par exemple à : la sélection de protocoles propriétaires de communication qui répondent aux exigences de performances, mais qui ne favorisent pas la flexibilité et qui ne prennent pas en charge l’interopérabilité entre les fournisseurs ; la réduction des contrôles et de la collecte des données des capteurs pour optimiser la fiabilité et la simplicité des systèmes ; la mise en place, sur le site, d’architectures localisées pour réduire les menaces informatiques et de programmes de verrouillage propriétaire, afin de protéger la propriété intellectuelle et de promouvoir un fonctionnement fiable des machines, souvent aux dépens de la connectivité.
Les systèmes qui découlent de ces décisions sont incroyablement performants au regard de leurs objectifs opérationnels, mais ils souffrent « d’angles morts » eu égard aux données et ne bénéficient pas de l’analyse de toutes les données potentiellement accessibles.
Au sein d’un environnement OT, les sources de données semblent ouvertes, mais elles sont en réalité assez difficiles d’accès pour les applications extérieures à cet environnement, dans lesquelles les données sont plus faciles à analyser. En outre, de nombreuses sources de données potentiellement utiles, telles que les conditions environnementales, les informations de contrôle des conditions et la consommation d’énergie, ne sont pas requises pour le contrôle de la production ou des équipements, et ne sont par conséquent pas recueillies par les systèmes automatisés. Les capacités d’analyse des mégadonnées sont de plus en plus performantes, mais l’accès restreint aux silos de données continue de limiter leur potentiel.
Types de silos de données
Les silos de données sont très diversifiés et proviennent des machines, de l’usine et d’autres systèmes intégrés à l’OT ou chargés de gérer les équipements auxiliaires. Ces données peuvent être aussi spécifiques qu’une lecture de température unique ou aussi étendues qu’un journal de données historiques indiquant le nombre de fois qu’un opérateur a reçu une alarme. Les types de données en silo les plus courantes comprennent :
Données isolées : ressources au sein d’une installation sans accès au réseau vers un système OT ou IT. Il s’agit du cas le plus simple, mais pas toujours le plus facile à résoudre. Prenons l’exemple d’un transmetteur de température indépendant doté d’une connectivité de 4-20 mA ou même d’un protocole Modbus. Il doit se connecter à un appareil Edge (API, contrôleur Edge, passerelle ou autre) pour rendre ce flux de données accessible. Très souvent, ces données ne sont pas essentielles pour contrôler les machines et ne sont donc pas disponibles par le biais de sources de données API/SCADA existantes traditionnelles. L’obtention de données via l’API de la machine la plus proche peut invalider les garanties du FEO en raison des modifications inévitables apportées à la logique de programmation.
Données ignorées : ressources connectées aux systèmes OT et produisant des données qui ne sont pas utilisées. De nombreux appareils Edge intelligents fournissent des données fondamentales et approfondies. Une centrale de mesure intelligente peut fournir des informations essentielles liées aux volts, aux ampères, aux kilowatts, aux kilowattheures et autres grâce à des protocoles câblés ou de communication industrielle. Cependant, les ensembles de données plus approfondis, tels que le taux de distorsion harmonique (THD pour Total Harmonic Distortion), ne peuvent pas être transmis en raison de l’absence d’exigences des applications, de communications à faible bande passante ou de capacités de stockage des données du système réduites. Les données sont bien présentes, mais elles ne sont jamais consultées.
Données sous-échantillonnées : ressources générant des données échantillonnées à un débit binaire insuffisant. Même lorsqu’un dispositif intelligent fournit des données aux systèmes de contrôle par le biais d’un bus de communication, il se peut que le taux d’échantillonnage soit trop faible ou la latence trop importante, ou que l’ensemble des données soit tellement vaste que les résultats obtenus ne peuvent pas être exploités. Dans certains cas, les données peuvent être résumées avant d’être publiées, ce qui entraîne une perte de fidélité.
Données inaccessibles : ressources générant des données (souvent non traitées, mais néanmoins importantes à des fins de diagnostic par exemple) fournies dans un format généralement inaccessible ou non disponible via les systèmes industriels traditionnels. Certains dispositifs intelligents possèdent des données de bord, comme des journaux d’erreurs, qui peuvent ne pas être communiquées via des protocoles de communication standards, mais qui seraient toutefois très utiles pour analyser les événements qui entraînent des temps d’arrêt.
Données non numériques : données générées manuellement par le personnel sur des supports papier, bloc-notes et tableaux blancs, et non saisies numériquement. Dans de nombreuses entreprises, les employés remplissent des formulaires de test et d’inspection et d’autres documents de qualité similaire sur support papier, sans que l’intégration de ces informations de manière numérique ne soit prévue. Une approche plus moderne consiste à utiliser des méthodes numériques pour rassembler ces données et se convertir en usine sans papier.
Tirer parti des données provenant de l’Edge dans le cloud
Les silos de données sont particulièrement intéressants pour les entreprises qui souhaitent analyser leurs performances opérationnelles sur l’ensemble des installations de production ou sur plusieurs installations. Elles recherchent des solutions permettant de transmettre les données en silo sur le terrain vers le Cloud pour les enregistrer, les visualiser, les exploiter et les analyser en profondeur. Cette connectivité est requise, particulièrement pour les systèmes IT de haut niveau des entreprises sur le site et sur le Cloud, car elle permet l’historisation et l’analyse de nombreux types de données en périphérie, afin d’obtenir des résultats d’analyse plus approfondis et à plus long terme, bien au-delà des performances habituelles liées aux objectifs de production à court terme.
Lorsqu’un utilisateur final ou un OEM récupère les données en silo provenant des sources de données traditionnelles et les transmet à des applications et à des services hébergés sur le cloud, il bénéficie de nombreuses opportunités, notamment du contrôle à distance, des diagnostics prédictifs et des analyses des causes principales. Cela lui permet de planifier différentes machines, usines et installations, d’effectuer des analyses de données à long terme et des analyses comparables des ressources au sein d’une même usine et sur différentes usines, de gérer le parc de machines, d’analyser les données inter-domaine (apprentissage profond), d’obtenir des informations sur les goulots d’étranglement de production, et d’identifier l’origine des anomalies au niveau des processus, même si elles ne sont détectées qu’à un stade plus avancé du processus de production.

Créer une solution edge
L’objectif des initiatives d’IIOT est de répondre aux défis posés par les silos de données et de connecter efficacement les données en périphérie avec le cloud, où elles pourront être analysées. Les solutions IIOT intègrent des technologies matérielles sur le terrain, des logiciels au niveau de l’Edge et du cloud, et des protocoles de communication, tous intégrés et conçus efficacement pour transmettre des données de manière sécurisée et performante, notamment à des fins d’analyse.
Les solutions edge peuvent faire partie intégrante des systèmes automatisés ou être installées en parallèle pour effectuer le suivi des données non requises par ces systèmes. De nombreux utilisateurs optent pour cette dernière option qui leur permet d’obtenir les données nécessaires sans affecter les systèmes de production existants. Toutefois, il est essentiel de noter que ces nouvelles capacités numériques peuvent se connecter à toutes les formes de données en silo identifiées auparavant.
Les solutions de connectivité Edge se présentent sous différentes formes, notamment des API compacts ou volumineux prêts à être connectés aux PC industriels (IPC) qui exécutent un SCADA ou des suites logicielles edge, mais également des contrôleurs compatibles Edge et qui exécutent un Scada ou des suites logicielles edge, et des IPC qui exécutent un Scada ou des suites logicielles edge. Les équipements déployés en périphérie pourront nécessiter des capacités de protocole E/S câblé et/ou de communication industrielle pour interagir avec toutes les sources de données en périphérie. Les données obtenues devront peut-être être retraitées ou au moins organisées en leur ajoutant un contexte. Il est particulièrement important de conserver le contexte dans les environnements de fabrication où des centaines, voire des milliers de capteurs discrets surveillent et exécutent les actions mécaniques et physiques des machines. Les logiciels d’automatisation modernes contribuent à préserver les liens relatifs et le contexte.
Finalement, les données doivent être transmises à des systèmes supérieurs grâce à des protocoles tels que MQTT ou OPC UA. Les normes d’OT/IT actuelles se développent de manière à garantir l’homogénéité et la flexibilité future des données et des communications. Il est important que les solutions soient flexibles tout en respectant les normes, contrairement aux installations personnalisées qu’il sera impossible de maintenir à long terme. Une fois qu’une solution Edge est en place et capable d’obtenir les données, l’étape suivante consiste à les rendre disponibles auprès de systèmes informatiques de plus haut niveau, grâce à des communications efficaces avec le logiciel hébergé sur le cloud.
Connecter la périphérie et le cloud
Les logiciels d’hébergement sur le cloud offrent un éventail d’avantages, tels que des coûts réduits où l’utilisateur paie uniquement ce qu’il utilise et évite d’investir dans l’achat et la gestion d’infrastructures informatiques. Le cloud computing est souvent qualifié d’environnement « informatique élastique ». En effet, si des ressources informatiques ou des données supplémentaires sont requises, elles peuvent être ajoutées en temps réel.
Le cloud permet à l’utilisateur d’éviter les problèmes de configuration des systèmes informatiques matériels et logiciels, ainsi que ceux liés à leur déploiement, gestion, performances, sécurité et mises à jour. Les ressources peuvent être axées sur l’atteinte de leurs principaux objectifs commerciaux.
Essentiellement, le cloud permet de traiter des ensembles de mégadonnées efficacement en adaptant la puissance de traitement du processeur en fonction des besoins d’analyse. Il est possible d’optimiser l’accès aux données et de les obtenir n’importe quand et depuis n’importe où, à l’aide de n’importe quel dispositif capable d’héberger un navigateur web.
La sécurité des données peut être améliorée en utilisant différents serveurs de stockage, ainsi que des options de sauvegarde et de reprise après défaillance. Un développement plus rapide est également possible grâce à des plateformes opérationnelles immédiatement ; seules une connexion à Internet et des données d’accès sont requises.
Une architecture cloud est particulièrement adaptée aux besoins des organisations qui mettent en œuvre des projets de données IIOT. Le cloud est l’infrastructure habilitant de nombreux projets IIOT, et la combinaison de ces deux technologies permet d’effectuer des interactions innovantes entre les hommes, les objets et les machines, donnant naissance à de nouveaux modèles commerciaux basés sur des produits et des services intelligents.
Conclusion
Les silos de données sont bien trop fréquents sur les sites de fabrication et dans les installations de production du monde entier. Ils sont le résultat regrettable de technologies anciennes incapables de traiter des données et de philosophies de conception traditionnelles axées sur les fonctionnalités principales aux dépens de la connectivité des données. L’importance et l’utilité des analyses de mégadonnées ne se sont imposées que récemment. Les utilisateurs finaux s’efforcent donc d’intégrer cette capacité dans de nouveaux systèmes et de l’inclure aux opérations existantes.
La connectivité des données edge-to-cloud crée de la valeur, car elle offre diverses manières de visualiser, d’enregistrer, de traiter et d’analyser les données en profondeur. Toutes les solutions IIOT qui permettent de rapprocher des données entre l’OT et l’IT reposent sur des capacités numériques capables de se connecter aux éléments automatisés traditionnels, tels que les API, ou directement aux sources de données en parallèle de n’importe quel système existant. Ces ressources en périphérie doivent être en mesure de prétraiter les données jusqu’à un certain point et d’ajouter du contexte avant de les transmettre aux systèmes du cloud pour qu’elles y soient analysées.