Evolutions techniques 2016

Retour à la fiche bilan
équipe technique full
Partager :

Les différents métiers exercés dans une association de surveillance de la qualité de l’air sont nombreux et en constante évolution. Les équipes doivent en permanence s’adapter aux enjeux de qualité de l’air du territoire, tout en faisant évoluer les outils de surveillance de la qualité de l’air, dans l’objectif d’être plus efficaces et d’améliorer les services rendus aux usagers.
L’année 2016 a été marquée par la création de la nouvelle association Atmo Auvergne-Rhône-Alpes et par les travaux d’harmonisation des méthodes de surveillance de l’air sur ce nouveau territoire très vaste et contrasté.  Les recherches d’optimisation et d’harmonisation d’outils avec les autres régions françaises restent toujours d’actualité, de même que la prise en main de nouvelles technologies tant dans le domaine du numérique que de la miniaturisation des capteurs.  

 

Technique et laboratoire

Sécurité du travailleur

ser_tec_station_hauteur_a.benoist.jpg

Une équipe importante de 18 techniciens intervient quotidiennement sur les équipements fixes ou mobiles de surveillance de la qualité de l’air pour leurs maintenances, leurs déplacements ou pour la réalisation des prélèvements d’air. En premier lieu, il est important de pouvoir intervenir en toute sécurité durant les déplacements et lors des interventions sur site. En particulier, 2016 a été l’année de finalisation d’un programme de sécurisation de l’accès aux toits des stations de mesures. L’objectif était de permettre aux techniciens d’intervenir en sécurité lorsqu’ils travaillent en hauteur.
Sur le plan de la sécurité également, ont été expérimentés de nouveaux dispositifs de protection du travail isolé (PTI) : un capteur porté à la ceinture et détectant les chutes ou l’immobilité, connecté au téléphone mobile du travailleur, permet de donner l’alerte en envoyant par SMS la localisation de la personne en difficulté. Si elle est concluante, l’expérimentation qui se terminera en 2017, pourrait déboucher sur l’équipement de toute l’équipe technique. 
Ces travaux de prévention des risques sont réalisés avec le responsable qualité sécurité environnement, et suivis par le CHSCT de l’association.

Nouvelles technologies

ser_tec_airbeam.jpg

 

Nous sommes dans une période où les progrès technologiques sont très rapides dans le domaine des matériaux, de l’électronique, de l’informatique … ces progrès permettent désormais d’envisager d’autres techniques de mesure complémentaires aux dispositifs en place dans les observatoires de la qualité de l’air. Sur le plan des capteurs, les technologies murissent et permettent désormais de proposer des « micro-capteurs » de gaz ou de particules très légers, et communiquant leurs résultats sur un smartphone ou un site internet. Les tous premiers capteurs testés il y a bientôt 10 ans et mesurant l’ozone étaient à l’époque peu fiables ; désormais ces nouveaux matériels légers, moins couteux, deviennent au fur et à mesure de l’amélioration de leurs performances des outils complémentaires à la surveillance classique. Ils sont utilisables aussi par les citoyens qui souhaiteraient connaître l’air qu’ils respirent et contribuer à la surveillance et à l’amélioration de la qualité de l’air. De ce point de vue, l’année 2016 a été une année charnière avec une montée en puissance des projets liés à ces innovations, et une accélération des tests et de la prise en main de ces technologies par le service technique et étude. Ces travaux sont menés pour certains, en partenariat avec les fabricants et d’autres associations de surveillance de l’air.
Au niveau national, des travaux sont en cours pour évaluer la capacité de ces capteurs à contribuer au système de surveillance dans la catégorie des méthodes dites « indicatives » permettant de travailler avec des incertitudes de mesures moins exigeantes. 
La montée en compétence technique sur la mise en œuvre de ces technologies est à poursuivre et à développer également dans les autres métiers : informatique (stockage des données, transfert des données), traitement des données (statistiques, géostatistique), cartographie et modélisation (utilisation des données dans les cartes et prévisions de qualité de l’air), métrologie (raccordements, vérifications et test à réception des capteurs) …

Inventaire spatialisé des émissions, et cartographie

Cadastre des émissions d’oxydes d’azote NOx Auvergne Rhône-Alpes
Cadastre harmonisé des émissions d’oxydes d’azote NOxsur le domaine Auvergne Rhône-Alpes (source : ICARE & ESPACE)

L'harmonisation de l'inventaire spatialisé des émissions de polluants dans l'atmosphère en Auvergne-Rhône-Alpes se poursuit sur 2016 et 2017. Cet inventaire regroupe les estimations des quantités de polluants et gaz à effet de serre émises annuellement par l’ensemble des activités humaines et certaines sources naturelles, répertoriées selon une méthode établie aux niveaux français et européen (guides OMINEA, PCIT, EMEP/EEA). Ces résultats, au même titre que les prévisions météorologiques, alimentent les modèles numériques de la qualité de l’air, constituant ainsi une des briques essentielles de la chaine de prévision. La fusion Auvergne-Rhône-Alpes a été l'occasion de rapprocher 2 « plateformes d’inventaires spatialisés des émissions », parmi les 3 disponibles en France au sein des AASQA (ICARE, ESPACE, INVENTAIR). En 2016 a été prise une décision importante des Directions d’AASQA pour poursuivre cette démarche de mutualisation des outils de calcul et de gestion des données d’émission, en travaillant ensemble à la construction d’un outil commun. Le développement de cette plateforme, déployée dans chaque région, s’appuiera sur les expériences de chacun, dans l’objectif d’harmoniser les méthodes de calcul et production de résultats et de mutualiser les travaux pour optimiser la gestion des ressources dédiées. Les équipes d’inventoristes de chaque plateforme ont ainsi débuté un travail de conception en 2016, avec des premières briques de l’édifice qui pourraient voir le jour à la fin de l’année 2017.

Modélisation/Prévision

serv_mod_cartes_auvergne.png

La prévision de la qualité de l’air a été étendue à la grande région Auvergne-Rhône-Alpes ; ce qui a nécessité un travail sur les modèles de prévision qui a été accompagné de plusieurs améliorations et mises à jour avec pour objectif d’améliorer les performances des prévisions et de mettre à disposition du prévisionniste davantage d’informations. C’est ainsi qu’avec la participation des services émissions, cartographies et informatique, les travaux ont permis de maintenir l’heure de mise à disposition des prévisions le matin alors que la surface du territoire cartographié a été doublée, les prévisions étendues de 24 à 48h, les techniques statistiques de prévision optimisées (par la technique des forêts aléatoires avec un apprentissage sur un historique de 3 ans) et un suivi qualité à chaque étape de la plateforme ont été mis en place. Une deuxième chaine de prévision, basée sur le modèle permettant de suivre le devenir des polluants par source et zone géographique, a également été mis en œuvre.

Les agglomérations couvertes par des cartes annuelles et des prévisions fines échelles à une résolution de 10m ont été complétées durant l’année sur les villes de Montluçon et Vichy. La première partie du travail a consisté à mettre en place une modélisation combinant la prévision régionale CHIMERE avec le modèle fine échelle SIRANE. Les résultats des simulations annuelles de l’année 2015 sur les polluants NO2, PM10 et PM2.5 ont ensuite été validés par comparaisons aux mesures. Les prévisions quotidiennes sur ces deux agglomérations ont ensuite été mises en œuvre. Ces cartes sont désormais disponibles pour les citoyens quotidiennement sur internet.

Informatique

Atmo Auvergne-Rhône-Alpes dans le Cloud… 

serv_inf_data_mining.png

Le travail des équipes à distance, lié à l'existence des 6 implantations géographiques de l’association, le travail collaboratif en mode projet, l’accès aux documents en situation de mobilité ou lors du télétravail expérimenté en 2016, nécessitent d’adapter l’environnement informatique pour et de développer la communication interne. Les systèmes de vidéoconférence sont efficaces et font désormais partie du quotidien de chacun, en permettant de réduire les déplacements. Les efforts informatiques se sont ainsi portés en 2016, en collaboration avec le service communication, sur le déploiement d’un intranet et d’une solution bureautique « on line » permettant de stocker, mieux partager et travailler en équipe sur les documents. Cela n’est cependant pas sans impact sur le quotidien de chacun car il faut s’adapter à ces nouvelles pratiques de travail. Une aide extérieure a été sollicitée pour structurer les bases documentaires et optimiser l’intranet, et des formations et événements de communication interne ont été organisés pour accompagner ces changements. Avec ce dispositif, chaque salarié peut accéder à son environnement bureautique et ses documents de tout poste connecté à internet, et les partager d’un seul clic avec ses interlocuteurs interne ou externe. Pour compléter le dispositif et encore mieux développer le partage des connaissances, les collaborations et l’intelligence collective, un réseau social d’entreprise (RSE, Yammer) est en cours d’expérimentation.

Ouverture des données 

Open data, ouverture des données, bigdata … ces mots à la mode sont devenus notre quotidien, à l’heure où les données de qualité de l’air doivent être partagées, mises à disposition des citoyens ou de professionnels souhaitant développer des applications smartphone ou traiter de gros volumes de données. Nos infrastructures informatiques sont donc en cours d’évolution pour préparer ces mises à dispositions de données (open data) et de flux de données via des API pour alimenter les applications smartphone. Ces travaux sont réalisés en concertation avec la stratégie nationale d’ouverture des données et liés aux obligations de mise à disposition de données environnementales (Directive INSPIRE, Loi Lemaire). Les premiers travaux ont débouché fin 2016 sur développement d’une API* permettant l'accès temps réel aux données essentielles de qualité de l'air (indices communaux, dispositifs préfectoraux, indices polliniques), extensible aux données cartographiques quotidiennes fine échelle l’application d’Atmo Auvergne-Rhône-Alpes. L'association a également choisi de se doter de nouvelles compétences, en se formant en interne et en recrutant début 2017 un spécialiste en webmapping afin de maîtriser la diffusion de cartographies de pollution sur internet et les applications smartphone. 

serv_inf_api.png
API signifie « interface de programmation » (Application Programming Interface, en anglais). Le recours aux API fait habituellement partie des démarches d’ouverture des données (Open Data, en anglais). Une API permet de faire communiquer deux systèmes informatiques : un fournisseur de données (par exemple, les indices de qualité de l’air d’Atmo Auvergne-Rhône-Alpes) et un utilisateur qui souhaiterait les afficher dans une application smartphone ou les croiser avec des données provenant d’autres API. L’API est donc une porte d’entrée permettant d’accéder à des données : elle comporte une description des données ou services proposés, les conditions d’accès, et les lignes de code permettant de récupérer automatiquement les données proposées.  

 

Surveillance, Traitement et Analyse Temporelle ou Spatiale des données (STATS)

L’explosion quantitative (et souvent redondante) de la donnée numérique nous amène de nos jours à de nouvelles façons de voir et analyser le monde, avec de nouveaux ordres de grandeur concernant la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données. On entend en effet parler de plus en plus du phénomène de « big data » (parfois aussi appelées « données massives »), désignant des ensembles de données tellement volumineux qu'ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l'information. Divers experts ou spécialistes, dont certains issus de grandes administration ou institutions (comme le MIT11 aux États-Unis), considèrent d’ailleurs le big data comme l'un des grands défis informatiques de la décennie 2010-2020 et en ont fait une de leurs nouvelles priorités de recherche et développement. Les perspectives du traitement des big data sont énormes et en partie encore insoupçonnées.

Même s’il n’en est pas encore à ce stade, le volume des données générées et exploitées par ATMO Auvergne-Rhône-Alpes est en constante augmentation d’années en années. C’est pourquoi, les équipes chargées de réaliser les études et bilans de la qualité de l'air et spécialisées dans la validation, l’analyse et l'interprétation des données de qualité de l'air doivent également faire évoluer leurs compétences en traitement de données (statistiques, datamining, manipulation et requêtes dans les bases de données). Ces adaptations sont d’autant plus nécessaires dans le contexte d'ouverture des données (open data) mais aussi dans l’utilisation des nouvelles technologies de capteurs qui produisent de nombreuses données qu'il faut savoir stocker, traiter, visualiser et représenter.

ser_stats_graphes.jpg

Le travail mené par les équipes en 2016 consistait dans un premier temps à se documenter sur des méthodes, outils ou logiciels permettant d’améliorer l’exploration de données, connue aussi sous l'expression de « Data Mining » (fouille ou prospection de données) avec pour objectif l’extraction de connaissances sur les données non décelables à première vue (comme par exemple à partir d’une visualisation basique de courbes) et la construction de nouveaux indicateurs pour la validation ou l’exploitation de ces données.  Ce travail a conduit à recenser un certain nombre de logiciels ou outils "open source" capables d’analyser de grandes quantités de données et d'en extraire un maximum de connaissances, par des méthodes automatiques ou semi-automatiques, qui utilisent des algorithmes issus de disciplines scientifiques diverses telles que les statistiques décisionnelles, l'intelligence artificielle et l'informatique.

Pour poursuivre cet objectif, des formations seront organisées pour connaitre et développer le savoir-faire sur certains outils, comme par exemple le « langage R » dédié aux statistiques et à la science des données, qui semble être un des outils le plus utilisé actuellement dans le domaine scientifique.