Avec le Lab TP, la data aide à la décision
Un service de Bouygues Travaux Publics créé en 2016
Le Lab TP vise à concevoir des modèles prédictifs pour aider au pilotage et à la maintenance des tunneliers, et à améliorer la sécurité et la productivité́ lors des creusements de tunnels. Mieux connaître les interactions internes et externes subies par les tunneliers permet d’anticiper et de résoudre certains problèmes techniques, et ainsi d’accélérer la vitesse d’avancement du creusement. Sur la plupart de nos chantiers de tunnel les données générées par les tunneliers sont centralisées au sein d’un « Worksite Data Hub », puis analysées par un binôme data-scientist – ingénieur métier. Pour quels bénéfices ? Le suivi de la productivité́ est plus précis, l’activité́ du chantier est contrôlée en temps réel, et les retours d’expérience sont améliorés. Les données brutes des chantiers sont également transmises automatiquement à la plateforme Data centrale. Cette plateforme les identifie et les enregistre de manière sécurisée, sur le long terme. Puis ces données sont mises à la disposition des data scientists pour modéliser et créer des algorithmes prédictifs, via le Machine Learning, qui permettront encore d’améliorer notre productivité, tout comme les nombreux outils d’aide à la décision utilisant le Big Data, déjà opérationnels sur les chantiers.
Thèse validée !
Intitulée « Modélisation du comportement des tunneliers et impact sur leur environnement », la thèse de Mehdi Mahmoudysepehr, doctorant au sein de la Chaire Construction 4.0 dans le cadre d’un partenariat avec Centrale Lille, s’attache à analyser de gros volumes de données (Big Data) récupérées sur le terrain afin de mieux anticiper et résoudre les problèmes techniques. Et à utiliser les méthodes d’apprentissage statistique (Machine Learning and Deep Learning) pour modéliser le comportement du tunnelier et optimiser son pilotage.
Pour aller plus loin
30
C’est le nombre d’innovations prévues dans la feuille de route du Lab TP.
Machine Learning, Késako ?
Le Machine Learning est une technologie d’intelligence artificielle permettant aux ordinateurs d’apprendre sans avoir été programmés explicitement à cet effet. Pour apprendre et se développer, les ordinateurs ont toutefois besoin de beaucoup de données (Big Data) à analyser et sur lesquelles s’entraîner.
Le saviez-vous ?
Une application Big Data est utilisée sur le chantier Eole
Elle modélise les comportements du tunnelier et fournit un indicateur d’Interaction Terrain Machine pour assister les équipes au pilotage du tunnelier. Une approche data-driven pour prendre des décisions stratégiques en temps réel.
C’est le quoi principe de « TopoEveryWhere ? »
Connecter en une base unique plusieurs réseaux de capteurs mesurant de manière autonome les impacts des chantiers de tunnel et en afficher les mesures sur des tableaux de bords. Une vraie salle de contrôle pour suivre le comportement des structures voisines des chantiers.