Réseaux de neurones en contrôle industriel : Combien sont réellement en fonctionnement ?
Tout le monde parle de la révolution de l’IA industrielle. Les fournisseurs promettent des usines pilotées par l’IA, des procédés autonomes, des usines qui s’auto-optimisent. La question qui mérite d’être posée — et qui l’est rarement assez clairement — est la suivante : quelle part de tout cela est réellement un contrôleur à réseau de neurones opérant en boucle fermée sur des actifs de production réels ?
La réponse honnête est : très peu. L’écart entre ce qui est commercialisé comme « IA industrielle » et ce qui fonctionne effectivement en tant que contrôleur neuronal est significatif — et comprendre cet écart est plus utile qu’accepter le cadrage marketing.
Une revue de 2025 portant sur 672 études d’automatisation industrielle a révélé que seulement 22 % des recherches publiées sur les contrôleurs à réseaux de neurones incluaient des implémentations dans le monde réel — bancs d’essai de laboratoire, installations pilotes et systèmes de production confondus. Les 78 % restants n’ont jamais quitté la simulation.[1] Parmi ces implémentations réelles, la grande majorité sont des configurations de recherche : bancs d’essai universitaires, pilotes à petite échelle, démonstrations de preuve de concept. Les déploiements confirmés sur des systèmes de production industrielle réels — avec des résultats quantifiés documentés — sont au nombre de dix.
Où vit réellement l’« IA industrielle »
Lorsque les praticiens et les fournisseurs utilisent l’expression « IA industrielle », ils désignent généralement l’une de plusieurs choses distinctes. Une seule d’entre elles est un contrôleur à réseau de neurones opérant en boucle fermée dans une installation de production.
La question est posée avec une nouvelle urgence parce que la vague actuelle de l’IA est portée par les grands modèles de langage — GPT, Gemini, Claude. Les LLMs sont des réseaux de neurones, et leur impact spectaculaire sur le traitement du texte a conduit chaque industrie à se demander : la même technologie peut-elle nous transformer ? En contrôle de procédés, la réponse nécessite de distinguer ce que font les LLMs de ce qu’un système de contrôle doit faire. Les LLMs sont des systèmes de correspondance de motifs entraînés sur des corpus de texte statiques. Un contrôleur de procédé doit fermer une boucle de rétroaction en temps réel, respecter des contraintes physiques strictes et rester stable sous des perturbations — un problème fondamentalement différent. L’architecture de réseau de neurones pertinente pour le contrôle n’est pas le transformer ; c’est le réseau de politique entraîné par apprentissage par renforcement. Et les autres outils étiquetés « IA industrielle » — MPC, capteurs logiciels, jumeaux numériques, optimisation d’ordonnancement — précèdent l’ère des LLMs de plusieurs décennies. Ils ne sont pas devenus utiles grâce à GPT.
| Comment c’est appelé | Ce que c’est réellement | Ferme la boucle ? |
|---|---|---|
| Maintenance prédictive | Détection d’anomalies sur vibrations, température, courant | Non — consultatif uniquement |
| Jumeau numérique | Modèle de simulation hors ligne pour planification ou entraînement | Non |
| Capteur logiciel / virtuel | Modèle de régression inférant des variables de qualité non mesurées | Parfois — rôle superviseur |
| Optimisation des procédés | Ordonnancement LP/MILP, planification de lots, pas en temps réel | Non |
| APC / MPC | Commande prédictive par modèle linéaire — technologie utilisée depuis les années 1980 | Oui — mais pas un réseau de neurones |
| Contrôleur RN | Ce dont parle le battage médiatique | Rare — voir ci-dessous |
La commande avancée de procédés utilisant le MPC linéaire est utilisée dans l’industrie depuis quarante ans. Elle est intégrée dans les plateformes DCS de tous les grands fournisseurs et constitue une pratique standard dans le raffinage, la pétrochimie et la production de polymères. Quand une usine affirme « optimisation pilotée par l’IA », elle désigne souvent un MPC installé dans les années 90. Quand un fournisseur de gestion de bâtiments affirme « gestion énergétique par IA », il désigne souvent un planificateur à base de règles rebaptisé.
Rien de tout cela n’est malhonnête — ce sont des outils utiles. Mais ce n’est pas ce que signifie « contrôleur à réseau de neurones », et les assimiler gonfle la maturité apparente du contrôle basé sur les RN.
Le décompte confirmé
Après une revue exhaustive du registre public, le nombre de contrôleurs à réseaux de neurones ou d’apprentissage par renforcement confirmés opérant en boucle fermée sur de vrais systèmes de production industrielle — avec des résultats quantifiés documentés et des sources vérifiables — est dix.
Les réacteurs à tokamak, les bancs d’essai universitaires et les articles qui valident des algorithmes sur des données industrielles historiques sont exclus. Ce sont des cas où le contrôleur est confirmé en boucle fermée sur un actif de production réel.
Les dix déploiements confirmés
1. Raffinage pétrolier — Imubit, États-Unis
Imubit a déployé un prédicteur RN combiné à un contrôleur d’optimisation entraîné par RL dans plus de 90 applications en direct dans des usines de traitement industriel, avec des clients incluant 7 des 10 plus grands raffineurs américains — Marathon Petroleum, HF Sinclair et Citgo parmi eux.[2] L’entreprise a lancé son produit RL dédié en septembre 2024.[3]
Résultats documentés : amélioration de marge de 0,30–0,50 USD par baril dans les opérations de raffinerie ; jusqu’à 30 % de réduction de gaz naturel dans les opérations de fours rotatifs.[2]
2. Distillation chimique — JSR / Yokogawa, Japon
En janvier–février 2022, le contrôleur RL FKDPP de Yokogawa a fonctionné pendant 840 heures consécutives (35 jours) en contrôle autonome en boucle fermée d’une colonne de distillation dans une installation de production JSR — documenté comme première mondiale de contrôle RL direct d’une variable dans une usine chimique.[4] Après un an d’essai prolongé, ENEOS Materials a formellement adopté le système en production en mars 2023.[5]
3. Unité de séparation d’air, 2021
Blum et al. rapportent un contrôleur deep RL basé sur un modèle opérant dans une unité de séparation d’air en production, comparé directement au système MPC linéaire précédent.[6]
4. Colonne à paroi divisoire industrielle, 2025
Park et al. rapportent un RL hors ligne pour le contrôle de température d’une colonne à paroi divisoire à l’échelle industrielle, atteignant un taux d’automatisation de 93,11 % par rapport à l’opération manuelle.[7] La politique a été entraînée sur des données historiques enregistrées — aucune exploration en plante réelle.
5. Photobioréacteur industriel, 2025
Gil et al. rapportent RL plus clonage de comportement déployé dans un photobioréacteur industriel pour la régulation du pH, avec une exécution continue de huit jours dans des conditions environnementales variables.[8]
6. Chauffage urbain — 13 bâtiments, 2026
Moshari et al. rapportent un RL sans modèle gérant le chauffage urbain dans 13 bâtiments réels sur 138 jours d’hiver : 29,7 % de réduction d’énergie de chauffage par rapport aux bases historiques, sans mise à niveau matérielle.[9]
7. CVC de bureaux / TABS — contrôleur SAC, 2024
Silvestri et al. rapportent un contrôleur Soft Actor-Critic dans un bâtiment de bureaux réel sur une saison de refroidissement de deux mois : 68 % moins de violations de confort thermique sans augmentation de la consommation d’énergie.[10]
8. CVC de bureaux — apprentissage par transfert, 2025
Coraci et al. rapportent un contrôleur DRL adapté d’un bâtiment à un second via l’apprentissage par transfert en ligne (étude de cas HiLo), démontrant un déploiement multi-sites sans réentraînement depuis zéro.[11]
9. CVC de bureaux — apprentissage par imitation, 2025
Silvestri et al. rapportent un contrôleur DRL assisté par apprentissage par imitation sur un système TABS, où l’initialisation de la politique à partir de l’opération experte a réduit les comportements risqués en phase de déploiement précoce.[12]
10. Refroidissement de centres de données — Google DeepMind, mondial
En 2016, DeepMind a démontré une réduction de 40 % de l’énergie de refroidissement (15 % de réduction globale du PUE) avec un système de conseil IA.[13] En 2018, le système a été mis à niveau pour le contrôle direct par IA des actionneurs de refroidissement, délivrant ~30 % d’économies d’énergie de refroidissement soutenues sous supervision opérateur.[14] En 2022, Trane Technologies a appliqué la même approche à deux bâtiments commerciaux (non Google), rapportant 9 % et 13 % d’économies d’énergie dans ces expériences en direct.[15]
Pourquoi le nombre n’est-il pas plus grand ?
Dix déploiements confirmés dans l’ensemble de la base industrielle mondiale est un petit nombre. Petit non pas parce que la technologie ne fonctionne pas — les cas confirmés prouvent qu’elle le fait —, mais parce qu’un ensemble spécifique de prérequis doit être en place, et la plupart des usines ne les satisfont pas encore.
Les raisons dominantes :
Le problème du signal de récompense. Les contrôleurs RL apprennent en optimisant une fonction de récompense. Si la quantité à optimiser ne peut pas être mesurée en temps réel avec l’instrumentation existante, il n’y a pas de récompense à calculer. La qualité du clinker de ciment nécessite un échantillonnage du four et une analyse de laboratoire — des heures après que la décision de contrôle a été prise. Le CD des semi-conducteurs est mesuré par des outils de métrologie avec des temps d’attente de plusieurs heures. La qualité du produit en lots n’est connue qu’en fin de lot.[16]
Le problème de l’exploration. Le RL en ligne sans modèle exige que l’agent prenne des actions exploratoires — qu’il essaie des choses qu’il n’a pas encore essayées. Sur un actif de production réel, des actions exploratoires qui violent les contraintes opérationnelles peuvent causer des dommages aux équipements, des incidents de sécurité ou des pertes de produit. Cela est gérable via le RL hors ligne ou le RL basé sur un modèle, mais cela ajoute un effort d’ingénierie significatif.[18]
Le MPC fonctionne déjà bien. Pour une grande fraction des problèmes de contrôle industriel, un MPC linéaire bien mis en service gère déjà les contraintes et les objectifs économiques avec une haute interprétabilité et des voies de certification établies. Le cas d’usage pour le contrôle par RN doit être comparé au MPC de meilleure classe, pas à une ligne de base PID mal réglée.[1]
La confiance des opérateurs. Les contrôleurs RN ne produisent pas d’explications interprétables de leurs décisions. Pour les opérateurs qui travaillent avec le MPC — où la fonction de coût est explicite et la trajectoire prédite est visible — cette opacité est une véritable barrière. Les déploiements confirmés l’ont tous adressée via des périodes d’essai prolongées, des modes de repli explicites et un engagement opérateur soutenu.
Le tableau ROI des cas confirmés
| Secteur | Bénéfice rapporté | Base |
|---|---|---|
| Raffinage pétrolier | Amélioration de marge de 0,30–0,50 USD/bbl | Imubit, 90+ applications en direct[2] |
| Distillation chimique | 93,11 % taux d’automatisation vs manuel | Park et al., DWC industrielle[7] |
| CVC de bâtiments | 29,7 % réduction énergie de chauffage | Moshari et al., 13 bâtiments[9] |
| CVC de bâtiments | 68 % moins de violations de confort | Silvestri et al., bâtiment de bureaux[10] |
| Refroidissement centres de données | ~30 % réduction énergie de refroidissement (autonome) | DeepMind, DCs Google[14] |
| Opérations fours rotatifs | Jusqu’à 30 % réduction gaz naturel | Imubit[2] |
Êtes-vous un bon candidat ?
Vous avez un objectif mesurable qui est déjà dans votre historian. Chaque déploiement confirmé optimise une métrique — marge en dollars par baril, kWh consommés, taux d’automatisation, déviation de pH — calculable en temps réel depuis l’instrumentation existante.
Votre procédé présente des interactions non linéaires que votre stratégie de contrôle actuelle gère de manière conservative. Les contrôleurs RN justifient leur coût dans les situations où la relation entre entrées et sorties est non linéaire, où plusieurs variables interagissent, et où l’approche actuelle laisse de la performance sur la table.
Vous disposez d’au moins 6 à 12 mois de données historian continues à des fréquences d’échantillonnage de 5 minutes ou plus rapides. Le RL hors ligne et le RL basé sur un modèle requièrent des données historiques substantielles.[7]
Votre DCS ou BMS peut recevoir des cibles de point de consigne externes. Les dix déploiements confirmés opèrent en rôle superviseur : le contrôleur RN envoie des points de consigne à la couche régulatoire existante.
Le coût d’une décision sous-optimale est borné et récupérable. Dans le raffinage pétrolier, un point de consigne FCC sous-optimal coûte de la marge — indésirable, mais récupérable. Dans un bâtiment, un mauvais point de consigne de chauffage produit une pièce légèrement inconfortable pendant une heure.
Prérequis techniques
Historian avec couverture et fréquence d’échantillonnage suffisantes. Le minimum est typiquement 6 à 12 mois de données couvrant plusieurs conditions opérationnelles.
Une fonction objectif formalisée. Vous devez pouvoir écrire une expression mathématique de ce que signifie « meilleur contrôle » en utilisant des variables déjà dans l’historian.
Un modèle de procédé validé, ou la volonté d’en entraîner un. Pour les procédés avec contraintes de sécurité, la stratégie de déploiement confirmée est le RL basé sur un modèle : entraîner la politique dans un simulateur validé, puis transférer vers la plante réelle.
Capacité d’intégration DCS/BMS. Le schéma d’intégration standard : le contrôleur RN lit les tags depuis l’historian ou le serveur OPC-UA et écrit des cibles de point de consigne dans le DCS.
Runtime d’inférence pour le modèle RN. La politique entraînée s’exécute sur un serveur périphérique ou un ordinateur de procédé — pas dans l’automate lui-même. Le format d’export standard est ONNX (portable entre les frameworks d’entraînement), servi par ONNX Runtime pour l’inférence CPU ou TensorRT pour l’inférence accélérée par GPU. Pour les utilisateurs Siemens S7-1500, le module AI Inference Server prend en charge les modèles ONNX directement ; l’extension Beckhoff TwinCAT Machine Learning offre la même capacité sur les systèmes TwinCAT 3. MATLAB Deep Learning Toolbox avec Simulink génère du code déployable directement à partir de réseaux entraînés. Pour les boucles de contrôle de procédés avec des temps de cycle de l’ordre de la minute, l’inférence CPU standard est plus que suffisante. Les boucles de contrôle rapides — mouvement de machine (cycle de 1–10 ms), température ou pression de réacteur rapide (dynamique à l’échelle de la seconde) — nécessitent une validation de la latence d’inférence avant de s’engager sur une architecture de modèle.
Protocole d’acceptation des opérateurs. Chaque déploiement confirmé inclut un mécanisme pour que les opérateurs sortent du contrôle IA. Le déploiement JSR/Yokogawa a explicitement impliqué les opérateurs tout au long de la période d’essai.[4]
Maintenance du modèle après déploiement
Un contrôleur RN déployé n’est pas un système à configurer et à oublier. Les procédés industriels dérivent — la composition des matières premières change, les équipements vieillissent, les objectifs opérationnels évoluent — et une politique entraînée sur des données historiques verra ses performances se dégrader dans le temps si elle n’est pas maintenue.
La fréquence de réentraînement dépend de la vitesse à laquelle le procédé dérive. L’approche pratique consiste à surveiller en continu le KPI de performance du contrôleur et à déclencher une révision du réentraînement lorsqu’il tombe en dessous d’un seuil acceptable. Les intervalles dans les déploiements confirmés vont de quelques mois (procédés continus à dérive lente) à des révisions déclenchées par des événements après des changements significatifs de l’installation.
L’apprentissage en ligne — mettre à jour en continu les poids du modèle à partir de données de production en direct — n’est généralement pas viable pour les systèmes de production certifiés. Les mises à jour de poids non contrôlées ne peuvent pas être validées avant de prendre effet, ce qui entre en conflit avec les exigences de sécurité des procédés et de gestion de la qualité. Le réentraînement hors ligne avec validation est la meilleure pratique actuelle pour les déploiements en production.
La procédure de réentraînement suit les mêmes étapes que le déploiement initial, mais plus rapidement car l’infrastructure est déjà en place : collecter de nouvelles données de l’historian → réentraîner hors ligne → valider en simulation → essai de mise en service supervisé sur la plante réelle → promouvoir en production si les critères sont satisfaits.
Gestion du changement. Toute modification d’un contrôleur RN déployé — nouvelles données d’entraînement, fonction objectif modifiée, architecture différente — constitue une modification logicielle et doit passer par la procédure de gestion du changement (MoC) du site, avec documentation et réapprobation. Pour un ingénieur DCS, c’est le flux de travail normal de modification du contrôle de procédé. Pour un ingénieur ML habitué au déploiement continu sur des services web, c’est une contrainte opérationnelle significative qui doit être planifiée avant le déploiement.
Pourquoi certains secteurs mènent et d’autres sont à la traîne
| Facteur | Raffinage pétrolier | CVC de bâtiments | Usines chimiques | Ciment / chimie par lots |
|---|---|---|---|---|
| Récompense mesurable en temps réel ? | Oui — $/bbl, rendement du DCS | Oui — kWh du compteur | Oui — temp., pH, ratio | Souvent non — qualité du labo, heures plus tard |
| Coût d’une mauvaise décision | Marge perdue (récupérable) | Légère gêne (récupérable) | Dommage équipement / trip SIS (élevé) | Perte de lot, trip de four (élevé) |
| Échelle temporelle de contrôle | Minutes | 5–60 minutes | Minutes | Minutes à heures |
| Qualité de l’historian | Forte — standard en raffinerie | Forte — standard BMS | Variable | Souvent faible |
| Résultat | Déploiement commercial à l’échelle du portfolio | Base de déploiement académique la plus large | Étroit mais confirmé | Absent de la liste confirmée |
Ciment, chimie par lots et fabrication de semi-conducteurs sont absents pour une raison dominante : le signal de récompense n’est pas calculable en temps réel. C’est un problème de données et d’instrumentation, pas un problème d’algorithme.
La conclusion
La majeure partie de ce qui est vendu comme « IA industrielle » n’est pas du contrôle par réseaux de neurones. C’est de la maintenance prédictive, des jumeaux numériques, des capteurs logiciels et de l’optimisation d’ordonnancement — tout cela utile, rien de tout cela un contrôleur en boucle fermée.
Contrôleurs à réseaux de neurones confirmés en opération de production réelle :
- Raffinage pétrolier — échelle commerciale de portfolio, ROI documenté en USD/bbl[2][3]
- Usines chimiques et de bioprocédés — étroit mais confirmé ; nécessite RL hors ligne ou basé sur un modèle[4][5][6][7][8]
- Systèmes énergétiques de bâtiments — base de déploiement académique la plus large[9][10][11][12]
- Refroidissement de centres de données — opération dirigée par IA continue depuis 2018[13][14][15]
Si vous exploitez un procédé continu avec un objectif mesurable en temps réel, un historian de plante et un DCS qui accepte des points de consigne superviseurs — et que votre stratégie de contrôle actuelle laisse de la performance mesurable sur la table — la technologie est prête. La contrainte n’est plus algorithmique. Elle relève de l’exécution ingénierie.
Le Dr Rafał Noga est spécialisé dans la commande prédictive basée sur des modèles et la commande basée sur l’apprentissage pour les systèmes industriels. Si vous souhaitez évaluer si le contrôle par RN ou MPC est la prochaine étape adaptée à votre procédé, l’appel de diagnostic gratuit est l’endroit où cette conversation commence.
À lire ensuite
- Il s’est passé quelque chose avec l’APC en août 2025 — Les données de tendances de recherche derrière le boom de l’IA industrielle en 2025 et ce qu’elles signalent pour les ingénieurs de procédé.
- Modèles de conception MPC — Architectures de commande prédictive réutilisables documentées pour un déploiement industriel.
Le contrôle par RN ou MPC est-il adapté à votre procédé ?
Obtenez une réponse claire lors d’un appel de diagnostic gratuit de 30 minutes.
Réserver un appel gratuit →Références
1. Alginahi, Y.M., Sabri, O., Said, W. (2025). Reinforcement Learning for Industrial Automation: A Comprehensive Review of Adaptive Control and Decision-Making in Smart Factories. Machines, 13(12), 1140. https://doi.org/10.3390/machines13121140
2. Imubit (2024). Imubit Launches Closed-Loop AI Optimization Solution Powered by Reinforcement Learning. Hydrocarbon Processing, September 2024. https://www.hydrocarbonprocessing.com/news/2024/09/imubit-launches-closed-loop-ai-optimization-solution-powered-by-reinforcement-learning/
3. Imubit (2024). The Process Industry’s First Reinforcement Learning-Powered Closed-Loop AI Optimization. https://imubit.com/blog/the-process-industrys-first-reinforcement-learning-powered-closed-loop-ai-optimization/
4. Yokogawa Electric Corporation (2022). Yokogawa and JSR Achieve World-First Adoption of AI Autonomous Control in Chemical Plant. Press release, March 22, 2022. https://www.yokogawa.com/us/news/press-releases/2022/2022-03-22/
5. Yokogawa Electric Corporation (2023). ENEOS Materials and Yokogawa Achieve First Successful Autonomous Control of a Chemical Plant Using Reinforcement Learning AI. Press release, March 30, 2023. https://www.yokogawa.com/us/news/press-releases/2023/2023-03-30/
6. Blum, F. et al. (2021). Investigation of a Model-Based Deep Reinforcement Learning Controller Applied to an Air Separation Unit in a Production Environment. Chemie Ingenieur Technik. https://doi.org/10.1002/cite.202100094
7. Park, J., Choi, W., Kim, D., Park, H.E., Lee, J.M. (2025). Real-World Implementation of Offline Reinforcement Learning for Process Control in Industrial Dividing Wall Column. SSRN preprint. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5253477
8. Gil, J.D., del Rio Chanona, E.A., Guzmán, J.L., Berenguel, M. (2025). Reinforcement learning meets bioprocess control through behaviour cloning: Real-world deployment in an industrial photobioreactor. Engineering Applications of Artificial Intelligence. https://arxiv.org/abs/2509.06853
9. Moshari, A., Javanroodi, K., Nik, V.M. (2026). Real-world deployment of model-free reinforcement learning for energy control in district heating systems. Applied Energy, 402. https://doi.org/10.1016/j.apenergy.2025.126997
10. Silvestri, A., Coraci, D., Brandi, S., Capozzoli, A., Borkowski, E., Köhler, J., Wu, D., Zeilinger, M.N., Schlueter, A. (2024). Real building implementation of a deep reinforcement learning controller to enhance energy efficiency and indoor temperature control. Applied Energy, 368, 123447. https://doi.org/10.1016/j.apenergy.2024.123447
11. Coraci, D., Silvestri, A., Razzano, G., Fop, D., Brandi, S., Borkowski, E., Hong, T., Schlueter, A., Capozzoli, A. (2025). A scalable approach for real-world implementation of deep reinforcement learning controllers in buildings based on online transfer learning: The HiLo case study. Energy and Buildings, 329, 115254. https://doi.org/10.1016/j.enbuild.2024.115254
12. Silvestri, A., Coraci, D., Brandi, S., Capozzoli, A., Borkowski, E., Köhler, J., Wu, D., Zeilinger, M.N. (2025). Practical deployment of reinforcement learning for building controls using an imitation learning approach. Energy and Buildings, 335. https://www.sciencedirect.com/science/article/pii/S0378778825002415
13. DeepMind (2016). DeepMind AI reduces Google data centre cooling bill by 40%. https://deepmind.google/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-by-40/
14. DeepMind (2018). Safety-first AI for autonomous data centre cooling and industrial control. https://deepmind.google/blog/safety-first-ai-for-autonomous-data-centre-cooling-and-industrial-control/
15. Luo, J. et al. (2022). Controlling Commercial Cooling Systems Using Reinforcement Learning. arXiv:2211.07357. https://arxiv.org/abs/2211.07357
16. Dulac-Arnold, G., Levine, N., Mankowitz, D.J., Li, J., Paduraru, C., Gowal, S., Hester, T. (2021). Challenges of Real-World Reinforcement Learning: Definitions, Benchmarks and Analysis. Machine Learning, 110, 2419–2468. https://doi.org/10.1007/s10994-021-05961-4
17. Levine, S., Kumar, A., Tucker, G., Fu, J. (2020). Offline Reinforcement Learning: Tutorial, Review, and Perspectives on Open Problems. arXiv:2005.01643. https://arxiv.org/abs/2005.01643
18. García, J., Fernández, F. (2015). A Comprehensive Survey on Safe Reinforcement Learning. Journal of Machine Learning Research, 16(1), 1437–1480. https://jmlr.org/papers/v16/garcia15a.html
Have a project or a question?
Contact Dr. Noga →