La conception de processus robustes revêt une importance capitale dans divers secteurs, tels que le génie chimique et le génie des procédés. La nature de la robustesse consiste à s'assurer qu'un processus peut constamment produire les résultats souhaités pour les décideurs, même lorsqu'ils sont confrontés à une variabilité et à une incertitude intrinsèques. Un processus conçu de manière robuste améliore non seulement la qualité et la fiabilité des produits, mais réduit également de manière significative le risque de défaillances coûteuses, de temps d'arrêt et de rappels de produits. Il améliore l'efficacité et la durabilité en minimisant les déviations et les défaillances du processus. Il existe différentes méthodes pour améliorer la robustesse du système, telles que la conception d'expériences, l'optimisation robuste et la méthodologie de la surface de réponse. Parmi les méthodes de conception robuste, l'analyse de sensibilité pourrait être appliquée comme technique de soutien pour mieux comprendre comment les modifications des paramètres d'entrée affectent les performances et la robustesse.
En raison du développement rapide en science de l’ingénieure, les modèles mécanistiques ne captant pas certaines parties des systèmes complexe, peuvent ne pas être l'option la plus appropriée pour d'analyse de sensibilité. Ceci nous amène à envisager l'application de modèles d'apprentissage automatique et la combiner avec l’analyse de sensibilité. Par ailleurs, la question de l'interprétabilité des modèles d'apprentissage automatique a gagné en importance, il est de plus en plus nécessaire de comprendre comment ces modèles parviennent à leurs prédictions ou à leurs décisions et comment les différents paramètres sont liés. Étant donné que leurs performances dépassent constamment celles des modèles mécanistiques, fournir des explications, des justifications et des informations sur les prédictions des modèles de ML permettent non seulement de renforcer leur fiabilité et leur équité, mais aussi de donner aux ingénieurs les moyens de prendre des décisions en connaissance de cause, d'identifier les biais, de détecter les erreurs et d'améliorer les performances globales et la fiabilité des systèmes. Diverses méthodes sont disponibles pour traiter les différents aspects de l'interprétabilité, ces dernières reposent sur des approches spécifiques à un modèle et sur des méthodes agnostiques aux modèles.
Dans cette thèse, notre objectif est d'améliorer l'interprétabilité de diverses méthodes de ML tout en maintenant un équilibre entre la précision dans la prédiction et l'interprétabilité afin de garantir aux décideurs que les modèles peuvent être considérés comme robustes. Simultanément, nous voulons démontrer que les décideurs peuvent faire confiance aux prédictions fournies par les modèles ML. Les outils d’interprétabilité ont été testés pour différents scénarios d'application, y compris les modèles basés sur des équations, les modèles hybrides et les modèles basés sur des données. Pour atteindre cet objectif, nous avons appliqué à diverses applications plusieurs méthodes agnostiques aux modèles, telles que partial dependence plots, individual conditional expectations, accumulated local effects, etc. |
Robust process design holds paramount importance in various industries, such as process and chemical engineering. The nature of robustness lies in ensuring that a process can consistently deliver desired outcomes for decision-makers and/or stakeholders, even when faced with intrinsic variability and uncertainty. A robustly designed process not only enhances product quality and reliability but also significantly reduces the risk of costly failures, downtime, and product recalls. It enhances efficiency and sustainability by minimizing process deviations and failures. There are different methods to approach the robustness of a complex system, such as the design of experiments, robust optimization, and response surface methodology. Among the robust design methods, sensitivity analysis could be applied as a supportive technique to gain insights into how changes in input parameters affect performance and robustness. Due to the rapid development and advancement of engineering science, the use of physical models for sensitivity analysis presents several challenges, such as unsatisfied assumptions and computation time. These problems lead us to consider applying machine learning (ML) models to complex processes.
Although, the issue of interpretability in ML has gained increasing importance, there is a growing need to understand how these models arrive at their predictions or decisions and how different parameters are related. As their performance consistently surpasses that of other models, such as knowledge-based models, the provision of explanations, justifications, and insights into the workings of ML models not only enhances their trustworthiness and fairness but also empowers stakeholders to make informed decisions, identify biases, detect errors, and improve the overall performance and reliability of the process. Various methods are available to address interpretability, including model-specific and model-agnostic methods.
In this thesis, our objective is to enhance the interpretability of various ML methods while maintaining a balance between accuracy and interpretability to ensure decision-makers or stakeholders that our model or process could be considered robust. Simultaneously, we aim to demonstrate that users can trust ML model predictions guaranteed by model-agnostic techniques, which work across various scenarios, including equation-based, hybrid, and data-driven models. To achieve this goal, we applied several model-agnostic methods, such as partial dependence plots, individual conditional expectations, accumulated local effects, etc., to diverse applications. |