Ennab Mohammad Mahmoud Hassan. (2025). A hybrid convolutional-fuzzy model for interpretable AI in healthcare: improving transparency and accuracy in chronic disease management. Thèse de doctorat, Université du Québec à Chicoutimi.
![]() |
PDF
4MB |
Résumé
The integration of Artificial Intelligence (AI) into healthcare has revolutionized diagnostic capabilities, particularly in medical imaging and disease prediction. However, the widespread adoption of AI in clinical settings is significantly impeded by challenges related to interpretability, transparency, and trust in AI-driven decision-making processes. This thesis aims to address these critical challenges by introducing innovative frameworks that enhance the interpretability, usability, and reliability of AI systems in healthcare, with a particular focus on improving chronic disease management through more transparent and actionable insights. Through a comprehensive analysis of AI-based prediction models, including those developed during the COVID-19 pandemic and an extensive review of AI models in healthcare presented in Chapter 3, this research identifies key limitations in current interpretability techniques. These limitations include the inability to effectively balance predictive accuracy with user comprehension and the challenges associated with integrating AI-generated insights into clinical workflows. To overcome these gaps, two novel frameworks have been designed: a hybrid convolutional-fuzzy model, which provides pixel-level interpretability by combining the predictive power of convolutional neural networks (CNNs) with the explainability of fuzzy logic, and a statistical model designed to embed interpretability into AI workflows, ensuring more transparent and accountable decision-making. These frameworks not only enhance diagnostic transparency but also empower clinicians with clear, actionable insights to support informed clinical decisions, particularly in the management of chronic diseases where long-term monitoring and interpretability are crucial for effective treatment planning. Extensive experimental validation was carried out using real-world medical imaging datasets to evaluate the effectiveness of the designed convolutional-fuzzy model. A comprehensive comparative analysis against state-of-the-art interpretability techniques, including Grad-CAM, demonstrated the superior performance of the convolutional-fuzzy model in achieving an enhanced balance between interpretability and diagnostic accuracy. The results validate the research hypotheses, affirming that the convolutional fuzzy model approach significantly enhances transparency, supports clinical adoption, and ensures scalability across diverse healthcare applications, with a strong emphasis on its role in enhancing the early detection and monitoring of chronic conditions. Furthermore, this thesis examines the ethical, regulatory, and practical implications of deploying interpretable AI systems in clinical environments, emphasizing the importance of aligning AI models with industry standards and clinicians' expectations for trust and reliability. Despite the notable contributions, challenges such as computational complexity and workflow integration are acknowledged. Future research will focus on optimizing computational efficiency and expanding the applicability of the designed models across diverse medical imaging modalities. By bridging the gap between technological advancements and clinical applicability, this research contributes to the evolving field of explainable AI in healthcare, laying a robust foundation for the development of AI systems that prioritize transparency, trust, and improved patient outcomes, particularly in the context of chronic disease management, where long-term interpretability and reliability are essential for sustained clinical success.
L'intégration de l'intelligence artificielle (IA) dans le domaine de la santé a révolutionné les capacités diagnostiques, en particulier dans l'imagerie médicale et la prédiction des maladies. Cependant, l'adoption généralisée de l'IA dans les environnements cliniques est considérablement freinée par des défis liés à l'interprétabilité, à la transparence et à la confiance dans les processus de prise de décision pilotés par l'IA. Cette thèse vise à relever ces défis critiques en introduisant des cadres novateurs qui améliorent l'interprétabilité, la convivialité et la fiabilité des systèmes d'IA en santé, avec un accent particulier sur l'amélioration de la gestion des maladies chroniques grâce à des informations plus transparentes et exploitables. À travers une analyse approfondie des modèles de prédiction basés sur l'IA, y compris ceux développés pendant la pandémie de COVID-19, ainsi qu'un examen exhaustif des modèles d'IA en santé présenté dans le chapitre 3, cette recherche identifie les principales limites des techniques d'interprétabilité actuelles. Ces limites incluent l'incapacité à équilibrer efficacement la précision prédictive et la compréhension utilisateur, ainsi que les défis liés à l'intégration des résultats de l'IA dans les flux de travail cliniques. Pour combler ces lacunes, deux cadres novateurs ont été conçus : un modèle hybride convolutionnel-flou, qui fournit une interprétabilité au niveau des pixels en combinant la puissance prédictive des réseaux neuronaux convolutionnels (CNNs) avec l'explicabilité de la logique floue, et un modèle statistique conçu pour intégrer l'interprétabilité dans les flux de travail de l'IA, garantissant une prise de décision plus transparente et responsable. Ces cadres améliorent non seulement la transparence diagnostique, mais permettent également aux cliniciens de disposer d'informations claires et exploitables pour prendre des décisions éclairées, en particulier dans la gestion des maladies chroniques, où la surveillance à long terme et l'interprétabilité sont essentielles pour un traitement efficace. Une validation expérimentale approfondie a été réalisée en utilisant des ensembles de données d'imagerie médicale du monde réel afin d'évaluer l'efficacité du modèle convolutionnel-flou conçu. Une analyse comparative exhaustive avec les techniques d'interprétabilité de pointe, telles que Grad-CAM, a démontré la performance supérieure du modèle convolutionnel-flou, en atteignant un équilibre amélioré entre interprétabilité et précision diagnostique. Les résultats confirment les hypothèses de recherche, affirmant que l'approche du modèle convolutionnel-flou améliore significativement la transparence, favorise l'adoption clinique et garantit une évolutivité dans diverses applications de santé, en mettant particulièrement l'accent sur son rôle dans la détection précoce et la surveillance des maladies chroniques. En outre, cette thèse examine les implications éthiques, réglementaires et pratiques du déploiement des systèmes d'IA interprétables dans les environnements cliniques, en soulignant l'importance d'aligner les modèles d'IA sur les normes du secteur et les attentes des cliniciens en matière de confiance et de fiabilité. Malgré les contributions significatives, certaines difficultés telles que la complexité computationnelle et l'intégration dans les flux de travail cliniques sont reconnues. Les recherches futures viseront à optimiser l'efficacité computationnelle et à élargir l'applicabilité des modèles conçus à diverses modalités d'imagerie médicale. En comblant le fossé entre les avancées technologiques et l'application clinique, cette recherche contribue au domaine en évolution de l'IA explicable en santé, en posant une base solide pour le développement de systèmes d'IA qui privilégient la transparence, la confiance et de meilleurs résultats pour les patients, en particulier dans le contexte de la gestion des maladies chroniques, où l'interprétabilité et la fiabilité à long terme sont essentielles pour un succès clinique durable.
Type de document: | Thèse ou mémoire de l'UQAC (Thèse de doctorat) |
---|---|
Date: | 2025 |
Lieu de publication: | Chicoutimi |
Programme d'étude: | Doctorat en sciences et technologies de l'information |
Nombre de pages: | 196 |
ISBN: | Non spécifié |
Sujets: | Sciences naturelles et génie > Génie > Génie biomédical et génie biochimique Sciences naturelles et génie > Génie > Génie informatique et génie logiciel Sciences naturelles et génie > Sciences mathématiques > Informatique Sciences naturelles et génie > Sciences mathématiques > Mathématiques appliquées Sciences de la santé > Sciences médicales > Médecine préventive et communautaire |
Département, module, service et unité de recherche: | Départements et modules > Département d'informatique et de mathématique > Programmes d'études de cycles supérieurs en informatique (doctorat) |
Directeur(s), Co-directeur(s) et responsable(s): | Mcheick, Hamid |
Mots-clés: | chronic disease diagnosis, convolutional neural network, deep learning, fuzzy logic, interpretable AI, medical imaging |
Déposé le: | 28 mai 2025 08:14 |
---|---|
Dernière modification: | 28 mai 2025 14:52 |
Éditer le document (administrateurs uniquement)