Publication
Evaluation of explainability AI (XAI) techniques for mitigating ethical and legal challenges
| datacite.subject.fos | Engenharia e Tecnologia | |
| datacite.subject.sdg | 09:Indústria, Inovação e Infraestruturas | |
| dc.contributor.advisor | Marreiros, Maria Goreti Carvalho | |
| dc.contributor.author | ESQUIÇATO, RAFAEL PORCIDONIO FERNANDES | |
| dc.date.accessioned | 2025-11-24T14:54:14Z | |
| dc.date.available | 2025-11-24T14:54:14Z | |
| dc.date.issued | 2025-07-14 | |
| dc.description.abstract | The integration of Artificial Intelligence (AI) into healthcare systems raises significant ethical and legal concerns. This study investigates how Explainable AI (XAI) techniques can enhance the transparency and trustworthiness of medical image classification systems. Through a systematic literature review of 860 papers and experiments using COVID-19 radiography and skin lesion datasets, the research identifies and evaluates XAI methods such as Grad-CAM, SHAP, and ABELE. These methods were assessed for their ability to clarify decision-making processes, improve model accountability, and support regulatory compliance. The study proposes an explainability module that combines different techniques to provide human-readable explanations, aiming to bridge the gap between AI predictions and clinical trust. Findings indicate that XAI not only addresses transparency and bias issues but can also improve diagnostic performance and decision support in critical applications. | eng |
| dc.description.abstract | A aplicação de Inteligência Artificial (IA) em sistemas médicos, especialmente em diagnóstico por imagem, levanta importantes questões éticas, legais e de confiança devido à natureza opaca dos modelos de aprendizagem profunda. Este trabalho investiga como técnicas de Inteligência Artificial Explicável (XAI) podem mitigar esses desafios, promovendo maior transparência e interpretabilidade. A pesquisa realiza uma revisão sistemática da literatura, analisando 860 artigos recentes, e identifica como a falta de explicações compreensíveis afeta diretamente a adoção desses sistemas na prática clínica. Além da revisão, foram desenvolvidos e treinados dois modelos baseados em redes neurais convolucionais (CNNs), utilizando conjuntos de dados reais: um de radiografias torácicas para detecção de COVID-19 e outro de lesões de pele. Sobre esses modelos, aplicaram-se três técnicas de XAI – Grad-CAM, SHAP e ABELE – com o objetivo de explicar as decisões do sistema e identificar quais regiões ou atributos foram mais relevantes para cada predição. Os resultados mostram que as técnicas de XAI melhoram a confiança dos usuários ao fornecerem explicações visuais ou estatísticas compreensíveis, auxiliando na detecção de viés, na melhoria da performance do modelo e na conformidade com regulamentos como o GDPR. Além disso, a explicabilidade pode ser integrada como um módulo funcional nos sistemas de diagnóstico, ampliando sua utilidade clínica. Conclui-se que XAI desempenha um papel fundamental na construção de sistemas de IA mais éticos, transparentes e confiáveis no contexto da saúde. Este trabalho contribui ao propor uma abordagem prática que combina diferentes métodos explicativos, com potencial para impactar positivamente a adoção de IA em ambientes médicos reais. | por |
| dc.identifier.tid | 204034302 | |
| dc.identifier.uri | http://hdl.handle.net/10400.22/31054 | |
| dc.language.iso | eng | |
| dc.rights.uri | N/A | |
| dc.subject | Explainable AI | |
| dc.subject | Healthcare | |
| dc.subject | Image Classification | |
| dc.subject | Deep Learning | |
| dc.subject | Medical Ethics | |
| dc.subject | Transparency | |
| dc.subject | Inteligência artificial explicável | |
| dc.subject | Saúde | |
| dc.subject | Classificação de imagens | |
| dc.subject | Deep learning | |
| dc.subject | Ética | |
| dc.subject | Transparência | |
| dc.title | Evaluation of explainability AI (XAI) techniques for mitigating ethical and legal challenges | eng |
| dc.type | master thesis | |
| dspace.entity.type | Publication | |
| thesis.degree.name | Mestrado em Engenharia de Inteligência Artificial |
