Logo do repositório
 
Publicação

Explainable AI para Confiança e Transparência

datacite.subject.fosEngenharia e Tecnologia
datacite.subject.sdg09:Indústria, Inovação e Infraestruturas
dc.contributor.advisorSantos, Joaquim Filipe Peixoto dos
dc.contributor.advisorMarreiros, Maria Goreti Carvalho
dc.contributor.authorRODRIGUES, CARLOS MANUEL DA SILVA PEREIRA
dc.date.accessioned2026-03-06T15:52:23Z
dc.date.available2026-03-06T15:52:23Z
dc.date.issued2026-01-23
dc.description.abstractEsta dissertação explora o desenvolvimento de sistemas de recomendação no âmbito do projeto EARS, que combina Federated Learning e Explainable AI, tentando tanto promover a privacidade e a transparência. O trabalho aborda desafios como a falta de explicabilidade nos sistemas tradicionais. Foi realizada uma análise abrangente das técnicas existentes para melhorar a transparência dos sistemas tradicionais. Este estudo destaca como a integração de XAI pode fornecer explicações claras sobre as recomendações, aumentando a confiança dos utilizadores. Neste estudo foi implementado um protótipo de sistema de recomendação baseado num modelo de Random Forest, ao qual foi aplicado métodos de Explainable AI, nomeadamente o LIME e o SHAP, para a geração de explicações juntamente com as recomendações feitas pelo modelo. Os resultados obtidos demonstram como a integração de técnicas de Explainable AI pode contribuir para a melhor compreensão das recomendações pelos utilizadores, permitindo identificar variáveis mais influentes nas sugestões. Estes resultados mostraram como cada ferramenta se adapta às especificidades do domínio de e-commerce. Assim, este trabalho reforça o potencial ganho em termos de transparência e confiança com a integração de técnicas do XAI.por
dc.description.abstractThis dissertation explores the development of recommendation systems based on the EARS project, leveraging Federated Learning and Explainable Artificial Intelligence techniques, aiming to promote privacy and transparency. The work addresses challenges such as the lack of explainability in traditional systems. A comprehensive analysis of existing techniques was carried out to improve the transparency of such systems. This study highlights how the integration of XAI can provide explanations for recommendations, with the main goal of increasing user trust. In this study, a prototype recommendation system was implemented based on a Random Forest model, to which Explainable AI methods, LIME and SHAP, were applied for generating explanations alongside the recommendations produced by the model. The results obtained demonstrate how the integration of Explainable AI techniques can contribute to a better understanding of recommendations by users, allowing them to identify the most influential variables in the suggestions. These findings also showed how each tool adapts to the specific circumstances of the e-commerce domain. Thus, this work reinforces the potential benefits in terms of transparency and trust gained through the integration of XAI techniques.eng
dc.identifier.tid204226775
dc.identifier.urihttp://hdl.handle.net/10400.22/32031
dc.language.isopor
dc.rights.uriN/A
dc.subjectRecommendation Systems
dc.subjectExplainable Artificial Intelligence
dc.subjectFederated Learning
dc.subjectPrivacy
dc.subjectTransparency
dc.subjectTrust
dc.subjectSistemas de Recomendação
dc.subjectPrivacidade
dc.subjectTransparência
dc.subjectConfiança
dc.titleExplainable AI para Confiança e Transparência
dc.title.alternativeExplainable Ai for Trust and Transparencyeng
dc.typemaster thesis
dspace.entity.typePublication
thesis.degree.nameMestrado em Engenharia Informática

Ficheiros

Principais
A mostrar 1 - 1 de 1
Miniatura indisponível
Nome:
Tese_6131.pdf
Tamanho:
3.84 MB
Formato:
Adobe Portable Document Format
Licença
A mostrar 1 - 1 de 1
Miniatura indisponível
Nome:
license.txt
Tamanho:
4.03 KB
Formato:
Item-specific license agreed upon to submission
Descrição: