Martins, António Constantino LopesOLIVEIRA, RODRIGO DIAS CORREIA DE2025-12-222025-12-222025-10-23http://hdl.handle.net/10400.22/31312Perturbações de saúde mental como ansiedade, depressão, perturbação bipolar e ideação suicida continuam a representar desafios significativos para a saúde pública. Esta dissertação investiga de que forma o processamento de linguagem natural (PLN) pode apoiar a deteção precoce de sinais e a prestação de apoio empático, dentro de um escopo não-diagnóstico e com preservação da privacidade. Desenvolve-se um assistente conversacional chat-first que classifica indícios relacionados com saúde mental no texto do utilizador e enriquece as respostas com uma base de conhecimento curada através de Retrieval-Augmented Generation (RAG), usando pesquisa semântica densa (incorporações MiniLM com FAISS). Um corpus précategorizado é utilizado para treinar e comparar várias arquiteturas de aprendizagem profunda (LSTM, Bi-LSTM, Bi-GRU, CNN e um híbrido CNN-LSTM). Os melhores modelos LSTM e Bi-LSTM atingem macro-F1 ≈ 0,70 em categorias como ansiedade, depressão, perturbação bipolar e ideação suicida. A implementação privilegia reprodutibilidade e segurança: pré-processamento determinístico, divisões estratificadas, mitigação de desequilíbrio de classes, artefactos versionados (pesos .keras, tokenizer, label encoder) e registo experimental leve. Em inferência, um esquema de limiares calibrados regula linguagem de cautela; as guardrails impõem uma postura não diagnóstica, minimizam a retenção de dados e acionam sinalização de crise quando os indicadores de risco excedem limites pré-definidos. A interface apresenta respostas transparentes com atribuição de fontes e permite exportar ou eliminar conversas. Os resultados sugerem que assistentes baseados em PLN podem ajudar a evidenciar sinais precoces de saúde mental mantendo uma interação empática. Em paralelo, o trabalho sublinha a necessidade de um desenho ético, com privacidade, transparência e afirmações de escopo limitado para uma adoção responsável. A dissertação encerra com prioridades para alargar o uso de datasets clinicamente validados, explorar extensões multimodais e conduzir estudos controlados com utilizadores para avaliar o impacto no mundo real.Mental health conditions such as anxiety, depression, bipolar disorder, and suicidal ideation remain major public health challenges. This dissertation investigates whether natural language processing (NLP) can support early signal detection and empathetic assistance within a privacy preserving, non-diagnostic scope. This dissertation develops a chat-first personal assistant that classifies mental health related cues in user text and augments its responses with a curated knowledge base via Retrieval-Augmented Generation (RAG) using dense semantic search (MiniLM embeddings with FAISS). A pre-categorized corpus is used to train and compare multiple deep learning architectures (LSTM, Bi-LSTM, Bi-GRU, CNN, and a CNN-LSTM hybrid). The best models LSTM and Bi-LSTM achieve macro-F1 ≈ 0.70 across categories including anxiety, depression, bipolar disorder, and suicidal ideation. The implementation emphasizes reproducibility and safety: deterministic preprocessing, stratified splits, class imbalance mitigation, versioned artefacts (.keras weights, tokenizer, label encoder), and lightweight experiment logging. At inference, a calibrated thresholding scheme governs cautionary language; guardrails enforce a non-diagnostic stance, minimize data retention, and trigger crisis signposting when risk indicators exceed preset limits. The user interface delivers transparent, source attributed responses and supports the exporting or deleting of conversations. Results indicate that NLP based assistants can help surface early mental health signals while sustaining empathetic engagement. Equally, the work highlights the necessity of ethical design privacy, transparency, and scoped claims for responsible deployment. The dissertation concludes with priorities for broader, clinically validated datasets, multimodal extensions, and controlled user studies to assess real world impact.engMental health NLPsuicide risk detectionanxiety and depression classificationsupport chatbotethical safeguards and privacyembeddings MiniLM e FAISSmodelos LSTM/Bi-LSTMRAG – geração com recuperaçãopesquisa semânticacalibração e explicabilidade de modelosNLP em saúde mentaldeteção de risco suicidaclassificação de ansiedade e depressãochatbot de apoiosalvaguardas éticas e privacidadeRetrieval-Augmented Generation (RAG)LSTM/Bi-LSTM modelssemantic searchmodel calibration and explainabilityAssistente pessoal para apoio à saúde mental com análise de sentimentoPersonal Assistant for Mental Health Support Through Sentiment Analysismaster thesis204067863