| Name: | Description: | Size: | Format: | |
|---|---|---|---|---|
| 3.8 MB | Adobe PDF |
Advisor(s)
Abstract(s)
Perturbações de saúde mental como ansiedade, depressão, perturbação bipolar e ideação
suicida continuam a representar desafios significativos para a saúde pública. Esta dissertação
investiga de que forma o processamento de linguagem natural (PLN) pode apoiar a deteção
precoce de sinais e a prestação de apoio empático, dentro de um escopo não-diagnóstico e
com preservação da privacidade. Desenvolve-se um assistente conversacional chat-first que
classifica indícios relacionados com saúde mental no texto do utilizador e enriquece as
respostas com uma base de conhecimento curada através de Retrieval-Augmented Generation
(RAG), usando pesquisa semântica densa (incorporações MiniLM com FAISS). Um corpus précategorizado
é utilizado para treinar e comparar várias arquiteturas de aprendizagem
profunda (LSTM, Bi-LSTM, Bi-GRU, CNN e um híbrido CNN-LSTM). Os melhores modelos LSTM
e Bi-LSTM atingem macro-F1 ≈ 0,70 em categorias como ansiedade, depressão, perturbação
bipolar e ideação suicida.
A implementação privilegia reprodutibilidade e segurança: pré-processamento determinístico,
divisões estratificadas, mitigação de desequilíbrio de classes, artefactos versionados (pesos
.keras, tokenizer, label encoder) e registo experimental leve. Em inferência, um esquema de
limiares calibrados regula linguagem de cautela; as guardrails impõem uma postura não
diagnóstica, minimizam a retenção de dados e acionam sinalização de crise quando os
indicadores de risco excedem limites pré-definidos. A interface apresenta respostas
transparentes com atribuição de fontes e permite exportar ou eliminar conversas.
Os resultados sugerem que assistentes baseados em PLN podem ajudar a evidenciar sinais
precoces de saúde mental mantendo uma interação empática. Em paralelo, o trabalho
sublinha a necessidade de um desenho ético, com privacidade, transparência e afirmações de
escopo limitado para uma adoção responsável. A dissertação encerra com prioridades para
alargar o uso de datasets clinicamente validados, explorar extensões multimodais e conduzir
estudos controlados com utilizadores para avaliar o impacto no mundo real.
Mental health conditions such as anxiety, depression, bipolar disorder, and suicidal ideation remain major public health challenges. This dissertation investigates whether natural language processing (NLP) can support early signal detection and empathetic assistance within a privacy preserving, non-diagnostic scope. This dissertation develops a chat-first personal assistant that classifies mental health related cues in user text and augments its responses with a curated knowledge base via Retrieval-Augmented Generation (RAG) using dense semantic search (MiniLM embeddings with FAISS). A pre-categorized corpus is used to train and compare multiple deep learning architectures (LSTM, Bi-LSTM, Bi-GRU, CNN, and a CNN-LSTM hybrid). The best models LSTM and Bi-LSTM achieve macro-F1 ≈ 0.70 across categories including anxiety, depression, bipolar disorder, and suicidal ideation. The implementation emphasizes reproducibility and safety: deterministic preprocessing, stratified splits, class imbalance mitigation, versioned artefacts (.keras weights, tokenizer, label encoder), and lightweight experiment logging. At inference, a calibrated thresholding scheme governs cautionary language; guardrails enforce a non-diagnostic stance, minimize data retention, and trigger crisis signposting when risk indicators exceed preset limits. The user interface delivers transparent, source attributed responses and supports the exporting or deleting of conversations. Results indicate that NLP based assistants can help surface early mental health signals while sustaining empathetic engagement. Equally, the work highlights the necessity of ethical design privacy, transparency, and scoped claims for responsible deployment. The dissertation concludes with priorities for broader, clinically validated datasets, multimodal extensions, and controlled user studies to assess real world impact.
Mental health conditions such as anxiety, depression, bipolar disorder, and suicidal ideation remain major public health challenges. This dissertation investigates whether natural language processing (NLP) can support early signal detection and empathetic assistance within a privacy preserving, non-diagnostic scope. This dissertation develops a chat-first personal assistant that classifies mental health related cues in user text and augments its responses with a curated knowledge base via Retrieval-Augmented Generation (RAG) using dense semantic search (MiniLM embeddings with FAISS). A pre-categorized corpus is used to train and compare multiple deep learning architectures (LSTM, Bi-LSTM, Bi-GRU, CNN, and a CNN-LSTM hybrid). The best models LSTM and Bi-LSTM achieve macro-F1 ≈ 0.70 across categories including anxiety, depression, bipolar disorder, and suicidal ideation. The implementation emphasizes reproducibility and safety: deterministic preprocessing, stratified splits, class imbalance mitigation, versioned artefacts (.keras weights, tokenizer, label encoder), and lightweight experiment logging. At inference, a calibrated thresholding scheme governs cautionary language; guardrails enforce a non-diagnostic stance, minimize data retention, and trigger crisis signposting when risk indicators exceed preset limits. The user interface delivers transparent, source attributed responses and supports the exporting or deleting of conversations. Results indicate that NLP based assistants can help surface early mental health signals while sustaining empathetic engagement. Equally, the work highlights the necessity of ethical design privacy, transparency, and scoped claims for responsible deployment. The dissertation concludes with priorities for broader, clinically validated datasets, multimodal extensions, and controlled user studies to assess real world impact.
Description
Keywords
Mental health NLP suicide risk detection anxiety and depression classification support chatbot ethical safeguards and privacy embeddings MiniLM e FAISS modelos LSTM/Bi-LSTM RAG – geração com recuperação pesquisa semântica calibração e explicabilidade de modelos NLP em saúde mental deteção de risco suicida classificação de ansiedade e depressão chatbot de apoio salvaguardas éticas e privacidade Retrieval-Augmented Generation (RAG) LSTM/Bi-LSTM models semantic search model calibration and explainability
