| Nome: | Descrição: | Tamanho: | Formato: | |
|---|---|---|---|---|
| 4.46 MB | Adobe PDF |
Resumo(s)
A proliferação de spam e ataques de phishing representa ameaça crítica à segurança cibernética,
com 45,6% do tráfego global de e-mail classificado como malicioso em 2023. Embora Large
Language Models (LLMs) demonstrem eficácia superior na detecção contextual de ameaças,
sua adoção introduz vulnerabilidades inéditas através de ataques de prompt injection, com taxa
de sucesso documentada em 36 modelos comerciais.
Esta dissertação propõe um sistema multi-agente resiliente que integra detecção de spam e
mitigação de prompt injection através de arquitetura de defesa em profundidade. O sistema
implementa seis agentes especializados coordenados pelo framework LangGraph:
SanitizationAgent, PromptInjectionAgent, LLMClassifier, HashAnalyzer, MaliciousContentAgent
e ResultAggregator. Experimentos em dataset de 1.000 amostras balanceadas demonstraram
acurácia de 87%, recall de 92,8% e F1-Score de 86%, superando métodos tradicionais e
posicionando-se competitivamente frente a abordagens de Deep Learning.
A arquitetura modular permite incorporação de novos agentes sem reestruturação, enquanto
mecanismos de tolerância a falhas garantem operação contínua mesmo diante de
componentes comprometidos. Os resultados validam a viabilidade de sistemas multi-agente
baseados em LLMs para aplicações críticas de segurança cibernética.
Descrição
Palavras-chave
Multi-Agent Systems Spam Detection Large Language Models Prompt Injection Cybersecurity Sistemas multi-agente Detecção de spam Large language models Prompt injection Segurança cibernética
