Logo do repositório
 

ISCAP – DM - Business Intelligence and Analytics

URI permanente para esta coleção:

Navegar

Entradas recentes

A mostrar 1 - 10 de 13
  • Implementação de solução de Business Intelligence na Oneshop
    Publication . Branco, Mafalda Alçada Aguiar; Ramos, Patrícia Alexandra Gregório; Oliveira, José Manuel Soares
    O presente relatório insere-se no âmbito do estágio curricular do Mestrado em Business Intelligence & Analytics (BI&A), tendo como principal objetivo a implementação de uma solução de Business Intelligence (BI) na empresa Oneshop, grupo do setor automóvel português responsável pela importação e assistência de veículos das marcas Ford Trucks, Mazda e Volkswagen Veículos Comerciais. Através da utilização da plataforma Apache Superset, procurou-se desenvolver dashboards interativos que possibilitem uma análise eficaz da informação e apoiem a tomada de decisão estratégica, promovendo simultaneamente a eficiência e a transparência nos processos operacionais da organização. A solução proposta assentou na centralização e integração de dados provenientes de múltiplas fontes internas, nomeadamente históricos de manutenção, contratos de garantia e informações operacionais dos veículos. Foram definidos e monitorizados Key Performance Indicators (KPIs) relevantes para o negócio, com o intuito de avaliar o desempenho da empresa e facilitar a atuação proativa por parte do departamento Customer Loyalty Team (CLT). A metodologia adotada compreendeu, numa primeira fase, a modelação e normalização da base de dados, assegurando a coerência, consistência e qualidade dos dados. Posteriormente, procedeu-se ao desenvolvimento de dashboards dinâmicos na plataforma Apache Superset, com vista à disponibilização de indicadores analíticos de fácil interpretação e elevada utilidade prática, acessíveis a todos os intervenientes no processo de tomada de decisão. A aplicação da solução de BI permitiu melhorar a eficiência operacional e apoiar decisões mais informadas na Oneshop. Os dashboards desenvolvidos possibilitaram o acompanhamento em tempo real de indicadores chave, como as manutenções inteligentes e os contratos de garantia, reforçando a transparência e a capacidade analítica da organização.
  • Image synthesis via Deep Learning for defect detection in organic fabrics
    Publication . Figueiredo, João Pedro Vicente; Ferreira, Hugo Miguel Mendes; Ramos, Patrícia Alexandra Gregório
    Este trabalho de investigação tem como objetivo desenvolver uma técnica de síntese de imagens utilizando redes neurais generativas para detetar e localizar anomalias em tecidos. O foco incide em materiais orgânicos com texturas detalhadas e variações significativas. Este contexto representa um desafio na identificação de defeitos, uma vez que as variações naturais destes materiais não devem ser confundidas com defeitos reais. O trabalho de investigação centra-se em algoritmos de deteção de anomalias não supervisionados, devido à escassez de dados etiquetados em ambientes industriais. O trabalho consiste em explorar conjuntos de dados reais para estudar a melhor forma de utilizar autoencoders na deteção e localização de defeitos, aplicando estes resultados a imagens de tecidos, fibras e outros materiais orgânicos com texturas detalhadas e variações significativas. O objetivo é detetar e segmentar defeitos, sem confundir as alterações na textura provocadas por variações naturais. A metodologia empírica centra-se na deteção de anomalias em padrões e tecidos, utilizando a métrica de índice de Similaridade Estruturada (SSIM - Structural Similarity Index) e variantes como função de perda de um autoencoder. A principal vantagem desta abordagem reside na capacidade do SSIM de capturar similaridades estruturais, de luminância e de contraste entre a imagem original e a reconstruída, em vez de depender apenas de diferenças pixel a pixel, como ocorre com o Erro Quadrático Médio (MSE – Mean Squared Error). O trabalho envolveu a definição do contexto empresarial, a recolha e geração de um conjunto de dados alargado e abrangente de imagens de tecidos, o pré-processamento das imagens, o design da arquitetura do autoencoder, o treino do autoencoder no conjunto de dados pré-processado e a avaliação dos resultados de deteção. Este trabalho de investigação visa contribuir para a área da deteção de anomalias, desenvolvendo um método robusto e eficaz para identificar defeitos em tecidos orgânicos.
  • Desenvolvimento de um modelo preditivo como ferramenta de eficiência operacional
    Publication . Costa, João Diogo Dias; Ramos, Patrícia Alexandra Gregório; Costa, Nuno Ulisses Rosalino da
    No âmbito do segundo semestre do mestrado em Business Intelligence and Analytics, do Instituto Superior de Contabilidade e Administração do Porto (ISCAP), o presente relatório tem como objetivo descrever e dar provas das tarefas desenvolvidas no estágio curricular entre 5 de março de 2025 e 13 de junho de 2025, realizado em regime híbrido na Luís Simões, uma empresa de transporte e logística com sede em Loures. As funções e tarefas exercidas durante o estágio focaram-se na realização da previsão de produção de caixas e expedições, de um cliente, nos dois maiores armazéns da empresa, em Gaia e no Carregado. No presente relatório encontra-se a descrição detalhada de todas as atividades executadas durante o estágio na Luís Simões, onde pude aplicar todos os conhecimentos adquiridos nas unidades curriculares do mestrado de Business Intelligence and Analytics do ISCAP. Durante o estágio, tive a oportunidade de utilizar diversas ferramentas e de consolidar os meus conhecimentos teóricos através de atividades práticas com clientes, cumprindo assim todos os objetivos definidos para o período. Em suma, o estágio consolidou a aplicação prática dos conhecimentos, culminando na implementação de modelos preditivos que resultaram em melhorias significativas na tomada de decisão e na eficiência operacional da organização. A experiência permitiu o desenvolvimento de competências técnicas e analíticas essenciais, ao mesmo tempo que identificou oportunidades de aperfeiçoamento dos modelos de previsão.
  • Análise do comportamento do consumidor com Business Intelligence
    Publication . Pinheiro, Catarina Filipa Vieira; Gonçalves, Célia Talma Martins de Pinho Valente; Pinto, Luís Carlos de Sousa
    No contexto empresarial atual, em que a tomada de decisão depende cada vez mais da análise de dados, a capacidade de transformar informação em conhecimento estratégico tornou-se essencial para o crescimento e sustentabilidade das organizações. O Business Intelligence (BI) surge, assim, como um conjunto de práticas e tecnologias que permitem recolher, analisar e apresentar dados de forma útil para apoiar a tomada de decisões. Com o apoio de ferramentas analíticas, o BI permite transformar grandes volumes de dados em indicadores estratégicos (KPIs), ajudando as empresas a compreender melhor o seu desempenho e a antecipar mudanças no mercado. O estudo e análise do comportamento do consumidor, tendo por base o uso de ferramentas de BI, constitui uma área fundamental para desenvolver estratégias de marketing, fidelizar clientes e melhorar o posicionamento da marca. Compreender os padrões de consumo, as preferências e as motivações dos clientes permite às empresas ajustar as suas ofertas, tornar as campanhas mais eficazes e tomar decisões mais acertadas. Esta dissertação foca-se na aplicação do BI para a análise do comportamento dos consumidores. Para isso, foi criada uma solução de BI tendo por base um conjunto de dados sobre tendências de compras dos consumidores, disponível na Web. O objetivo principal é ilustrar como a análise de dados pode oferecer insights valiosos para as empresas, permitindo-lhes adaptar as suas ofertas, melhorar as suas campanhas de marketing e, consequentemente, otimizar o seu desempenho financeiro. Complementarmente, foi realizada uma análise bibliométrica com recurso ao VOSviewer, permitindo mapear as diferentes tendências e contribuições científicas na área do BI aplicado ao comportamento do consumidor.
  • Business Intelligence na tomada de decisão sobre a oferta formativa no ensino superior
    Publication . Dias, Bárbara Ripane Gomes; Gonçalves, Célia Talma Martins de Pinho Valente; Gonçalves, Maria José Angélico
    O ensino superior em Portugal enfrenta o desafio de alinhar a sua oferta formativa com as necessidades reais do mercado de trabalho, num contexto marcado pela transformação digital e pela crescente valorização das competências analíticas. Neste cenário, as tecnologias de Business Intelligence (BI) surgem como ferramentas estratégicas para apoiar a tomada de decisão, permitindo às Instituições de Ensino Superior (IES) analisar dados, identificar tendências e otimizar as suas estratégias de ensino. A presente dissertação tem como objetivo principal compreender como o Business Intelligence pode contribuir para a definição de estratégias mais eficazes no ensino superior, de forma a reforçar a sua adaptabilidade face às dinâmicas do mercado laboral. Para tal, o estudo combina uma análise bibliométrica da literatura científica internacional com um estudo empírico, baseado em dados da Direção-Geral de Estatísticas da Educação e Ciência (DGEEC), explorados através da metodologia CRISP-DM (Cross Industry Standard Process for Data Mining) e da ferramenta Power BI. Os resultados obtidos demonstram que a utilização do BI possibilita uma visão integrada e dinâmica sobre o perfil dos diplomados, áreas de formação e evolução da oferta formativa, de forma a facilitar a identificação de padrões e previsões relevantes. Conclui-se que a adoção de soluções de BI no ensino superior potencia uma gestão baseada em dados, promove a eficiência institucional e contribui para a harmonia entre a formação académica e as exigências do mercado de trabalho, constituindo-se como um fator diferenciador para a competitividade e sustentabilidade das IES.
  • Business intelligence na gestão estratégica
    Publication . Costa, João Real; Gonçalves, Maria José Angélico; Maçães, Manuel Alberto Ramos
    Num cenário empresarial marcado pela competitividade e pela abundância de dados, as organizações procuram constantemente melhorar os processos de decisão e reforçar a sua posição estratégica. A complexidade crescente dos mercados e a diversidade de informação exigem ferramentas capazes de apoiar não só a análise rigorosa de dados, mas também a sua utilização na formulação e execução de estratégias. Neste contexto, o Business Intelligence assume um papel central, combinando tecnologias, metodologias analíticas e práticas de gestão para transformar dados, estruturados e não estruturados, em conhecimento que sustenta decisões mais fundamentadas e orientadas para a criação de valor. A presente dissertação analisa o contributo do BI para a gestão estratégica, explorando a sua relevância na tomada de decisão e na capacidade de adaptação e inovação organizacional. O estudo segue uma abordagem qualitativa, de carácter exploratório e descritivo, baseada em entrevistas semiestruturadas a gestores e especialistas de diferentes setores. Este método permitiu recolher perspetivas aprofundadas sobre o impacto do BI na definição de objetivos, na formulação de estratégias e na avaliação do desempenho, assim como identificar benefícios, desafios e fatores críticos de sucesso. Os resultados revelam que o BI aumenta a objetividade e a rapidez das decisões, facilita a automatização e padronização de processos e promove a centralização da informação numa “única fonte de verdade”. Para além disso, incentiva a consolidação de uma cultura organizacional orientada por dados. No entanto, surgem também obstáculos relevantes, como a resistência à mudança, a complexidade técnica da integração de sistemas e a escassez de competências especializadas em ciência dos dados. No plano teórico, esta investigação contribui para a consolidação do conhecimento sobre o BI como recurso estratégico transversal. No plano prático, oferece recomendações para alinhar iniciativas de BI com os objetivos organizacionais, potenciando a criação de valor e a coordenação das atividades de uma organização.
  • Multimodal fusion for time series forecasting: learning from temporal and visual data
    Publication . Bento, Alexandre Rafael Seabra; Ramos, Patrícia Alexandra Gregório
    Os modelos de previsão de séries temporais que recorrem apenas a dados numéricos tendem a ignorar fatores exógenos e padrões estruturais que podem ser mais facilmente captados por representações visuais. Esta dissertação propõe um enquadramento multimodal que integra sequências temporais numéricas e representações visuais (plots/imagens) para melhorar a exatidão, a robustez e a interpretabilidade da previsão. Metodologicamente, emprega-se um FT-Transformer para a componente temporal e uma rede convolucional TIMM para a componente visual, combinadas por um esquema de fusão híbrida a meio da rede. A pipeline inclui normalização e padronização de plots, geração consistente de janelas temporais, otimização bayesiana com Optuna e protocolos de avaliação reprodutíveis. A avaliação é realizada no subconjunto de séries com frequência horária do conjunto de dados M4, em múltiplos horizontes (1–48 passos), reportando o NRMSE agregado e estratificado (1–12, 13–24, 25–36, 37–48). Os resultados mostram que o modelo multimodal supera consistentemente as variantes unimodais (apenas numéricas e apenas visuais), com melhorias até 7,0% em NRMSE face ao melhor baseline, enquanto estudos de ablação evidenciam o contributo específico do ramo visual e do mecanismo de fusão. Contribui-se, assim, com: (i) um framework multimodal eficiente e reprodutível; (ii) um protocolo experimental transparente para fusão numérico-visual; e (iii) diretrizes práticas sobre normalização de plots, janelas e tuning. Discutem-se limitações, como a sensibilidade ao estilo do gráfico e à sincronização temporal, e traçam-se direções futuras que incluem a integração de texto contextual e a previsão sensível a intervenções, visando sistemas de previsão mais adaptativos e aplicáveis ao mundo real.
  • Análise de sentimento no contexto do mercado financeiro de ações
    Publication . Ribeiro, Rui Alexandre de Granja; Gonçalves, Célia Talma Martins de Pinho Valente; Cardoso, Henrique Daniel de Avelar Lopes
    Esta dissertação tem como objetivo investigar a relação entre diferentes técnicas de Processamento de Linguagem Natural e o desempenho de diversos modelos de análise de sentimento no contexto do mercado financeiro de ações, utilizando comentários provenientes da rede social StockTwits. O estudo procura também estabelecer a relação entre o sentimento extraído a partir desses comentários e de notícias financeiras, disponibilizadas pelo EODHD, com a variação diária do valor de fecho das ações, obtido através do Yahoo Finance. Foram exploradas diferentes técnicas de pré-processamento e representações textuais, com e sem balanceamento de dados, comparando abordagens baseadas em léxicos, modelos de aprendizagem computacional tradicional, modelos baseados em redes neuronais e modelos baseados em transformadores. A análise temporal incluiu a construção de índices de sentimento diário dos comentários e das notícias financeiras. Estes índices, bem como os valores de fecho das ações, foram organizados em séries temporais, que serviram de base para a deteção de desfasamentos através do algoritmo Dynamic Time Warping (Alinhamento Temporal Dinâmico) e para a verificação do alinhamento direcional com recurso a testes de significância estatística. Os resultados indicam que os modelos baseados em transformadores alcançaram o melhor desempenho, embora com maior exigência computacional, destacando-se o RoBERTaStockTwits como o mais eficaz. O impacto da técnica de balanceamento foi diferente entre as diferentes abordagens, sendo mais notório nos modelos baseados em transformadores e na aprendizagem computacional tradicional, e pouco significativo nos modelos baseados em redes neuronais. A aplicação de técnicas de pré-processamento menos complexas produziu melhores resultados, com maior destaque nos modelos baseados em transformadores. As técnicas de representação textual baseadas em frequência de palavras mostraram melhor desempenho do que as representações densas nos modelos de aprendizagem computacional tradicional. A análise temporal revelou diferenças entre os comentários nas redes sociais e as notícias, com padrões mais evidentes e estatisticamente significativos nos comentários, sugerindo a possibilidade de ineficiências, tendo como referência a Teoria do Mercado Eficiente.
  • Multimodal data integration in oncology: a case study of LIHC
    Publication . Casais, João Pedro Miranda; Ramos, Patrícia Alexandra Gregório; Oliveira, José Manuel Soares
    This thesis focuses on the application of multimodal learning, specifically deep learning techniques, to enhance the diagnosis and treatment of Liver Hepatocellular Carcinoma. The increasing incidence and late detection of this aggressive form of cancer necessitate innovative approaches for early identification and personalized therapies. The core objective of this thesis was to evaluate the impact of integrating diverse data modalities, such as clinical, genetic, and imaging data, on improving diagnostic precision and therapeutic outcomes for Liver Hepatocellular Carcinoma patients. The study investigates the limitations of traditional unimodal data analysis in understanding the complex nature of Liver Hepatocellular Carcinoma. It posits that multimodal learning can leverage complementary strengths of different data types, leading to a more comprehensive understanding of tumor biology and individual patient profiles. The research explores the use of advanced deep learning architectures for processing and integrating these diverse data modalities. A key component of the thesis involves a practical application using a dataset sourced from the American National Cancer Institute, focusing on predicting the vital status of Liver Hepatocellular Carcinoma patients. The dataset is preprocessed and analyzed using the AutoGluon-Multimodal (AutoMM) framework, an open-source automated machine learning library designed for multimodal learning tasks. Various model combinations incorporating image, text, and tabular data are evaluated based on classification performance metrics, including accuracy, Matthews Correlation Coefficient, precision, recall, F1 score, and ROC-AUC. The results demonstrate the superior performance of models combining tabular and text data in predicting the vital status of Liver Hepatocellular Carcinoma patients.
  • Machine learning for single-modality and multi-modality data integration in the materials industry
    Publication . Costa, Vítor José Figueiredo; Ramos, Patrícia Alexandra Gregório; Oliveira, José Manuel Soares
    Esta tese explora a aplicação de técnicas de aprendizagem automática para prever as propriedades dos materiais utilizando a integração de dados multimodais. O aparecimento de técnicas computacionais avançadas e a disponibilidade de grandes conjuntos de dados abriram novos caminhos para acelerar a descoberta de materiais utilizando modelos de previsão. No entanto, a previsão exata das propriedades dos materiais continua a ser um desafio complexo devido à natureza intrincada dos dados dos materiais. Os modelos de aprendizagem automática de modalidade única, embora eficazes para determinadas propriedades, não conseguem frequentemente captar toda a complexidade das caraterísticas dos materiais. Esta tese aborda esta limitação investigando o impacto da integração de dados multimodais, centrando-se especificamente na forma como as combinações de texto, imagem e dados tabulares melhoram a precisão da previsão das propriedades dos materiais. O estudo utiliza o conjunto de dados Alexandria, um recurso abrangente que oferece dados pormenorizados sobre as composições químicas e as propriedades de milhões de materiais. Um subconjunto de 1000 materiais deste conjunto de dados foi utilizado para construir um conjunto de dados multimodal que incorpora: composição química representada como uma sequência de elementos e as respetivas contagens de átomos (modalidade de texto); visualizações 2D da estrutura cristalina 3D de cada material, geradas com o Crystal Toolkit e captadas através de uma aplicação Web personalizada (modalidade de imagem); e embeddings estruturais de tamanho fixo gerados com a arquitetura PotNet, um modelo de rede neural gráfica concebido para captar interações atómicas complexas (modalidade tabular). O estudo utilizou o AutoGluon-Multimodal (AutoMM), uma estrutura de aprendizagem automática de máquinas, para treinar e avaliar modelos utilizando várias combinações de modalidades. O Erro Absoluto Médio (MAE) e o Erro Escalado Absoluto Médio (MASE) foram utilizados como métricas de avaliação. Os resultados demonstram que as abordagens multimodais, especialmente a combinação de dados de texto e imagem, superam consistentemente os modelos de modalidade única. Este facto realça a importância da integração de diversos tipos de dados para captar uma compreensão mais abrangente das propriedades dos materiais. Nomeadamente, a combinação de Texto e Imagem revelou-se particularmente eficaz na previsão de caraterísticas complexas como o intervalo de banda (Gap), que requer informações estruturais e de composição complexas. Por outro lado, os modelos de modalidade única, particularmente os que se baseiam apenas em dados tabulares, apresentaram a menor precisão na maioria das caraterísticas. Esta investigação fornece provas convincentes dos benefícios da integração de dados multimodais na previsão das propriedades dos materiais. Estabelece uma base para trabalhos futuros que explorem a incorporação de tipos de dados adicionais, o desenvolvimento de modelos mais avançados e a expansão de conjuntos de dados para melhorar ainda mais a precisão da previsão e acelerar a descoberta de novos materiais com as propriedades desejadas.