ESTG - Escola Superior de Tecnologia e Gestão
Permanent URI for this community
Browse
Browsing ESTG - Escola Superior de Tecnologia e Gestão by Sustainable Development Goals (SDG) "09:Indústria, Inovação e Infraestruturas"
Now showing 1 - 5 of 5
Results Per Page
Sort Options
- Architecting Serverless Applications at the Edge with WorkflowsPublication . Dias, Micael André Cunha; Santos, Ricardo Jorge da SilvaA indústria global dos videojogos depende cada vez mais de estratégias de monetização digital subscrições, consumíveis, moedas virtuais e vendas de ativos como base para um crescimento sustentável. No entanto, embora processadores de pagamento como a Stripe [1] forneçam acesso seguro e escalável à infraestrutura financeira, os criadores de jogos continuam a enfrentar desafios significativos na orquestração fiável do cumprimento ponta-a-ponta das compras. As falhas na coordenação de pagamentos, atualizações de inventário e pagamentos a terceiros não só corroem a confiança dos jogadores como também ameaçam as receitas dos desenvolvedores. Esta dissertação aborda esses desafios ao explorar como os princípios de orquestração de fluxos de trabalho podem ser aplicados ao domínio da monetização em jogos. Revisitamos o design de sistemas distribuídos dos monólitos aos microserviços e serverless defendendo que a execução durável [2] é a abstração em falta para fluxos de trabalho fiáveis, duradouros e com estado. Comparamos as principais plataformas de orquestração Temporal [2], AWS Step Functions [3], Cloudflare Workflows [4], Uber Cadence [5], Netflix Conductor [6] e Camunda [7] ao longo dos eixos de durabilidade, capacidade de resposta, ergonomia para programadores e governação, revelando compromissos fundamentais entre garantias de progresso e latência operacional, e entre poder expressivo e auditabilidade. Com base nestas conclusões, propomos uma arquitetura de fluxos de trabalho edge-first que combina o runtime global da Cloudflare com os mecanismos de pagamento da Stripe [1], de forma a fornecer pagamentos e transferências resistentes e com capacidade de repetição. As contribuições desta tese são duplas: por um lado, um enquadramento conceptual que situa os fluxos de pagamento no contexto dos sistemas distribuídos e da teoria da orquestração; por outro, um plano prático de design que ilustra como estes princípios podem ser implementados para suportar economias de jogo reais. Ao unir inovação criativa e infraestrutura financeira, esta investigação fornece aos desenvolvedores de jogos uma base escalável e resiliente para monetização, permitindo-lhes focar-se na experiência do jogador enquanto confiam no sistema subjacente para oferecer um comércio contínuo e fiável.
- Data Quality Assessment: A Practical ApplicationPublication . Eliana Costa e Silva; Teresa Peixoto; Óscar Oliveira; Bruno OliveiraThis paper presents a novel data quality score designed to address the challenges of ensuring high-quality data in Internet of Things (IoT) deployments. Given the growing reliance on IoT systems and the volume of data they generate, maintaining data quality is essential for reliable decision-making and effective analytics. The proposed score synthesizes key data quality dimensions, providing a comprehensive measure of data quality that can be applied across various IoT contexts. The results obtained for a public dataset on a water pumping system show the applicability and flexibility of the proposed data quality score. This work contributes to the ongoing efforts to improve data management in IoT environments, ultimately supporting the development of robust, data-driven solutions.
- Exploração de técnicas de inteligência Artificial para personalização e otimização de campanhas omnicanal no Retalho AlimentarPublication . Silva, Fernando José Cardoso da; Ramos, João Ricardo MartinsThe increasing digitalization in the food retail sector, coupled with the evolution of consumer preferences, demands innovative solutions for personalization and integration of omnichannel campaigns. This thesis explores the use of clustering algorithms and LLMs (Large Language Models) to create a data-driven approach that improves campaign efficiency and increases customer loyalty and ROI (Return On Investment). The research focuses on developing a framework that integrates dispersed customer behavior, profile, and campaign data, segments customers using clustering algorithms based on variables such as interaction value and time to purchase, applies predictive models to estimate conversions and validate decisions, generates personalized messages with LLMs adapted to segment, campaign type, and channel, and optimizes campaigns by analyzing ROI, average cost per conversion, and engagement. Unlike previous studies that separately analyze aspects such as segmentation or personalization, this approach integrates robust techniques to create holistic solutions adapted to the consumer's omnichannel journey. The CRISP-DM methodology was adopted to ensure rigor, scalability, and efficiency in data analysis, allowing to overcome challenges such as information fragmentation and lack of integration between channels. The results demonstrate that the proposed framework not only improves the customer experience but also increases operational efficiency and ROI, creating significant competitive advantages for retailers. The integration of AI technologies emerges as a critical solution to overcome traditional limitations, providing real-time personalization, predictive analysis, and operational efficiency. This thesis contributes to the advancement of knowledge about AI in omnichannel marketing, offering practical and theoretical solutions for a constantly evolving sector, positioning food retail as an example of customer-centered innovation.
- Low-Code e Inteligência Artificial Generativa: Potencialidades, Desafios e Aplicações no Desenvolvimento de SoftwarePublication . Pereira, João Tomás Oliveira; Silva, Fábio André Souto daThis work aimed to explore and compare two emerging approaches in software development, low-code platforms and solutions based on generative artificial intelligence. For this purpose, a systematic literature review was conducted, along with a critical analysis of several representative tools of each paradigm and an experimental study in which five participants with different levels of technological experience created a to-do list application. The adopted methodology was based on the action research model, combining theoretical review, practical application, and critical reflection. The results obtained demonstrated that both approaches offer significant advantages in democratizing application development, although they present distinct characteristics in terms of predictability, autonomy, and ease of use. The low-code platform Budibase was valued for its structured visual interface and the control it provided to users, while the Claude tool stood out for the speed and flexibility associated with natural language interaction. The final analysis shows that these technologies should not be seen as competing solutions but rather as complementary alternatives that can address different user profiles and usage scenarios. The study concludes that the choice of the most appropriate approach should consider factors such as the organizational context, project complexity, and the level of experience of the users involved.
- PySpark-Based Data Processing Library for Distributed Machine Learning WorkflowsPublication . Sousa, Leonardo Emanuel Miranda de; Carneiro, Davide RuaAs plataformas de Internet of Things (IoT) industriais geram quantidades significativas de dados heterogéneos que excedem as capacidades das pipelines de dados convencionais, sobretudo em contextos empresariais como o da Bosch. Responder a estas exigências requer não apenas uma infraestrutura escalável, mas também ferramentas ergonómicas que permitam o desenvolvimento de fluxos de trabalho de machine learning (ML) reprodutíveis. Nesta dissertação apresenta-se a SparklyAI, uma biblioteca PySpark que formaliza o ciclo de vida definido pelo Cross Industry Standard Process for Data Mining (CRISP-DM) para ML distribuído, colmatando a lacuna entre as práticas de engenharia de dados industriais e os princípios modernos de Machine Learning Operations (MLOps). A SparklyAI fornece uma estrutura coerente para pipelines de ponta a ponta, abrangendo coleta, limpeza, amostragem, engenharia de características, modelação e avaliação, através de uma Application Programming Interface (API) procedural com utilidades sensíveis ao esquema e tipos de dados. A validação em fluxos de trabalho reais na Bosch demonstrou melhorias significativas na consistência, manutenibilidade e reprodutibilidade dos processos, bem como uma redução acentuada nos erros de implementação e no tempo de integração de novos utilizadores. Quantitativamente, o Engineering Time Proxy (ETP) reduziu-se de 220,8 para 90,4 minutos (–59,1%), comprovando ganhos expressivos de eficiência em implementações práticas. Em síntese, a SparklyAI constitui uma base estruturada e eficiente para fluxos de trabalho de ML em escala industrial, alinhando a prática quotidiana com a metodologia CRISP-DM e preservando as capacidades de escalabilidade do Spark.
