| Nome: | Descrição: | Tamanho: | Formato: | |
|---|---|---|---|---|
| 1.06 MB | Adobe PDF |
Autores
Orientador(es)
Resumo(s)
Este trabalho de investigação tem como objetivo desenvolver uma técnica de síntese de imagens utilizando redes neurais generativas para detetar e localizar anomalias em tecidos. O foco incide em materiais orgânicos com texturas detalhadas e variações significativas. Este contexto representa um desafio na identificação de defeitos, uma vez que as variações naturais destes materiais não devem ser confundidas com defeitos reais. O trabalho de investigação centra-se em algoritmos de deteção de anomalias não supervisionados, devido à escassez de dados etiquetados em ambientes industriais.
O trabalho consiste em explorar conjuntos de dados reais para estudar a melhor forma de utilizar autoencoders na deteção e localização de defeitos, aplicando estes resultados a imagens de tecidos, fibras e outros materiais orgânicos com texturas detalhadas e variações significativas. O objetivo é detetar e segmentar defeitos, sem confundir as alterações na textura provocadas por variações naturais.
A metodologia empírica centra-se na deteção de anomalias em padrões e tecidos, utilizando a métrica de índice de Similaridade Estruturada (SSIM - Structural Similarity Index) e variantes como função de perda de um autoencoder. A principal vantagem desta abordagem reside na capacidade do SSIM de capturar similaridades estruturais, de luminância e de contraste entre a imagem original e a reconstruída, em vez de depender apenas de diferenças pixel a pixel, como ocorre com o Erro Quadrático Médio (MSE – Mean Squared Error).
O trabalho envolveu a definição do contexto empresarial, a recolha e geração de um conjunto de dados alargado e abrangente de imagens de tecidos, o pré-processamento das imagens, o design da arquitetura do autoencoder, o treino do autoencoder no conjunto de dados pré-processado e a avaliação dos resultados de deteção. Este trabalho de investigação visa contribuir para a área da deteção de anomalias, desenvolvendo um método robusto e eficaz para identificar defeitos em tecidos orgânicos.
This research develops an image synthesis technique using generative neural networks to detect and locate anomalies in organic fabrics with intricate textures and substantial natural variation. These inherent fluctuations pose a key challenge: distinguishing genuine defects from benign differences. Given the scarcity of labelled data in industrial settings, the work employs unsupervised anomaly detection via autoencoders. Real-world datasets are explored to assess their effectiveness in defect detection and localisation across fabrics, fibres, and similar materials, enabling precise segmentation while remaining insensitive to natural texture changes. The approach includes a thorough exploration of autoencoder architectures to optimise performance for complex, variable textures. It enhances quality control in industries handling organic materials by clearly separating true defects from surface nuances, optimising processes, and elevating standards in the textile sector. The empirical methodology centres on textile pattern anomaly detection, using the Structural Similarity Index Measure (SSIM) and its variants as the autoencoder’s loss function. Unlike Mean Squared Error (MSE), which focuses on pixel-wise differences, SSIM captures structural, luminance, and contrast similarities, penalising perceptually significant defects (e.g., tears, stains, pattern disruptions) while tolerating subtle, non-defective fluctuations (e.g., fibre grain, weave irregularities). The workflow includes defining the industrial scope, assembling a diverse dataset through collection and synthetic generation, preprocessing images, designing and exploring autoencoder architectures with different loss functions, training the model, and evaluating performance. This research delivers a robust framework for anomaly detection in texture-rich materials, with the potential to transform industrial defect inspection.
This research develops an image synthesis technique using generative neural networks to detect and locate anomalies in organic fabrics with intricate textures and substantial natural variation. These inherent fluctuations pose a key challenge: distinguishing genuine defects from benign differences. Given the scarcity of labelled data in industrial settings, the work employs unsupervised anomaly detection via autoencoders. Real-world datasets are explored to assess their effectiveness in defect detection and localisation across fabrics, fibres, and similar materials, enabling precise segmentation while remaining insensitive to natural texture changes. The approach includes a thorough exploration of autoencoder architectures to optimise performance for complex, variable textures. It enhances quality control in industries handling organic materials by clearly separating true defects from surface nuances, optimising processes, and elevating standards in the textile sector. The empirical methodology centres on textile pattern anomaly detection, using the Structural Similarity Index Measure (SSIM) and its variants as the autoencoder’s loss function. Unlike Mean Squared Error (MSE), which focuses on pixel-wise differences, SSIM captures structural, luminance, and contrast similarities, penalising perceptually significant defects (e.g., tears, stains, pattern disruptions) while tolerating subtle, non-defective fluctuations (e.g., fibre grain, weave irregularities). The workflow includes defining the industrial scope, assembling a diverse dataset through collection and synthetic generation, preprocessing images, designing and exploring autoencoder architectures with different loss functions, training the model, and evaluating performance. This research delivers a robust framework for anomaly detection in texture-rich materials, with the potential to transform industrial defect inspection.
Descrição
Palavras-chave
Deteção de anomalias Defeitos em tecidos Aprendizagem não supervisionada Autoencoders SSIM Anomaly Detection Fabric Defects Unsupervised Learning Autoencoders
