ISEP - DM – Engenharia de Inteligência Artificial
Permanent URI for this collection
Browse
Browsing ISEP - DM – Engenharia de Inteligência Artificial by Author "Araújo, José António Sousa"
Now showing 1 - 1 of 1
Results Per Page
Sort Options
- Planeamento de Produção e Aprendizagem Envolvendo Interação Inteligente com o UtilizadorPublication . Araújo, José António Sousa; Ramos, Carlos Fernando daNo mundo em constante evolução de hoje, o planeamento eficaz de produção destaca-se como um pilar fundamental para o sucesso de indústrias e empresas. Em anos recentes, a guerra na Ucrânia assim como a COVID-19, criaram situações como aumento dos custos de produção e escassez de mão-de-obra que a indústria não estava equipada para lidar. Nesta era da Indústria 4.0, onde tecnologia redefine todo o cenário industrial, a necessidade de soluções inteligentes e adaptáveis para o planeamento de produção nunca foi tão evidente. Tomar decisões oportunas, alocar recursos e agendar tarefas são fundamentais para atendar as expetativas dos clientes, minimizar custos e manter uma vantagem competitiva. Estes desafios da produção moderna deixam claro que uma profunda compreensão de inteligência artificial e a sua utilização na aprendizagem através de interações inteligentes com o utilizador são fundamentais para alcançar soluções inovadores. Neste contexto, é proposto um conjunto de sistemas, que juntos, é capaz de melhorar o processo de agendamento de tarefas com um foco em técnicas de inteligência artificial explicável, com o objetivo de remodelar a forma como as indústrias abordam e aprimoram os seus processos de planeamento de produção. Na totalidade são desenvolvidos três sistemas principais. O primeiro é responsável por interagir com o utilizador de forma a recolher informação. Com esse intuito, é desenvolvida uma interface gráfica. Quando iniciada a interface, o utilizador tem disponível uma solução inicial para o escalonamento de produção no chão de fábrica, este solução é disponibilizada por um algoritmo genético externo ao sistema em causa. De seguida, o utilizador faz as alterações desejadas ao escalonamento, alterações estas que serão guardadas e futuramente utilizadas pelos restantes sistemas. Para o desenvolvimento da interface foi selecionada uma Single Page Application, a sua implementação foi feita recorrendo à biblioteca de JavaScript Vue.js, a decisão da escolha foi influenciada pela sua simplicidade e baixo consumo de recursos. O segundo sistema tem como objetivo prever quais as tarefas que serão alteradas pelo utilizador. Para esse efeito é desenvolvido um modelo de aprendizagem automática preditiva que procura classificar cada tarefa como alterada ou não alterada. Para o processo de treino do modelo é utilizada a informação obtida pela interface gráfica através da interação com o utilizador, esta informação é pré-processada recorrendo a técnicas como binary enconding para transformar variáveis categóricas em variáveis numéricas e random oversampling, esta técnica visa o equilíbrio dos dados através da duplicação aleatória de exemplos da classe minoritária. O modelo de aprendizagem automática utilizado foi Gradient Boosting Classifier devido à sua alta precisão, ampla aplicabilidade e transparência que será útil para o componente de inteligência artificial explicável. Ao modelo é ainda submetido ao processo Hyperparameter Tuning, onde os hiperparâmetros: número de estimadores, taxa de aprendizagem, profundidade máxima, número mínimo de amostras para cada bifurcação, e número mínimo de amostras para cada folha são otimizados para o conjunto de dados utilizado. Para o componente de inteligência artificial explicável são utilizadas duas técnicas distintas: LIME (Local Interpretable Model-Agnostic Explanations) e SHAP (SHapley Additive exPlanations). Esta primeira técnica de interpretabilidade é versátil, pois funciona quando aplicada a qualquer modelo de aprendizagem automática. Ela obtêm os seus resultados analisando o comportamento do modelo inicial quando as variáveis de uma instância são alteradas. Trata-se de uma técnica de interpretabilidade local visto que procura explicar uma previsão específica e não o modelo como um todo. A segunda técnica de interpretabilidade é um abordagem baseada em teoria de jogos que fornece uma abordagem geral de calcular como cada variável contribui para uma previsão. Segundo esta técnica, cada previsão de um modelo é explicada como uma soma ponderada das contribuições de cada variável. Tal como a técnica LIME, SHAP pode ser aplicada a qualquer modelo, no entanto, esta técnica fornece uma abordagem global para entender como cada caraterística contribui para as previsões do modelo. Embora as duas técnicas abordem a interpretabilidade de maneiras ligeiramente diferentes, a sua combinação pode ser utilizada de forma a complementar e aprimorar a robustez e interpretabilidade do sistema, fornecendo explicações mais sólidas e abrangentes. Cada instância é explicada através de pesos atribuídos a cada uma das suas variáveis, pesos estes que são principalmente diferenciados pelo seu sinal. Enquanto pesos positivos representam impacto positivo na classificação do modelo de aprendizagem automático preditivo, pesos negativos representam o oposto. Estas explicações detalhadas permitem-nos compreender não apenas quais variáveis são mais relevantes para o modelo, mas também como influenciam as suas previsões, fornecendo informação valiosa sobre o funcionamento interno do modelo e o processo de tomada de decisões. Além disso, essas análises também fornecem informações sobre o conjunto de dados utilizado, ajudando-nos a entender melhor os padrões e relações presentes nos dados, assim como possíveis problemas existentes nele. O sistema foi construído com base em dados criados por meio da aplicação de um conjunto de alterações sistemáticas a várias soluções de escalonamento. No total foram aplicadas cinco regras distintas. No final deste processo, foram preparadas três instâncias novas para cada uma das regras com o intuito da as usar no processo de validação do componente de interpretabilidade do projeto.