ESTUDO DE CASO USANDO IA EXPLICÁVEL
Autor(es): Lucas Della Giustina Schiochet
Orientador: Carine Geltrudes Webber
Quantidade de visulizações: 188
As áreas tecnológicas estão avançando, como é o caso dos sistemas de Inteligência Artificial (IA). A área da IA abrange diversos campos de estudo. Entre eles destacam-se: Machine Learning (ML) e Deep Learning (DL). ML é dedicada a modelos e métodos que permitem melhorar o desempenho a partir da experiência, simulando a capacidade de aprendizagem humana. Observa-se que os sistemas que utilizam modelos de ML e DL, na maioria das vezes, operam como um sistema “caixa-preta”, sem oferecer explicações sobre seus processos de decisão. Na utilização de sistemas de IA caixa-preta, os usuários podem encontrar dificuldades de compreensão e de confiabilidade em relação aos resultados obtidos pelo modelo de IA. É importante destacar que está em debate a regulamentação da IA em diversos países, como Brasil e EUA. O objetivo do projeto, em conjunto com a UDESC, é estudar métodos para que os sistemas se tornem explicáveis; esforços têm sido feitos na área de XAI, que busca tornar o sistema transparente. Com isso, identificaram-se algumas ferramentas de XAI que têm se destacado, tais como: SHAP e LIME. Para testar sua eficácia e utilidade, foi realizado um estudo modelando uma rede neural que utiliza como dados o levantamento dos históricos acadêmicos de alunos matriculados no curso de Ciências Biológicas da UDESC, na modalidade EAD, no período de 2017 a 2025, com todos os dados devidamente anonimizados para preservar a privacidade dos indivíduos. A condução foi feita em três etapas: coleta e preparação dos dados dos estudantes, com atributos como nota final, tipo de cota e distância do polo; desenvolvimento de uma rede neural multicamada para classificação entre abandono, cancelamento, formação e vínculo; aplicação das bibliotecas Python SHAP e LIME para interpretar as saídas da rede neural; e, por fim, análise desses resultados para cada biblioteca, comparando desempenho e resultados gerados. As análises indicaram que atributos como “Nota Final”, “Distância do Polo” e “Forma de Ingresso” foram os mais relevantes para prever o abandono universitário. Uma limitação é o alto custo computacional do SHAP em comparação ao LIME; no entanto, a robustez das explicações geradas pelo SHAP justifica seu uso para compreensão global do modelo. Ambas se mostraram valiosas para a análise de modelos de IA, aumentando a confiança e a transparência. Também ressalta-se a importância de buscar tornar os modelos de IA cada vez mais transparentes. Link para dados:https://encurtador.com.br/vdqU9
Palavras-chave: XAI, inteligência artificial, Deep Learning