Interpretabilidade em Modelos de Aprendizado de Máquina para Previsão Espacial: Um Estudo Comparativo com SHAP e LIME

Autores

  • Martony Demes da Silva Universidade Federal do Piauí
  • Wellington Alves Universidade Federal do Piauí

Resumo

A crescente disponibilidade de dados georreferenciados abre novas possibilidades para compreender a dinâmica urbana, mas modelos preditivos muitas vezes funcionam como verdadeiras caixas-pretas. Este trabalho procura transformar previsões em explicações ao aplicar técnicas de interpretabilidade, como SHAP e LIME, a modelos de regressão aplicados a dados socioeconômicos e imobiliários. Foram comparados métodos lineares e baseados em árvores, incluindo Random Forest e XGBoost, mostrando que os modelos ensemble superam as abordagens tradicionais na previsão de valores de imóveis em diferentes bairros. Além disso, a análise global e local evidenciou que fatores como renda média, densidade populacional e infraestrutura urbana influenciam diretamente os preços, permitindo interpretações transparentes e aplicáveis ao planejamento urbano e às pol´ıticas públicas. Ao unir robustez preditiva e clareza interpretativa, o estudo reforça a ideia de que prever é importante, mas explicar é essencial.

Publicado

17-11-2025

Como Citar

Martony Demes da Silva, & Wellington Alves. (2025). Interpretabilidade em Modelos de Aprendizado de Máquina para Previsão Espacial: Um Estudo Comparativo com SHAP e LIME. Anais Do Encontro Anual De Tecnologia Da Informação, 13(1), 60. Recuperado de http://anais.eati.info/eati/article/view/446