Interpretabilidade em Modelos de Aprendizado de Máquina para Previsão Espacial: Um Estudo Comparativo com SHAP e LIME
Resumo
A crescente disponibilidade de dados georreferenciados abre novas possibilidades para compreender a dinâmica urbana, mas modelos preditivos muitas vezes funcionam como verdadeiras caixas-pretas. Este trabalho procura transformar previsões em explicações ao aplicar técnicas de interpretabilidade, como SHAP e LIME, a modelos de regressão aplicados a dados socioeconômicos e imobiliários. Foram comparados métodos lineares e baseados em árvores, incluindo Random Forest e XGBoost, mostrando que os modelos ensemble superam as abordagens tradicionais na previsão de valores de imóveis em diferentes bairros. Além disso, a análise global e local evidenciou que fatores como renda média, densidade populacional e infraestrutura urbana influenciam diretamente os preços, permitindo interpretações transparentes e aplicáveis ao planejamento urbano e às pol´ıticas públicas. Ao unir robustez preditiva e clareza interpretativa, o estudo reforça a ideia de que prever é importante, mas explicar é essencial.