LIME
Categoria
Etica e Governanca
LIME (Local Interpretable Model-agnostic Explanations) e uma tecnica que explica predicoes individuais de qualquer modelo de IA criando aproximacoes locais simples e interpretaveis ao redor de cada ponto de decisao.
Categoria
Etica e Governanca
O que e LIME
LIME (Local Interpretable Model-agnostic Explanations) e uma tecnica de explicabilidade que gera explicacoes compreensiveis para predicoes individuais de qualquer modelo de machine learning. Criado por Marco Tulio Ribeiro e colegas, o LIME constroi modelos simples que aproximam o comportamento local do modelo complexo.
Como o LIME funciona:
- Perturba os dados de entrada ao redor da instancia a ser explicada
- Observa como as predicoes mudam com cada perturbacao
- Treina um modelo linear local que aproxima o modelo complexo naquela regiao
- Identifica quais features sao mais importantes localmente
Aplicacoes do LIME:
- Explicar classificacoes de texto (quais palavras importam)
- Entender predicoes de imagem (quais regioes ativam a decisao)
- Auditar modelos tabulares (quais variaveis influenciam)
- Validar modelos antes do deploy em producao
Na Trilion, o LIME e utilizado junto com SHAP para fornecer explicacoes complementares em projetos de IA, especialmente quando clientes precisam de explicacoes intuitivas para stakeholders nao tecnicos.
Por ser model-agnostic, o LIME funciona com redes neurais, ensembles, SVMs e qualquer outro tipo de modelo sem necessidade de acesso aos internos do algoritmo.
