Bagging
Categoria
Fundamentos de IA
Bagging (Bootstrap Aggregating) e uma tecnica de ensemble que treina multiplos modelos em subconjuntos aleatorios dos dados e combina suas previsoes. Reduz a variancia e melhora a estabilidade do modelo.
Categoria
Fundamentos de IA
O que e Bagging?
Bagging (Bootstrap Aggregating) e uma tecnica de ensemble learning que reduz a variancia de modelos instáveis ao treinar multiplas versoes do modelo em diferentes subconjuntos aleatorios dos dados de treinamento.
Como Funciona
- Cria N amostras bootstrap (com reposicao) dos dados originais
- Treina um modelo independente em cada amostra
- Para classificacao: combina por votacao majoritaria
- Para regressao: combina por media
Beneficios
- Reduz overfitting em modelos de alta variancia
- Melhora a estabilidade das previsoes
- Paralelizavel: modelos treinam independentemente
Exemplo Classico
O Random Forest e a aplicacao mais famosa de bagging, combinando centenas de arvores de decisao. Na Trilion, bagging e uma tecnica fundamental no arsenal de modelagem, especialmente quando a estabilidade preditiva e critica.
