Normalizacao
Categoria
Fundamentos de IA
Normalizacao e a tecnica de escalonar dados para um intervalo padrao (geralmente 0-1 ou media zero e desvio unitario). Melhora a convergencia do treinamento e garante que features em escalas diferentes tenham peso igual.
Categoria
Fundamentos de IA
O que e Normalizacao?
Normalizacao e o processo de transformar dados numericos para uma escala padrao. Isso e importante porque muitos algoritmos de ML sao sensiveis a escala das features — uma variavel com valores entre 0-1000 poderia dominar outra com valores entre 0-1.
Tecnicas Principais
- Min-Max Scaling: escala para o intervalo [0, 1]
- Standardization (Z-Score): media 0, desvio padrao 1
- Robust Scaling: usa mediana e IQR, resistente a outliers
- Max-Abs Scaling: divide pelo valor absoluto maximo
Quando e Necessaria
Normalizacao e essencial para algoritmos baseados em distancia (KNN, SVM), gradiente (Redes Neurais) e regularizacao. Arvores de decisao e Random Forest geralmente nao precisam de normalizacao.
Consideracoes
O scaler deve ser ajustado apenas nos dados de treino e aplicado nos dados de teste para evitar data leakage. Na Trilion, a normalizacao adequada e parte do pipeline padrao de pre-processamento de dados em projetos de IA.
