Normalizacao

Categoria
Fundamentos de IA
Normalizacao e a tecnica de escalonar dados para um intervalo padrao (geralmente 0-1 ou media zero e desvio unitario). Melhora a convergencia do treinamento e garante que features em escalas diferentes tenham peso igual.
Categoria
Fundamentos de IA
Compartilhar
LinkedInWhatsApp

O que e Normalizacao?

Normalizacao e o processo de transformar dados numericos para uma escala padrao. Isso e importante porque muitos algoritmos de ML sao sensiveis a escala das features — uma variavel com valores entre 0-1000 poderia dominar outra com valores entre 0-1.

Tecnicas Principais

  • Min-Max Scaling: escala para o intervalo [0, 1]
  • Standardization (Z-Score): media 0, desvio padrao 1
  • Robust Scaling: usa mediana e IQR, resistente a outliers
  • Max-Abs Scaling: divide pelo valor absoluto maximo

Quando e Necessaria

Normalizacao e essencial para algoritmos baseados em distancia (KNN, SVM), gradiente (Redes Neurais) e regularizacao. Arvores de decisao e Random Forest geralmente nao precisam de normalizacao.

Consideracoes

O scaler deve ser ajustado apenas nos dados de treino e aplicado nos dados de teste para evitar data leakage. Na Trilion, a normalizacao adequada e parte do pipeline padrao de pre-processamento de dados em projetos de IA.

Glossário...

Acreditamos que a alquimia de Retórica, Criatividade e variadas Habilidades humanas criam resultados incríveis.