Word Embedding
Categoria
Modelos e Arquiteturas
Word Embedding e a representacao de palavras como vetores numericos densos em um espaco continuo, onde palavras com significados similares ficam proximas. Tecnicas incluem Word2Vec, GloVe e embeddings contextuais.
Categoria
Modelos e Arquiteturas
O que e Word Embedding?
Word Embedding e uma tecnica de representacao de palavras como vetores numericos densos em um espaco de baixa dimensionalidade. Diferente de representacoes one-hot esparsas, embeddings capturam relacoes semanticas — palavras similares tem vetores proximos.
Tipos
- Estaticos: cada palavra tem um vetor fixo (Word2Vec, GloVe)
- Contextuais: o vetor varia conforme o contexto (BERT, GPT)
Propriedades
Embeddings capturam analogias semanticas como: rei - homem mulher ≈ rainha. Tambem codificam relacoes sintaticas e semanticas entre palavras de forma geometrica.
Aplicacoes
- Busca semantica
- Classificacao de texto
- Sistemas de recomendacao
- Similaridade de documentos
Na Trilion, word embeddings sao a base para construir sistemas que compreendem a semantica dos textos, indo alem da simples correspondencia de palavras-chave.
