Glossário de IA

50 termos sobre Inteligência Artificial, Machine Learning, IA Generativa, Automação e mais — explicados pela equipe da Trilion.
TodosAgentes é OrquestracaoAutomacao é RPADados é AnalyticsEtica é GovernancaFundamentos de IAIA GenerativaMarketing com IAMLOps é InfraestruturaModelos é ArquiteturasNegocios com IATermos Tecnicos Avancados
Modelos é Arquiteturas
Neural Architecture Search
Neural Architecture Search (NAS) é o processo automatizado de encontrar a melhor arquitetura de rede neural para uma tarefa. Usa técnicas de busca como reinforcement learning ou evolução para otimizar estruturas.
#nas#automl#arquitetura#busca
Modelos é Arquiteturas
ONNX
ONNX (Open Neural Network Exchange) é um formato aberto é interoperavel para modelos de IA. Permite exportar modelos entre frameworks como PyTorch, TensorFlow é executar em diversos runtimes otimizados.
#onnx#interoperabilidade#formato#inferência
Modelos é Arquiteturas
PEFT
PEFT (Parameter-Efficient Fine-Tuning) é um conjunto de técnicas que adaptam modelos grandes treinando apenas uma pequena fracao dos parametros. Inclui LoRA, Prefix Tuning é Adapters.
#peft#eficiente#finetuning#adapters
Modelos é Arquiteturas
Phi
Phi é uma familia de modelos de linguagem compactos da Microsoft, projetados para demonstrar que modelos pequenos podem alcançar desempenho impressionante quando treinados com dados de alta qualidade.
#phi#microsoft#modelopequeno#eficiente
Modelos é Arquiteturas
Positional Encoding
Positional Encoding é a técnica que injeta informação sobre a posicao dos tokens em Transformers, ja que self-attention não possui nocao inerente de ordem. Usa funções senoidais ou embeddings aprendidos.
#positionalencoding#posicao#transformer#sequência
Modelos é Arquiteturas
Pre-Training
Pre-Training é a fase inicial de treinamento onde um modelo aprende representacoes gerais a partir de grandes volumes de dados não-rotulados. E a base sobre a qual fine-tuning posterior especializa o modelo.
#pretraining#pretreinamento#treinamento#llm
Modelos é Arquiteturas
Pruning
Pruning é a técnica de remover pesos, neuronios ou camadas redundantes de uma rede neural para reduzir seu tamanho é acelerar a inferência, mantendo a maior parte do desempenho original.
#pruning#poda#compressao#otimização
Modelos é Arquiteturas
QLoRA
QLoRA combina quantizacao de 4 bits com LoRA para permitir fine-tuning de modelos com bilhoes de parametros em uma única GPU consumer. Reduz requisitos de memória mantendo qualidade.
#qlora#quantizacao#finetuning#eficiente
Modelos é Arquiteturas
Quantizacao
Quantizacao é a técnica de reduzir a precisão numerica dos pesos de um modelo (de 32 bits para 8, 4 ou até 2 bits). Diminui uso de memória é acelera inferência com mínima perda de qualidade.
#quantizacao#compressao#int8#int4
Modelos é Arquiteturas
RNN (Recurrent Neural Network)
RNN (Rede Neural Recorrente) é uma arquitetura projetada para processar dados sequênciais, mantendo uma memória interna que captura informações de passos anteriores. Foi a base do NLP antes dos Transformers.
#rnn#recorrente#sequêncial#memória
Modelos é Arquiteturas
Self-Attention
Self-Attention é o mecanismo que permite a cada token de uma sequência calcular sua relação com todos os outros tokens da mesma sequência. E o componente central da arquitetura Transformer.
#selfattention#autoaténção#transformer#qkv
Modelos é Arquiteturas
Sentence Transformer
Sentence Transformer é um framework que gera embeddings de alta qualidade para frases é paragrafos inteiros, permitindo busca semântica, similaridade textual é clustering de documentos.
#sentencetransformer#embedding#buscasemântica#similaridade
Modelos é Arquiteturas
Stable Diffusion
Stable Diffusion é um modelo de código aberto para geração de imagens a partir de texto, desenvolvido pela Stability AI. Opera no espaço laténte para maior eficiência é permite customização ampla.
#stablediffusion#difusao#opensource#geraçãodeimagem
Modelos é Arquiteturas
TensorRT
TensorRT é uma biblioteca de otimização de inferência da NVIDIA que maximiza a velocidade de modelos de Deep Learning em GPUs. Aplica fusao de camadas, quantizacao é otimização de kernels automáticamente.
#tensorrt#nvidia#otimização#inferência
Modelos é Arquiteturas
Tokenizacao
Tokenizacao é o processo de dividir texto em unidades menores (tokens) que servem como entrada para modelos de linguagem. Pode operar em nível de palavra, subpalavra (BPE, SentencePiece) ou caractere.
#tokenização#tokens#bpe#nlp
Modelos é Arquiteturas
Transformer
Transformer é a arquitetura de rede neural que revolucionou o processamento de linguagem natural. Baseada em mecanismos de aténção (self-attention), é a base de modelos como GPT, BERT é Claude.
#transformer#attention#nlp#ia
Modelos é Arquiteturas
VAE (Variational Autoencoder)
VAE (Variational Autoencoder) é uma variante probabilistica do autoencoder que aprende uma distribuição no espaço laténte, permitindo gerar novos dados coerentes. Combina redes neurais com inferência bayesiana.
#vae#variational#autoencoder#gerativo
Modelos é Arquiteturas
Whisper
Whisper é um modelo de reconhecimento de fala da OpenAI, treinado em 680.000 horas de audio multilíngue. Realiza transcricao, traducao é deteccao de idioma com alta precisão em diversos idiomas.
#whisper#reconhecimentodefala#transcricao#openai
Modelos é Arquiteturas
Word Embedding
Word Embedding é a representação de palavras como vetores numéricos densos em um espaço continuo, onde palavras com significados similares ficam proximas. Tecnicas incluem Word2Vec, GloVe é embeddings contextuais.
#wordembedding#vetores#semântica#nlp
Modelos é Arquiteturas
Word2Vec
Word2Vec é um modelo pioneiro de word embedding desenvolvido pelo Google que aprende representacoes vetoriais de palavras a partir de grandes corpus de texto. Usa arquiteturas CBOW ou Skip-gram.
#word2vec#embedding#cbow#skipgram
Anterior12

Serviços de tecnologia ao Mercados de luxo

Glossário...

Acreditamos que a alquimia de Retórica, Criatividade e variadas Habilidades humanas criam resultados incríveis.