Glossário de IA

50 termos sobre Inteligência Artificial, Machine Learning, IA Generativa, Automação e mais — explicados pela equipe da Trilion.
TodosAgentes e OrquestracaoAutomacao e RPADados e AnalyticsEtica e GovernancaFundamentos de IAIA GenerativaMarketing com IAMLOps e InfraestruturaModelos e ArquiteturasNegocios com IATermos Tecnicos Avancados
Modelos e Arquiteturas
Neural Architecture Search
Neural Architecture Search (NAS) e o processo automatizado de encontrar a melhor arquitetura de rede neural para uma tarefa. Usa tecnicas de busca como reinforcement learning ou evolucao para otimizar estruturas.
#nas#automl#arquitetura#busca
Modelos e Arquiteturas
ONNX
ONNX (Open Neural Network Exchange) e um formato aberto e interoperavel para modelos de IA. Permite exportar modelos entre frameworks como PyTorch, TensorFlow e executar em diversos runtimes otimizados.
#onnx#interoperabilidade#formato#inferencia
Modelos e Arquiteturas
PEFT
PEFT (Parameter-Efficient Fine-Tuning) e um conjunto de tecnicas que adaptam modelos grandes treinando apenas uma pequena fracao dos parametros. Inclui LoRA, Prefix Tuning e Adapters.
#peft#eficiente#finetuning#adapters
Modelos e Arquiteturas
Phi
Phi e uma familia de modelos de linguagem compactos da Microsoft, projetados para demonstrar que modelos pequenos podem alcançar desempenho impressionante quando treinados com dados de alta qualidade.
#phi#microsoft#modelopequeno#eficiente
Modelos e Arquiteturas
Positional Encoding
Positional Encoding e a tecnica que injeta informacao sobre a posicao dos tokens em Transformers, ja que self-attention nao possui nocao inerente de ordem. Usa funcoes senoidais ou embeddings aprendidos.
#positionalencoding#posicao#transformer#sequencia
Modelos e Arquiteturas
Pre-Training
Pre-Training e a fase inicial de treinamento onde um modelo aprende representacoes gerais a partir de grandes volumes de dados nao-rotulados. E a base sobre a qual fine-tuning posterior especializa o modelo.
#pretraining#pretreinamento#treinamento#llm
Modelos e Arquiteturas
Pruning
Pruning e a tecnica de remover pesos, neuronios ou camadas redundantes de uma rede neural para reduzir seu tamanho e acelerar a inferencia, mantendo a maior parte do desempenho original.
#pruning#poda#compressao#otimizacao
Modelos e Arquiteturas
QLoRA
QLoRA combina quantizacao de 4 bits com LoRA para permitir fine-tuning de modelos com bilhoes de parametros em uma unica GPU consumer. Reduz requisitos de memoria mantendo qualidade.
#qlora#quantizacao#finetuning#eficiente
Modelos e Arquiteturas
Quantizacao
Quantizacao e a tecnica de reduzir a precisao numerica dos pesos de um modelo (de 32 bits para 8, 4 ou ate 2 bits). Diminui uso de memoria e acelera inferencia com minima perda de qualidade.
#quantizacao#compressao#int8#int4
Modelos e Arquiteturas
RNN (Recurrent Neural Network)
RNN (Rede Neural Recorrente) e uma arquitetura projetada para processar dados sequenciais, mantendo uma memoria interna que captura informacoes de passos anteriores. Foi a base do NLP antes dos Transformers.
#rnn#recorrente#sequencial#memoria
Modelos e Arquiteturas
Self-Attention
Self-Attention e o mecanismo que permite a cada token de uma sequencia calcular sua relacao com todos os outros tokens da mesma sequencia. E o componente central da arquitetura Transformer.
#selfattention#autoatencao#transformer#qkv
Modelos e Arquiteturas
Sentence Transformer
Sentence Transformer e um framework que gera embeddings de alta qualidade para frases e paragrafos inteiros, permitindo busca semantica, similaridade textual e clustering de documentos.
#sentencetransformer#embedding#buscasemantica#similaridade
Modelos e Arquiteturas
Stable Diffusion
Stable Diffusion e um modelo de codigo aberto para geracao de imagens a partir de texto, desenvolvido pela Stability AI. Opera no espaco latente para maior eficiencia e permite customizacao ampla.
#stablediffusion#difusao#opensource#geracaodeimagem
Modelos e Arquiteturas
TensorRT
TensorRT e uma biblioteca de otimizacao de inferencia da NVIDIA que maximiza a velocidade de modelos de Deep Learning em GPUs. Aplica fusao de camadas, quantizacao e otimizacao de kernels automaticamente.
#tensorrt#nvidia#otimizacao#inferencia
Modelos e Arquiteturas
Tokenizacao
Tokenizacao e o processo de dividir texto em unidades menores (tokens) que servem como entrada para modelos de linguagem. Pode operar em nivel de palavra, subpalavra (BPE, SentencePiece) ou caractere.
#tokenizacao#tokens#bpe#nlp
Modelos e Arquiteturas
Transformer
Transformer e a arquitetura de rede neural que revolucionou o processamento de linguagem natural. Baseada em mecanismos de atencao (self-attention), e a base de modelos como GPT, BERT e Claude.
#transformer#attention#nlp#ia
Modelos e Arquiteturas
VAE (Variational Autoencoder)
VAE (Variational Autoencoder) e uma variante probabilistica do autoencoder que aprende uma distribuicao no espaco latente, permitindo gerar novos dados coerentes. Combina redes neurais com inferencia bayesiana.
#vae#variational#autoencoder#gerativo
Modelos e Arquiteturas
Whisper
Whisper e um modelo de reconhecimento de fala da OpenAI, treinado em 680.000 horas de audio multilíngue. Realiza transcricao, traducao e deteccao de idioma com alta precisao em diversos idiomas.
#whisper#reconhecimentodefala#transcricao#openai
Modelos e Arquiteturas
Word Embedding
Word Embedding e a representacao de palavras como vetores numericos densos em um espaco continuo, onde palavras com significados similares ficam proximas. Tecnicas incluem Word2Vec, GloVe e embeddings contextuais.
#wordembedding#vetores#semantica#nlp
Modelos e Arquiteturas
Word2Vec
Word2Vec e um modelo pioneiro de word embedding desenvolvido pelo Google que aprende representacoes vetoriais de palavras a partir de grandes corpus de texto. Usa arquiteturas CBOW ou Skip-gram.
#word2vec#embedding#cbow#skipgram
Anterior12

Serviços de tecnologia ao Mercados de luxo

Glossário...

Acreditamos que a alquimia de Retórica, Criatividade e variadas Habilidades humanas criam resultados incríveis.