Glossário de IA

30 termos sobre Inteligência Artificial, Machine Learning, IA Generativa, Automação e mais — explicados pela equipe da Trilion.
TodosAgentes e OrquestracaoAutomacao e RPADados e AnalyticsEtica e GovernancaFundamentos de IAIA GenerativaMarketing com IAMLOps e InfraestruturaModelos e ArquiteturasNegocios com IATermos Tecnicos Avancados
MLOps e Infraestrutura
API de IA
API de IA e uma interface de programacao que permite integrar capacidades de inteligencia artificial em qualquer aplicacao. Pode ser uma API de modelos proprios ou servicos terceiros como OpenAI, Anthropic e Google AI, oferecendo funcionalidades prontas para uso.
api-iaintegracaoservicomodelos
MLOps e Infraestrutura
Batch Inference
Batch Inference e o modo de operacao onde um modelo de ML processa grandes volumes de dados de uma so vez em lotes agendados. Ideal para cenarios que nao exigem resposta em tempo real, como scoring de clientes, recomendacoes diarias e relatorios periodicos.
batch-inferencelotepredicaoagendado
MLOps e Infraestrutura
Cloud AI (AWS/Azure/GCP)
Cloud AI refere-se aos servicos de inteligencia artificial oferecidos pelos principais provedores de nuvem: AWS, Azure e Google Cloud. Oferecem desde APIs pre-treinadas ate infraestrutura completa para treinamento e deploy de modelos customizados.
cloud-aiawsazuregcp
MLOps e Infraestrutura
Concept Drift
Concept Drift e a mudanca na relacao estatistica entre as variaveis de entrada e a variavel alvo de um modelo. Diferente do data drift que muda as entradas, o concept drift altera a propria logica que o modelo aprendeu, exigindo retreinamento.
concept-driftconceitorelacaomodelo
MLOps e Infraestrutura
Container (Docker)
Container e uma tecnologia de virtualizacao leve que empacota uma aplicacao junto com todas as suas dependencias em uma unidade portatil. Docker e a plataforma mais popular, essencial para garantir que modelos de IA funcionem identicamente em qualquer ambiente.
containerdockerdeployreproducibilidade
MLOps e Infraestrutura
Cost Optimization
Cost Optimization em IA e o conjunto de estrategias para reduzir custos de infraestrutura e operacao de modelos sem comprometer a qualidade. Inclui escolha de hardware, otimizacao de modelos, auto-scaling inteligente e gestao eficiente de recursos cloud.
cost-optimizationcustosotimizacaoeconomia
MLOps e Infraestrutura
CUDA
CUDA e a plataforma de computacao paralela da NVIDIA que permite utilizar GPUs para processamento de proposito geral. E o ecossistema padrao para treinamento de modelos de deep learning, com suporte em todos os principais frameworks de IA.
cudanvidiagpuparalelo
MLOps e Infraestrutura
Data Drift
Data Drift e a mudanca na distribuicao estatistica dos dados de entrada de um modelo ao longo do tempo. Quando os dados em producao divergem significativamente dos dados de treinamento, o modelo pode produzir predicoes imprecisas ou incorretas.
data-driftdadosdistribuicaomonitoramento
MLOps e Infraestrutura
Edge AI
Edge AI e a execucao de modelos de inteligencia artificial diretamente em dispositivos locais (edge), como smartphones, cameras e sensores IoT, sem depender de conexao com a nuvem. Oferece baixa latencia, privacidade de dados e operacao offline.
edge-aiedgeiotdispositivos
MLOps e Infraestrutura
Endpoint
Endpoint de IA e uma URL de API que expoe um modelo de machine learning para consumo em producao. Recebe dados de entrada via requisicao HTTP e retorna predicoes do modelo, sendo a interface entre aplicacoes de negocio e modelos de IA.
endpointapiinferenciaproducao
MLOps e Infraestrutura
Feature Store
Feature Store e um repositorio centralizado para armazenar, versionar e servir features (variaveis) utilizadas em modelos de machine learning. No contexto de MLOps, garante consistencia entre ambientes de treinamento e producao, evitando o training-serving skew.
feature-storemlopsfeaturestreinamento
MLOps e Infraestrutura
GPU
GPU (Graphics Processing Unit) e um processador especializado em computacao paralela, essencial para treinamento e inferencia de modelos de deep learning e IA. Sua arquitetura com milhares de nucleos permite processar operacoes matriciais massivamente em paralelo.
gpuhardwarenvidiaprocessamento
MLOps e Infraestrutura
Inference Pipeline
Inference Pipeline e o fluxo de producao que recebe dados novos, aplica preprocessamento e executa o modelo treinado para gerar predicoes. Pode operar em modo batch (lotes periodicos) ou em tempo real (requisicao por requisicao).
inference-pipelineinferenciaproducaopredicao
MLOps e Infraestrutura
Kubernetes para ML
Kubernetes para ML e o uso da plataforma de orquestracao de containers para gerenciar workloads de machine learning em escala. Automatiza deploy, escalabilidade, balanceamento de carga e recuperacao de falhas para servicos de inferencia e pipelines de treinamento.
kubernetesk8smlorquestracao
MLOps e Infraestrutura
Latencia
Latencia e o tempo decorrido entre o envio de uma requisicao e o recebimento da resposta. Em IA, mede quanto tempo um modelo leva para retornar uma predicao. Baixa latencia e critica para aplicacoes em tempo real como chatbots, fraude e recomendacoes.
latenciatempo-respostaperformanceotimizacao
MLOps e Infraestrutura
LLMOps
LLMOps e a pratica de gerenciar o ciclo de vida de Large Language Models em producao. Inclui gerenciamento de prompts, fine-tuning, avaliacao de qualidade, controle de custos e monitoramento de alucinacoes e toxicidade em modelos de linguagem.
llmopsllmproducaoprompts
MLOps e Infraestrutura
ML Pipeline
ML Pipeline e uma sequencia automatizada de etapas que compoe o fluxo de trabalho de machine learning, desde a coleta de dados ate o deploy do modelo. Inclui preprocessamento, feature engineering, treinamento, avaliacao e implantacao de forma reprodutivel.
ml-pipelinemachine-learningautomacaotreinamento
MLOps e Infraestrutura
MLOps
MLOps e a disciplina que aplica praticas de DevOps ao ciclo de vida de modelos de machine learning. Abrange treinamento, deploy, monitoramento e manutencao de modelos em producao, garantindo que a IA entregue valor de forma continua e confiavel.
mlopsmachine-learningdevopsproducao
MLOps e Infraestrutura
Model Drift
Model Drift e a degradacao gradual do desempenho de um modelo de ML em producao ao longo do tempo. Ocorre quando as condicoes do mundo real mudam em relacao ao cenario em que o modelo foi treinado, tornando suas predicoes cada vez menos precisas.
model-driftdegradacaoproducaomonitoramento
MLOps e Infraestrutura
Model Monitoring
Model Monitoring e o acompanhamento continuo do desempenho de modelos de ML em producao. Detecta degradacao de performance, drift de dados, anomalias nas predicoes e problemas de infraestrutura que podem afetar a qualidade das decisoes automatizadas.
model-monitoringmonitoramentoproducaoperformance
MLOps e Infraestrutura
Model Registry
Model Registry e um repositorio centralizado para armazenar, versionar e gerenciar modelos de machine learning ao longo de seu ciclo de vida. Funciona como um catalogo que rastreia versoes, metricas de desempenho e status de cada modelo.
model-registryversionamentomodelosmlops
MLOps e Infraestrutura
Model Versioning
Model Versioning e a pratica de manter historico de todas as versoes de um modelo de ML, incluindo codigo, dados de treinamento, hiperparametros e artefatos. Permite reproduzir qualquer versao anterior e comparar evolucoes de desempenho entre versoes.
model-versioningversionamentoreproducibilidademlops
MLOps e Infraestrutura
ModelOps
ModelOps e a disciplina focada na operacionalizacao de todos os tipos de modelos analiticos e de IA, nao apenas machine learning. Abrange a governanca, deploy e monitoramento de modelos estatisticos, regras de negocio, otimizacao e IA em escala empresarial.
modelopsmodelosgovernancaoperacionalizacao
MLOps e Infraestrutura
On-Premise AI
On-Premise AI e a execucao de modelos e infraestrutura de inteligencia artificial em servidores proprios da organizacao, dentro de suas instalacoes fisicas. Oferece controle total sobre dados e seguranca, sendo essencial para setores regulados.
on-premiselocalsegurancaprivacidade
MLOps e Infraestrutura
Real-Time Inference
Real-Time Inference e o modo de operacao onde um modelo de ML gera predicoes instantaneamente para cada requisicao individual. Essencial para aplicacoes que exigem resposta imediata como deteccao de fraude, recomendacoes personalizadas e chatbots.
real-time-inferencetempo-realpredicaoapi
MLOps e Infraestrutura
Scalability
Scalability e a capacidade de um sistema de IA crescer ou reduzir seus recursos computacionais conforme a demanda. Inclui escalabilidade horizontal (mais maquinas) e vertical (maquinas mais potentes), essencial para manter performance com custos otimizados.
scalabilityescalabilidadeauto-scalinginfraestrutura
MLOps e Infraestrutura
Serverless AI
Serverless AI e o modelo de execucao de cargas de trabalho de IA onde a infraestrutura e gerenciada automaticamente pelo provedor cloud. O usuario paga apenas pelo uso efetivo, sem necessidade de provisionar ou gerenciar servidores e GPUs.
serverlesscloudiagerenciado
MLOps e Infraestrutura
Throughput
Throughput e a quantidade de requisicoes ou predicoes que um sistema de IA consegue processar por unidade de tempo. Medido em requisicoes por segundo (RPS), indica a capacidade de vazao do sistema e e critico para aplicacoes de alto volume.
throughputvazaoperformanceescalabilidade
MLOps e Infraestrutura
TPU
TPU (Tensor Processing Unit) e um chip desenvolvido pelo Google especificamente para acelerar workloads de machine learning e deep learning. Otimizado para operacoes com tensores, oferece alta performance e eficiencia energetica para treinamento e inferencia.
tpugooglehardwaretensor
MLOps e Infraestrutura
Training Pipeline
Training Pipeline e a parte do ML Pipeline dedicada ao treinamento de modelos. Automatiza coleta de dados, preprocessamento, feature engineering, treinamento, validacao e registro do modelo, garantindo reproducibilidade e rastreabilidade completas.
training-pipelinetreinamentoautomacaoml

Serviços de tecnologia ao Mercados de luxo

Glossário...

Acreditamos que a alquimia de Retórica, Criatividade e variadas Habilidades humanas criam resultados incríveis.