PEFT
Categoria
Modelos e Arquiteturas
PEFT (Parameter-Efficient Fine-Tuning) e um conjunto de tecnicas que adaptam modelos grandes treinando apenas uma pequena fracao dos parametros. Inclui LoRA, Prefix Tuning e Adapters.
Categoria
Modelos e Arquiteturas
O que e PEFT?
PEFT (Parameter-Efficient Fine-Tuning) e um conjunto de tecnicas para adaptar modelos pre-treinados grandes a tarefas especificas, treinando apenas uma pequena fracao (0.1-10%) dos parametros totais, mantendo o desempenho proximo ao fine-tuning completo.
Tecnicas Principais
- LoRA: matrizes de baixo rank nas camadas de atencao
- Prefix Tuning: prepende vetores aprendiveis a cada camada
- Prompt Tuning: aprende soft prompts concatenados a entrada
- Adapters: modulos pequenos inseridos entre camadas
- IA3: escala ativacoes com vetores aprendidos
Vantagens
- Reducao massiva de custo computacional
- Multiplas adaptacoes modulares do mesmo modelo base
- Minimiza risco de catastrophic forgetting
O framework PEFT da Hugging Face unifica essas tecnicas em uma interface simples. Na Trilion, PEFT e a estrategia preferida para adaptar LLMs de forma eficiente e economica.
