O dilema corporativo do ChatGPT: liberar, bloquear ou governar?
Em algum momento entre 2023 e 2024, a maioria dos gestores de TI de médias e grandes empresas brasileiras recebeu uma versão da mesma mensagem, vinda de diretores, gerentes ou colaboradores: 'posso usar o ChatGPT no trabalho?'. E a maioria das respostas iniciais foi uma das duas extremidades do espectro: ou um 'não' categórico por medo de vazamento de dados, ou um 'pode usar à vontade' sem nenhum critério — ambas as respostas igualmente problemáticas.
A realidade é que bloquear completamente o acesso a ferramentas de IA generativa em 2025 é tão ineficaz quanto proibir o uso de mecanismos de busca nos anos 2000. Os colaboradores encontram formas de usar de qualquer jeito — só que sem orientação, sem política e, portanto, com risco máximo para a empresa. A alternativa inteligente é governar: criar um framework claro que permita o uso produtivo das ferramentas e ao mesmo tempo proteja os ativos mais valiosos da organização, incluindo dados sensíveis, propriedade intelectual e conformidade com a LGPD.
A Trilion tem apoiado empresas a construir exatamente esse framework. Este artigo reúne os elementos essenciais de uma política de uso de IA corporativa e o papel de cada área — TI, jurídico e negócios — nesse processo.
Entendendo os riscos reais antes de construir a política
Para construir uma política de governança eficaz, é preciso entender concretamente quais são os riscos — não de forma abstrata, mas com exemplos que qualquer gestor reconhecerá como possíveis.
Risco 1: Envio de dados confidenciais para modelos externos
Quando um colaborador cola o contrato de um cliente no ChatGPT para pedir um resumo, ou insere uma planilha com dados financeiros para gerar análises, esses dados estão sendo enviados para os servidores da OpenAI — ou de qualquer outro provedor de LLM. Dependendo das configurações da conta e dos termos de serviço, esses dados podem ser usados para treinar modelos futuros.
Na versão gratuita do ChatGPT e em contas individuais sem configuração de privacidade, o histórico de conversas é retido e pode ser acessado pela OpenAI. O plano ChatGPT Teams e o ChatGPT Enterprise têm configurações de privacidade mais robustas — dados não são usados para treinamento — mas isso precisa ser configurado e comunicado explicitamente.
Risco 2: Geração de conteúdo incorreto usado como fato
LLMs como o ChatGPT 'alucinam' — geram informações plausíveis mas incorretas com confiança semelhante à de informações corretas. Um colaborador que usa a ferramenta para pesquisar legislação trabalhista, verificar dados de um concorrente ou gerar conteúdo técnico sem validar as informações pode introduzir erros graves em documentos, apresentações ou decisões de negócio.
Risco 3: Violação de direitos autorais
Conteúdo gerado por IA pode reproduzir texto, código ou imagens de fontes protegidas por direitos autorais sem indicar a origem. Empresas que publicam conteúdo gerado por IA sem revisão adequada se expõem a riscos legais de propriedade intelectual.
Risco 4: Criação de conteúdo que não representa a voz da empresa
Comunicações externas geradas por IA sem revisão podem ter tom, posicionamento ou conteúdo inconsistentes com a marca e os valores da empresa — incluindo afirmações que a empresa não quer fazer publicamente.
Risco 5: Dependência sem desenvolvimento de competência
Colaboradores que usam IA para substituir o pensamento em vez de amplificá-lo desenvolvem uma dependência que esvazia a competência individual ao longo do tempo. Este é um risco de longo prazo que impacta a capacidade de inovação da empresa.
'O risco de não ter política de uso de IA não é hipotético — já aconteceu em centenas de empresas ao redor do mundo: contratos com dados de clientes enviados para LLMs externos, código proprietário colado em ferramentas públicas, informações confidenciais de M&A inseridas em prompts. Governança não é burocracia — é proteção de ativos.' — Visão de gestão de riscos da Trilion
Arquitetura de uma política de uso de IA corporativa
Uma política de uso de IA não precisa ter 80 páginas para ser eficaz. Ela precisa ser clara, específica e comunicada de forma que os colaboradores realmente entendam o que podem e não podem fazer. Apresentamos aqui a estrutura essencial.
Seção 1: Princípios gerais
A política começa com os princípios que orientam todas as decisões sobre uso de IA na empresa:
- IA é uma ferramenta de amplificação, não de substituição do julgamento humano
- O colaborador é responsável pelo output que entrega, independentemente de ter sido gerado ou assistido por IA
- Dados confidenciais da empresa, de clientes ou de parceiros não podem ser inseridos em ferramentas de IA sem aprovação explícita da área de TI e do jurídico
- Todo uso de IA deve ser transparente — o colaborador deve indicar quando um conteúdo foi gerado ou significativamente assistido por IA
Seção 2: Ferramentas aprovadas e não aprovadas
A política deve listar explicitamente quais ferramentas de IA são aprovadas para uso corporativo, em quais condições, e quais são proibidas.
Ferramentas tipicamente aprovadas (com configuração adequada):
- ChatGPT Teams ou Enterprise (não a versão gratuita individual)
- Microsoft Copilot para M365 (para empresas no ecossistema Microsoft)
- Google Gemini for Workspace (para empresas no Google Workspace)
- Ferramentas aprovadas pela TI com análise de privacidade e segurança
Ferramentas tipicamente não aprovadas para dados corporativos:
- ChatGPT gratuito ou conta individual sem configuração de privacidade
- Ferramentas de IA de procedência desconhecida ou sem política de privacidade clara
- LLMs locais não homologados pela TI (mesmo sendo 'mais seguros' — precisam passar por avaliação)
Seção 3: Dados — o que pode e o que não pode ser inserido em ferramentas de IA
Esta é a seção mais crítica da política. Uma categorização clara de dados por nível de sensibilidade:
Dados que nunca devem ser inseridos em ferramentas de IA externas:
- Dados pessoais identificáveis de clientes, colaboradores ou parceiros (CPF, RG, endereço, dados bancários)
- Contratos e acordos confidenciais
- Dados financeiros não públicos (resultados, projeções, dados de M&A)
- Código-fonte de sistemas proprietários
- Informações de segurança (senhas, tokens, chaves de API)
- Estratégias de negócio não públicas
Dados que podem ser inseridos com cautela (apenas em ferramentas aprovadas com configuração de privacidade ativa):
- Documentos internos genéricos sem dados sensíveis
- Textos para revisão de gramática e estilo (sem informações confidenciais)
- Dados agregados e anonimizados para análise
Dados sem restrição:
- Informações públicas
- Conteúdo de domínio público
- Prompts de criatividade e brainstorming sem contexto corporativo sensível
Seção 4: Casos de uso aprovados
Liste explicitamente os casos de uso que a empresa aprova para uso de IA. Exemplos:
- Revisão gramatical e estilística de textos internos
- Geração de primeiros rascunhos de comunicações internas (revisão humana obrigatória antes de envio)
- Brainstorming e geração de ideias
- Resumo de documentos longos (sem dados confidenciais)
- Geração de código (com revisão de segurança obrigatória)
- Criação de apresentações e materiais de marketing (revisão de fatos obrigatória)
- Análise de dados agregados e anonimizados
Seção 5: Obrigações de transparência e atribuição
Defina quando e como os colaboradores devem indicar uso de IA em seus entregáveis. Sugestões práticas:
- Documentos externos para clientes: indicar quando o conteúdo foi substancialmente gerado por IA
- Comunicações internas formais: indicar uso de IA quando solicitado pelo gestor
- Código gerado por IA: comentar no código a origem e indicar que passou por revisão humana
- Conteúdo publicado externamente (blog, redes sociais, comunicados): seguir política de marketing para conteúdo gerado por IA
LGPD e IA: o que sua empresa precisa saber
A Lei Geral de Proteção de Dados (Lei 13.709/2018) se aplica integralmente ao uso de IA nas empresas. Os principais pontos de atenção:
Dados pessoais em LLMs
Inserir dados pessoais de clientes, colaboradores ou qualquer pessoa em ferramentas de IA externa sem base legal adequada e sem contratos de processamento de dados com o fornecedor é uma violação da LGPD. A empresa precisa garantir que os fornecedores de IA com quem trabalha têm contratos de DPA (Data Processing Agreement) adequados.
Decisões automatizadas
O artigo 20 da LGPD garante ao titular de dados o direito de 'solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais'. Isso significa que qualquer decisão com impacto significativo sobre uma pessoa — contratação, demissão, concessão de crédito — que seja baseada em IA precisa ter uma revisão humana documentada e acessível.
Inventário de IA
A ANPD (Autoridade Nacional de Proteção de Dados) tem sinalizado que empresas devem manter um inventário das ferramentas de IA que processam dados pessoais. Isso é uma boa prática de governança independentemente de exigência regulatória formal.
'LGPD e IA não são inimigos — a conformidade bem estruturada cria confiança com clientes e parceiros, que é um ativo competitivo real. Empresas que tratam a proteção de dados como burocracia estão perdendo uma oportunidade de diferenciação.' — Perspectiva de compliance da Trilion
O papel da TI na governança de IA
A área de TI tem responsabilidades específicas no framework de governança de IA corporativa:
- Avaliação e homologação de ferramentas: toda ferramenta de IA usada na empresa deve passar por uma avaliação de segurança, privacidade e conformidade antes de ser aprovada
- Configuração de privacidade: garantir que as ferramentas aprovadas estejam configuradas para não usar dados corporativos em treinamento de modelos
- Monitoramento de uso: acompanhar quais ferramentas e APIs estão sendo acessadas pela rede corporativa — inclusive as não aprovadas
- Gestão de acessos: implementar o princípio do menor privilégio para ferramentas de IA — cada colaborador acessa apenas o que precisa
- Resposta a incidentes: ter um plano para o caso de vazamento de dados via ferramenta de IA
O papel do jurídico na governança de IA
A área jurídica precisa estar no centro das decisões de adoção de IA, não apenas como validadora de decisões já tomadas. Suas responsabilidades incluem:
- Revisar os termos de serviço e políticas de privacidade dos fornecedores de IA antes da aprovação
- Garantir que os contratos com fornecedores de IA incluam cláusulas de DPA adequadas
- Atualizar contratos com clientes para prever uso de IA quando relevante
- Monitorar a evolução regulatória no Brasil e no exterior (especialmente o AI Act europeu, que impactará empresas brasileiras com operações na UE)
- Definir as obrigações de transparência da empresa sobre uso de IA em produtos e serviços
Implementação prática: como a Trilion conduz esse processo
A implementação de governança de IA em empresas que nunca tiveram política formal sobre o tema precisa ser feita em etapas. O processo que a Trilion recomenda e aplica com clientes tem quatro fases:
Fase 1 — Diagnóstico: mapeamento do uso atual de IA na empresa (incluindo o uso não autorizado), identificação das ferramentas em uso, levantamento dos dados mais sensíveis e avaliação do nível de maturidade em segurança da informação.
Fase 2 — Design da política: construção da política de uso com TI, jurídico e representantes das áreas de negócio. A política precisa ser prática e executável, não apenas tecnicamente correta.
Fase 3 — Comunicação e treinamento: a política mais bem escrita do mundo é inútil se os colaboradores não souberem que ela existe ou não entenderem seus principais pontos. Sessões de treinamento por área, FAQs e materiais de referência são essenciais.
Fase 4 — Monitoramento e atualização: o campo de IA evolui rápido demais para políticas estáticas. Defina uma cadência de revisão (trimestral ou semestral) e um processo para aprovar novas ferramentas de forma ágil.
Se a sua empresa ainda não tem uma política de uso de IA e quer estruturar esse framework com segurança e eficiência, fale com a Trilion. Nosso time combina expertise em tecnologia, segurança da informação e compliance para entregar uma política que funciona na prática — e não apenas no papel.
Conclusão: governança é o que transforma IA em vantagem competitiva sustentável
A diferença entre empresas que extraem valor real de ferramentas como o ChatGPT e aquelas que ficam com o risco sem o benefício não está na tecnologia em si — está na governança. Empresas com políticas claras, treinamento adequado e processos de validação usam IA com mais confiança, mais escala e mais resultado.
Bloquear é a resposta do medo. Liberar sem controle é a resposta da ingenuidade. Governar é a resposta da inteligência — e é a única que constrói valor de longo prazo.
O momento de construir esse framework é antes do primeiro incidente, não depois. E com o apoio certo, o processo é muito mais rápido e menos doloroso do que parece.
Casos de uso corporativos por área: o que é seguro e o que exige cautela
Para tornar a política de uso mais concreta, apresentamos uma análise por área de como o ChatGPT e LLMs similares podem ser usados com segurança em contexto corporativo.
Marketing e comunicação
Usos seguros: geração de ideias de pauta, criação de primeiros rascunhos de textos para blog e redes sociais, revisão gramatical, brainstorming de campanhas, adaptação de conteúdo para diferentes formatos e públicos.
Usos que exigem cautela: geração de comunicados de imprensa ou conteúdo sensível de relações públicas sem revisão jurídica, uso de dados de clientes para personalizar prompts, afirmações sobre produtos ou serviços que precisam de validação técnica antes da publicação.
Comercial e vendas
Usos seguros: geração de e-mails de prospecção, preparação de roteiros para reuniões, análise de objeções comuns, criação de propostas comerciais a partir de templates aprovados, pesquisa de mercado com dados públicos.
Usos que exigem cautela: inserção de dados de clientes (nome, empresa, histórico de negociações) em ferramentas de IA externas sem anonimização, geração de previsões de receita baseadas em dados confidenciais da empresa.
Jurídico
Usos seguros: pesquisa de legislação pública, revisão de estilo e clareza em documentos internos, geração de checklist de conformidade a partir de legislação pública conhecida, tradução de documentos sem dados confidenciais.
Usos que exigem cautela extrema: inserção de contratos, acordos ou qualquer documento com informações confidenciais de clientes ou da empresa em ferramentas de IA. O jurídico é uma das áreas onde a política de dados sensíveis precisa ser aplicada com maior rigor.
Tecnologia e desenvolvimento
Usos seguros: geração e revisão de código genérico, documentação técnica, explicação de algoritmos, geração de testes automatizados, refatoração de código sem lógica proprietária crítica.
Usos que exigem cautela: inserção de código-fonte proprietário completo em ferramentas de IA externas — especialmente algoritmos de negócio, modelos de dados sensíveis ou lógica de segurança. A maioria das políticas corporativas proíbe a inserção de código proprietário em LLMs externos não homologados.
Financeiro e controladoria
Usos seguros: geração de relatórios com dados agregados e anonimizados, explicação de conceitos contábeis e regulatórios, revisão de texto de relatórios públicos, automação de formatação de documentos.
Usos que exigem cautela: inserção de dados financeiros não públicos (DRE, balanço, fluxo de caixa, dados de M&A) em ferramentas de IA. Essa categoria representa risco regulatório, de mercado e de confidencialidade.
Template de política de uso de IA: estrutura básica para começar
Para empresas que precisam criar uma política de uso de IA do zero, oferecemos aqui uma estrutura básica que pode ser adaptada ao contexto específico de cada organização. Este template não substitui a revisão jurídica — é um ponto de partida.
POLÍTICA DE USO DE INTELIGÊNCIA ARTIFICIAL — [NOME DA EMPRESA]
1. Objetivo: esta política estabelece diretrizes para o uso responsável, seguro e conforme de ferramentas de inteligência artificial generativa por colaboradores da [Empresa] em suas atividades profissionais.
2. Abrangência: aplica-se a todos os colaboradores, prestadores de serviço e parceiros que utilizam sistemas ou acessam dados da [Empresa].
3. Princípios fundamentais: (a) responsabilidade humana — o colaborador é responsável pelo conteúdo que entrega, independentemente do uso de IA; (b) proteção de dados — dados confidenciais da empresa, clientes e parceiros não podem ser inseridos em ferramentas de IA externas sem aprovação; (c) transparência — uso de IA em entregáveis deve ser indicado quando solicitado pelo gestor ou quando exigido por contrato com clientes; (d) conformidade — todo uso de IA deve estar em conformidade com a LGPD e demais regulamentações aplicáveis.
4. Ferramentas aprovadas: [listar as ferramentas aprovadas pela TI com respectivas condições de uso].
5. Dados proibidos em ferramentas externas de IA: dados pessoais de clientes/colaboradores, contratos, dados financeiros não públicos, código-fonte proprietário, informações estratégicas confidenciais.
6. Validação obrigatória: todo conteúdo gerado por IA que será entregue externamente (para clientes, publicado, enviado a parceiros) deve ser revisado e validado por um colaborador humano antes do envio.
7. Violações: o descumprimento desta política está sujeito às sanções previstas no código de conduta da empresa e, quando aplicável, às penalidades previstas na LGPD.
8. Revisão: esta política será revisada [semestralmente/anualmente] ou sempre que houver mudanças relevantes nas ferramentas de IA utilizadas ou na legislação aplicável.
A Trilion ajuda empresas a adaptar e expandir esse template para a realidade específica do seu negócio, integrando as necessidades de TI, jurídico e negócios em um documento prático e executável. Uma política bem feita leva de 2 a 4 semanas para ser desenvolvida e aprovada — um investimento pequeno diante do risco que ela mitiga.




