Pular para o conteúdo
Infraestrutura & Tecnologia

Hospedar DeepSeek na sua própria infraestrutura

Como empresas implantam DeepSeek R1 e outros LLMs em conformidade com a LGPD no Azure, GCP ou Self-Hosted. Arquitetura, soberania de dados.

Dieter Gogolin
Dieter Gogolin
CEO e cofundador 8 min de leitura

Por que o DeepSeek é relevante para empresas

DeepSeek demonstrou com seus modelos open source que LLMs de alto desempenho não precisam vir exclusivamente da OpenAI ou do Google. O DeepSeek R1 alcança em muitos benchmarks o nível do GPT-4, com custos operacionais significativamente menores e total transparência sobre o código do modelo.

Para empresas, isso é relevante porque cria uma opção real de escolha: em vez de se vincular a um único fornecedor de LLM, organizações podem rodar vários modelos em paralelo, compará-los e utilizar o mais adequado para cada caso de uso.

A questão fundamental não é se o DeepSeek é bom o suficiente. A questão é como uma empresa opera LLMs de forma que soberania de dados, compliance e preparação para o futuro estejam garantidos, independentemente de qual modelo esteja liderando no momento.

Três opções de hospedagem comparadas

Azure: integração enterprise como ponto forte

O Azure AI Foundry oferece DeepSeek como implantação gerenciada. A vantagem para organizações com ambiente Microsoft existente: integração com Azure Entra ID (antigo Azure AD), configurações de rede e segurança já estabelecidas, e seleção de região para residência de dados. Para empresas brasileiras, a região Brazil South garante que os dados permaneçam no país. Para operações em Portugal, regiões da UE atendem ao RGPD (PT: RGPD). Instâncias GPU (A100, H100) estão disponíveis em pay-as-you-go ou Provisioned Throughput.

A desvantagem: vendor lock-in no nível Azure. Migrar depois para GCP ou Self-Hosted exige reconstruir a camada de implantação, a não ser que a arquitetura tenha sido projetada como agnóstica desde o início.

GCP: flexibilidade e Kubernetes nativo

O Google Cloud Platform oferece via Vertex AI implantações gerenciadas de modelos open source. O ponto forte está na arquitetura nativa Kubernetes: organizações que já usam GKE (Google Kubernetes Engine) podem rodar LLMs como workloads em container ao lado dos serviços existentes. A região southamerica-east1 (São Paulo) atende requisitos de localização de dados da LGPD. Opções de TPU oferecem uma alternativa às GPUs NVIDIA.

Self-Hosted: máximo controle

Para empresas com os requisitos mais rigorosos de proteção de dados, como o setor financeiro ou de saúde, Self-Hosting é a escolha coerente. Modelos DeepSeek rodam em servidores próprios ou em data center privado, sem qualquer dependência de nuvem. A contrapartida: maior esforço operacional em gestão de hardware, atualizações e escalabilidade.

As três opções são tecnicamente equivalentes. Não há comprometimentos arquitetônicos com Self-Hosting. A decisão depende do panorama de TI existente, requisitos de compliance e modelo operacional interno.

Por que a decisão de hospedagem não é a mais importante

A maioria dos artigos sobre hosting de LLMs para no momento da decisão de hospedagem. Mas para empresas, o hosting é apenas a fundação: as perguntas reais vêm depois.

Como se governa qual modelo atende qual caso de uso? Como registrar prompts e respostas sem comprometer dados de colaboradores? Como garantir transparência sobre o uso de IA para a representação dos trabalhadores — sindicatos/CRE (BR) / Comissão de Trabalhadores (PT)? Como executar uma troca de modelo sem alterar a interface para 5.000 colaboradores?

Essas não são perguntas de hosting. São perguntas de arquitetura e governança. E é precisamente aqui que uma infraestrutura IA enterprise se distingue de um modelo hospedado.

Para empresas brasileiras, há uma camada adicional: a LGPD (BR) / RGPD (PT) impõe requisitos específicos sobre transferência internacional de dados. Modelos hospedados na China, como o DeepSeek via API, exigem bases legais sólidas para transferência de dados pessoais. O self-hosting elimina completamente essa questão. Em Portugal, o EU AI Act adiciona obrigações de classificação de risco que também afetam a escolha do modelo.

Arquitetura agnóstica de modelos como estratégia

O panorama de LLMs muda mais rápido do que qualquer ciclo de procurement corporativo. O que é estado da arte hoje pode ser superado por um novo modelo em seis meses. Quem constrói toda a infraestrutura sobre DeepSeek, ou sobre GPT-4, ou sobre Claude, assume um risco estratégico.

Uma arquitetura agnóstica de modelos desacopla a camada de uso da camada de modelos. Colaboradores utilizam uma interface de chat unificada. Por trás, uma camada de orquestração roteia entre modelos: DeepSeek para análise de texto com custo-eficiência, Claude para tarefas complexas de raciocínio, GPT-4o para aplicações multimodais, Llama ou Mistral para domínios especializados.

Trocas de modelo, comparativos e testes A/B acontecem na camada de orquestração, de forma transparente para os usuários, auditável para TI, rastreável para o comitê de empresa.

DeepSeek como componente, não como plataforma

DeepSeek é um modelo potente. Mas nenhum modelo sozinho resolve o problema enterprise. O que empresas precisam não é de um LLM hospedado, mas de uma infraestrutura na qual LLMs operam como componentes, integrados ao Governance by Design, conectados aos sistemas existentes, expansíveis com agentes IA que processam documentos e orquestram fluxos de trabalho.

O Decision Layer separa a análise do LLM da decisão de negócio. O modelo prepara, o humano decide, com um Audit Trail completo.

Na Gosign, construímos essa infraestrutura IA: agnóstica de modelos, em conformidade com a LGPD (BR) / RGPD (PT), no Azure, GCP ou Self-Hosted. DeepSeek é um de muitos componentes. A arquitetura faz a diferença.

DeepSeek LLM Hosting Azure GCP Self-Hosted LGPD
Compartilhar este artigo

Perguntas frequentes

Posso hospedar DeepSeek em conformidade com a LGPD no Brasil?

Sim. Os modelos DeepSeek são open source (licença MIT) e podem rodar inteiramente em infraestrutura própria, no Azure (região Brazil South ou East US), GCP (southamerica-east1 São Paulo) ou em servidores próprios. Nenhum dado sai da empresa.

Preciso de hardware GPU próprio para o DeepSeek?

Não necessariamente. Azure e GCP oferecem instâncias GPU (A100, H100) como serviços gerenciados. Self-Hosted é uma opção para máximo controle, mas não um requisito. A decisão arquitetônica depende de requisitos de latência, custos e infraestrutura existente.

O que acontece quando surge um modelo melhor que o DeepSeek?

Com uma arquitetura agnóstica de modelos: nada. A camada de orquestração roteia entre modelos. Um novo modelo é adicionado, o antigo permanece disponível ou é desativado. Sem reconstrução, sem migração, sem vendor lock-in.

DeepSeek é um modelo chinês, isso é risco de segurança?

Não com Self-Hosting. Os modelos open source do DeepSeek rodam localmente, sem conexão com servidores DeepSeek. Sem exfiltração de dados, sem chamadas API para a China. O código é publicamente auditável. O risco existe apenas ao usar a API do DeepSeek, não ao hospedar o modelo internamente. Para empresas brasileiras, a LGPD impõe restrições adicionais à transferência internacional de dados, tornando o self-hosting ainda mais relevante.

Qual processo seu primeiro agente deveria gerenciar?

Fale conosco sobre um caso de uso concreto na sua organização.

Agendar uma conversa