Hospedar DeepSeek na sua própria infraestrutura
Como empresas implantam DeepSeek R1 e outros LLMs em conformidade com a LGPD no Azure, GCP ou Self-Hosted. Arquitetura, soberania de dados.
Por que o DeepSeek é relevante para empresas
DeepSeek demonstrou com seus modelos open source que LLMs de alto desempenho não precisam vir exclusivamente da OpenAI ou do Google. O DeepSeek R1 alcança em muitos benchmarks o nível do GPT-4, com custos operacionais significativamente menores e total transparência sobre o código do modelo.
Para empresas, isso é relevante porque cria uma opção real de escolha: em vez de se vincular a um único fornecedor de LLM, organizações podem rodar vários modelos em paralelo, compará-los e utilizar o mais adequado para cada caso de uso.
A questão fundamental não é se o DeepSeek é bom o suficiente. A questão é como uma empresa opera LLMs de forma que soberania de dados, compliance e preparação para o futuro estejam garantidos, independentemente de qual modelo esteja liderando no momento.
Três opções de hospedagem comparadas
Azure: integração enterprise como ponto forte
O Azure AI Foundry oferece DeepSeek como implantação gerenciada. A vantagem para organizações com ambiente Microsoft existente: integração com Azure Entra ID (antigo Azure AD), configurações de rede e segurança já estabelecidas, e seleção de região para residência de dados. Para empresas brasileiras, a região Brazil South garante que os dados permaneçam no país. Para operações em Portugal, regiões da UE atendem ao RGPD (PT: RGPD). Instâncias GPU (A100, H100) estão disponíveis em pay-as-you-go ou Provisioned Throughput.
A desvantagem: vendor lock-in no nível Azure. Migrar depois para GCP ou Self-Hosted exige reconstruir a camada de implantação, a não ser que a arquitetura tenha sido projetada como agnóstica desde o início.
GCP: flexibilidade e Kubernetes nativo
O Google Cloud Platform oferece via Vertex AI implantações gerenciadas de modelos open source. O ponto forte está na arquitetura nativa Kubernetes: organizações que já usam GKE (Google Kubernetes Engine) podem rodar LLMs como workloads em container ao lado dos serviços existentes. A região southamerica-east1 (São Paulo) atende requisitos de localização de dados da LGPD. Opções de TPU oferecem uma alternativa às GPUs NVIDIA.
Self-Hosted: máximo controle
Para empresas com os requisitos mais rigorosos de proteção de dados, como o setor financeiro ou de saúde, Self-Hosting é a escolha coerente. Modelos DeepSeek rodam em servidores próprios ou em data center privado, sem qualquer dependência de nuvem. A contrapartida: maior esforço operacional em gestão de hardware, atualizações e escalabilidade.
As três opções são tecnicamente equivalentes. Não há comprometimentos arquitetônicos com Self-Hosting. A decisão depende do panorama de TI existente, requisitos de compliance e modelo operacional interno.
Por que a decisão de hospedagem não é a mais importante
A maioria dos artigos sobre hosting de LLMs para no momento da decisão de hospedagem. Mas para empresas, o hosting é apenas a fundação: as perguntas reais vêm depois.
Como se governa qual modelo atende qual caso de uso? Como registrar prompts e respostas sem comprometer dados de colaboradores? Como garantir transparência sobre o uso de IA para a representação dos trabalhadores — sindicatos/CRE (BR) / Comissão de Trabalhadores (PT)? Como executar uma troca de modelo sem alterar a interface para 5.000 colaboradores?
Essas não são perguntas de hosting. São perguntas de arquitetura e governança. E é precisamente aqui que uma infraestrutura IA enterprise se distingue de um modelo hospedado.
Para empresas brasileiras, há uma camada adicional: a LGPD (BR) / RGPD (PT) impõe requisitos específicos sobre transferência internacional de dados. Modelos hospedados na China, como o DeepSeek via API, exigem bases legais sólidas para transferência de dados pessoais. O self-hosting elimina completamente essa questão. Em Portugal, o EU AI Act adiciona obrigações de classificação de risco que também afetam a escolha do modelo.
Arquitetura agnóstica de modelos como estratégia
O panorama de LLMs muda mais rápido do que qualquer ciclo de procurement corporativo. O que é estado da arte hoje pode ser superado por um novo modelo em seis meses. Quem constrói toda a infraestrutura sobre DeepSeek, ou sobre GPT-4, ou sobre Claude, assume um risco estratégico.
Uma arquitetura agnóstica de modelos desacopla a camada de uso da camada de modelos. Colaboradores utilizam uma interface de chat unificada. Por trás, uma camada de orquestração roteia entre modelos: DeepSeek para análise de texto com custo-eficiência, Claude para tarefas complexas de raciocínio, GPT-4o para aplicações multimodais, Llama ou Mistral para domínios especializados.
Trocas de modelo, comparativos e testes A/B acontecem na camada de orquestração, de forma transparente para os usuários, auditável para TI, rastreável para o comitê de empresa.
DeepSeek como componente, não como plataforma
DeepSeek é um modelo potente. Mas nenhum modelo sozinho resolve o problema enterprise. O que empresas precisam não é de um LLM hospedado, mas de uma infraestrutura na qual LLMs operam como componentes, integrados ao Governance by Design, conectados aos sistemas existentes, expansíveis com agentes IA que processam documentos e orquestram fluxos de trabalho.
O Decision Layer separa a análise do LLM da decisão de negócio. O modelo prepara, o humano decide, com um Audit Trail completo.
Na Gosign, construímos essa infraestrutura IA: agnóstica de modelos, em conformidade com a LGPD (BR) / RGPD (PT), no Azure, GCP ou Self-Hosted. DeepSeek é um de muitos componentes. A arquitetura faz a diferença.