Pular para o conteúdo
Infraestrutura & Tecnologia

Hosting de IA: EU SaaS, data center europeu ou Self-Hosted?

Tres estrategias de hosting para IA enterprise. Matriz de decisão por sensibilidade de dados, custo e controle.

Dieter Gogolin
Dieter Gogolin
CEO e cofundador 10 min de leitura

“Onde roda?” - A pergunta decisiva

Antes de selecionar um modelo, antes de construir agents, antes de implantar um interface, existe uma pergunta: onde rodam seus modelos de IA? Essa decisão determina quais garantias de proteção de dados você pode oferecer, quais requisitos regulatórios atende, quais sao seus custos operacionais e o quanto você se torna dependente de provedores externos.

Existem tres estrategias fundamentais - e uma quarta que se tornou padrão na prática: a arquitetura hibrida que combina as tres.

Nível 1: EU SaaS - Cloud APIs com residência de dados na UE

A opção mais simples e rápida: você usa as APIs dos provedores de modelos diretamente. Claude pela API da Anthropic (regiao UE), GPT-5.2 pelo Azure OpenAI (data center UE), Gemini pelo Google Cloud Platform (regiao UE). Os dados saem da sua rede, mas sao processados em data centers da UE.

Vantagens

Inicio mais rápido: Sem construir infraestrutura, sem provisionar servidores GPU, sem necessidade de expertise em ML-Ops. Configurar uma chave de API, assinar um contrato de processamento de dados, em produção em horas.

Atualizacoes automáticas: Atualizacoes de modelos, patches de segurança e melhorias de desempenho sao implantadas pelo provedor. Sem esforco de manutenção do seu lado.

Escalabilidade: Sem gestão de capacidade. Em picos de carga, o provedor cloud escala automaticamente. Sem superdimensionamento, sem subcapacidade.

Variedade de modelos: Acesso a todas as variantes de modelos do provedor - flagship, equilibrado e orçamentário - pela mesma API.

Riscos e limitações

Dados saem da rede corporativa. Mesmo com residência de dados na UE, suas requisicoes sao processadas em infraestrutura que você não controla. O provedor tem acesso técnico aos dados durante o processamento.

CLOUD Act. Provedores americanos - incluindo Anthropic, OpenAI e Google - estao sujeitos ao CLOUD Act dos EUA. Sob certas condições, autoridades americanas podem solicitar acesso a dados mesmo quando armazenados em data centers da UE. Para a maioria dos dados corporativos, esse risco e avaliavel e aceitavel. Para segredos comerciais, dados classificados ou informações de infraestrutura crítica, não e.

Dependencia do provedor. Com uma estratégia de provedor único, você depende da politica de preços, das mudancas de API e da disponibilidade de um único provedor. Uma arquitetura model-agnostic (veja Comparativo de modelos de IA 2026) reduz esse risco.

Contrato de processamento obrigatório. Para uso em conformidade com a LGPD (PT: RGPD) e necessário um contrato de processamento de dados com o provedor. Os tres grandes provedores oferecem contratos padrão - revise-os com seu departamento jurídico. Atenção: Contratos padrão SaaS de operador de dados não cobrem temas específicos de IA como registro de prompts, separação de ambientes e cadeias de provedores de modelos. Nosso checklist de requisitos para contratos de IA identifica as dez lacunas e fornece 25 perguntas de verificação.

Adequado para

  • Tarefas padrão com dados não sensiveis: resumos, traducoes, resposta geral a perguntas
  • Provas de conceito e projetos piloto
  • Tarefas com volume variavel onde infraestrutura GPU dedicada seria antieconomiea
  • Organizacoes sem expertise em ML-Ops que querem entrar em produção rapidamente

Nível 2: IaaS europeu - hosting GPU em provedores europeus

A opção intermediaria: você aluga servidores GPU de um provedor europeu de Infrastructure-as-a-Service - como Hetzner, IONOS ou um provedor especializado de GPU cloud. Nesses servidores, você opera modelos open source como gpt-oss, Llama 4 ou Mistral Medium 3.1.

Requisitos de hardware e custos concretos

ModeloRequisito GPUCusto estimado/mes
gpt-oss-120b1x A100/H100 (80 GB)aprox. 1.200 EUR
gpt-oss-20bCPU/16 GB RAM (ou GPU pequena)aprox. 200-400 EUR
Llama 4 Scout1x A100 (80 GB)aprox. 1.200 EUR
Llama 4 Maverick4x A100 (80 GB)aprox. 3.500 EUR
Mistral Medium 3.14x A100 (80 GB)aprox. 3.500 EUR

Vantagens

Dados ficam na Europa. O servidor esta em um data center europeu, operado por um provedor europeu. Sem CLOUD Act, sem transferencia transatlantica de dados. Para conformidade com a LGPD (PT: RGPD), e a opção cloud mais segura.

Sem vendor lock-in. Você opera modelos open source sob Apache 2.0 ou a Meta Llama License. Se quiser trocar de provedor de hosting, migra o modelo - sem questoes de licença, sem negociações contratuais.

Controle total do modelo. Você decide qual modelo em qual versão roda. Pode ajustar, quantizar ou substituir modelos por versões mais novas - sem esperar pelo provedor.

Custos previsiveis. Servidores GPU tem custos fixos mensais. Sem cobrancas variaveis por tokens, sem surpresas em picos de carga. Para organizações com volume alto e constante, frequentemente mais econômico que Cloud APIs.

Requisitos

Competência ML-Ops. Você precisa de alguem que implante, monitore, atualize e resolva problemas do modelo. Pode ser um engenheiro de ML interno ou um provedor de serviços externo, mas não e esforco zero.

Planejamento de capacidade. Um servidor GPU tem capacidade definida. Se você tem 500 requisicoes simultaneas, uma única GPU não basta. Você precisa entender perfis de carga e planejar capacidades.

Sem atualizações automáticas. Quando um novo modelo e lancado, você o implanta. Quando surge um problema de segurança, você aplica o patch.

Adequado para

  • Dados corporativos confidenciais (nivel de sensibilidade 2-3)
  • Organizacoes que precisam eliminar riscos do CLOUD Act
  • Casos de uso com volume constante e alto (vantagem de custo sobre Cloud APIs)
  • Organizacoes com competência DevOps/ML-Ops existente

Nível 3: On-Premises - IA no seu próprio hardware

A opção de controle maximo: você opera servidores GPU no seu próprio data center ou em um rack de colocação. Nenhum dado sai da sua rede - sob nenhuma circunstância.

Vantagens

Maxima soberania de dados. Sem acesso externo, sem provedor externo, sem dependência externa. O hardware e seu, o modelo e seu, os dados nunca saem da sua rede.

Certeza regulatoria. Para operadores de infraestrutura crítica, orgaos governamentais, setor de defesa e organizações com dados classificados, on-premises e frequentemente a única opção que atende aos requisitos de compliance. No Brasil, a ANPD (Autoridade Nacional de Protecao de Dados) supervisiona a conformidade; em Portugal, a CNPD (PT: Comissao Nacional de Proteccao de Dados) desempenha papel equivalente.

Sem custos recorrentes de licença ou API. Apos o investimento inicial, restam apenas eletricidade, refrigeração e manutenção. Em operação de longo prazo com alto volume, on-premises pode ser a opção mais econômica.

Desafios

Alto investimento inicial. Um servidor GPU de produção com NVIDIA H100 (80 GB) custa entre 25.000 e 40.000 EUR. Para configurações mais potentes (multi-GPU, redundancia), os custos vao de 60.000 a 120.000 EUR ou mais.

Equipe ML-Ops necessária. On-premises significa: você e responsável por tudo. Manutencao de hardware, deployment de modelos, monitoramento, atualizações, segurança. Isso exige uma equipe dedicada ou um provedor de serviços experiente.

Escalabilidade não e trivial. Quando a demanda cresce, você não pode adicionar outra GPU com um clique. A aquisição de hardware leva semanas a meses.

Adequado para

  • Operadores de infraestrutura crítica e orgaos governamentais
  • Dados classificados e níveis maximos de confidencialidade
  • Organizacoes com data center próprio e competência ML-Ops
  • Disposicao para investimento de longo prazo com volume muito alto

A arvore de decisão

A seguinte lógica de decisão ajuda na atribuição:

Seus dados contem PII ou segredos comerciais?
+-- NAO -> EU SaaS (Nivel 1)
+-- SIM -> Infraestrutura crítica ou dados classificados?
    +-- SIM -> On-Premises (Nivel 3)
    +-- NAO -> IaaS europeu (Nivel 2) ou Hibrido

Na prática, a resposta raramente e um único nível. A maioria das organizações tem dados de sensibilidade variada e, portanto, precisa de uma arquitetura que cubra todos os níveis.

Hibrido como padrão: A arquitetura de roteamento

A estratégia hibrida combina os tres níveis em uma única arquitetura. Uma camada de roteamento decide automaticamente qual requisicao passa por qual canal, com base na sensibilidade dos dados, não na decisão de colaboradores individuais.

Como o roteamento funciona

Nível de sensibilidade 1-2 (publico, interno): Requisicoes vao por Cloud APIs. Rapido, econômico, escalável. Exemplo: resumir um whitepaper publico, traduzir um comunicado de imprensa, redigir um email geral.

Nível de sensibilidade 3 (confidencial): Requisicoes sao roteadas para modelos self-hosted no data center europeu. Sem vazamento de dados, sem CLOUD Act. Exemplo: analisar contratos internos, processar dados de RH, avaliar dados financeiros confidenciais.

Nível de sensibilidade 4 (estritamente confidencial / regulado): Requisicoes rodam exclusivamente em infraestrutura on-premises. Exemplo: documentos classificados, sistemas de infraestrutura crítica, dados sob obrigações especiais de confidencialidade.

Pre-requisito: Classificação de dados

Para que o roteamento funcione, a organização precisa classificar seus dados. Parece trabalhoso, mas em muitas organizações já existe - por exemplo, como parte de Sistemas de Gestão de Segurança da Informacao (SGSI) existentes ou frameworks nacionais de classificação de segurança. As regras de roteamento mapeiam essa classificação existente para a infraestrutura de IA.

Implementacao técnica

A camada de roteamento fica entre o Enterprise AI Portal (o interface que os colaboradores usam) e os endpoints dos modelos. Consiste em tres componentes:

  1. Classificador: Detecta automaticamente a sensibilidade dos dados de uma requisicao, com base em palavras-chave, sistema de origem ou marcacao explicita do usuario.
  2. Motor de roteamento: Atribui a requisicao ao endpoint de modelo adequado: Cloud API, IaaS europeu ou on-premises.
  3. Audit Log: Registra cada decisão de roteamento: qual requisicao, qual nível de sensibilidade, qual endpoint. Rastreavel e exportável.

Efeito nos custos

A arquitetura hibrida otimiza não apenas a segurança dos dados, mas também os custos. Cloud APIs sao baratas por requisicao, mas variaveis. Modelos self-hosted tem custos fixos que se amortizam com alto volume. A combinacao aproveita ambos: Cloud APIs economicas para o grosso das requisicoes não sensiveis, modelos self-hosted com custos fixos otimizados para o volume confidencial.

Na prática, vemos em organizações com 1.000+ colaboradores tipicamente a seguinte distribuicao: 60-70% das requisicoes passam por Cloud APIs (nivel 1-2), 25-35% por IaaS europeu (nivel 3), e 5-10% por on-premises (nivel 4). Os custos totais ficam 30-40% abaixo de uma estratégia pura de Cloud API, com maior soberania de dados.

Resumo: Os tres níveis em visao geral

CriterioEU SaaS (Nivel 1)IaaS europeu (Nivel 2)On-Premises (Nivel 3)
Soberania de dadosRegiao UE, contrato processamentoEuropa, sem CLOUD ActMaxima
Custo inicialNenhumBaixo (aluguel)Alto (60-120K EUR+)
Custo operacionalVariavel (tokens)Fixo (aluguel GPU)Fixo (eletricidade, manutencao)
Esforco ML-OpsNenhumMedioAlto
EscalabilidadeAutomaticaManualManual, lenta
Adequado paraDados nível 1-2Dados nível 2-3Dados nível 3-4

A estratégia certa e quase sempre uma combinacao. Gosign implementa a camada de roteamento que conecta os tres níveis, para que seus colaboradores usem um único interface e o sistema selecione automaticamente o caminho correto.

Saiba mais: Infraestrutura de IA | Decision Layer & Shadow AI


Enterprise AI Infrastructure Blueprint 2026 - Serie de artigos

AnteriorVisao geralPróximo
Modelos de IA 2026: Qual modelo para qual uso?Visao geralEnterprise AI Portal: Quatro interfaces open source em comparativo

Todos os artigos desta serie: Enterprise AI Infrastructure Blueprint 2026


Quer saber qual estratégia de hosting e a certa para seus dados? Gosign analisa sua classificação de dados e projeta a arquitetura hibrida adequada.

Agende uma conversa - Em 30 minutos esclarecemos quais níveis de hosting você precisa.

Hosting IA Self-Hosted LGPD Cloud Act Servidor GPU Enterprise AI
Compartilhar este artigo

Perguntas frequentes

Usar APIs de IA na nuvem e compatível com a LGPD?

Sim, desde que o provedor garanta residência de dados na UE e exista um contrato de processamento de dados. Claude (Anthropic), GPT (Azure OpenAI) e Gemini (Google) oferecem regioes UE. Para dados de nível 3-4, recomendamos self-hosting.

Quanto custa o self-hosting de modelos de IA?

gpt-oss-120b roda em uma única GPU (80 GB) - aprox. 1.200 EUR/mes em um provedor de hosting europeu. Modelos maiores como Llama 4 Maverick exigem 4+ GPUs, aprox. 3.500 EUR/mes.

O que e a estratégia hibrida?

A arquitetura hibrida roteia requisicoes automaticamente por sensibilidade de dados: dados publicos via Cloud APIs (rapido, economico), dados confidenciais via modelos self-hosted (sem vazamento de dados). Uma camada de roteamento decide automaticamente.

Como a LGPD e o RGPD afetam o hosting de IA?

No Brasil, a LGPD exige consentimento e base legal para tratamento de dados pessoais; em Portugal, aplica-se o RGPD europeu. A estratégia hibrida atende ambos os marcos: Cloud APIs para dados publicos, self-hosting em servidores na UE para dados confidenciais, garantindo conformidade nos dois mercados.

Qual processo seu primeiro agente deveria gerenciar?

Fale conosco sobre um caso de uso concreto na sua organização.

Agendar uma conversa