Portais Enterprise AI: cinco interfaces open source em comparação
LobeChat, OpenWebUI, LibreChat, chatbot-ui e very-ai - cinco portais enterprise AI comparados. Funções, SSO, proteção PII, governance, self-hosting.
O problema: um modelo sem interface
Um modelo de IA sem interface controlado é como um servidor sem frontend. A tecnologia está lá, mas ninguém pode usá-la de forma organizada. O que acontece é previsível: colaboradores recorrem a serviços de IA públicos - ChatGPT, Gemini, Claude.ai - com suas contas pessoais. Inserem dados corporativos em sistemas fora do controle da TI. Não há Audit Trail, não há classificação de dados, não há controle de acesso.
Isso é Shadow AI. A questão não é se está acontecendo na sua empresa. A questão é o quanto.
A solução não é proibir o uso de IA. A solução é fornecer um sistema interno que funcione melhor que as alternativas públicas, e que ao mesmo tempo esteja sob controle corporativo. Um simples chat não basta para isso. O que você precisa é um portal enterprise AI.
O que um portal enterprise AI deve oferecer
Um portal enterprise AI é mais que uma janela de chat. É a plataforma central pela qual todos os colaboradores interagem com IA - de forma controlada, registrada e integrada ao cenário tecnológico existente. Seis requisitos distinguem um portal enterprise de um chat de consumo:
1. Multi-Model Routing
O portal deve conectar múltiplos modelos simultaneamente - APIs proprietárias na nuvem e modelos self-hosted. A lógica de routing decide automaticamente qual modelo atende cada solicitação: por tipo de tarefa, sensibilidade de dados e parâmetros de custo. Colaboradores veem uma interface unificada. Qual modelo opera em segundo plano é transparente para eles, mas rastreável.
2. Compartilhamento de assistentes
Departamentos criam assistentes especializados - com seu próprio system prompt, seus próprios documentos e seu próprio conjunto de regras. Um assistente para o jurídico que prepara revisões de contratos. Um assistente para RH que resume documentos de candidatos. Um assistente para compras que compara propostas de fornecedores. Esses assistentes são compartilhados dentro do departamento, versionados e gerenciados centralmente.
Essa é a diferença crucial em relação a um simples chat: nem todo colaborador precisa escrever prompts do zero. Em vez disso, usa um assistente configurado e otimizado por colegas da área. Isso reduz a barreira de entrada e eleva a qualidade dos resultados.
3. Integração de agentes
Um portal enterprise deve ir além do chat. Deve integrar agentes AI - workflows especializados que processam documentos, extraem dados, preparam decisões ou se comunicam com sistemas externos. O agente é disparado pelo portal, seu progresso é exibido e seu resultado é documentado no portal.
4. SSO e controle de acesso baseado em funções (RBAC)
Colaboradores fazem login pelo sistema de gerenciamento de identidades existente - Azure AD, Okta, Google Workspace. Sem contas separadas, sem senhas separadas. O controle de acesso é por funções: quem pode usar quais modelos? Quem pode criar assistentes? Quem pode acessar quais fontes de documentos? Quem tem acesso a workflows de agentes?
5. Audit Trail
Cada interação é registrada. Quem fez qual consulta e quando? Qual modelo respondeu? Quais documentos foram referenciados? Quais custos foram gerados? O Audit Trail é exportável - para auditoria interna, para revisões de compliance, para documentação da AI Act (aplicável em Portugal e como referência para futuras regulamentações no Brasil).
6. Flexibilidade de implantação
O portal deve ser implantável em diferentes ambientes: como serviço na nuvem (Supabase, Vercel), como contêiner em um data center europeu ou brasileiro, ou On-Premises. A decisão de hosting do portal segue os mesmos critérios da decisão de hosting dos modelos.
Interfaces open source em comparação
Cinco projetos open source se posicionaram como candidatos para portais enterprise AI: LobeChat, OpenWebUI, LibreChat, chatbot-ui e very-ai. Todos cinco são self-hosted, agnósticos em relação ao modelo e oferecem uma interface de chat para modelos de linguagem. As diferenças estão na integração SSO, funções de governance, proteção PII e compatibilidade com representantes dos trabalhadores.
Nota de transparência: very-ai é desenvolvido pela Gosign GmbH - a editora desta série de artigos. Apresentamos os pontos fortes e limitações dos cinco portais igualmente. very-ai se baseia em um fork do chatbot-ui (licença MIT) e evoluiu para um produto independente através de 16 extensões enterprise.
Comparação: cinco portais enterprise AI
| Critério | LobeChat | OpenWebUI | LibreChat | chatbot-ui | very-ai |
|---|---|---|---|---|---|
| Licença | Apache 2.0 | MIT | MIT | MIT | Apache 2.0 |
| Base | Projeto próprio | Projeto próprio | Projeto próprio | Projeto próprio | Fork do chatbot-ui |
| Agnóstico de modelo | ✅ OpenAI, Anthropic, Google, Ollama | ✅ OpenAI, Ollama, LiteLLM | ✅ OpenAI, Anthropic, Google, Mistral | ✅ OpenAI, Anthropic, Google, Ollama | ✅ OpenAI, Anthropic, Google (Vertex AI), Ollama |
| SSO | ❌ Não nativo | OAuth 2.0 (sem Entra ID nativo) | OAuth 2.0, OpenID Connect | ❌ Não nativo | ✅ Azure Entra ID nativo com sincronização de grupos e permissões |
| Proteção PII | ❌ | ❌ | ❌ | ❌ | ✅ Detecção, anonimização e re-anonimização |
| PII por assistente/modelo | - | - | - | - | ✅ Configurável por assistente E por modelo |
| Assistentes de grupo | ❌ | Modelos comunitários (limitado) | Conversas compartilhadas | ❌ | ✅ Controlados via grupos Entra ID |
| Audit Trail | ❌ | Logging básico | Logging básico | ❌ | ✅ Completo, exportável (CSV/JSON) |
| Estatísticas LGPD/RGPD | ❌ | ❌ | ❌ | ❌ | ✅ Estatísticas de uso anonimizadas |
| Integração n8n | ❌ | ❌ | ❌ | ❌ | ✅ Trigger de workflow a partir do chat |
| Thinking Level | ❌ | ❌ | ❌ | ❌ | ✅ Extended Thinking / controle de reasoning |
| Busca Web/Maps | Sistema de plugins | Busca web (RAG) | Sistema de plugins | ❌ | ✅ Integrado |
| Docker Self-Hosted | ✅ | ✅ | ✅ | ✅ | ✅ |
| GitHub Stars (fev 2026) | ~50k | ~60k | ~20k | ~28k | Novo (lançamento open source) |
| Compatibilidade trabalhadores | ⚠️ Limitada (sem auditoria, sem RBAC) | ⚠️ RBAC básico | ⚠️ RBAC básico | ❌ Sem governance | ✅ Audit Trail + RBAC + PII + Entra ID |
LobeChat
LobeChat é uma interface de chat visualmente atraente com arquitetura de plugins. Seu ponto forte está no ecossistema de plugins e na variedade de APIs na nuvem. Para enterprise, falta RBAC robusto, Audit Trail exportável e integração nativa de agentes. Adequado como protótipo rápido ou para equipes pequenas; limitado demais para implantação organizacional.
OpenWebUI
OpenWebUI é o padrão de facto para configurações self-hosted baseadas em Ollama. A integração com modelos executados localmente é excelente. SSO e logging básico estão disponíveis. O que falta: compartilhamento de assistentes, integração de agentes enterprise e gerenciamento centralizado para centenas de usuários.
LibreChat
LibreChat é um clone open source da interface do ChatGPT com suporte multi-modelo. SSO e RBAC básico estão implementados. Para empresas que querem replicar internamente uma experiência tipo ChatGPT, LibreChat é um ponto de partida sólido. Os limites estão na integração de agentes e compartilhamento de assistentes.
very-ai - portal enterprise com proteção PII e governance
very-ai é um portal enterprise AI baseado no chatbot-ui (MIT) que adiciona 16 funções enterprise inexistentes nos outros quatro portais. É desenvolvido pela Gosign GmbH e está disponível sob Apache 2.0 no GitHub.
Origem e diferenciação: chatbot-ui oferece uma sólida interface de chat, mas não tem integração SSO, Audit Trail nem proteção PII. very-ai endereça exatamente isso: a base de código foi ampliada com funções enterprise necessárias para uso produtivo em ambientes regulados. A atribuição ao projeto original está documentada no arquivo NOTICES.
Detecção e re-anonimização de PII: O diferencial central. very-ai detecta dados pessoais (nomes, e-mails, telefones, CPFs/NIFs) nos prompts dos usuários, substitui por marcadores ([PERSON_1], [EMAIL_1]), envia o texto anonimizado ao modelo de linguagem e reinsere os dados originais na resposta. O usuário vê os nomes reais; o modelo de linguagem nunca os viu.
Esse comportamento PII é configurável por assistente e por modelo: Assistente A pode permitir PII, Assistente B anonimiza automaticamente. Modelo X recebe dados anonimizados, Modelo Y (um modelo hospedado localmente) recebe dados brutos.
Azure Entra ID com sincronização de grupos: Não apenas autenticação, mas sincronização automática de grupos e funções do Entra ID. Colaboradores no grupo Entra ID “RH” veem automaticamente os assistentes de RH. Colaboradores em “Financeiro” veem assistentes do Financeiro. Sem atribuição manual de permissões no portal. Quando a membresia do grupo muda no Entra ID, o acesso no portal muda no próximo login.
Assistentes de grupo: Administradores criam assistentes e os atribuem a grupos Entra ID. Esses assistentes são visíveis e utilizáveis apenas por membros do grupo correspondente. Isso permite ferramentas de IA departamentais sem um sistema de gerenciamento de permissões separado.
Audit Trail e estatísticas LGPD/RGPD: Cada interação é registrada: usuário, modelo, assistente, prompt, resposta, timestamp, consumo de tokens, modo PII. O Audit Trail é exportável (CSV, JSON) e filtrável por período e usuário. As estatísticas de uso são anonimizadas conforme LGPD (BR) e RGPD (PT) - mostram uso de modelos e assistentes sem dados identificadores de usuário.
Integração de workflows n8n: Usuários podem disparar workflows n8n a partir do chat. Isso conecta o portal AI com a camada de automação.
Limitações (honestamente): very-ai é um projeto open source novo. A comunidade é pequena comparada ao LobeChat (50k estrelas) ou OpenWebUI (60k estrelas). Os ecossistemas de plugins dos portais estabelecidos são mais extensos. Quem busca um portal com máximo suporte comunitário e variedade de plugins está melhor atendido pelo LobeChat ou OpenWebUI. Quem precisa de proteção PII, sincronização de grupos Entra ID e logging compatível com requisitos de representantes dos trabalhadores, atualmente só encontra essa combinação no very-ai.
GitHub: github.com/gosign-de/very-ai
Qual portal para qual uso?
Máxima variedade de modelos e ecossistema de plugins: LobeChat - o maior sistema de plugins, a comunidade mais ativa, amplo suporte de modelos. Ideal para equipes que priorizam flexibilidade e inovação rápida.
Início mais fácil com Ollama: OpenWebUI - integração nativa Ollama, instalação rápida, interface intuitiva. Ideal para hosting local de LLM e equipes começando com modelos open source.
Máxima configurabilidade: LibreChat - o controle mais fino sobre endpoints e parâmetros de modelos. Ideal para equipes técnicas operando múltiplos provedores com configurações distintas.
Enterprise governance com proteção PII: very-ai - a única opção com anonimização PII nativa, sincronização de grupos Entra ID e Audit Trail completo. Ideal para ambientes regulados onde representantes dos trabalhadores, proteção de dados e compliance participam das decisões.
Projeto de avaliação e desenvolvimento: chatbot-ui - base de código limpa, bom ponto de partida para desenvolvimentos próprios. Nota: chatbot-ui não tem desenvolvimento enterprise ativo; very-ai é a evolução enterprise dessa base de código.
A maioria das empresas avalia 2-3 portais em paralelo com contêineres Docker - possível em uma tarde. O decisivo não é a interface, mas a capacidade de governance: SSO, Audit Trail, proteção PII e compatibilidade com representantes dos trabalhadores determinam qual portal vai para produção.
Por que “só um chat” não basta
A diferença entre uma interface de chat e um portal enterprise AI fica clara na operação. Uma comparação:
| Aspecto | Interface de chat | Portal enterprise AI |
|---|---|---|
| Uso | Pergunta-resposta individual | Ferramenta organizacional |
| Conhecimento | Cada usuário começa do zero | Assistentes agrupam conhecimento especializado |
| Controle | O usuário decide o que insere | Routing e RBAC gerenciam o fluxo de dados |
| Rastreabilidade | Nenhuma ou limitada | Audit Trail completo |
| Integração | Standalone | Conectado a SSO, agentes, sistemas de documentos |
| Escalabilidade | Por usuário | Por organização |
| Risco Shadow AI | Alto (oferta interna insuficiente) | Baixo (oferta interna superior) |
A conclusão central: Shadow AI não surge porque colaboradores agem com má intenção. Surge porque a oferta interna é pior que a alternativa pública. Quando o portal interno é tão intuitivo quanto o ChatGPT mas adicionalmente oferece assistentes especializados, acesso a documentos corporativos e workflows de agentes, não há razão para recorrer a serviços externos.
Na prática: uma empresa de médio porte com 2.000 colaboradores
Um exemplo concreto mostra o impacto. Uma empresa manufatureira com 2.000 colaboradores tinha a seguinte situação inicial:
Antes do portal: Uma pesquisa interna revelou que 340 colaboradores usavam regularmente serviços de IA públicos para tarefas de trabalho. Destes, 180 com contas gratuitas (sem contrato de processamento de dados), 120 com contas Pro pessoais (dados corporativos em contas privadas) e 40 com contas fornecidas pela empresa (mas sem Audit Trail ou controle de acesso). A TI não tinha visibilidade sobre quais dados fluíam para quais sistemas.
Implantação do portal enterprise AI: Em quatro semanas, very-ai foi implantado - conectado ao Azure AD para SSO, com três assistentes iniciais (jurídico, RH, compras) e um endpoint gpt-oss-120b para dados confidenciais.
Após 90 dias:
- 15 assistentes especializados criados por departamentos
- 1.200 usuários ativos por mês (de 2.000 colaboradores)
- Uso de Shadow AI reduzido em 85% (pesquisa de acompanhamento)
- Audit Trail completo: 47.000 interações registradas
- Identificação de três processos para os quais workflows de agentes dedicados faziam sentido
- Custo total (portal + hosting + APIs na nuvem): aprox. 4.800 EUR por mês
O fator decisivo não foi a tecnologia, mas a adoção. O portal foi aceito porque era melhor que a alternativa, não porque foi obrigatório.
Cinco fatores de sucesso na implantação
Da prática derivam-se cinco fatores que determinam o sucesso ou fracasso de um portal enterprise AI:
1. A primeira impressão conta. Se o portal interno é mais lento, mais complicado ou menos capaz que o ChatGPT, os colaboradores não voltarão a usá-lo após a primeira tentativa. A qualidade das respostas deve igualar os serviços públicos desde o primeiro dia.
2. Assistentes em vez de prompts. A maioria dos colaboradores não é engenheira de prompts. Querem usar uma ferramenta, não configurá-la. Assistentes especializados preparados por colegas da área reduzem significativamente a barreira de entrada.
3. Valor agregado visível. O portal deve oferecer algo que serviços públicos não conseguem: acesso a documentos internos (via RAG), assistentes especializados para tarefas específicas da empresa, integração em workflows existentes.
4. Propriedade da TI, não controle da TI. A TI opera o portal e define as regras de governance. Mas os departamentos criam seus próprios assistentes. Essa divisão - infraestrutura centralizada, conteúdos descentralizados - provou ser o modelo mais bem-sucedido.
5. Medir e comunicar. Números de uso, tempo economizado, Shadow AI reduzido - essas métricas devem ser coletadas e comunicadas à diretoria. Sem resultados mensuráveis, falta a base para a próxima fase de expansão.
Próximo passo: do portal ao agente
O portal enterprise AI é o fundamento. Fornece aos colaboradores acesso a IA, controlado e registrado. O próximo passo é integrar agentes - workflows especializados que vão além de interações simples de pergunta-resposta.
Leitura adicional: Infraestrutura AI | Decision Layer e Shadow AI
very-ai é o portal enterprise AI open source da Gosign. Saiba mais - ou fale diretamente conosco sobre qual configuração se adequa à sua organização.
Agendar reunião - Mostramos very-ai em uma demo ao vivo e discutimos seu plano de implantação.