Document Agents
Compreendem documentos com compreensão linguística real. Reconhecimento de tipo, conteúdo e contexto – não correspondência de templates. Cada extração verificada pelo Decision Layer.
Document Agents em detalheNa sua infraestrutura. Sob seu controle.
A Suíça não está na UE. Quem entende Zurique como mercado começa com esse fato: o EU AI Act não vale aqui diretamente, o GDPR não é o direito de proteção de dados aplicável, e a BaFin não tem competência. Em vez disso, vale o nFADP, a Lei Suíça de Proteção de Dados revisada desde setembro de 2023, e a FINMA como autoridade federal de supervisão de mercados financeiros. No quartel do Paradeplatz sentam UBS - depois da incorporação do Credit Suisse em 2023, de longe o maior banco suíço - bem como Zurich Insurance Group e Swiss Re como dois dos maiores resseguradores do mundo. ABB tem sede em Oerlikon, Sika em Baar, Holcim em Jona. Google opera em Zurique um dos seus maiores Engineering Centers fora dos EUA. Essa mistura cria um mercado de IA com alta maturidade técnica e um quadro regulatório construído de forma mais pragmática e setorial do que a regulação da UE.
A primeira é a FINMA como supervisão financeira. Em 2024 ela concretizou suas expectativas sobre governance de modelos de IA em bancos e seguradoras em um documento próprio - com requisitos claros sobre risco de modelo, explicabilidade e auditabilidade. UBS, Zurich Insurance, Swiss Re e os bancos privados aqui sediados precisam validar cada componente de IA em gestão de risco, underwriting ou wealth management contra essas expectativas FINMA. (Para o leitor brasileiro: papel funcionalmente comparável ao do BACEN sob a Resolução 4893, mas com mais ênfase em explicabilidade de modelo e menos em ciber-resiliência operacional.)
A segunda barreira é o EDÖB como Comissário Federal de Proteção de Dados e Transparência e o nFADP - a nova Lei de Proteção de Dados desde 2023. Ela é essencialmente compatível com a LGPD e com o GDPR, mas tem obrigações próprias sobre Privacy by Design, profiling e decisões automatizadas que precisam ser comprovadas separadamente. NÃO é a LGPD - é a FADP suíça. A terceira barreira é o próprio discurso suíço de regulação de IA: o Conselho Federal decidiu em 2024 que a Suíça não criará uma própria lei de IA abrangente, mas regulará setorialmente - o que significa que FINMA, Swissmedic e BAKOM formulam cada um requisitos próprios sobre IA em seus domínios. Quem planeja em Zurique precisa conhecer em detalhe a respectiva supervisão setorial. Mais contexto em Governance EU AI Act - a lógica EU permanece para empresas suíças com negócios na UE como segundo vetor de compliance.
Em UBS e no entorno bancário suíço mais amplo vemos Wealth Management Reporting Agents que preparam comunicação estruturada com cliente e relatórios de performance - o consultor decide, o agente estrutura. Em Zurich Insurance agentes apoiam a regulação de sinistros em seguro patrimonial e de vida, com enriquecimento claro da comunicação do sinistro em torno de dados contratuais, laudos periciais e checks de plausibilidade - a decisão final é de um despachante com background de seguros. Em Swiss Re trata-se de modelagem de resseguro e CAT modelling, em que underwriters recebem os resultados como proposta e respondem pela aceitação final.
A ABB trabalha em Use Cases de Industrial Control System, em que operadores industriais tomam a decisão final. Google Zurich usa ferramentas próprias de Engineering e é menos relevante como mercado para arquitetura externa de agentes - mas o ambiente de talento técnico em Zurique é fortemente moldado por isso. Em Sika e Holcim vemos Document Agents para análise de contratos e fichas de segurança no ambiente de química de construção. Em todos os casos, o Decision Layer mantém a cadeia de justificativa como Audit Trail - em uma forma que satisfaz simultaneamente os requisitos FINMA e as obrigações nFADP.
A Gosign não tem filial suíça. O mercado suíço aceita prestadores alemães sem subsidiária local, desde que o armazenamento de dados, o Engineering e a estrutura contratual estejam claramente regulamentados. Concretamente: trabalhamos como GmbH alemã com sede em Hamburgo, a estrutura contratual segue o direito suíço ou um modelo dual, o armazenamento de dados ocorre em infraestrutura cloud suíça (Swisscom, Exoscale) ou em um setup UE operado segundo padrões nFADP com as medidas de proteção correspondentes. Discovery Workshops fazemos presencialmente em Zurique - o voo direto Hamburgo-Zurique leva uma hora de voo, o ICE via Basel é uma alternativa razoável.
Na fase de Engineering trabalhamos remotamente com dias presenciais quinzenais e foco nos encontros de validação relevantes para FINMA. Importante é a separação explícita entre os conjuntos de regras para dados suíços e os conjuntos de regras para dados UE - o Decision Layer carrega ambas as lógicas em paralelo, porque muitos grupos suíços têm negócios na UE e precisam atender ambos os regimes simultaneamente. Clusters como o ETH AI Center, o Impact Hub Zürich e o Zurich Insurance Innovation usamos para troca técnica. Para grupos brasileiros com operações suíças (vários grupos farmacêuticos, financeiros e de commodities brasileiros mantêm holdings em Zurique), coordenamos a partir do escritório em São Paulo com a equipe de Hamburgo - especialmente útil para grupos que operam simultaneamente sob LGPD, FADP e GDPR.
A Suíça tem uma vantagem estrutural que os mercados UE não têm: a regulação é setorial, pragmática e em regra menos formalista que o EU AI Act. Quem coloca em Zurique um primeiro AI Agent em ambiente regulado em produção, defendeu-o contra as expectativas FINMA, contra o nFADP e contra a exigência suíça de limpeza técnica. Essa arquitetura está depois preparada para uma escala no espaço UE, porque a governance de modelo subjacente já cumpre o padrão mais alto. Soma-se o ambiente técnico: a ETH Zürich é uma das principais instituições mundiais de pesquisa em ML, o ETH AI Center reúne cerca de 100 grupos de pesquisa, e Google Zurich, IBM Research Zurich e o ambiente CERN na Suíça ocidental fazem do mercado um dos locais técnicos mais maduros da Europa. Quem em 4-6 semanas tem um primeiro AI Agent em produção em uma corporação suíça, constrói sobre um mercado que premia arquitetura pragmática e evita burocracia desnecessária. Mais sobre o procedimento em serviços AI Agents.
Não pela tecnologia – mas pela falta de governance. Sem regras claras definindo quem toma qual decisão, cada AI Agent permanece um projeto piloto.
Por isso construímos cada agente exclusivamente com Decision Layer. Ele decompõe cada processo empresarial em etapas de decisão individuais e define para cada etapa: pessoa, motor de regras ou IA. Nenhum agente entra em produção sem essa camada.
Compreendem documentos com compreensão linguística real. Reconhecimento de tipo, conteúdo e contexto – não correspondência de templates. Cada extração verificada pelo Decision Layer.
Document Agents em detalheCoordenam processos empresariais em múltiplos sistemas e pontos de decisão. Um agente, orquestração completa. Cada passo na trilha de auditoria.
HR AI AgentsRespondem perguntas a partir do conhecimento da empresa – com referência de fonte, versão da regra e data de validade. Sem fonte verificada, sem resposta.
Knowledge Agents em detalheAuditável. Conforme. Enterprise-grade.
Human-in-the-Loop forçado arquitetonicamente – não opcional
Trilha de auditoria completa para cada decisão do agente
LGPD-compliant by design – todos os dados na sua infraestrutura (PT: RGPD)
Compatível com legislação trabalhista (CLT; PT: Código do Trabalho)
Preparado para PL 2338/2023 – transparência, explicabilidade, supervisão humana
Agnóstico de modelo – sem vendor lock-in, código-fonte próprio
1 semana
Análise de processos, compreensão de regras, priorização de use cases.
3–4 semanas
PoC produtivo. Um agente, um processo, live na sua infraestrutura.
Contínuo
Mais agentes, mais processos. Mesmo governance, mesma auditabilidade.
Após 12–18 meses, você opera seus agents de forma independente. Código-fonte, prompts e regras são seus.
Análises e perspectivas sobre enterprise AI, governance e arquitetura de agentes.
Projetos de IA não fracassam por tecnologia, mas pela falta de regras. Por que o modelo operacional importa mais que o modelo de linguagem.
O EU AI Act classifica processos de RH como alto risco. Bias Monitoring, Human Oversight, transparência e documentação são obrigatórios.
Agent Governance não é tema de TI. RH decide regras, definição de bias, limiares de escalação. O CHRO deve liderar, não delegar.
“Even as a global market leader, you want to keep moving forward. It is reassuring to have the technological expertise and infrastructure experience of Gosign on our side.”
Head of Innovation, Sony Music Entertainment
“Gosign is not just about speed. It's about how much essential work happens in this time.”
Head of Customer Service & Technical Support, Libri GmbH
O Decision Layer suporta a FADP suíça (nDSG) e a LGPD (PT: RGPD) simultaneamente por meio de conjuntos de regras por jurisdição. O Audit Trail satisfaz requisitos regulatórios da FINMA, europeus e brasileiros.
Gerenciamos projetos em Zurique a partir de Hamburgo - conexão direta por voo. Disponibilidade presencial para workshops e reuniões-chave.
4-6 semanas. Discovery: 1 semana. Build: 3-4 semanas. Na sua infraestrutura.
Bancos (UBS), seguros (Swiss Re, Zurich Insurance), farmacêutica e fintech. Finance Agents com Audit Trail completo e Cert-Ready by Design para ambientes regulados.
Fale conosco sobre um caso de uso concreto na sua empresa.
Agendar consulta