Segundo Cérebro da Agência

Arquitetura Wiki
ClickGrowth

Como o conhecimento da agência é organizado, mantido e consultado — da pasta bruta ao insight cruzado entre clientes.

Obsidian como motor de links
Claude Code como escritor
Raw → Wiki → Output
Persistência entre sessões
Role para entender a lógica

00 — A ideia original

Tudo começa com
um artigo

A arquitetura inteira deste wiki — cada pasta, cada regra, cada convenção — é uma implementação direta do conceito descrito no artigo Wiki LLM. Entender o artigo é entender o porquê de cada decisão tomada aqui.

Ideia central — Wiki LLM (artigo original)
"Em vez de simplesmente recuperar informações de documentos brutos no momento da consulta, o LLM constrói e mantém incrementalmente um wiki persistente — uma coleção estruturada e interligada de arquivos Markdown. O conhecimento é compilado uma única vez e mantido atualizado, não sendo derivado novamente a cada consulta."
Esta frase define tudo. Não é RAG — é um segundo cérebro que cresce e se mantém entre sessões.
O que a maioria faz — RAG
Documentos brutos → busca vetorial → resposta gerada na hora
O LLM redescobre o conhecimento do zero a cada pergunta
Nada é acumulado — o histórico de raciocínio se perde no chat
ChatGPT, NotebookLM, uploads de arquivo funcionam assim
O que este sistema faz — Wiki LLM
Fontes brutas → processamento → wiki persistente interligado
Síntese compilada uma vez — consultada infinitas vezes
Cada ingestão enriquece o wiki — conhecimento acumula
Referências cruzadas já existem — contradições já estão sinalizadas
As 3 camadas definidas no artigo → como foram implementadas aqui
Camada (artigo)
Descrição original
Implementação ClickGrowth
1. Fontes originais
Imutáveis — o LLM lê, nunca modifica
Artigos, transcrições, arquivos de dados. Fonte de verdade permanente.
raw/ — articles, transcripts, notes, assets
2. O wiki
Markdown gerado e mantido só pelo LLM
Resumos, páginas de entidades, conceitos, comparações, síntese. O LLM cria, atualiza e mantém consistência.
wiki/ — clients, segments, sources, entities, concepts, benchmarks, campaigns, analyses
3. O esquema
Configura o LLM como mantenedor disciplinado
Documento que informa ao LLM como a wiki está estruturada, convenções e fluxos de trabalho. Desenvolvido em colaboração ao longo do tempo.
CLAUDE.md — identidade, formatos, fluxos, regras de qualidade, comandos
💡
A analogia central do artigo — aplicada aqui literalmente
"Na prática, deixo o agente do LLM aberto em uma janela e o Obsidian na outra. O LLM faz edições com base na nossa conversa, e eu navego pelos resultados em tempo real. O Obsidian é a IDE; o LLM é o programador; a wiki é a base de código."
IDE: Obsidian — você lê, navega no grafo, segue links em tempo real
Programador: Claude Code — escreve, atualiza, mantém consistência
Base de código: wiki/ — o produto que cresce a cada sessão

01 — Por que isso existe

A filosofia antes
das pastas

Toda agência acumula conhecimento todos os dias — em calls, relatórios, testes que funcionaram, erros que não devem se repetir. O problema é que esse conhecimento some: fica na cabeça de uma pessoa, num doc solto, num relatório que ninguém abre mais. Este sistema existe para resolver isso.

🧠

Conhecimento persistente

Cada reunião, cada teste, cada insight vai para o wiki. Não para um doc solto — para um grafo interligado que nunca some entre sessões.

memória volátil wiki permanente
🔗

Conhecimento interligado

Um insight de um cliente pode valer para três outros no mesmo segmento. Links internos tornam isso possível — qualquer página referencia qualquer outra.

docs isolados grafo de links

Consultável por IA

O Claude lê o wiki como contexto antes de qualquer tarefa. É como briefar um analista que já conhece todo o histórico sem precisar reexplicar nada.

reexplicar tudo contexto imediato

02 — Por que Obsidian

Obsidian é o
container ideal

Obsidian não é só um editor de notas. É uma engine de links bidirecionais sobre arquivos .md locais. Isso o torna perfeito como camada de visualização do wiki — enquanto o Claude escreve, o Obsidian conecta.

📄 Tudo em Markdown

Arquivos .md são texto puro, sem lock-in, legíveis por qualquer ferramenta e perfeitamente processáveis por LLMs. O Claude lê e escreve markdown nativo sem fricção.

  • Legível sem software especial
  • Versionável via git se necessário
  • Processado diretamente por Claude Code
  • Frontmatter YAML para metadados estruturados

🔗 Links bidirecionais [[page]]

Ao escrever [[kk-foods]] em qualquer página, o Obsidian cria automaticamente uma referência bidirecional. Você vê quem aponta para onde no grafo visual.

🗺️ Graph View

O Obsidian renderiza todos os links como um grafo visual interativo. Você vê em segundos quais clientes têm mais conexões, quais conceitos são mais referenciados, quais páginas estão isoladas.

  • Detecta páginas órfãs (sem links)
  • Mostra clusters por segmento
  • Identifica hubs de conhecimento

💾 Arquivos locais

O vault (pasta raiz) é uma pasta local comum. Não há servidor, não há conta — os arquivos ficam no seu computador, sincronizáveis via OneDrive, Dropbox ou git como qualquer outra pasta.

  • Zero dependência de nuvem proprietária
  • Claude Code acessa diretamente no sistema de arquivos
  • Backup automático via OneDrive já ativo

03 — Estrutura de pastas

Cada pasta tem
uma função precisa

A estrutura não é arbitrária — cada nível resolve um problema específico de organização de conhecimento. Clique em qualquer pasta para entender sua lógica.

📁minha-agencia/
├─ CLAUDE.mdcérebro
├─ index.mdmapa
├─ log.mdtimeline
├─📁raw/imutável
├─📁articles/
├─📁transcripts/
├─📁notes/
└─📁assets/
├─📁wiki/processado
├─ overview.md
├─📁clients/
└─📁[slug-cliente]/
├─ perfil.md
├─ reunioes.md
├─ acoes.md
└─ resultados.md
├─📁segments/
├─📁entities/
├─📁sources/
├─📁concepts/
├─📁benchmarks/
├─📁campaigns/
├─📁analyses/
└─📁references/
├─📁outputs/entregável
└─📁agente-performance/automação
🧠
/ CLAUDE.md
Esquema do Agente

Não é documentação para humanos — é o sistema operacional do Claude. Define identidade, missão, formatos de página, fluxos de trabalho e regras de qualidade. Lido no início de cada sessão antes de qualquer ação.

Por que existe: sem ele, o Claude começa cada sessão do zero — sem saber quem é o cliente, qual o padrão de nomenclatura, quais as regras. Com ele, toda sessão começa orientada e consistente.
leitura obrigatória define comportamento nunca deletar
🗂️
/ index.md
Catálogo do Wiki

Lista plana de todas as páginas existentes com uma linha de descrição cada. Funciona como o sumário do segundo cérebro — o Claude consulta o index antes de qualquer busca para saber onde olhar.

Por que existe: sem o index, o Claude precisaria varrer todas as pastas para saber o que existe — lento e caro. Com ele, uma consulta ao index mapeia o território em segundos.
atualizado após cada operação ponto de entrada de consultas
📋
/ log.md
Linha do Tempo de Operações

Registro cronológico append-only de tudo que o Claude fez: fontes ingeridas, clientes criados, reuniões registradas, análises geradas. Nunca se apaga — só cresce.

Por que existe: auditabilidade total. Você pode ver exatamente quando cada informação entrou no sistema, quem foi afetado e qual foi a última ação por cliente — sem depender de memória.
append-only não editar entradas antigas
🗃️
/ raw/
Fontes Brutas — Zona Imutável

Repositório de fontes originais: artigos copiados, transcrições de calls, notas cruas, PDFs. Nunca são editados. São a matéria-prima — o Claude lê daqui, processa, e escreve em wiki/.

Por que existe: separa a fonte da análise. Se uma conclusão no wiki se mostrar errada, você volta ao raw e re-lê a fonte original sem contaminação. É o princípio de separação entre dado e interpretação.
nunca editar nunca deletar fonte de ingestão
📚
/ wiki/
Conhecimento Processado — O Núcleo

Tudo que o Claude escreveu e mantém. Dividida em subpastas por tipo de conhecimento — cada uma responde a uma pergunta diferente sobre o negócio.

Por que existe: é onde o valor está. Raw é bruto; outputs são produto final; wiki é o conhecimento destilado e interligado que persiste e cresce sessão após sessão.
📂 clients/ — workspaces por cliente
Cada cliente tem sua pasta com 4 arquivos fixos: perfil, reunioes, acoes e resultados. Responde: quem é o cliente, o que foi decidido, o que foi feito, e quais são os números.
📂 segments/ — cruzamento de padrões
Uma página por segmento (medicina integrativa, SaaS médico, home service EUA). Concentra padrões validados em 2+ clientes — o que funciona, o que não funciona, criativos e públicos de melhor performance.
📂 sources/ — pontes do raw para o wiki
Uma página de resumo para cada fonte ingerida de raw/. Contém: resumo dos pontos principais, insights, conexões com clientes e segmentos, e path para o arquivo bruto original.
📂 entities/ — páginas-hub de entidades
Resumos de entidades (clientes, contatos, concorrentes) com links rápidos para o workspace completo. São os nós centrais do grafo — tudo converge para cá.
📂 concepts/  📂 benchmarks/  📂 campaigns/  📂 analyses/
Conhecimento horizontal que transcende um único cliente: frameworks de tráfego pago, benchmarks de mercado por segmento, análises de performance de criativos e respostas a consultas salvas para reutilização.
editável pelo claude interligado com links fonte de consulta
📤
/ outputs/
Produtos Finais para Consumo

Tudo que sai do sistema para o mundo externo: relatórios HTML, planos de ação, slides, tabelas para o cliente, apresentações. São gerados a partir do conhecimento acumulado no wiki — não o contrário.

Por que existe: separa produto final de base de conhecimento. O wiki é para pensar; outputs são para apresentar. Isso permite regenerar um relatório quando os dados mudam sem precisar reescrever o raciocínio.
entregáveis gerados a partir do wiki HTML, MD, PDF
🤖
/ agente-performance/
Motor de Coleta Automatizada

Scripts e configurações do agente que coleta dados das plataformas de ads (Meta Graph API, Google Ads API) e alimenta o wiki automaticamente. É a camada de automação que mantém o wiki atualizado sem intervenção manual.

Por que existe: dados de performance de campanhas mudam diariamente. Em vez de exportar manualmente, o agente coleta via API, processa e escreve diretamente nas páginas resultados.md e campanhas/ de cada cliente.
Meta Graph API Google Ads API alimenta wiki automaticamente

04 — Como o conhecimento flui

Da fonte bruta
ao insight cruzado

Cada informação que entra no sistema percorre um caminho definido. Não existe shortcut — fonte bruta vai para raw, processamento vai para wiki, produto vai para outputs.

Entrada A

🎙️ Transcrição de Call

Gravação ou notas de reunião com o cliente

Entrada B

📰 Artigo / Pesquisa

Conteúdo externo: artigos, posts, estudos de caso

Entrada C

📊 Dados de API

Meta Ads, Google Ads, plataformas de delivery

raw/
Arquivamento da fonte original
NUNCA EDITAR

A fonte vai para raw/transcripts/, raw/articles/ ou raw/notes/ exatamente como chegou — sem alteração. Este é o princípio da fonte imutável: se precisar reverificar, o original está aqui.

🤖 Claude processa
Ingestão e síntese
Identifica cliente(s) e segmento afetado
Extrai insights, decisões, próximos passos
Cria links para páginas relacionadas
wiki/sources/

📄 Página da fonte

Resumo, insights principais e conexões com o grafo

wiki/clients/

📁 Workspace do cliente

Reuniões, ações e resultados atualizados

wiki/segments/

🔗 Segmento atualizado

Padrões cruzados entre clientes do mesmo nicho

outputs/
Produto final gerado a partir do wiki

Relatórios, planos de ação, apresentações e análises são gerados consultando o wiki — não reconstruídos do zero. O histórico já está lá; o output é só a renderização para consumo externo.


05 — Regras de operação

O que nunca muda

Seis regras que garantem a integridade do sistema. Quebrar qualquer uma degrada a confiabilidade do wiki inteiro.

REGRA 01

🔒 Raw é sagrado

Nenhum arquivo em raw/ é editado pelo Claude, jamais. A fonte original precisa ser verificável a qualquer momento. Se o dado mudar, cria-se uma versão nova em raw — não se sobrescreve.

❌ raw/transcript.md → editar
✅ raw/transcript-v2.md → nova versão
REGRA 02

📋 index.md + log.md sempre atualizados

Toda operação do Claude termina com atualização do index (nova página catalogada) e append no log (operação registrada). Sem isso, o mapa fica desatualizado e o histórico perde continuidade.

toda sessão → 1 entrada no log.md
REGRA 03

🔗 Links internos em formato Obsidian

Toda referência entre páginas usa [[Nome da Página]] — nunca caminhos relativos como ../clients/kk-foods. O formato Obsidian é o único que o graph view processa corretamente.

✅ [[clients/kk-foods/acoes]]
❌ ../clients/kk-foods/acoes.md
REGRA 04

⚠️ Contradições são explicitadas

Se uma nova informação contradiz algo no wiki, as duas versões são anotadas com a data de cada uma — a mais antiga não é apagada. Silenciar uma contradição é mais perigoso que mantê-la visível.

⚠️ contradição: versão A (jan) vs versão B (abr)
REGRA 05

📐 Padrão de segmento exige 2+ clientes

Uma observação de um único cliente é uma hipótese. Só vira padrão — e vai para a página do segmento — quando confirmada em dois ou mais clientes. Isso previne overfitting de caso único.

1 cliente = hipótese → 2+ clientes = padrão
REGRA 06

🚫 Nunca criar página redundante

Antes de criar uma página nova, verificar se existe uma que pode ser atualizada. Wiki com duplicatas perde coerência — a informação fragmentada em dois lugares fica desatualizada nos dois.

verificar index.md antes de criar → sempre

05.5 — "Como você junta lé?"

Como dois clientes
se conectam no grafo

As linhas no Obsidian não são decoração — cada uma representa uma intenção. Dois clientes nunca se ligam diretamente: eles se ligam através de um hub intermediário que tem propósito semântico. Entender isso é entender o núcleo do sistema.

💬
PERGUNTA — Bruno Cedro, 24/04/2026
"Como você faz todas as relações de similaridade entre dois clientes? Cada conexão precisa ser criada com um propósito e habilitada em cada cliente. As linhas que conectam no Obsidian que me deixaram doido em como você estrutura."
Boa pergunta. A resposta muda como você enxerga o sistema inteiro.
A regra que tudo governa
Dois clientes nunca se ligam diretamente.
Eles se ligam porque os dois apontam para o mesmo hub.
Um link direto [[integrative-campinas]][[integrative-ipatinga]] não faz sentido semântico — o que os une não é o fato de serem clientes, mas o que eles compartilham: segmento, padrão de campanha, benchmark, fonte de conhecimento. O hub é o nome desse compartilhamento.
Os 4 tipos de hub que criam conexões com propósito
🗂️
Hub de Segmento
segments/medicina-integrativa

O mais poderoso. Todos os clientes do mesmo nicho apontam para cá. O hub agrega o que funciona e o que não funciona validado em 2+ clientes.

integrative-campinas/acoes.md
  → [[segments/medicina-integrativa]]
integrative-ipatinga/acoes.md
  → [[segments/medicina-integrativa]]
// os dois se "veem" pelo hub
Propósito: cruzar o que funciona em múltiplos clientes do mesmo nicho antes de testar num novo.
📈
Hub de Campanha
campaigns/video-esfiha-domingo

Um criativo ou estratégia que foi testado. O hub guarda os resultados por cliente — se o mesmo formato for usado em outro cliente, os dados ficam aqui centralizados.

kk-foods/acoes.md
  → [[campaigns/video-esfiha-domingo]]
// outro food client entrar depois?
// o benchmark já está aqui
Propósito: evitar refazer o que já foi testado — o resultado já está documentado e disponível.
📖
Hub de Fonte
sources/pesquisa-cpls-medicos

Um artigo ou benchmark externo que é relevante para múltiplos clientes. Um único raw processado pode conectar 3 clientes diferentes via a mesma fonte.

sources/pesquisa-cpls-medicos
  → [[integrative-campinas]]
  → [[integrative-ipatinga]]
  → [[benchmarks/medicina-integrativa]]
// 1 ingestão, 3 destinos
Propósito: uma fonte vira contexto para todos os clientes que ela é relevante — sem duplicar.
🧩
Hub de Conceito
concepts/framework-trafego-pago

Uma estratégia, framework ou metodologia usada em vários clientes. Clientes de segmentos diferentes podem se conectar aqui se usam o mesmo framework.

kk-foods/perfil.md
  → [[concepts/delivery-app-optimization]]
// mesmos conceitos = segmentos
// diferentes podem se cruzar
Propósito: o conhecimento de método se separa do cliente — vira patrimônio da agência.
Como o grafo do Obsidian renderiza isso — visualização real
MED segments/ medicina-integrativa Integrative Campinas Integrative Ipatinga Support Health KK Foods EUA segments/ food-delivery-eua sources/ pesquisa-cpls benchmarks/ medicina-integrativa campaigns/ esfiha-domingo C.md CLAUDE.md cliente (nó de dados) hub de segmento (nó central) link indireto (pontilhado) os 3 clientes se "veem" aqui →
Clientes
Hub de segmento
Segmento diferente
Link indireto (pontilhado)
Como o Claude usa essas conexões na prática — fluxo de raciocínio
1
Você pede: "prep reunião Integrative Ipatinga"
O Claude recebe o comando /prep-reuniao integrative-ipatinga
2
Lê o workspace do cliente
Abre clients/integrative-ipatinga/perfil.md, reunioes.md, acoes.md — lê o histórico completo deste cliente.
3
Segue o link para o segmento — é aqui que "lé encontra cré"
Dentro do perfil encontra [[segments/medicina-integrativa]]. Segue o link e lê a página do segmento — que já tem os padrões validados em Integrative Campinas e Support Health. O Claude agora sabe o que funciona no segmento inteiro, não só neste cliente.
4
Segue links relevantes (fontes, benchmarks, campanhas)
Cada link que encontra no segmento pode levar a uma fonte externa, um benchmark de mercado ou um resultado de campanha de outro cliente — tudo já processado e pronto.
5
Gera o briefing com contexto cruzado
O briefing de Ipatinga inclui: histórico do cliente + o que funcionou em Campinas e Support Health no mesmo segmento. Não porque o Claude "lembrou" — mas porque os links já apontavam para lá.
Como as conexões são criadas — quem faz o quê
🤖 Claude cria automaticamente
Ao registrar uma reunião, adiciona [[segmento]] no acoes.md
Ao ingerir uma fonte, adiciona conexões nos clientes afetados
Ao criar ação com sucesso, pergunta "aplicável a segmento?" e linka
Ao criar entidade (cliente, concorrente), linka ao segmento
👤 Você define com intenção
Qual segmento cada cliente pertence (no onboarding)
Quais fontes são relevantes para quais clientes (/ingerir)
Se um padrão deve virar benchmark ou ficar só no cliente
Quando pedir /segmento para forçar o cruzamento
Resumo: o Claude coloca os links mecanicamente a cada operação. Você decide a arquitetura macro — quais segmentos existem, quais clientes pertencem a quais. As linhas no Obsidian são consequência disso, não um trabalho separado.

06 — Resumo executivo

Uma linha por pasta

Referência rápida: o que cada componente é, quem escreve e para que serve.

Caminho Tipo Quem escreve Para que serve
CLAUDE.md Sistema Você (uma vez) Define comportamento do Claude em toda sessão
index.md Catálogo Claude (automático) Mapa de todas as páginas — pré-requisito de consulta
log.md Histórico Claude (append) Linha do tempo de todas as operações realizadas
raw/ Imutável Você (cola/salva) Fontes originais — referência permanente, nunca editada
wiki/ Conhecimento Claude (mantém) Base de conhecimento processada e interligada
wiki/clients/ Workspace Claude (atualiza) Histórico completo por cliente: perfil, reuniões, ações, resultados
wiki/segments/ Cruzamento Claude (sintetiza) Padrões validados em 2+ clientes do mesmo segmento
wiki/sources/ Ponte Claude (ingestão) Resumo de cada fonte externa — conecta raw ao wiki
outputs/ Produto Claude (gera) Entregáveis finais: relatórios, planos, apresentações
agente-performance/ Automação Scripts (API) Coleta dados das plataformas de ads e alimenta wiki automaticamente