⚙️ Architecture technique

L'environnement Antigravity
IA souveraine, modèles ouverts

S.A.F.E. n'est pas lié à un fournisseur de modèle IA. L'environnement Antigravity orchestre Mistral, Llama (Meta) ou tout modèle open source via MCP — dans votre infrastructure. Si un meilleur modèle sort demain, il s'installe sans toucher à votre base de connaissances.

🇫🇷 Mistral 🦙 Llama (Meta) ⚙️ MCP Protocol 🛠️ Claude Code + Skills + tout modèle open source
Le principe fondateur

Votre mémoire d'entreprise ne dépend d'aucun éditeur

La plupart des solutions IA créent une dépendance : vos données sont formatées pour un modèle spécifique, votre workflow est optimisé pour une interface propriétaire, et quand cet éditeur change ses tarifs ou ses conditions — vous êtes bloqué.

S.A.F.E. prend le parti inverse : la base de connaissances est centrale, le modèle est périphérique. Votre vault Obsidian, votre wiki compilé (SAFE Brain™), vos agents — tout est construit en formats ouverts, indépendants du modèle IA qui les fait tourner.

Résultat : si Mistral sort une version plus performante, si Meta améliore Llama, si un nouveau modèle open source émerge — on migre en quelques heures. Votre organisation, elle, ne s'aperçoit de rien.

"Le modèle IA est une commodité. La connaissance organisée de votre entreprise est votre actif stratégique."

— Bertrand Charpilloz, S.A.F.E. Pilotage Privé
🔒
Solutions propriétaires (ChatGPT, Copilot…) Vos données sont formatées pour leur modèle. Changement de prestataire = tout recommencer. Tarifs fixés unilatéralement. Pas de maîtrise de la feuille de route.
🔒
SaaS mono-modèle (même souverain) Mistral SaaS, par exemple, est excellent — mais si vous changez d'outil demain, votre historique et vos contextes restent chez eux.
🔓
Architecture Antigravity (S.A.F.E.) Vault Obsidian en Markdown local. Wiki compilé en texte ouvert. Agents configurés en YAML. Le modèle IA se remplace comme une pièce interchangeable.
🔓
Liberté totale de migration Demain Mistral Large 3, après-demain Llama 5 — votre base de connaissances ne change pas. Votre investissement est protégé.
Modèles open source supportés

Mistral, Llama, et bien d'autres

L'environnement Antigravity est testé et opérationnel avec les modèles open source les plus performants du marché en 2026.

🦙
Meta — États-Unis (licence ouverte)

Llama 3.x

Le modèle open source de Meta. Llama 3.1, 3.2, 3.3 — disponibles en 8B, 70B et 405B paramètres. Licence Meta Llama permissive pour usage commercial. Excellent rapport performance / ressources.

Open source On-premise Usage commercial
🌐
Alibaba / autres — Modèles divers

Qwen, Gemma & autres

L'écosystème open source s'enrichit chaque trimestre. Qwen 2.5 (Alibaba), Gemma (Google), Phi-4 (Microsoft) — tous compatibles Ollama et donc intégrables dans Antigravity selon votre cas d'usage.

Ecosystem ouvert Interchangeable

⚙️ Tous les modèles sont exécutés localement via Ollama ou équivalent — aucun appel API externe, aucune donnée transmise. Le choix du modèle optimal est fait en phase de cadrage selon votre infrastructure et vos cas d'usage.

Comment ça fonctionne

Trois couches, un seul principe de souveraineté

L'architecture Antigravity sépare clairement la connaissance, l'orchestration et le modèle — pour que chaque couche soit indépendante et remplaçable.

🗂️
Couche Connaissance
Vault Obsidian + SAFE Brain™

Vos documents, procédures, décisions — en Markdown local. Le wiki compilé est le contexte pré-digéré que l'IA lit à chaque session.

  • Format Markdown ouvert
  • Liens bidirectionnels
  • Auditable par un humain
  • Indépendant du modèle
⚙️
Couche Orchestration
MCP + Skills + Claude Code

Le Model Context Protocol connecte le vault au modèle en temps réel. Les Skills orchestrent les agents métier. Claude Code pilote l'ensemble.

  • MCP — protocole ouvert
  • Skills par département
  • Claude Code en local
  • Traçable et auditable
🧠
Couche Modèle
Mistral · Llama · Open source

Le modèle IA reçoit le contexte via MCP et génère une réponse sourcée. Il est interchangeable — sans impact sur les deux couches supérieures.

  • Mistral (🇫🇷)
  • Llama — Meta
  • Qwen, Gemma…
  • Exécution 100% locale
💡

Ce que ça change concrètement pour vous

Quand Mistral sort une nouvelle version plus performante, seule la couche Modèle change. Votre vault, votre wiki, vos agents, vos workflows — tout reste intact. Migration en quelques heures, zéro perte de données, zéro reconfig des agents. C'est la promesse de l'architecture en couches séparées.

Pour les profils techniques

MCP, Skills et Claude Code — comment ça s'assemble

Pour les DSI, architectes et intégrateurs qui veulent comprendre la mécanique exacte.

MCP — Model Context Protocol 🔗

MCP : le bus de données souverain

Le Model Context Protocol (Anthropic, open source) est le protocole qui connecte les sources de données aux modèles IA. Dans S.A.F.E., MCP connecte le vault Obsidian, le wiki compilé et les bases documentaires internes au modèle — en local, sans transit réseau.

# Exemple de serveur MCP local server: obsidian-vault transport: stdio (local) tools: [read_note, search_vault, list_tags] data_leaving_machine: false
Skills — Orchestration agents 🛠️

Skills : les agents métier en action

Les Skills sont des instructions d'orchestration qui définissent comment chaque agent IA se comporte dans son département. Un Skill RH ne peut accéder qu'aux sources RH. Un Skill Finance ne voit que les données Finance. Le cloisonnement est architectural, pas paramétrique.

# Skill RH — fichier skill.md scope: rh-paie sources: [vault/rh/*, wiki/rh-compiled.md] forbidden: [vault/finance/*, vault/juridique/*] model: mistral-large # interchangeable
Claude Code — Interface d'orchestration 💻

Claude Code comme cockpit de pilotage

Claude Code est l'interface de pilotage de l'environnement Antigravity pour Bertrand et l'équipe S.A.F.E. Il orchestre les MCP servers, active les Skills, supervise les agents et assure la traçabilité des opérations. Les utilisateurs finaux interagissent via une interface métier simplifiée — pas via Claude Code directement.

# Commande d'orchestration notebooklm source add ./contrats/ skill: juridique # Active le skill Juridique model: mistral-large # → Analyse souveraine, 0 cloud externe
Ollama — Runtime local 🖥️

Ollama : les modèles chez vous

Ollama est le runtime open source qui exécute les modèles LLM directement sur votre infrastructure (serveur dédié, NAS performant, GPU on-premise). C'est la couche qui rend l'ensemble réellement souverain : aucun appel API externe, aucune donnée transmise, performance GPU locale.

# Déploiement on-premise ollama pull mistral-large ollama pull llama3.3:70b ollama serve # Démarrage local # → 0 internet requis après install
Passez à l'action

Votre architecture, vos règles.

Quel modèle, quelle infrastructure, quel niveau de souveraineté — décidons ensemble en 30 minutes.