S.A.F.E. n'est pas lié à un fournisseur de modèle IA. L'environnement Antigravity orchestre Mistral, Llama (Meta) ou tout modèle open source via MCP — dans votre infrastructure. Si un meilleur modèle sort demain, il s'installe sans toucher à votre base de connaissances.
La plupart des solutions IA créent une dépendance : vos données sont formatées pour un modèle spécifique, votre workflow est optimisé pour une interface propriétaire, et quand cet éditeur change ses tarifs ou ses conditions — vous êtes bloqué.
S.A.F.E. prend le parti inverse : la base de connaissances est centrale, le modèle est périphérique. Votre vault Obsidian, votre wiki compilé (SAFE Brain™), vos agents — tout est construit en formats ouverts, indépendants du modèle IA qui les fait tourner.
Résultat : si Mistral sort une version plus performante, si Meta améliore Llama, si un nouveau modèle open source émerge — on migre en quelques heures. Votre organisation, elle, ne s'aperçoit de rien.
"Le modèle IA est une commodité. La connaissance organisée de votre entreprise est votre actif stratégique."
— Bertrand Charpilloz, S.A.F.E. Pilotage PrivéL'environnement Antigravity est testé et opérationnel avec les modèles open source les plus performants du marché en 2026.
Le champion français. Mistral 7B, Mistral Large, Mixtral 8×7B — tous déployables on-premise via Ollama. Excellent en français, performant sur les tâches métier, licence Apache 2.0 pour les versions open source.
Le modèle open source de Meta. Llama 3.1, 3.2, 3.3 — disponibles en 8B, 70B et 405B paramètres. Licence Meta Llama permissive pour usage commercial. Excellent rapport performance / ressources.
L'écosystème open source s'enrichit chaque trimestre. Qwen 2.5 (Alibaba), Gemma (Google), Phi-4 (Microsoft) — tous compatibles Ollama et donc intégrables dans Antigravity selon votre cas d'usage.
⚙️ Tous les modèles sont exécutés localement via Ollama ou équivalent — aucun appel API externe, aucune donnée transmise. Le choix du modèle optimal est fait en phase de cadrage selon votre infrastructure et vos cas d'usage.
L'architecture Antigravity sépare clairement la connaissance, l'orchestration et le modèle — pour que chaque couche soit indépendante et remplaçable.
Vos documents, procédures, décisions — en Markdown local. Le wiki compilé est le contexte pré-digéré que l'IA lit à chaque session.
Le Model Context Protocol connecte le vault au modèle en temps réel. Les Skills orchestrent les agents métier. Claude Code pilote l'ensemble.
Le modèle IA reçoit le contexte via MCP et génère une réponse sourcée. Il est interchangeable — sans impact sur les deux couches supérieures.
Quand Mistral sort une nouvelle version plus performante, seule la couche Modèle change. Votre vault, votre wiki, vos agents, vos workflows — tout reste intact. Migration en quelques heures, zéro perte de données, zéro reconfig des agents. C'est la promesse de l'architecture en couches séparées.
Pour les DSI, architectes et intégrateurs qui veulent comprendre la mécanique exacte.
Le Model Context Protocol (Anthropic, open source) est le protocole qui connecte les sources de données aux modèles IA. Dans S.A.F.E., MCP connecte le vault Obsidian, le wiki compilé et les bases documentaires internes au modèle — en local, sans transit réseau.
Les Skills sont des instructions d'orchestration qui définissent comment chaque agent IA se comporte dans son département. Un Skill RH ne peut accéder qu'aux sources RH. Un Skill Finance ne voit que les données Finance. Le cloisonnement est architectural, pas paramétrique.
Claude Code est l'interface de pilotage de l'environnement Antigravity pour Bertrand et l'équipe S.A.F.E. Il orchestre les MCP servers, active les Skills, supervise les agents et assure la traçabilité des opérations. Les utilisateurs finaux interagissent via une interface métier simplifiée — pas via Claude Code directement.
Ollama est le runtime open source qui exécute les modèles LLM directement sur votre infrastructure (serveur dédié, NAS performant, GPU on-premise). C'est la couche qui rend l'ensemble réellement souverain : aucun appel API externe, aucune donnée transmise, performance GPU locale.
Quel modèle, quelle infrastructure, quel niveau de souveraineté — décidons ensemble en 30 minutes.