IA d'entreprise · Souveraine & explicable
L'IA qui travaille
pour vous — sans que
vos données travaillent pour eux.
ChatGPT, Copilot, Gemini — tous envoient vos données à des serveurs américains pour les traiter. Vos contrats clients, vos notes internes, votre propriété intellectuelle transitent par des infrastructures que vous ne contrôlez pas. Nous intégrons l'IA dans vos processus d'entreprise sur votre infrastructure — vos données ne quittent jamais votre périmètre.
Le problème avec l'IA grand public en entreprise
Ce que les CGU de ChatGPT disent que vous n'avez pas eu le temps de lire.
- Vos données d'entreprise entraînent leurs modèles. Sans plan Enterprise explicitement configuré, les données que vous envoyez aux LLM grand public peuvent être utilisées pour améliorer les modèles. Vos processus internes, vos formulations, vos stratégies — potentiellement accessibles à vos concurrents via le modèle affiné.
- Pas d'auditabilité, pas de traçabilité. Quand un assistant IA répond à un collaborateur, d'où vient cette réponse ? Sur quelle version du modèle ? Avec quel contexte ? Vous ne pouvez pas auditer, corriger ni documenter les décisions assistées par une IA dont vous ne contrôlez pas le moteur.
- Dépendance à la roadmap de l'éditeur. OpenAI change ses APIs, ses tarifs, ses modèles disponibles — sans préavis commercial suffisant. Votre intégration casse, votre workflow s'arrête. Vous dépendez d'une entreprise dont la stabilité commerciale n'est pas garantie.
- Conformité RGPD non garantie. Envoyer des données personnelles (noms de clients, emails, dossiers) à un LLM américain est une zone grise juridique au mieux, une violation caractérisée au pire. Les CNIL européennes commencent à se pencher sérieusement sur cette question.
Ce que nous construisons
Des cas d'usage IA concrets, déployés sur votre infrastructure, avec vos données.
- Assistant interne RAG sur vos documents. Un chatbot qui connaît votre documentation interne, vos procédures, vos contrats types, votre base de connaissances — et y répond avec précision et citations des sources. Déployé sur votre VPS, aucune donnée ne sort de votre périmètre. Basé sur des modèles open-source (Mistral, Llama) ou des API avec contrat de non-utilisation des données.
- Extraction et structuration automatique de documents. Factures, bons de commande, contrats, rapports de chantier — analysés automatiquement pour en extraire les données structurées et les injecter dans votre logiciel métier. Sans ressaisie, sans erreur humaine, sans envoyer vos documents à un service tiers.
- Classification et routage automatique des demandes. E-mails entrants, tickets support, demandes de devis — automatiquement classifiés, priorisés et routés vers la bonne personne ou le bon workflow. Modèle entraîné sur vos propres données historiques pour une précision adaptée à votre contexte.
- Génération de documents à partir de données structurées. Rapports de chantier, comptes-rendus de réunion, propositions commerciales — générés automatiquement à partir de vos données sources avec votre style rédactionnel. Revus par un humain avant envoi, jamais autonomes sur les décisions importantes.
Tarifs indicatifs
Un projet IA bien cadré sur un cas d'usage précis, c'est abordable et mesurable.
- Assistant RAG sur base documentaire (jusqu'à 10 000 pages)
- 3 000 – 7 000 €
- 4 – 8 semaines
- Pipeline d'extraction de documents (factures, contrats)
- 4 000 – 9 000 €
- 5 – 10 semaines
- Classification & routage automatique des demandes
- 5 000 – 12 000 €
- 6 – 12 semaines
- Projet IA complexe multi-cas d'usage
- 10 000 – 20 000 €
- 10 – 20 semaines
Nous commençons toujours par un cadrage gratuit de 30 minutes pour évaluer si votre cas d'usage est mature pour l'IA — et vous dire honnêtement si une automatisation classique serait plus efficace et moins coûteuse.
Questions fréquentes
- Sur des tâches spécialisées et bien définies (répondre à des questions sur votre documentation interne, extraire des données structurées de vos documents), un modèle open-source bien configuré sur votre infrastructure est souvent supérieur à ChatGPT généraliste — parce qu'il connaît votre contexte. Sur des tâches de rédaction générale très larges, les grands modèles cloud restent supérieurs. Nous vous aidons à identifier le bon outil pour chaque cas d'usage.
- Ça dépend du modèle. Un modèle de 7 milliards de paramètres quantifié (Mistral 7B, Llama 3.1 8B) tourne correctement sur un VPS avec 32 Go de RAM et sans GPU — suffisant pour un usage professionnel modéré. Pour des volumes plus importants ou des modèles plus grands, un serveur avec GPU dédié est nécessaire. Nous dimensionnons l'infrastructure en fonction de votre volume réel, pas du maximum théorique.
- Oui — et c'est pourquoi nous concevons tous nos systèmes IA avec un humain dans la boucle pour les décisions importantes. L'IA suggère, classe, extrait, résume. Elle ne valide pas de commande, n'envoie pas d'e-mail client, ne modifie pas de données sans confirmation humaine. Les erreurs sont inévitables — les conséquences sont contrôlables si le système est bien conçu.
Quel est votre cas d'usage IA ?
30 minutes pour évaluer si votre besoin est mature pour l'IA — et quelle approche technique est la plus adaptée à votre contrainte de souveraineté.
Discuter de votre projet →