L'information dont vos équipes ont besoin est déjà quelque part dans votre SharePoint, votre OneDrive, vos drives partagés.

Coffre Pro est une IA privée qui pose ses réponses sur ces sources existantes et cite les fichiers utilisés. Vos collaborateurs ne voient que les documents auxquels ils ont déjà accès, et aucun contenu métier n'est envoyé à ChatGPT, OpenAI, Anthropic ou Mistral API en exécution.

Entrez votre SIREN pour vérifier les aides publiques mobilisables.

Llocal-ged· espace finance
Box locale
IA cloud généralistes · sortie bloquée
ChatGPTapi.chatgpt.com
✕ Bloqué
Claudeapi.claude.com
✕ Bloqué
M
Mistralapi.mistral.com
✕ Bloqué
Vos murs · périmètre privé
coffre pro · ia privéebox locale · ou · scaleway eu
Démo · IA privéeBox locale · ou · Scaleway EU
0
Migration documentaire requise
0
Contenu métier envoyé en exécution
15–30j
Pilote mesurable et borné
Sourcé
Citations · droits respectés · audit
Le problème

Vos collaborateurs utilisent déjà ChatGPT, souvent sans vous le dire, et y collent des documents internes pour gagner du temps.

C'est une réalité quotidienne dans la plupart des PME françaises. Chaque copier-coller dans un outil cloud expose un peu plus l'entreprise au risque RGPD, à la fuite de propriété intellectuelle et à la dépendance non maîtrisée à un fournisseur étranger.

≈ 1 / 3

salariés utilise une IA générative au travail sans formation officielle ni cadre.

20 M€

ou 4 % du CA mondial — l'amende RGPD encourue pour traitement illicite de données.

≈ 75 %

reconnaissent avoir déjà collé un document interne dans un outil d'IA cloud.

Ce qui finit déjà collé dans ChatGPT
Contrats clientsFactures fournisseursE-mails internesComptes rendusNotes RHCode propriétaireDocuments juridiquesBilans financiersDossiers patientsDonnées salarialesCahiers des chargesProcédures qualitéContrats clientsFactures fournisseursE-mails internesComptes rendusNotes RHCode propriétaireDocuments juridiquesBilans financiersDossiers patientsDonnées salarialesCahiers des chargesProcédures qualité
Risque A
Fuite de données structurelle

Un salarié veut résumer un contrat, il le colle. Les politiques internes ne tiennent pas face au gain de temps perçu. Une fois envoyé, c'est sorti. Centrexit

Risque B
Aucune traçabilité

Pas de log, pas d'audit, pas de retour en arrière. Le DSI ne sait ni qui a partagé quoi, ni avec quel modèle, ni dans quelles conditions. Forbes

Risque C
Risque réglementaire

Décisions juridiques, RH ou financières prises sur réponse non sourcée — et exposition RGPD au moindre prompt contenant une donnée personnelle. Stratégies

Les interdictions internes ne tiennent pas longtemps face au gain de temps perçu par les équipes. La seule alternative qui fonctionne, c'est de leur proposer un outil interne qui répond aussi bien à leurs questions, sur les documents qu'elles ont déjà le droit de consulter, et qui reste dans le périmètre de l'entreprise.

L'offre en trois niveaux

On commence par rendre vos documents interrogeables. Quand cet usage est ancré dans les équipes, on ajoute des automatisations, puis des workflows IA sur mesure si le besoin émerge.

L'assistant documentaire reste le point d'entrée parce que c'est le besoin le plus partagé et le plus simple à tester. Les niveaux suivants s'activent une fois la confiance installée et les vrais besoins identifiés par vos équipes.

1
Là où on démarre
Point de départ recommandé

Assistant documentaire privé

Vos équipes interrogent les documents existants en langage naturel. Chaque réponse cite ses sources, chacun ne voit que les documents auxquels il a déjà accès dans SharePoint, OneDrive ou les drives partagés.

  • RH : procédure, onboarding, clause de contrat
  • Finance : justificatif, engagement, condition de paiement
  • Qualité : audit, version documentaire
  • Direction : information sans dépendre d'une personne
Un pilote sur 15 à 30 jours suffit pour décider
2
Quand vos équipes sont à l'aise

Code & automatisations internes

Une fois le socle installé, on active des scripts et petites automatisations locales pour IT, data, ops ou support — sans exposer code ni documents à un assistant cloud.

  • Transformer des exports ERP, paie, comptable, CRM
  • Nettoyer, comparer, rapprocher des fichiers
  • Documenter scripts, lire des logs, préparer des tâches
  • Transformer une procédure en automatisation contrôlée
Scripts toujours relus, testés et validés par un humain
3
Quand un vrai besoin métier émerge

Workflows IA sur mesure

Pour les cas plus complexes. On identifie avec la direction et l'IT les workflows où l'IA crée de la valeur, puis on conçoit, teste et déploie en production.

  • Génération de dossiers techniques
  • Contrôle documentaire avant audit
  • Extraction depuis contrats, factures, dossiers
  • Reporting depuis documents et données
Vient après le pilote documentaire, jamais avant
Pourquoi commencer par la recherche documentaire ? Parce que les documents sont déjà là, la douleur est transversale, le pilote est mesurable, et les questions posées révèlent les prochains cas d'usage — extraction, génération de dossiers, contrôle documentaire, reporting, support. La recherche est le socle d'apprentissage du contexte métier.
Modes de déploiement

C'est le même produit privé dans les deux cas — vous choisissez juste où il tourne, selon votre niveau de souveraineté attendu et votre capacité d'exploitation interne.

Une appliance installée dans vos locaux, ou une VM européenne dédiée opérée par nos soins dans le compte cloud du client.

Option locale

Local appliance box

On vous envoie le matériel adapté à la taille de l'entreprise.

Mise en place

NVIDIA DGX Spark, station GPU ou serveur Linux GPU équivalent selon le nombre d'utilisateurs, les volumes documentaires et les modèles à faire tourner.

Avantages

  • Souveraineté maximale : l'IA tourne dans vos locaux.
  • Aucune fuite de données vers un service cloud tiers.
  • Aucune dépendance runtime à un fournisseur cloud.
  • Déploiement compatible avec des contraintes réseau strictes ou offline.

Points à maîtriser

  • Investissement initial plus élevé.
  • Exploitation plus exigeante : alimentation, réseau, sauvegardes, mises à jour.
  • Risque opérationnel local : serveur débranché, panne matérielle, accès physique.
Option hébergée EU
Scaleway

IA privée opérée sur Scaleway

Déploiement dédié dans l'espace cloud Scaleway du client, opéré par Coffre Pro.

Mise en place

Le client possède le compte cloud, les VM, les volumes, les données, les logs et la facture infrastructure. Coffre Pro configure, maintient, surveille et optimise le service.

Avantages

  • Installation de l'environnement cloud, VM GPU/CPU, webapp et modèles.
  • Monitoring technique et applicatif : latence, erreurs, file d'attente, VRAM, coût GPU.
  • Alerting coût/performance et optimisation mensuelle.
  • Horaires GPU pilotables : économie, équilibre ou performance.

Points à maîtriser

  • Dépendance opérationnelle à Scaleway et à la connectivité réseau.
  • La performance dépend du volume d'usage, des documents, des modèles et du budget GPU validé.
  • Moins strict qu'une appliance physiquement isolée dans vos locaux.

Côté Scaleway, ce n'est pas une simple VM avec des modèles : c'est un déploiement privé opéré, avec supervision, maintenance, recommandations de scaling et pilotage du compromis coût, latence, qualité et disponibilité.

Coûts & régressions

Coffre Pro repose sur des modèles d'IA gratuits et ouverts (Mistral, Qwen, DeepSeek), qui s'exécutent dans votre environnement et restent disponibles tant que vous le voulez.

Vous payez l'infrastructure que vous décidez et l'exploitation qui va avec — pas un compteur de tokens, pas une licence par siège indexée sur l'usage d'un fournisseur cloud. Et quand un modèle est déprécié côté ChatGPT ou Claude dans trois mois, vos workflows internes ne s'arrêtent pas.

01 · Coût

Les modèles d'IA ne sont pas facturés

Mistral, Qwen, DeepSeek sont sous licences Apache 2.0 ou équivalentes. Vous payez le GPU ou la VM que vous avez choisis, et rien d'autre. Pas de facturation au token, pas de pic d'usage qui fait exploser la note en fin de mois.

02 · Prévisibilité

Un budget mensuel défini à l'avance

La trajectoire de coût est connue et ne dépend pas du volume de prompts envoyés par vos équipes. Vous pilotez les horaires GPU selon votre préférence : économie, équilibre ou performance.

03 · Indépendance

Vos workflows continuent quand un modèle cloud est déprécié

Quand un fournisseur cloud retire un modèle dans trois mois, vos automatisations internes ne tombent pas. Les prompts, les évaluations et le code restent valides parce que le modèle reste disponible chez vous, sous licence ouverte.

Le scénario que vous voulez éviter

« Notre workflow tourne très bien sur GPT 5.2. Sauf que GPT 5.2 est déprécié dans trois mois. Il faut réécrire le harness, refaire les évaluations, ré-estimer les coûts — et la nouvelle tarification n'est pas la même. Et on recommence à chaque cycle de modèle. »

Sur les modèles open-weight, le contrat est l'inverse : la version que vous validez aujourd'hui continue de tourner demain, parce qu'elle est dans votre infrastructure. Vous décidez quand migrer, et pourquoi.

Prochaine étape

On commence par un pilote court et borné, sur un périmètre que vous choisissez, pour vous permettre de décider en connaissance de cause.

Comptez 15 à 30 jours avec 5 à 20 utilisateurs pilotes, un ou deux espaces documentaires prioritaires et 30 à 50 questions réelles. À la fin, vous recevez une recommandation franche : arrêt, extension à d'autres espaces, ouverture du harnais de code, ou cadrage d'un workflow IA sur mesure.