Les contrats traditionnels ne fonctionnent plus avec les modèles de langage
Vous avez signé un contrat avec un fournisseur de logiciel il y a deux ans. Tout allait bien : uptime à 99,9 %, support réactif, facturation claire. Mais quand vous avez commencé à utiliser un modèle de langage à très grande échelle (LLM) pour traiter vos contrats internes, tout a changé. Le modèle a commencé à générer des réponses biaisées, à perdre en précision au fil du temps, et quand vous avez demandé une explication, le fournisseur a répondu : « Ce n’est pas dans le contrat. »
C’est un scénario de plus en plus courant. Les contrats traditionnels, conçus pour des logiciels statiques, ne couvrent pas les risques uniques des modèles d’IA. Un LLM ne se contente pas d’exécuter du code - il apprend, il évolue, il génère du contenu qui peut nuire à votre réputation, violer des lois ou même vous coûter des millions en amendes. Et pourtant, 58 % des entreprises qui ont adopté les LLM en 2024 ont découvert, trop tard, qu’elles n’avaient pas de clauses claires sur la propriété des données, la responsabilité des erreurs ou la mise à jour des modèles.
Qu’est-ce qui rend les contrats LLM si différents ?
Les fournisseurs de logiciels traditionnels vendent un produit fixe. Un LLM vend une dynamique. Il change chaque semaine. Il est entraîné sur des données que vous ne contrôlez pas. Il peut produire des réponses erronées sans que vous le sachiez. Voici les cinq différences fondamentales :
- Les SLA ne sont plus juste sur la disponibilité. Un contrat classique garantit 99,5 % de temps de fonctionnement. Un contrat LLM doit exiger une précision minimale de 85 %, une dégradation mensuelle inférieure à 1 %, et une explication compréhensible pour au moins 80 % des décisions prises par le modèle.
- La propriété des données et des sorties est cruciale. Si le modèle génère un contrat juridique erroné, qui en est responsable ? Vous ? Le fournisseur ? La loi exige désormais que les contrats précisent clairement qui détient les droits sur les contenus générés - et qui en assume la responsabilité légale.
- La responsabilité est multi-niveau. Dans un contrat classique, la responsabilité est limitée à 1 à 2 fois le montant annuel du contrat. Pour les LLM, les meilleures pratiques exigent une responsabilité de 3 à 5 fois le montant annuel pour les erreurs de biais, et une responsabilité illimitée en cas de violation de données.
- Les mises à jour doivent être contrôlées. Le fournisseur peut mettre à jour son modèle sans vous prévenir. Un contrat LLM doit imposer des déploiements en « canary » : une mise à jour testée sur 5 % des utilisateurs avant un déploiement global.
- La sortie doit être réversible. Vous ne devez pas être piégé. Le contrat doit inclure une clause d’exportation des données et un plan de transition clair vers un autre fournisseur ou une solution interne, avec des délais et des normes de sécurité.
Les exigences légales qui changent tout
En mars 2025, le Bureau de la gestion et du budget (OMB) des États-Unis a rendu obligatoires de nouvelles règles pour tous les contrats fédéraux avec des fournisseurs de LLM. Ce n’est pas une recommandation. C’est une loi. Les agences doivent maintenant exiger :
- Des « cartes de modèle » détaillées : quels jeux de données ont été utilisés pour l’entraînement ?
- Des politiques d’utilisation acceptables : quelles tâches sont interdites ?
- Un mécanisme de retour d’expérience des utilisateurs finaux.
- Des évaluations de biais, y compris le biais politique - une exigence directe de l’ordonnance présidentielle de juillet 2024.
En Europe, le Règlement européen sur l’intelligence artificielle (AI Act) impose, à partir de février 2026, des exigences strictes pour les systèmes à haut risque : chaque décision automatisée doit pouvoir être revue par un humain. Si votre LLM aide à décider qui obtient un prêt ou une aide sociale, vous êtes tenu de le prouver dans votre contrat.
Comment construire un contrat LLM solide ?
Voici les 5 éléments non-négociables à inclure dans tout contrat avec un fournisseur de LLM :
- Des indicateurs de performance mesurables. Ne vous contentez pas de « haute qualité ». Exigez : précision ≥ 90 %, taux de dérive ≤ 0,7 % par mois, taux d’explicabilité ≥ 80 %. Utilisez le cadre ISO/IEC 23053:2022 comme référence.
- Une clause de responsabilité différenciée. 3 à 5 fois le montant annuel pour les dommages liés au biais. Illimité pour les fuites de données. Rien de moins.
- Un accès en temps réel aux métriques du modèle. Votre équipe doit pouvoir surveiller la performance du modèle en direct - pas seulement à chaque audit annuel.
- Une clause d’interopérabilité et de sortie. Le fournisseur doit vous fournir les données d’entraînement, les poids du modèle, et un outil pour le déployer ailleurs. Sans cela, vous êtes prisonnier.
- Des révisions contractuelles trimestrielles. Les modèles changent. Les lois changent. Votre contrat doit pouvoir évoluer. Prévoyez des réunions trimestrielles pour ajuster les SLA et les exigences de conformité.
Les pièges que presque tous les acheteurs tombent
Beaucoup pensent que signer un contrat avec un grand fournisseur comme Microsoft ou AWS les protège. Ce n’est pas vrai. Ces géants proposent des contrats standardisés, conçus pour minimiser leur risque - pas pour maximiser le vôtre.
Voici les erreurs les plus fréquentes :
- Ne pas avoir de data scientist dans l’équipe de négociation. 68 % des entreprises n’ont pas de spécialiste IA dans leur équipe juridique. Résultat : elles ne comprennent pas ce qu’elles signent. Un contrat signé sans expertise technique est un contrat à risque.
- Ignorer les coûts cachés de la dérive du modèle. Une étude de Reddit en janvier 2025 montre que 73 % des entreprises ont payé en moyenne 22 % de plus que le montant initial du contrat pour corriger la dégradation des performances.
- Croire que l’IA générative remplace tout. Les experts comme Rajesh Gupta, CTO de Sirion AI, le disent clairement : « Les LLM seuls ne suffisent pas. » Pour des tâches précises - comme vérifier les dates d’expiration de contrat - un petit modèle spécialisé est plus fiable, plus rapide, et moins cher.
- Ne pas documenter les tests d’acceptation. Si vous n’avez pas enregistré les résultats des tests avant le déploiement, vous ne pouvez pas prouver que le fournisseur a délivré ce qui était convenu.
Qui fait quoi sur le marché aujourd’hui ?
Le marché de la gestion des fournisseurs LLM est en pleine fragmentation. Trois types de joueurs dominent :
- Les hyperscalers (AWS, Microsoft, Google) : 58 % du marché. Leurs contrats sont standardisés, rigides, et conçus pour vous retenir. Bon pour les besoins simples, dangereux pour les usages critiques.
- Les plateformes spécialisées (Icertis, Sirion AI) : 29 % du marché. Elles proposent des outils de gestion contractuelle intégrant des métriques IA, des alertes de dérive, et des modèles de contrat prêts à l’emploi. Leur taux de croissance : 37 % par an.
- Les startups de niche (Kanerika, Procurable AI) : 13 % du marché. Elles ciblent des secteurs spécifiques - santé, juridique, finance - avec des contrats ultra-personnalisés.
Si vous êtes dans le secteur public, vous êtes déjà obligé d’utiliser des contrats conformes à l’OMB. Si vous êtes dans le privé, vous avez le choix - mais pas le luxe de faire l’impasse.
Que faire maintenant ?
Vous ne pouvez pas attendre qu’un incident vous force à agir. Voici ce que vous devez faire dans les 30 prochains jours :
- Identifiez tous les contrats actuels avec des fournisseurs de LLM.
- Exigez une copie des cartes de modèle et des politiques d’utilisation acceptables - sans cela, arrêtez l’utilisation.
- Constituez une équipe transversale : un juriste avec expérience en IA, deux data scientists, et un responsable achats.
- Formez votre équipe : 120 heures minimum de formation sur les métriques d’IA (précision, rappel, F1, dérive) et les réglementations (AI Act, NIST AI RMF).
- Commencez à rédiger votre prochain contrat LLM avec les 5 clauses clés mentionnées plus haut.
Les entreprises qui agissent maintenant gagneront en efficacité, en sécurité et en confiance. Celles qui attendent paieront plus cher - en argent, en réputation, et en liberté.
Quelles sont les prochaines étapes ?
La tendance est claire : les contrats vont devenir vivants. Par exemple, Sirion AI prévoit que d’ici 2027, 81 % des contrats LLM seront « auto-mis à jour » : ils ajustent automatiquement les SLA si la précision du modèle chute ou si une nouvelle loi entre en vigueur. Ce n’est plus de la science-fiction. C’est la prochaine étape de la gestion des fournisseurs.
Si vous n’êtes pas prêt à intégrer cette logique dans vos processus, vous serez bientôt en retard. Et dans le monde de l’IA, être en retard, c’est être vulnérable.
5 Commentaires
Valentin Radu
je sais pas pour vous mais j'ai signé un contrat avec un fournisseur d'llm l'année dernière et j'ai rien vu venir... le modèle a généré un contrat qui disait que notre client devait nous payer en bitcoins et on a eu un procès en plus... c'est fou
Jeanne Giddens
OH MON DIEU JE T'EN PRIE ARRÊTE DE SIGNER DES CONTRATS SANS TES DATA SCIENTISTS C'EST COMME LIVRER TA CASSEROLE À UN INCONNU ET LUI DEMANDER DE LA FAIRE CUIRE... TU PENSES VRAIMENT QUE LEUR SLA DE 99,9% C'EST POUR LES ERREURS DE CONTENU ???
Coco Valentine
Je ne suis pas surprise... les hyperscalers ils veulent juste ton argent, ton data, et ton âme. Et ils te disent "c'est dans les petits caractères" comme si c'était un manga. J'ai vu un contrat où ils avaient le droit de réutiliser tes données pour entraîner leur modèle concurrent... et tu dois signer pour avoir accès à l'API. C'est du harcèlement légal.
Adrien Brazier
Vous écrivez "dégradation mensuelle inférieure à 1 %" mais vous oubliez que la dérive n'est pas linéaire. Elle est exponentielle. Et vous ne mentionnez pas la nécessité d'une métrique de "stabilité sémantique" selon ISO/IEC 30121:2024. C'est une erreur fondamentale. Et "explicabilité de 80 %" ? C'est quoi, une moyenne ? Sur quelles instances ? Sur quelles classes ? Sans précision, c'est du vent.
Francine Massaro
J'ai vu une entreprise perdre 14M à cause d'un LLM qui a généré un avis juridique disant que le harcèlement sexuel était "une pratique culturelle acceptable"... et le fournisseur a répondu "pas dans le contrat". J'espère que vous avez une bonne assurance. 🤡