Blog
IA générative en cabinet d'expertise comptable : outil, risques et responsabilité

l’ia générative en cabinet d’expertise comptable : un outil probabiliste dans un métier qui réduit l’incertitude

Rédigé par 
Salim Laraichi
Le
05.05.2026

L'expert-comptable exerce une profession dont la finalité tient en peu de mots : réduire l'incertitude dans un environnement économique et règlementaire complexe, en produisant une information fiable sur laquelle le dirigeant peut s’appuyer pour prendre une décision éclairée. Pour y parvenir, le professionnel s'est historiquement appuyé sur des outils aux fonctions cardinales — calculer, analyser, produire — partageant une propriété structurelle commune : le déterminisme. Pour une même série d'entrées, une même sortie, suivant une logique d'exécution entièrement traçable et auditable. 

L'intelligence artificielle générative (IAG) ne s'inscrit pas dans la continuité de ces outils — elle la rompt. Pour la première fois, le professionnel manie un instrument dont la sortie n'est pas reproductible, dont le raisonnement n'est pas auditable, et dont le gain de productivité se paie d'un risque résiduel que personne — pas même l'éditeur — ne peut supprimer. L'IAG augmente la cadence ; elle augmente aussi l'incertitude, précisément là où la mission de l'expert-comptable exige qu'on la réduise.

Le déterminisme comme fondement de la confiance professionnelle

L’instrumentation du cabinet d’expertise-comptable s’est construite par strates successives autour de trois fonctions principales : calculer (machines mécaniques, tableurs, VBA, désormais Python in Excel), analyser (tableaux croisés dynamiques, business intelligence, Power BI, Tableau) et produire (logiciels de production comptable, OCR, moteurs de règles intégrés à Pennylane, Cegid, Sage, ACD).

L’ensemble de ces outils partage une caractéristique fondamentale : ils sont déterministes. Pour une même série d’entrées, ils produisent une même sortie. Et leur exécution est traçable pas-à-pas. Cette propriété se décline sur deux plans qu’il convient de ne pas confondre.

Sur le plan informatique, le déterminisme tient à la nature des instructions exécutées — conditions logiques si/alors/sinon, boucles, opérateurs booléens, héritées de l’algorithmique classique. Pour le professionnel des chiffres, il se traduit aussi par une explicabilité du raisonnement : un contrôleur — chef de mission, associé signataire, commissaire aux comptes, inspecteur disciplinaire — peut reconstituer, à partir des entrées et du paramétrage, la chaîne causale qui mène à une sortie donnée. Tous les outils déterministes de la profession, étaient, jusqu’ici, au service de la réduction de l’incertitude.

L’ia générative : un outil probabiliste dans un métier d’exactitude

Les grands modèles de langage — GPT, Claude, Gemini, Mistral —, désignés par le Règlement IA UE 2024/1689 sous le terme de « modèles d’IA à usage général »2, reposent sur une architecture dite transformeur, qui apprend statistiquement, sur des corpus textuels massifs, la probabilité d’apparition d’un mot après un autre. À chaque étape de génération, le modèle ne raisonne pas : il prédit le mot suivant en fonction du contexte, puis itère. Conséquence directe : la même question posée deux fois donne deux réponses différentes. Cette propriété n’est pas un défaut. Elle est constitutive de l’architecture de l’outil.

Les éditeurs eux-mêmes documentent, génération de modèle après génération de modèle, un taux résiduel d’hallucinations — production d’énoncés syntaxiquement corrects et stylistiquement plausibles, mais factuellement faux ou inventés. Le mécanisme est connu : un modèle ne dispose d’aucune représentation intrinsèque de la vérité, mais d’une représentation de la plausibilité statistique d’un énoncé compte tenu de son corpus d’entraînement. 

Conscients du caractère structurel de ce risque résiduel, les fournisseurs de modèles d’IA à usage général déploient un arsenal de techniques dont l’objectif n’est pas de supprimer le caractère probabiliste, mais d’en contraindre la distribution de sortie dans des bornes acceptables. Ce travail de bornage s’opère à deux niveaux complémentaires.

À la conception, le bornage repose sur trois étapes successives. Le pré-entraînement expose le modèle à un corpus textuel massif et lui apprend à prédire le token suivant. Le fine-tuning supervisé oriente ensuite le modèle sur des tâches spécifiques à partir de jeux de données annotés. Le RLHFReinforcement Learning from Human Feedback — aligne enfin les sorties du modèle sur des préférences humaines exprimées par des annotateurs entraînés. Aucune de ces étapes ne supprime le risque ; toutes le réduisent.

À l’utilisation, le bornage repose sur des techniques qui contraignent le modèle au moment de l’interaction. Le RAGRetrieval-Augmented Generation — couple le modèle à une base documentaire propre et fiable, ce qui réduit drastiquement les hallucinations sur les sujets couverts par cette base. Les « skills » et les agents outillés permettent au modèle de déléguer certaines tâches à des outils déterministes (calculs, requêtes en base, vérifications) plutôt que de les générer probabilistement. Là encore, ces dispositifs réduisent la distribution de risque sans la supprimer.

Sur le plan de la transparence du raisonnement, les éditeurs déploient des techniques d’explicabilité dont l’ambition est de rendre auditable ce que le modèle a produit. Le Chain of Thought (CoT) invite le modèle à expliciter son raisonnement étape par étape avant la réponse finale. Les techniques dites xAIexplainable AI — comme LIME ou SHAP, apportent des éclairages sur les variables qui ont pesé dans la sortie. Ces techniques, bien qu’elles constituent un réel progrès, ne  constituent pas encore une preuve d’explicabilité complète. 

Productivité immédiate, risque différé : l’angle mort de l’adoption

L'IAG s'est immiscée simultanément dans deux environnements distincts — le cabinet et l'entreprise — selon des dynamiques différentes, mais avec un point commun : une adoption précipitée, sans appréciation préalable du risque.

Au sein des cabinets, elle s'est introduite dans les usages avant d'être intégrée au système de management de la qualité, souvent à l'insu de la direction. La raison est compréhensible : la profession subit une pression constante sur les délais, une saisonnalité forte, une concurrence pesant sur les honoraires et une difficulté chronique de recrutement. Dans ce contexte, le recours individuel à l'IA — dont le bénéfice perçu en productivité est immédiat — devient pour le collaborateur une stratégie d'adaptation, presque de survie. Mais cette diffusion s’est faite sans appréciation du risque et sans réflexion sur la pertinence de l'outil pour l'usage concerné.

De l'autre côté, l'entreprise a commencé à substituer l'IAG au conseil de l'expert-comptable — avec des conséquences directement mesurables. L'enquête Dext-Censuswide de décembre 2025 (n = 500 professionnels comptables français) le documente : 37 % des experts-comptables signalent des pertes financières subies par leurs clients — trop-payés, allocations manquées, pénalités, problèmes de conformité — tandis que 31 % consacrent entre quatre et dix heures par semaine à corriger ces erreurs. Face à ce constat, 89 % des professionnels appellent à une régulation ou à des restrictions encadrant l'usage de ces outils.

Ces chiffres ne traduisent pas une défiance technologique : ils révèlent la prise de conscience, par les praticiens eux-mêmes, qu'un usage non encadré porte un risque substantiel. Quatre familles de risques se dégagent : 

  • Fiabilité de l’information financière — Hallucinations sur des données chiffrées, des retraitements ou des indicateurs de gestion, indétectables sans relecture experte (les sorties sont vraisemblables) 
  • Confidentialité et secret professionnel — RGPD (jusqu’à 4 % du CA mondial) et article 226-13 du Code pénal (1 an, 15 000 euros), opposable à l’EC au titre de l’article 21 de l’ordonnance de 1945 
  • Dépendance stratégique — L'intégration non maîtrisée d'un outil tiers crée un risque structurel (lock-in, drift de modèle, discontinuité de service) sans solution de repli si la logique sous-jacente n'a pas été documentée.
  • Capital humain — Le recours systématique à l'IA pour des tâches de jugement atrophie les compétences — particulièrement chez les collaborateurs en formation.

Un cadre existant, une méthode à construire

Devant ce constat, la tentation pourrait être de chercher une norme nouvelle. Cette recherche est superflue. La réponse existe déjà — et elle existe précisément parce que le cadre français de responsabilité de l’expert-comptable a été conçu, dès l’origine, pour être indépendant de la nature de l’outil mobilisé. Que le professionnel produise au tableur, à l’aide d’un moteur de règles déterministe ou par recours à un modèle d’IA générative, le régime auquel il est soumis ne change pas. L’outil ne dilue pas la responsabilité, ne la déplace pas vers l’éditeur, ne la transfère pas au fournisseur du modèle.

La grammaire est claire : le cadre ne juge pas l’expert-comptable sur la performance de ses outils, il le juge sur la diligence qu’il a déployée. Cette diligence — articulée par l’article 155 du Code de déontologie et par la jurisprudence stable autour de la figure de l’expert-comptable normalement diligent — devient ainsi la variable d’ajustement unique du système. C’est elle, et elle seule, qui doit absorber le différentiel de risque introduit par la nature probabiliste de l’outil. Ce que l’outil ne fait pas, le professionnel doit le faire.

À ce socle déontologique s'ajoute un corpus normatif et réglementaire qui rend le cadre plus complet encore. La Norme Professionnelle sur le Management de la Qualité (NPMQ) révisée et applicables depuis le 1er Janvier 2025 impose déjà aux cabinets une approche fondée sur l'identification, l'évaluation et la réponse aux risques qualité, mission par mission. Appliquées à l'IA, elles fournissent une architecture naturelle : recenser les usages, qualifier le risque par nature de mission, définir les réponses proportionnées. Le RGPD et le règlement européen sur l'IA — AI Act — complètent ce dispositif en imposant des obligations transversales de gouvernance, de traçabilité et de supervision humaine. La profession dispose ainsi, sans qu'il soit nécessaire d'inventer quoi que ce soit, d'un cadre à articuler pour mitiger le risque lié à l’introduction de ce nouvel outil. 

La question n'est donc pas celle du cadre — il existe, il est suffisant. Elle est celle de la méthode : comment le cabinet traduit-il concrètement ces obligations en gouvernance IA, en formation du jugement de ses collaborateurs, en procédures de contrôle — et en documentation opposable pour éviter de voir sa responsabilité engagée ?

Vous avez un besoin spécifique ?

Nous vous répondons en 15 minutes.

Nos derniers articles