Au mois de décembre 2025, le CNB a publié dans ses Cahiers de l’Observatoire, les résultats d’une grande enquête consacrée à l’utilisation de l’intelligence artificielle par les avocat·es. Il en ressort, d’une part, que 8 avocat·es sur 10 considèrent que l’IA générative transformera l’organisation du travail dans les cabinets, en réduisant la part des tâches répétitives et chronophages et, d’autre part, que 64 % des avocat·es considèrent que l’IA générative permettra au cabinet de fonctionner avec des équipes plus réduites. Il convient de nuancer ces constats.
Dès 2023, le SAF consacrait le thème de son congrès à un voyage entre intelligences collective et artificielle (Maître de l’intelligence, voyage entre intelligence collective et artificielle).1
Nous étions alors aux prémisses de l’IA générative, popularisée par OpenAI fin 2022 puis plus largement au courant de l’année 2023, bientôt suivie par d’autres, mais notre syndicat alertait déjà sur la nécessité pour la profession d’avocat·e de rester maîtresse de ses outils et de son savoir faire.
Depuis les débats et échanges professionnels tendent à se focaliser sur les questions – certes essentielles – de comment et quelle IA utiliser afin de préserver le secret professionnel, les données personnelles, en rappelant la responsabilité finale de l’avocat·e dans son activité de conseil et de rédaction, éludant au passage l’impact de l’intelligence artificielle sur le travail lui-même.
L’idée selon laquelle le développement de l’intelligence artificielle serait inévitable, qu’elle serait nécessairement « une opportunité » de croissance à ne pas manquer doit être débattue et questionnée, au regard de ses conséquences potentielles sur l’emploi et sur la dégradation du travail lui-même.
L’impact quantitatif sur l’emploi lié à une productivité accrue de l’IA, avérée ou fantasmée
Le travail de l’avocat·e implique une chaîne de production composée de diverses étapes : interactions humaines, recherches et rédaction d’actes juridiques, conseils, définition d’une stratégie, plaidoirie… Cette chaîne peut être exercée par l’avocat·e ou par plusieurs intervenant·es de son cabinet. Au regard de sa complexité, le travail de l’avocat·e ne semble pas lui-même menacé globalement par les outils d’intelligence artificielle, mais que celle-ci pourrait impacter la manière dont il s’exerce. En ce sens, le rapport du CNB précité de décembre 2025 expose qu’une grande partie des avocat·es interrogé·es estiment que l’IA générative permettra au cabinet de fonctionner avec des équipes réduites et que certaines fonctions supports (secrétaires, assistant·es…) seraient menacées en lien avec une modification profonde de l’activité et une restructuration des cabinets.2
Selon nous, l’idée que le travail des assistant·es, jeunes avocat·es et élèves-avocat·es soit remplaçable par l’IA générative est contestable au regard des performances relatives de ces outils et de ce qu’elle témoigne d’une vision réductrice du rôle de ces intervenant·es, notamment dans tout ce que le métier d’avocat·e a d’humain.
Pour autant, on ne doit pas écarter le risque de difficultés d’accès à l’emploi accru, en raison d’une volonté de réduire les coûts et les postes liés à une recherche de compétitivité ou de rentabilité accrue, laquelle passerait par le développement de l’intelligence artificielle, sans que ce ne soit dans l’intérêt des justiciables ou des travailleur·ses du droit. Cette perspective négative sur l’emploi consécutive à l’automatisation partielle d’une partie des tâches de la profession doit nous interroger sur la nécessité de se saisir de ces outils, et si la profession décide qu’elle n’a pas le choix d’y recourir, sur la manière dont elle s’en saisit et pour quelle finalité. Car, du point de vue de l’emploi, l’impact n’est pas que quantitatif, l’intégration de l’intelligence artificielle est également de nature à dégrader la nature du travail lui-même.
Un impact qualitatif sur la nature du travail : les risques d’une perte de sens et d’un accroissement des risques psychosociaux
En dehors des potentielles conséquences sur la « quantité » du travail, les alertes se multiplient s’agissant du risque de dégradation de la « qualité » du travail. En effet, les qualificatifs de « pénibles » ou de « chronophages » employés par les promoteur·ices de l’intelligence artificielle pour définir certaines tâches telles que la recherche juridique ou la rédaction d’actes peuvent être contestés.
Avons nous vraiment envie de renoncer collectivement à faire de « la recherche juridique » ou de la rédaction d’actes pour n’être que des relecteur·ices ou en validation finale de bout de chaîne ?
L’idée selon laquelle les cabinets seraient enfin soulagés de ces tâches pour se consacrer à l’analyse pure et au conseil, à la présence auprès des client·es, pour des tâches « de plus haute valeur ajoutée », nous parait relever d’une méconnaissance du processus de création inhérent à l’activité juridique. Cette scission de l’activité est artificielle et fait écho aux travaux de recherches menés par le sociologue Juan Sebastian Carbonnell qui évoque un « taylorisme augmenté » du travail intellectuel.3 Selon lui, aucun métier intellectuel n’échappe aujourd’hui à une logique « de parcellisation des tâches, de séparation entre conception et exécution et de dépossession des travailleurs lors du processus de production » qu’il convient de questionner, car il en découle une dépossession par des tiers d’une partie du savoir-faire et des outils de production de ces professions.
Or, la dépossession d’une partie du travail, avec le risque à terme d’être un assistant amélioré de la machine sans maîtriser l’intégralité du raisonnement, entraîne incontestablement une perte de sens. Parallèlement, de nombreuses études montrent que l’intelligence artificielle n’a pas pour effet de permettre un « gain de temps », contrairement au discours ambiant.
D’une part, le temps pris en amont pour l’entraînement du modèle, la définition du prompt et surtout le temps passé au contrôle de la réponse et des données fournies, sont de nature à relativiser très largement le gain espéré par le recours à l’intelligence artificielle.
D’autre part, loin d’alléger la charge de travail, les premiers retours montrent au contraire une augmentation de l’intensité du travail fourni, complexifiée par la tentation de s’affranchir de son champ de compétence (le rapport du CNB évoque par exemple une diminution de la sous-traitance à un confrère/consœur spécialiste) au motif que l’intelligence artificielle donne la sensation de pouvoir faciliter l’appréhension d’un domaine non maîtrisé et d’accepter un nombre de dossiers plus importants.4
Or, les tâches dites chronophages ou « de faible valeur ajoutée » sont aussi parfois l’occasion pour le cerveau humain de ralentir. À terme, accroissement de l’intensité et perte de sens favoriseront inévitablement des risques psychosociaux, déjà bien présents dans notre profession.
Pour conclure, au regard de l’ensemble de ces risques, il nous semble que – à défaut de lui dire non – l’intelligence artificielle doit rester un outil à usage limité, être toujours interrogé et débattu collectivement par les avocat·es et les membres de leur cabinet, en gardant la faculté d’y renoncer et en évaluant ses impacts sur la qualité du travail et sur l’emploi.
Notes et références
1. Congrès du SAF 2023, Lille, Maîtres de l’intelligence
2. Rapport CNB, L’intelligence artificielle, Dec. 2025
3. Un taylorisme augmenté, critique de l’intelligence artificielle, J-S Carbonell, Ed. Amsterdam, Sept. 2025
4. AI Doesn’t reduce work – It Intensifies it, Aruna Ranganathan & Wingqi Maggie Ye, Fevrier 2026, HBR





















