IA et durabilité : l’épreuve de la cohérence

PAR Antoine Clerc - SAF Lyon, membre de la commission environnement-santé

Alors que la profession commence à reconnaître son rôle dans la transition écologique, la voilà entraînée dans une course irréfléchie à l’IA. Cette errement est révélateur d’un défaut d’acculturation environnementale et, plus encore, de notre manque de réflexivité collective.

 

Nos institutions nous ont collectivement engagé·es dans une adoption de l’IA à marche forcée. Partenariats commerciaux, formations, évènements : la peur du déclassement technologique a vite éclipsé la prise de conscience environnementale.
De fait, l’IA générative a fait irruption dans notre pratique alors qu’émergeait en Europe et en France une réflexion, tardive mais nécessaire, sur la responsabilité de la profession à l’égard de la crise écologique. Il s’agissait, d’une part, de reconnaître l’impact climatique de notre activité. D’autre part, le développement du marché de la compliance offrait aux avocat·es l’opportunité de devenir les promoteur·ices et garant·es de la « durabilité » auprès de leurs clients.
Alors que la profession s’acculturait ainsi à identifier et prévenir les risques sociaux et environnementaux, l’IA apparaît comme l’épreuve de la cohérence. Une épreuve à laquelle nous avons échoué, puisque la quête de performance nous a conduits à adopter un outil dont les impacts sont manifestement contraires à nos valeurs affichées. Cet échec souligne la démission politique et réflexive de nos institutions, à laquelle le SAF se doit de répondre. Cet article se concentrera sur les impacts intrinsèques à l’IA, et non ses répercussions sur nos pratiques de travail et les rapports de force qui les sous-tendent.

Faire face aux coûts cachés de l’IA

La connaissance des « externalités négatives » de l’IA générative précède son adoption par la profession. Pourtant, cette dernière semble encore largement les ignorer.
S’agissant d’abord du coût environnemental de l’IA, tout le monde sait désormais qu’une requête adressée à ChatGPT consomme jusqu’à « dix fois plus d’électricité » qu’une recherche sur Google. Néanmoins, il ne s’agit là que d’une partie de son impact écologique.
D’une part, ce coût énergétique (et l’impact climatique associé) ne correspond qu’à la phase d’inférence (utilisation) des modèles de langages et occulte l’énergie colossale consommée pour la phase de training (entraînement) en amont.
D’autre part, l’environnement ne se réduit pas à l’énergie et au carbone : l’infrastructure matérielle de l’IA (datacenters) requiert des terres rares pour ses composantes, du foncier pour ses constructions et de l’eau pour ses systèmes de refroidissement.
S’agissant ensuite du coût humain de l’IA, celui-ci commence seulement à émerger dans le débat public. Si tous·tes les avocat·es ne sont pas également engagé·es pour l’environnement, je doute que l’on en trouve un·e seul·e qui ne se préoccupe pas des droits humains.
Or, pour rendre opérationnel un modèle d’IA générative, il ne suffit pas de le nourrir de données. L’intervention humaine demeure nécessaire pour corriger et affiner le traitement de ces dernières, au prix d’un travail fastidieux voire psychologiquement délétère. Pas n’importe quel·le humain·e toutefois : ces « travailleuses et travailleurs du clic » précaires sont essentiellement des personnes du Sud global. Payé·es à la tâche, iels sont chargé·es de qualifier des données et parfois de trier du contenu violent, dont les incidences psychologiques et sociales sont documentées. L’IA repose ainsi sur l’exploitation d’un « nouveau prolétariat du numérique » à coloration néocoloniale1.
Les gains de performance promus par nos institutions et leurs partenaires commerciaux (qui seront in fine neutralisés par un effet rebond) auraient ainsi dû être mis en balance avec ces impacts, qui contreviennent aux objectifs de durabilité et aux valeurs défendues par la profession.

Bilan et perspectives politiques

Le désintérêt des institutions pour les externalités de l’IA est révélateur d’une forme de désengagement politique, qui doit être corrigé par des exigences accrues en matière de durabilité.
Au niveau de la société française comme de la profession, soulignons l’absence de débat préalable à l’adoption de ce nouvel outil, dont nous sommes désormais captif·ves. Ceci questionne nos garde-fous démocratiques, et confirme le constat sociologique selon lequel nos institutions se cantonnent à « l’exercice de la fonction gestionnaire »2.
Plutôt que d’interroger l’utilité et l’impact d’une innovation technologique sur une profession concurrentielle et inégalitaire, nos instances professionnelles l’ont accueillie comme une nécessité au nom de la compétitivité, en ouvrant le marché des (presque) 80 000 avocat·es aux entreprises privées fournissant ces solutions.
À regarder les premiers rapports et communications sur l’IA, les seules préoccupations exprimées sont d’ordre déontologiques et cyber-sécuritaires. Or, même avant l’adoption du règlement européen sur cette technologie et du référentiel de l’Afnor pour une IA frugale, nous disposions déjà de standards issus de la soft law pour fonder des exigences éthiques à l’égard des fournisseurs3.
Néanmoins, sous réserve de vérifier le contenu des contrats signés par certains ordres avec ces entreprises, il semble peu probable que des clauses portant sur la durabilité s’y trouvent. Les acteur·ices du secteur semblent plutôt enclin·es à omettre les externalités des modèles qu’iels commercialisent. Les éditeurs principaux du marché ne font aucune mention de ces enjeux. Par exception, l’un d’eux affiche le souci de s’inscrire dans une démarche RSE. Néanmoins, son code de conduite relatif à l’IA n’intègre pas la durabilité4, et son bilan carbone ne semble pas inclure les émissions liées à l’entraînement et l’utilisation de son modèle5. De façon plus discutable encore, il promeut les « émissions évitées grâce au digital » par rapport aux codes imprimés sur papier, comme si l’IA constituait une avancée écologique6.
À terme, la profession devra donc exiger une transparence accrue des fournisseurs sur les incidences de leur solution, en phase de training comme d’inférence, ainsi que des garanties quant au respect d’exigences sociales et écologiques dans leur chaîne de valeur. En ce sens, la participation des institutions aux initiatives pour une IA éthique et durable est souhaitable, à condition d’y promouvoir un niveau d’exigence élevé. À l’échelle individuelle, les cabinets volontaires réalisant un bilan carbone devront intégrer une estimation des émissions générées par leur utilisation de l’IA générative, sans quoi leur démarche RSE sera nécessairement faussée.

Notes et références

1. Casilli, A. (2019). En attendant les robots : Enquête sur le travail du clic. Le Seuil.
2. Karpik, L. (2003). Les avocats : entre le renouveau et le déclin. Hermès, La Revue, 35(1), 203-211.
3. Lignes directrices en matière d’éthique de l’IA digne de confiance de l’Union européenne (2018), Déclaration de Montréal pour le développement responsable de l’IA (2018), Recommandation du Conseil de l’IA de l’OCDE (2019) et Recommandation de l’UNESCO sur l’éthique de l’IA (2021).
4. www.doctrine.fr/ia-generative/code-conduite-ia
5. blog.doctrine.fr/lheure-du-bilan-carbone/
6. blog.doctrine.fr/rapport-sur-les-emissions-evitees-grace-au-digital/

Partager