Vous êtes ici : Accueil > Actualités > Droit judiciaire > IA et justice : intégrer l’IA sans perdre le jugement humain (AI Act)

IA et justice : intégrer l’IA sans perdre le jugement humain (AI Act)

Aujourd'hui
IA et justice : intégrer l’IA sans perdre le jugement humain (AI Act)
IA justice - intelligence artificielle avocats - AI Act justice - CNIL IA générative - guide CNB IA - justice prédictive France - secret professionnel avocat - RGPD cabinet d’avocat - open data décisions de justice - Judilibre jurisprudence

La lampe et l’écran

À l’aube, le palais de justice s’éveille comme une vieille maison. Les portes grincent, la lumière rase les bancs. Rien n’a l’air d’avoir changé… sauf ce halo discret sur chaque bureau : un écran qui s’ouvre, une IA qui s’invite. Elle n’a ni robe noire ni timbre de voix. Elle n’ordonne rien : elle éclaire. À nous de garder la main, de prêter à la machine la prudence et l’éthique qu’elle ignore.

Ce que dit le droit européen

L’AI Act est entré en vigueur et deviendra pleinement applicable au 2 août 2026 (avec des étapes dès 2025 pour certaines obligations, notamment sur les modèles d’usage général) ; les systèmes qui assistent l’administration de la justice relèvent du « haut risque » et doivent respecter des exigences renforcées (gestion des risques, qualité des données, supervision humaine, traçabilité). 

Quatre vies, une même attente : comprendre, prouver, réparer

Jeanne (accident de la circulation)

La machine ratisse la jurisprudence, réunit les décisions comparables, ordonne les pièces médicales. Mais le montant ne sort pas d’un algorithme : il se construit au croisement de son histoire et des référentiels indicatifs, sous contrôle de l’avocat et du juge. L’IA propose ; l’humain apprécie.

Le Conseil d’État a validé fin 2021 le décret créant « Datajust » pour bâtir un référentiel indicatif en dommage corporel, mais le projet a été abandonné en 2022 par le ministère. Les pratiques s’appuient désormais sur des référentiels non automatisés et la jurisprudence vérifiée.

Karim (désordres de construction)

Dans un rapport d’expertise de cinquante pages, l’IA repère la phrase qui change tout, les contradictions, la chronologie technique. Elle n’attribue pas la faute : elle met en lumière. Puis on chiffre à la main, on recoupe avec pièces, devis et garanties.

Claire (erreur médicale)

L’IA déroule la jurisprudence, distingue la faute de la fatalité, rappelle les standards de preuve. Mais la pudeur des faits, la transparence et la contradiction restent humaines : relecture point par point, sources citées, décision assumée.

Thomas (divorce, organisation des enfants)

La machine simule des calendriers, souligne les angles morts. Mais c’est la voix de l’enfant, la géographie des semaines, les contraintes de travail qui orientent le dispositif. L’IA trace des chemins possibles ; la famille choisit la route.


Ce que l’IA change déjà (et ce qu’elle ne doit pas changer)

Usages utiles et licites :

Recherche & veille (avec sources fiables et citations) ;
Synthèse de pièces volumineuses ;
Transcription/traduction ;
Aide à la rédaction (trames, check-lists, tableaux d’arguments) ;
Knowledge management (modèles, clausiers).
Ligne rouge — « justice prédictive » à la française :

La réutilisation des données d’identité des magistrats/greffiers pour évaluer, analyser, comparer ou prédire leurs pratiques est interdite par la loi de 2019. Les legaltechs et cabinets doivent proscrire tout scoring nominatif de juges.

Le calendrier officiel prévoit la diffusion, au plus tard le 30 septembre 2025, des décisions civiles des tribunaux judiciaires et des conseils de prud’hommes ; Cour de cassation et cours d’appel sont d’ores et déjà largement accessibles. 

Dans les juridictions : expérimenter sans automatiser la décision

La Chancellerie a tracé une feuille de route : assistants IA sécurisés et souverains pour les magistrats et agents, couvrant recherche, synthèse, aide à la rédaction et retranscription, avec déploiement progressif à partir de 2025–2026. Des expérimentations locales (ex. « Albert » au parquet général de Paris) mesurent l’efficacité et les limites de ces outils. La Cour de cassation a, en avril 2025, cadré des usages non décisionnels (classement, résumés, similarités) assortis d’une gouvernance stricte.

Garde-fous indispensables (cabinet, étude, juridiction)

Secret professionnel / RGPD : privilégier solutions on-prem/UE, DPA, chiffrement, minimisation, registres ; réaliser AIPD si nécessaire. (Recommandations CNIL 2025.) 

Exactitude & sources : bannir l’automatisation aveugle, exiger citations et traçabilité des données utilisées.

Biais & discrimination : jeux de tests « métier », supervision humaine, journalisation des corrections.

Droits d’auteur / secrets des affaires : configurer des filtres, verrouiller l’entraînement tiers.

Preuves numériques & deepfakes : vérifier métadonnées, chaîne de garde, horodatage.

Repères de conformité « métier d’avocat »

Le CNB diffuse deux guides (bonnes pratiques d’IA générative et grille de choix d’outils : souveraineté, sécurité, coût, éthique). Base utile pour une politique interne d’usage. 


Ce que la machine ne saura pas

L’IA lit plus vite, mémorise plus large, relie mieux. Mais elle ignore la honte, la fierté, le remords, l’espérance. Elle ne sait pas ce que vaut un silence à l’audience, ni comment un regard se relève quand un calendrier parental s’accorde enfin. Notre rôle ne change pas : écouter, vérifier, citer, douter… puis assumer.

En pratique : l’AI Act impose la supervision humaine sur les systèmes qui assistent la justice ; les échéances 2025–2026 sont confirmées par la Commission malgré les demandes de report. La décision reste humaine.

Cette actualité est associée aux catégories suivantes : Droit judiciaire  -  Billet d'humeur