
Dans l’affaire Specter Aviation Limited c. Laprade, la Cour supérieure a sanctionné pour la première fois au Québec l’usage inapproprié de l’intelligence artificielle dans une procédure judiciaire1. Cette décision met en lumière les risques bien réels qu’entraîne une utilisation non encadrée de l’intelligence artificielle dans le processus judiciaire.
Une première sanction pour usage inapproprié de l’IA au Québec
Le défendeur, âgé de 74 ans et se représentant seul, avait déposé une contestation truffée de références jurisprudentielles et doctrinales inexistantes, générées par ChatGPT, un outil d’intelligence artificielle.
Confronté à ces irrégularités, il a admis s’être « appuyé sur toute la force possible que l’intelligence artificielle pouvait lui offrir » afin de se défendre sans avocat. Le Tribunal, tout en se montrant sensible aux difficultés des parties non représentées, a rappelé que l’accès à la justice ne saurait se faire au prix de la véracité.
L’accès à la justice et la véracité des informations
« Si l’accès à la justice commande une certaine flexibilité de la part des tribunaux face au citoyen qui doit se représenter sans l’aide d’un avocat, celle-ci ne saurait jamais se traduire par une tolérance du faux. L’accès à la justice ne saurait jamais s’accommoder de la fabulation ou de la frime. »
« Prudence et intervention humaine à toute étape afin de valider, voici les leçons à retenir. »
L’IA, outil à encadrer plutôt qu’à stigmatiser
« Inutile de stigmatiser l’usage de l’intelligence artificielle. Ceux qui le feront auront tôt fait d’oublier le sort réservé aux sbires qui se refusaient aux promesses et avantages que l’Internet devait apporter, il n’y a que quelques années. Les avancées technologiques ne permettent pas l’attentisme et l’appareil judiciaire doit s’adapter en amont plutôt qu’en aval. En outre, toute mesure technologique pouvant permettre de favoriser l’accès au système de justice au citoyen devrait être saluée et encadrée plutôt que d’être proscrite et stigmatisée. »
L’intelligence artificielle face au système judiciaire
« L’intelligence artificielle n’épargnera pas le système juridique et les tribunaux en plus d’y faire face, devront composer avec cette nouvelle technologie se targuant d’être révolutionnaire. Bien que ses promesses enivrantes n’aient d’égal que les craintes associées à son usage inapproprié, l’intelligence artificielle testera sérieusement la vigilance des tribunaux pour les années à venir. »
Les débuts de l’impact de l’IA sur la justice québécoise
« Nous en sommes manifestement aux balbutiements de l’impact de l’intelligence artificielle sur le déroulement d’une instance judiciaire. Notre Cour ne semble pas avoir eu l’occasion de se prononcer sur cet enjeu qui promet de noircir plusieurs pages de jurisprudence sous peu. »
La responsabilité du justiciable face aux citations juridiques
Le tribunal conclut que la production de citations fictives constitue un manquement grave au déroulement de l’instance, justifiant l’imposition d’une sanction procédurale de 5 000 $. Il précise que la gravité d’un tel manquement ne repose pas sur l’intention de tromper, mais sur la responsabilité qui incombe à tout justiciable – avocat ou non – de vérifier la véracité des sources juridiques citées :
« Tenter d’induire la partie adverse et le Tribunal en erreur en produisant des extraits fictifs de jurisprudence et autres autorités constitue un manquement grave. Que cette conduite soit intentionnelle ou plutôt le fruit d’une simple négligence, le justiciable est redevable des plus hauts standards par rapport aux procédures qu’il dépose à la Cour. »
L’IA comme outil, pas comme substitut au discernement humain
Même en l’absence de formation juridique, le justiciable demeure tenu à un devoir de rigueur : l’ignorance du droit ou la confiance aveugle en l’intelligence artificielle ne peuvent lui servir d’excuse, la rigueur intellectuelle demeurant une exigence minimale de toute participation au processus judiciaire. Pour autant, le message de la Cour se veut nuancé : le juge Morin invite à ne pas stigmatiser l’usage de l’intelligence artificielle, tout en insistant sur la nécessité d’un contrôle humain rigoureux.
Cette approche rejoint l’avis publié par la Cour supérieure du Québec le 24 octobre 20232, qui mettait déjà en garde les praticiens contre les risques de fabrication de sources juridiques par l’intelligence artificielle.
Le juste équilibre entre technologie, rigueur juridique et responsabilité humaine
Cette décision marque une première au Québec et s’inscrit dans une tendance jurisprudentielle émergente au Canada, où plusieurs tribunaux – notamment en Colombie-Britannique et devant la Cour fédérale – ont sanctionné l’usage de « citations hallucinées » : respectivement, dans les affaires Zhang v. Chen et Lloyd’s Register Canada Ltd. v. Choi.
Elle rappelle que, si l’intelligence artificielle peut assister la réflexion juridique, elle ne remplace ni le discernement ni la responsabilité humaine.
En définitive, l’affaire Specter Aviation enseigne que la technologie peut assister le droit, mais ne le supplante pas : la rigueur, la prudence et le jugement demeurent les meilleurs garants de la justice. L’intelligence artificielle a ses mérites, mais la véritable intelligence reste — et doit rester — humaine.
Des questions concernant un litige impliquant l’intelligence artificielle?
Contactez-nous dès aujourd’hui.
Nos avocat(e)s en litiges et résolution des différends sont là pour vous accompagner.
1. En appliquant l’article 342 C.p.c., relatif aux manquements importants au déroulement de l’instance.