L’utilisation de l’IA dans les métiers du droit exige une vigilance nouvelle.
« Une aide extraordinaire au travail, qu’on se doit d’utiliser judicieusement. » C’est fort de ce constat sur l’utilisation de l’intelligence artificielle que Philippe Reuter, bâtonnier de Nouméa, a fait venir au mois de mai un formateur dans le domaine. L’idée étant d’apporter des outils aux avocats du territoire et de les alerter sur les dangers potentiels de son utilisation.
Actuellement, l’IA leur est utile ‒ entre autres ‒ dans la veille des nouveaux textes réglementaires ainsi que dans l’analyse de certaines situations. « Il est possible de lui exposer une situation donnée, et qu’elle nous sélectionne des réglementations et jurisprudences correspondantes… Ça peut être bluffant », décrit Philippe Reuter, qui met néanmoins en garde : « Il ne faut pas utiliser n’importe quoi. » « Dans le monde, des avocats se sont totalement fiés à ChatGPT et la machine leur a sorti des jurisprudences qui n’existaient pas », cite-t-il comme exemple.
Autre danger : le traitement des données. Les avocats étant soumis à la confidentialité, publier certaines informations de leurs clients sur une IA générative peut être dangereux.
Des plateformes comme Perplexity AI et Case Law Analytics sont par ailleurs recommandées pour les professions du secteur juridique. Le « mieux » étant d’avoir sa propre intelligence artificielle, rattachée à son cabinet. « C’est tout à fait possible », affirme le bâtonnier.
Au parquet, pour le procureur de la République Yves Dupas, si l’institution judiciaire aborde une « étape importante » avec le plan de transition numérique, il est en revanche « prématuré, à ce stade, d’apprécier l’impact de l’intelligence artificielle »
Nikita Hoffmann