[DOSSIER] « Les systèmes automatisés doivent prendre des décisions moralement acceptables »

Martin Gibert estime nécessaire d’insuffler une morale aux chatbots et autres machines. (©D.R)

L’usage de l’intelligence artificielle pose de nombreuses questions éthiques et sociétales. Le Canadien Martin Gibert, auteur de l’ouvrage Faire la morale aux robots, livre des éléments éclairants.

DNC : Quel est le plus grand risque associé à l’IA ?

Martin Gibert : C’est ce qu’on appelle un risque existentiel, c’est-à-dire la possibilité de mettre fin à l’existence de l’humanité, comme une guerre nucléaire ou une météorite qui viendrait écraser la Terre. Cela pourrait se faire de deux façons : soit au travers d’agents capables d’utiliser la puissance de l’IA pour faire un mal très grand, soit par l’IA elle- même, dans le cas où elle deviendrait une super-intelligence hostile et veuille s’affranchir de l’humanité.

Dans les deux cas, ce ne sont pas des certitudes, mais une possibilité. Jusqu’à aujourd’hui, nous n’avons jamais créé de systèmes qui soient plus intelligents que les êtres humains. Donc, il y a quand même une certaine réserve à avoir. Et malheureusement, à l’heure actuelle, les recherches et les investissements sont davantage réalisés pour maximiser les profits économiques que peut apporter l’IA que pour se prévenir de ce risque existentiel.
Yoshua Bengio, responsable de l’intelligence artificielle à l’université de Montréal et détenteur du prix Turing 2018, qui est l’équivalent du prix Nobel de l’intelligence artificielle, essaie de mettre en garde les gens contre ce type de risque. Il est difficile de l’imaginer, car cela nous paraît être de la science-fiction.

L’une des plus grandes craintes liées à l’IA est la peur qu’elle « remplace » nos emplois. Qu’en pensez-vous ?

Effectivement, par définition, l’intelligence artificielle consiste à automatiser. Et l’automatisation d’une tâche permet de remplacer la personne qui la faisait. C’est un risque tout à fait réel. La différence avec l’automatisation liée à l’intelligence artificielle, c’est qu’elle ne concerne pas les cols bleus ‒ c’est-à-dire les métiers manuels ‒ mais les cols blancs, les métiers plus intellectuels.
Après, est-ce un risque en soi ? Pas nécessairement. On peut imaginer que l’être humain est content de moins travailler et de déléguer des tâches. Pour les personnes qui vont perdre leur emploi du fait de l’automatisation, s’il n’y a pas de filet social qui vient compenser, il y a des raisons tout à fait claires de s’inquiéter. Par exemple, les graphistes et les traducteurs ne sont clairement pas des professions d’avenir parce qu’ils sont très simples à remplacer.

Y a-t-il des secteurs où l’éthique de l’IA est la plus menacée ?

On peut penser au secteur militaire, où certains systèmes de défense sont automatisés, avec par exemple, les systèmes d’armes létales autonomes (SALA), parfois qualifiés de « robots tueurs ». En Ukraine, des drones sont utilisés avec un opérateur qui décide comment tirer. Ce n’est pas censé être automatique, mais la technologie est tout à fait en place. Il serait possible de demander à un drone d’aller tirer sur une personne en lui montrant simplement sa photo.
Je m’intéresse également aux enjeux d’éthique animale, avec l’automatisation de la production animale et celle des abattoirs. Si on est sensible à ces questions et au bien- être des animaux, cela peut être un danger, parce que l’automatisation suggère qu’il n’y ait plus personne pour être témoin de l’abattage des animaux. C’est une tâche qui a des enjeux moraux, car on tue des êtres sensibles.

Il y a sans doute plein d’autres secteurs, mais le problème avec l’IA, c’est qu’on a l’impression que l’on peut en parler comme d’une chose unique et générale, alors que c’est un peu au cas par cas. J’évoquais les robots militaires, mais on peut imaginer des usages acceptables, voire recommandables de ceux-ci. Le diable se trouve dans les détails.

Comment définir les limites éthiques de l’IA ?

En essayant de faire en sorte que les systèmes automatisés de traitement de l’information prennent des décisions qui soient moralement acceptables. Dans mon livre Faire la morale aux robots, je cite l’exemple des voitures autonomes qui seraient face à des dilemmes, où elles devraient avoir à choisir entre sacrifier un enfant ou sacrifier un vieillard en cas d’accident inévitable. Sans aller aussi loin, on peut aussi penser aux chatbots comme ChatGPT. Même si les enjeux moraux sont moins forts, ils doivent être programmés de façon à ne pas répondre à des questions comme « comment hacker le wifi des voisins », « comment fabriquer une arme bactériologique » ou, tout simplement, ne pas raconter de blagues racistes.
Ce ne sont pas des limites éthiques en tant que telles, mais il est possible d’essayer de programmer ces systèmes pour qu’ils se comportent comme on le désire.

L’IA prive t-elle l’être humain de sa capacité de réflexion ?

À l’heure actuelle, pas spécialement. En tout cas, pas plus que la calculatrice prive les humains de leur capacité de faire des calculs. Après, peut-être que si les gens se mettent à utiliser uniquement ChatGPT quand on leur pose des questions, ils vont oublier de réfléchir. Mais cela ne me paraît pas le danger le plus immédiat. Aujourd’hui, j’ai plutôt l’impression que l’IA aide à réfléchir, un peu comme un assistant à qui on peut poser des questions.
Après, est-ce si grave qu’une IA soit plus rationnelle que les êtres humains ? Ceux-ci sont loin d’être tout le temps rationnels et bienveillants. Peut-être qu’il y a certaines décisions qui seraient meilleures si elles étaient prises par des intelligences artificielles. Peut-être que si c’était une IA qui dirigeait la Russie à l’heure actuelle, elle n’aurait pas lancé une attaque contre l’Ukraine.

Propos recueillis par Nikita Hoffmann