Abonnez-vous pour 1€

L’ONU demande de mettre sur pause certains systèmes d’intelligence artificielle pour protéger les droits humains

L’ONU demande de mettre sur pause certains systèmes d’intelligence artificielle pour protéger les droits humains
Belga Image

«Les technologies d’intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques s’ils sont utilisés sans prendre en compte suffisamment la manière dont ils affectent les droits humains», a déclaré Michelle Bachelet, la Haute-commissaire des droits de l’homme de l’ONU.

Elle a appelé à faire une évaluation des risques que présentent différents systèmes qui s’appuient sur l’intelligence artificielle pour le droit à la vie privée ou encore la liberté de circulation et d’expression et ensuite de bannir, ou en tout les cas de règlementer fortement, celles qui présentent les plus grands dangers.

Mais en attendant que ces évaluations puissent être menées à bien, «les Etats devraient imposer un moratoire sur les technologie qui présentent potentiellement un grand risque», a souligné l’ancienne présidente chilienne, lors de la présentation d’un nouveau rapport de ses services consacré à ce sujet.

Elle a notamment cité en exemple les technologies qui permettent des prises de décision automatiques ou encore celles qui établissent des profils.

«Nuire à des vies humaines»

«Les système d’IA sont utilisés pour déterminer qui peut bénéficier de services publics, décident de qui a une chance d’être recruté pour un emploi et, bien sûr, ont une influence sur l’information que les gens peuvent voir et partager en ligne», a-t-elle souligné.

Ce rapport, qui avait été demandé par le Conseil des droits de l’homme — la plus haute instance de l’ONU dans ce domaine — s’est penché sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n’ait été correctement évalué.

Les dysfonctionnements de l’IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou encore ont mené à des arrestations d’innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple.

«Le risque de discrimination lié à des décisions basées sur l’intelligence artificielle — des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine — n’est que trop réel», a insisté Mme Bachelet.

Le rapport a souligné que ces intelligences artificielles sont entraînées avec l’aide d’énormes bases de données, dont la constitution se fait souvent de manière opaque.

Ces bases de données elles-mêmes peuvent être mal faites, dépassées et donc contribuer à des violations des droits humains.

Rapport minoritaire

Le rapport soulève en particulier l’usage de plus en plus fréquent de systèmes basés sur l’IA par les forces de l’ordre y compris des méthodes prédictives.

Quand l’IA utilise de bases de données biaisées, cela est reflété dans les prédictions et a tendance à affecter des zones identifiées à tort comme à risque élevé.

La reconnaissance faciale en temps réel et à distance est aussi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens.

«Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l’AI et permettre qu’elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup», a insisté la Haut-commissaire, même si elle reconnaît que «le pouvoir de servir les gens de l’IA est indéniable».

«Mais il en va de même de l’habilité de l’IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible», a-t-elle mis en garde.

«Il faut agir pour mettre des garde-fous basés sur les droit de l’homme à l’IA pour le bien de tout le monde», a-t-elle souligné.

Notre sélection vidéo