Témoignages

Un jeune Moi je vois le bordel. Une grande guerre humaine. J’ai peur du futur. Il faut enlever les machines. Le risque du futur, c’est qu’on va devenir des robots. Il faut en parler au gouvernement de Philippe Close !

Élise C’est déjà arrivé que des algorithmes utilisés par certains États soient racistes, ou ciblent d’abord les personnes de quartiers pauvres pour des contrôles. Comment s’assurer qu’il n’y ait pas de discrimination ?

Julien L’évolution actuelle de l’intelligence artificielle (IA) peut encore augmenter les risques pour les personnes fragilisées. Plusieurs témoignages existent déjà mettant en avant que dans certains cas, des IA de communication tiennent des discours racistes, xénophobes et même parfois poussant au suicide.

Art. 2.3

Interdire le traitement par algorithmes à grande échelle.

  • Les algorithmes peuvent être dangereux, car ils sont directement appliqués à de grandes parties de la population.

Voir aussi article 8.2

Commentaires

Maurice

La transparence est importante. C’est un élément essentiel en Belgique, qui est un État de droit. Les algorithmes pouvant être dangereux, le citoyen a le droit de savoir ce qui se passe derrière ces derniers. Le citoyen doit avoir le droit et la possibilité d’accéder et de consulter les documents administratifs, et ce facilement…

Emma & Tanguy

C’est dans l’Article 32 de la Constitution belge. Pour s’adapter au numérique, il faut pouvoir le comprendre. D’une part, intégrer l’éducation au numérique dans les cursus scolaires au sens large, via des formations des professeurs et du personnel enseignant. D’autre part, proposer des formations continues via des « communs numériques », dans des lieux publics et via des tutoriels vidéos pour les compétences numériques de base. Il faut une transparence des algorithmes de façon intelligible pour tous et un équilibre entre transparence et confidentialité.

Maurice

J’aime énormément l’expression de J. Rochefeld qui parle de « droits minimaux de la personne algorithmée ». C’est fondamental que le citoyen soit informé. Ce droit à l’information est déjà régi par l’article 13 et l’article 14 du RGPD. Il faut aussi expliquer davantage le pourquoi du comment au citoyen, l’utilité de recourir à un outil tel qu’un algorithme. Après tout, le citoyen est le premier concerné dans l’histoire.

Laurent

Par rapport aux algorithmes, le 2 février le Règlement européen sur l’intelligence artificielle (AI Act) a été ratifié. Il répartit les IA en trois catégories de risques. Celles qui comportent un risque inacceptable et qui sont interdites. Celles qui sont à haut risque et qui sont soumises à des obligations spécifiques. Et les autres. À titre d’exemple, le Règlement interdit les types de systèmes d’IA suivants :

  • déployer des techniques subliminales, manipulatrices ou trompeuses pour fausser le comportement et entraver la prise de décision éclairée, causant ainsi un préjudice important.

  • l’exploitation des vulnérabilités liées à l’âge, au handicap ou à la situation socio-économique pour fausser le comportement et causer des dommages importants. https://artificialintelligenceact.eu/fr/annex/3/

Merlin

Je suis chercheur en intelligence artificielle. Je ne suis pas du tout spécialiste du droit, mais j’essaye de comprendre au plus près comment l’intelligence artificielle fonctionne. Interdire tout traitement par algorithme à grande échelle me parait un peu trop simple. Mais il y a des « boucles » qu’on pourrait mieux réglementer en introduisant des humains dans les prises de décision de la machine. Par exemple aux États-Unis, il y a eu des scandales sur qui obtient des prêts. Je ne connais pas bien ce cas, mais sauf erreur tout était fait de manière automatique et on s’est aperçu qu’il y avait des biais racistes.

Mais je me demande : est-ce possible d’avoir quelque chose qui n’a aucun biais ? Je n’en suis vraiment pas sûr. Que ce soit pour les humains ou les machines. Les humains sont aussi biaisés évidemment. Et je pense que les algorithmes peuvent être perfectionnés pour l’être moins que la moyenne des humains. C’est comme pour les voitures automatiques. Ce qu’on veut comme garantie, c’est qu’il y ait moins d’erreurs, d’accidents, que chez les humains. Ça fait sens.

Mais il y a quelques limites à ce raisonnement. D’abord les humains on les connait, on sait mieux comment les contrer. Tandis que « chez » les algorithmes il peut y avoir des biais qu’on n’identifie pas ou qu’on ne se représente pas. Comme par exemple une discrimination sur toute personne qui a un « d » dans son nom de famille !

Il y a autre chose, qui est peut-être plus fort encore. Quand on compare le travail d’un algorithme par rapport à celui d’une administration classique, dans cette dernière il y a plusieurs personnes qui effectuent le travail. Chaque personne a son propre biais, qui peut être très fort bien sûr, mais cela fait une multitude de biais différents. Mais un algorithme, lui, est seul. Ses biais, il les applique à grande échelle. C’est une discrimination unilatérale à laquelle il est plus difficile d’échapper.

En tout cas, je serais de l’avis qu’il y ait un département, qui contrôle et supervise tout ça, comme pour l’alimentation. Un département qui peut, par exemple, garantir la transmission des codes à d’autres pays quand l’algorithme passe des frontières, etc. Un individu pourrait se plaindre à l’État, ce qui permettrait d’identifier les biais par des statistiques. Mais une question reste : comment permettre de redonner des chances à l’individu (discriminé) face à la machine, sans dépendre d’experts qui font des statistiques par exemple ?

Dans certains domaines, avant de pouvoir utiliser un algorithme il faut le tester longtemps. Et on n’a pas parlé de tous les enjeux économiques. Car les États sont frileux de réglementer. Le gouvernement européen dit qu’il ne faut pas être trop dur, qu’on a besoin des start-up. Open AI a recopié et exploité plein de données sans autorisation, mais ils disent « Ah, mais on n’aurait pas pu faire sans donc oui on a triché ». Et les USA sont tellement contents qu’ils soient là qu’ils ne disent rien. Ça représente tellement d’argent.