« Vers une régulation des algorithmes »

Les algorithmes sont omniprésents sur Internet. Ces règles mathématiques sont les rouages indispensables de la sélection des contenus qui seront présentés à l’utilisateur. Ils sont toutefois de plus en plus controversés.

On retrouve notamment les algorithmes sur les réseaux sociaux. À cause d’eux, les utilisateurs ne reçoivent plus que des messages qui confirment leurs opinions et qui deviennent de plus en radicaux et polarisants (sans oublier les fake news, favorisées elles aussi par ces mécanismes). Les algorithmes jouent également un rôle dans le secteur privé, à des fins de marketing.

Les conséquences qu’ils produisent sur les différents pans de notre société amènent notre groupe MR à se positionner sur la nécessité de créer une autorité de contrôle alliée à une stratégie de gouvernance avec un maitre-mot : la transparence.

En ce sens, le texte déposé par l’Open VLD avec le soutien du MR, du PS et de Vooruit, demande que la Belgique se dote de sa propre autorité de contrôle des algorithmes.
Les services publics et services de sécurité qui ont recours à l’intelligence artificielle prédictive et aux algorithmes devraient relever de cette autorité qui pourra inciter les entreprises du Big Tech à intensifier leurs efforts dans le domaine de la limitation des flux d’infos.

Dans le secteur public, les algorithmes obtiennent des succès variables. Exemple : ceux qui sont utilisés dans les hôpitaux aux USA présentent un biais important discriminant systématiquement les personnes noires. Autre exemple problématique : la « predictive policy » aux Pays-Bas.

Le modèle dit de «pre-dictive policing» (police prédictive) fait l’objet de critiques aux Pays-Bas. D’aucuns craignent qu’à terme, les algorithmes subissent l’influence de préjugés et de stéréotypes et influencent à leur tour les futurs modèles prédictifs et algorithmes. Cela produirait des résultats discriminatoires se traduisant par des niveaux de risque supérieurs pour certains groupes de la population

Selon la police néerlandaise, 40 % des cambriolages dans les habitations et 60 % des vols à la tire peuvent être prédits. Le système CAS s’appuie sur de grandes quantités de données provenant de plaintes déposées à la police, de statistiques de criminalité et de la banque de données du Bureau central de la statistique (Centraal Bureau voor de statistiek – CBS). Il s’agit concrètement d’informations concernant le nombre d’allocations octroyées par quartier, l’âge, le sexe et la composition de ménage, à partir desquelles les algorithmes déterminent où et quand la police peut s’attendre à un risque de criminalité accru.

Il est nécessaire de paramétrer les algorithmes avec précision pour qu’ils soient utilisés de manière responsable. Cette tâche ne doit pas être laissée aux fournisseurs de technologies, aux programmateurs et aux développeurs de logiciels. Une règlementation ou une forme de contrôle s’imposent.

Nous ne pouvons, par conséquent, plus rester spectateurs et laisser aux fournisseurs de technologies, aux programmeurs et aux développeurs de logiciels le soin de régler ces questions. La numérisation nous concerne tous, que ce soit dans la sphère publique ou dans la sphère privée. Ces algorithmes ont d’importantes répercussions sociales et politiques. Une régulation ou une forme de contrôle est nécessaire.

Notre groupe estime qu’il est nécessaire qu’un certain contrôle existe en la matière. C’est en ce sens que le groupe MR a cosigné une proposition de résolution relative mise en place d’une autorité de contrôle des algorithmes. Examinés en Commission ce lundi 9 janvier, le groupe MR soutient la création d’une autorité de gestion des algorithmes.

Il est crucial que nous mettions en place notre propre autorité de contrôle des algorithmes, à l’instar des Pays-Bas. La technologie évolue de plus en plus vite.

Par conséquent, au plus tôt nous intervenons et créons un cadre, au mieux la société peut en recueillir les fruits, avec de moindres risques d’être confrontée à des effets indésirables (imprévus).Les effets néfastes des algorithmes qui diffusent des infox, par exemple, sont déjà perceptibles dans presque toutes les couches de la société. Il n’est donc jamais trop tôt pour intervenir, bien au contraire.

La transparence des opérations est de rigueur, d’un point de vue moral, juridique, mais aussi parce que l’économie numérique a besoin de la confiance des citoyens et des consommateurs pour fonctionner sereinement.

Prochain rendez-vous en février lors de la séance plénière.