Lutte contre les deepfake

.

Le vendredi 17 mars, le groupe MR au Sénat votait pour soutenir une proposition de résolution visant à prendre des mesures pour lutter contre les deepfakes.

Par « deepfake », on entend la forme la plus moderne qui soit de manipulation d’images et, plus largement, de supports visuels. Le deepfake consiste en la création d’images, de sons et de textes à l’aide de logiciels d’intelligence artificielle.

Les possibilités sont sans limites, les potentialités en matière de manipulation également.

Les exemples les plus célèbres sont ceux où le visage d’une personne est superposé sur celui d’une autre. Cela peut se faire à des fins ludiques, artistiques, culturelles… ou pas (fraude, désinformation, revenge porn…).

Combinés à des infox, des trolls et de la désinformation d’État, ils forment un véritable cocktail toxique qui peut porter gravement atteinte à la démocratie.

Prendre des mesures pour lutter contre de telles pratiques n’est donc pas un luxe superflu, c’est même une amère nécessité ».

 

Retrouvez-ci dessous l’intervention du sénateur Philippe Dodrimont en la matière lors de la séance plénière du 17 mars 2023

Madame la Présidente, Chers collègues,

En tant que Réformateurs, mon groupe politique et moi-même, nous sommes de tout temps montrés résolument optimistes et ambitieux envers l’émergence de technologies nouvelles, innovantes et contribuant à l’amélioration de notre condition.

Néanmoins, et comme toute innovation disruptive, l’émergence et les récents progrès en matière d’intelligence artificielle suscitent dans nos rangs, ainsi que dans l’ensemble de la société, de vives interrogations voire certaines préoccupations.

Les deepfakes, qui évoquent en français dans le texte des « cybertrucages », permettent de manipuler des sons ou des images, à l’aide de l’intelligence artificielle, afin de créer des sosies tant sur des vidéos et des photos que sur des enregistrements audios. Ce procédé, dont l’usage tend aujourd’hui à se démocratiser, s’auto-alimente et progresse de lui-même grâce au « deeplearning ». Ces logiciels se perfectionnent, eux-mêmes de manière intelligente, à mesure de leur utilisation afin de sublimer l’illusion à tel point que les résultats prêtent régulièrement à confusion.

La démocratisation de leur utilisation prend aujourd’hui des formes qui posent question à des degrés divers.

Dernièrement, la série « Deepfake Neighbour Wars » a fait son apparition sur Internet. Celle-ci met en scène toute une série de célébrités hollywoodiennes dans des conflits de voisinage somme toute banales bien que décalées. Vous passerez donc un moment amusant, selon votre sens de l’humour. Néanmoins, ces « personnages » sont en fait générés par intelligence artificielle et ne jouent pas leurs propres rôles. Ils n’auront d’ailleurs certainement pas donné leur accord pour que leurs visages respectifs apparaissent à l’écran sous un tel angle. Bien que la mention « Deepfake » apparaisse continuellement à l’écran, les limites juridiques du droit à l’image sont peut-être ici atteintes. Cela pose donc bien évidemment question.

Une autre application pose question : les deep fake sonores. En ce moment, sur TikTok, l’artiste, Ariana Grande, rencontre un immense succès avec le titre « Happier than ever ». Or, elle n’a jamais interprété cette chanson. Il s’agit en fait d’un deep fake. Le procédé est donc ludique et permet des manipulations amusantes et divertissantes. Les combinaisons pourraient, à terme, être infinies. Néanmoins, alors que je mentionnais l’avertissement « Générées par Deepfake » apparaissant à l’écran dans le cas précédent, c’est ici impossible. Cela pose d’autant plus question au regard des droits d’auteurs.

Les deux exemples que je viens d’illustrer ne dépeignent pas des usages malveillants, à proprement parler, de cette technologie. Bien qu’ils interrogent les limites de notre droit actuellement en vigueur ainsi que l’éthique.

Malheureusement, et comme le souligne cette proposition de résolution, cette technologie est très souvent détournée à des fins abusives, notamment relevant de la pornographie. Dans 90% des cas, les personnalités prises pour cibles sont des femmes.

D’autres abus sont également constatés. Puisqu’une telle technologie permet également, lorsque le subterfuge fonctionne, de propager de fausses informations de manière plus ou moins impactantes. En effet, il a été constaté à de nombreuses reprises, l’utilisation abusive de l’image et de la voix de personnes faisant autorité afin de propager de fausses nouvelles et de faux discours.

Conscients des risques de dérives possibles par le biais de cette technologie, mon groupe et moi-même avons souscrit à l’approche que promeut ce texte en le cosignant.

Il n’est, en effet, pas question ici d’interdire purement et simplement l’utilisation de cette technologie qui offre des possibilités immenses en termes de créations artistiques et de développement d’imagerie virtuelle. Mais il s’agit bien de sensibiliser nos gouvernements sur les dérives et les abus que des personnes malintentionnées, malveillantes pourraient commettre à l’aide de cette technologie afin de délibérément porter atteinte à d’autres.

Dans cette optique, ce texte rappelle toute l’importance du développement au sein de notre société d’un esprit critique afin de nous prémunir collectivement contre la propagation de fake news, et nous y insistons une fois de plus comme lors d’un précédent rapport d’information, à l’initiative de notre institution, dédié tout spécifiquement à cette problématique. A cet égard, le rôle des médias et des journalistes est une nouvelle fois souligné afin de rappeler leur mission essentielle à la vie de nos démocraties occidentales.

Enfin, chers collègues, Madame la Présidente, dans ce texte, une demande, qui nous paraît essentielle, consiste à ouvrir plus profondément et intensément la réflexion autour des responsabilités « en ligne », tant celle des utilisateurs que celles de plateformes, comme cela est désormais en vigueur au niveau européen depuis la mise en œuvre du Digital Service Act. La rapidité des progrès accumulés récemment nous contraint à mener une réflexion juridique mais aussi éthique afin que les libertés de chacun et chacune soient respectées.

C’est pourquoi, chers collègues, et vous l’aurez compris à travers ces quelques observations de ma part, c’est avec enthousiasme que le groupe MR soutiendra cette proposition de résolution.

 

Je vous remercie.