Par Paul-Elyes Hecham
Entre fake news et images générées par intelligence artificielle, nous naviguons aujourd’hui dans un univers numérique chaotique et incertain. Pour ne rien arranger viennent s’ajouter depuis quelques mois, des vidéos plus ou moins réalistes mettant en scène des stars et personnalités publiques dans des situations invraisemblables. Kylian Mbappé se prenant une gifle par son père ou encore Emmanuel Macron dans un clip de rap : personne n’échappe à ces montages loufoques mais parfois très convaincants.
Une technologie plus ou moins novatrice…
La récente prolifération de ces vidéos détournées est liée à la démocratisation d’une technologie jusqu’alors expérimentale : le Deepfake, autrement dit Hypertrucage en français. Il s’agit d’une technique de synthèse d’images permettant de superposer le visage et la voix de quelqu’un sur un support existant, permettant de lui faire dire ou faire à peu près tout ce que l’on souhaite.
Celle-ci porte sur l’utilisation de modèles de réseaux neuronaux profonds pour effectuer une analyse approfondie des caractéristiques faciales et vocales d’une personne à partir de données existantes. Ces algorithmes ayant besoin de grandes quantités de données pour produire un résultat probant, ils sont naturellement plus efficaces avec des personnalités publiques apparaissant de façon récurrente sur nos écrans. Ces derniers existent pourtant depuis plusieurs années : nous avons tristement découvert cette technologie en 2017, lorsque des internautes l’ont utilisée pour mettre en scène des actrices de cinéma dans des vidéos pornographiques. Il s’agissait alors d’une technique obscure, méconnue du grand public et à l’image très négative, associée aux activités malveillantes que l’on retrouve dans les tréfonds du web.

Source : Freepik
Néanmoins, la récente démocratisation de l’intelligence artificielle a changé la donne : désormais, ces techniques sont accessibles au grand public via des sites web et des logiciels facilement utilisables et aux résultats quasi immédiats. C’est donc une infinité de possibilités qui s’ouvre progressivement à un public de plus en plus large, et les utilisations de l’hypertrucage se multiplient dans des domaines variés. On les utilise dans une optique de divertissement et de parodie, mais également dans des contextes professionnels : des logiciels permettent déjà de modifier sa voix en direct lors d’une visioconférence, ou de traduire une vidéo de soi dans une autre langue en synchronisant notre voix et le mouvement de nos lèvres.
…qui mettrait notre image en péril ?
Ces usages variés destinés au grand public risquent de se multiplier dans les années à venir, et d’envahir les sphères professionnelles et personnelles de nombreux utilisateurs. Mais avec cette démocratisation vient aussi la question de l’acceptation de cette technologie : sommes-nous prêts à laisser des logiciels prendre le contrôle de notre image ?
Pour y répondre, CNRS Le Journal a interrogé 300 Français, majoritairement jeunes et urbains, en leur présentant des scénarios hypothétiques d’application de cette technologie, dans des domaines thérapeutiques, professionnels, politiques, etc. Le résultat est surprenant : les participants ont trouvé la majorité des scénarios moralement acceptables, y compris lorsque la personne n’est pas informée que la voix de son interlocuteur est modifiée. Même dans les cas de simple augmentation de nos capacités, les internautes ne considèrent pas cette technologie comme immorale ou dangereuse. Il y a donc une confiance et un enthousiasme certains envers cette technologie pourtant très récente, qui présagent son développement massif au cours des prochaines années et qui contraste avec son image négative initiale.
Une juridiction nécessaire ?
Néanmoins, force est de constater qu’il sera nécessaire dans les prochaines années de savoir prendre du recul et considérer les risques qu’elles impliquent. Le deepfake reste une technique très controversée pouvant facilement être utilisée à des fins malveillantes, comme c’est déjà le cas : des tentatives d’arnaque utilisant la voix et l’image de célébrités ont déjà été dénoncées.
Pour pouvoir profiter des avantages de cette technologie sans être dépassés par les dangers qu’elle représente, il faut rapidement s’emparer de ce sujet et encadrer l’utilisation du deepfake dans une juridiction adaptée, prenant en compte le droit à l’image et le risque de diffamation. A notre échelle, il faudra redoubler de prudence et traiter les contenus en ligne avec encore plus de recul et de méfiance, tout en apprenant à reconnaître les vidéos hypertruquées.
Laisser un commentaire