Inscription cours d’immersion pour les terminales le mardi 18 février de 14h à 17h. Cliquez ici
 
Etudiant en Bac+2 ou Bac+3? Tu souhaites intégrer notre Programme Grande Ecole? Inscris-toi au concours Passerelle
Prends rendez-vous pour passer tes oraux du concours BCE en cliquant ici
 Prépare ta venue sur notre campus en cliquant ici
Logo IMT Business School
Rechercher
Fermer ce champ de recherche.
Rechercher
Logo IMT

Législation : les nouveaux enjeux posés par les deepfakes

Illustration Législation USA

« La question des deepfakes est un problème à deux faces » précisent Anuragini Shirish, Professeure en systèmes d’information pour le management à l’IMT Business School, et sa co-auteure Shobana Komal, avocate en droits de la propriété intelectuelle. Dans leur article intitulé A socio-legal inquiry on Deepfakes, les chercheuses se penchent sur les noueaux enjeux imposés et les législations qui en découlent. L’objectif est de contrer ses usages nocifs, aussi bien pour les gens ordinaires que pour les personnages publics.

Jeudi 10 octobre, Corée du Sud : Le Conseil des ministres sud-coréen approuve un nouveau projet de loi. Il vise à durcir les peines pour les crimes sexuels numériques utilisant des deepfake. En cause, une vague de contenu pornographique non consentis produits à l’aide de cette technologie. Pourtant, la Corée du Sud reste l’un des leaders mondiaux dans le domaine de l’IA, notamment grâce à Samsung. Selon l’article d’A. Shirish, ils auraient une approche plus systématique du problème. L’intelligence artificielle fait partie de l’organisation sociale du pays. Il faut donc prendre en compte le contexte dans lequel l’IA est utilisée. 

Il existe cependant une autre approche mise en avant par les chercheuses. Une occasion parfaite pour s’intéresser à la question des deepfakes, de l’importance qu’ils ont prise ces dernières années et de la législation qui les entoure ailleurs dans le monde.

Tour du monde de la législation

Il est avant tout nécessaire de commencer par le cas particulier que représente l’Union européenne. Dans sa législation, elle est la seule à prendre l’IA comme quelque chose de complètement à part. Elle doute du bien-fondé de cette technologie et instaure des garde-fous pour prévenir au maximum les dérives. Elle contraint, dans son Code de bonnes pratiques contre la désinformation, les différentes plateformes à supprimer les contenus problématiques (désinformation, diffamation, deepfakes malveillants, etc.). L’entreprise risque une amende pouvant s’élever à 6% de son chiffre d’affaires mondial. Cette dernière se doit d’ailleurs d’être transparente, responsable et respectueuse des droits de l’homme lors de la détection de deepfakes nocifs.

Les pays anglo-saxons tels que les Etats-Unis et le Royaume-Uni sont plus modérés dans leur approche du problème. Ils sont moins agressifs que l’UE et mettent l’accent sur la compréhension de la technologie et de ses usages. Les USA n’ont pas réussi à faire passer de véritables lois concernant les deepfakes. Ils ont cependant beaucoup investi dans l’identification de ces contenus et la sensibilasation du public. Le Royaume-Uni se repose quant à lui sur des règles préexistantes pour contrer les œuvres de désinformation et de fraudes. Il a reconnu les deepkakes pornographiques comme une nouvelle infraction pénale, mais il ne régule pas encore les productions IA faites sans le consentement de la victime. Il s’inspire des directives européennes pour éduquer sa population aux potentielles dérives de l’intelligence artificielle.

La Chine, elle, s’est dotée d’une régulation conséquente pour éviter la désinformation et assurer la cybersécurité du pays. L’Administration du Cyberespace Chinois a communiqué un certain nombre de mesures pour contrer la diffusion de fausses informations, notamment sur les plateformes ayant une influence sur l’opinion publique. De plus, les entreprises de développement doivent, avant de mettre leur logiciel sur le marché, préciser le concept, son but et les fonctions primaires du système. Le tout doit être traçable et permettre aux autorités de remonter facilement jusqu’à la source. Certains universitaires voient là une potentielle entreprise de censure à grande échelle.

Une étude sociale des deepfakes

Malgré tout, les deepfakes ne sont pas nécessairement malveillants. Avec le mérite de faire avancer les recherches autour des usages de l’IA. Elle offre aussi de nouvelles perspectives pour beaucoup d’acteurs de la société comme l’éducation ou la culture. Aussi, les deepfakes représentent un nouveau pan de l’anonymisation des personnes sur les réseaux sociaux et les médias. En revanche, ils présentent aussi beaucoup de dérives, facilitent la fraude, les arnaques, la désinformation ou les crimes sexuels. L’accessibilité au plus grand nombre rend la technologie très questionnable. 

C’est pourquoi les études se multiplient pour évaluer les impacts psychologiques, financiers et même politiques des deepfakes. En janvier 2024, un enregistrement audio de Joe Biden a été envoyé à 5000 personnes. Ce message leur disait de ne pas aller voter aux primaires américaines. C’est bien sûr un deepfake que l’équipe de campagne opposée au camp présidentiel a orchestré pour gagner quelques voix. Un tableau, présent dans l’article, résume assez bien les conséquences potentielles d’une mauvaise législation sur le sujet de l’IA. 

Force est de constater que les lois mises en place aujourd’hui peinent à se mettre au niveau de l’évolution technologique actuelle. La partie deep learning du problème est la plus inquiétante. La capacité des IA à apprendre des erreurs qui leur sont remontées provoque un perfectionnement des techniques, ce qui peut rendre rapidement obsolète la plupart des systèmes d’identification. De plus, le rapport Davos sur les risques globaux qui pèsent sur nos sociétés, nous apprend que la désinformation est le risque à court terme le plus important des deux prochaines années, une attention constante de la part des gouvernements est donc indispensable. 

Articles récents

Suivez-nous