IA : les Français sont-ils capables d’identifier les deepfakes

IA : les Français sont ils capables d’identifier les deepfakes
IA : les Français sont ils capables d’identifier les deepfakes

À chaque apparition d’une image ou d’une vidéo sur un réseau social, une question se pose désormais au moindre doute : ce contenu a-t-il été généré ou modifié à l’aide de l’intelligence artificielle ? Qu’ils aient vocation à tromper le spectateur ou simplement à exprimer une forme de créativité, les contenus artificiellement créés ou transformés sont légion sur le web. Mais comment les Français perçoivent ces innovations technologiques, pouvant notamment être à l’origine de deepfakes ?

Pour répondre à cette question, Alucare.fr, site web spécialisé dans les jeux vidéo, les nouvelles technologies et l’IA, a entrepris, en partenariat avec l’ifop, une vaste enquête auprès de la population française. 2 191 concitoyens, âgés de 18 ans et plus, dont 551 jeunes de moins de 35 ans, ont ainsi été invités à répondre à un questionnaire entre le 5 et le 8 mars 2024, selon la méthode des quotas. En résultat un regard pertinent sur la perception par les Français de l’IA générative, de ses usages et de ses dangers.

Seul un tiers des Français se sent capable d’identifier une image qui a été générée par IA

Selon l’enquête menée par l’Ifop pour Alucare, un tiers des Français (33 %) estiment pouvoir identifier une image ou une vidéo générée par l’intelligence artificielle (IA), tandis que seulement 6 % se sentent confiants dans cette capacité (voir image de une). Cette incertitude est particulièrement présente chez les personnes de plus de 35 ans, avec seulement 28 % d’entre elles se disant capables de détecter un deepfake, contre 55 % chez les 18-24 ans. Les hommes semblent également plus confiants que les femmes dans leur habileté à repérer ces contenus, avec 40 % des hommes contre 28 % des femmes.

Dans un test conçu par l’Ifop pour illustrer la complexité de distinguer les images réelles des créations de l’IA, tous les participants se sont vu présenter cinq images, toutes générées par IA, sans le savoir. Un portrait réaliste de médecin a induit en erreur 75 % des participants, et une photo « ancienne » d’un homme à cheval a été considérée comme réelle par 64 % des personnes. Moins trompeuse, l’image d’une femme marchant dans les rues de Tokyo a seulement convaincu 32 % des participants, tandis qu’une mise en scène de l’ancien président Donald Trump entouré de policiers a été jugée crédible par 29 % des répondants. L’image du pape François en doudoune blanche a le moins trompé, avec seulement 13 % des personnes ayant été dupées. Au total, 94 % des participants ont cru à la véracité d’au moins une des images présentées.

deepfakes-ia-test-images
94 % des personnes interrogées ont jugé qu’une de ces images était réelle. © Ifop/Alucare

La détection et la perception des manipulations de l’IA par les Français

En seulement quelques années, les outils d’intelligence artificielle ont accompli des progrès remarquables, permettant de créer des images et des vidéos de plus en plus réalistes.

90 % des Français souhaitent une mention de l’origine artificielle d’un contenu.

Cependant, certains détails peuvent encore révéler leur origine artificielle. Par exemple, pour 59 % des Français, des mouvements de lèvres peu naturels dans une vidéo sont facilement détectables. De même, un clignement des yeux insuffisant est considéré comme un indice par 33 % des personnes interrogées. D’autres aspects, tels que la difficulté à reproduire fidèlement les mains (32 %), des textures de peau peu convaincantes (29 %), des reflets incorrects sur les lunettes (25 %), des ombres imprécises autour des yeux (21 %) ou un manque de détails capillaires sur le visage (15 %), sont également perçus comme des signaux d’alerte, bien que minoritairement jugés faciles à identifier.

deepfakes-ia-indices
Quelques détails aident à détecter les contenus générés par IA, estiment les Français. © Ifop/Alucare

Parallèlement, les vidéos manipulées par IA présentant des personnes réelles dans des contextes fictifs se multiplient et soulèvent des inquiétudes. Des personnalités telles que Taylor Swift et des figures politiques comme Volodimir Zelensky ont été ciblées par de telles productions. Malgré la prévalence de ce phénomène, 69 % des Français affirment être au courant de l’existence des deepfakes, mais seulement 30 % comprennent pleinement ce concept. L’intérêt et la compréhension varient significativement avec l’âge et le sexe, les jeunes de 18 à 24 ans étant les plus informés (83 % conscients, 50 % avec une compréhension claire), contrairement aux plus de 65 ans (66 % conscients, 15 % avec une compréhension claire). Les hommes estiment également avoir une meilleure compréhension des deepfakes (37 %), comparativement aux femmes (24 %).

deepfakes-ia-notoriete
Les Français sont mieux sensibilisés aux deepfakes, mais il reste encore des efforts de prévention à mettre en place. © Ifop/Alucare

L’IA, des enjeux moraux mais également des menaces plus précises

L’enquête révèle également des perspectives intéressantes sur l’acceptation morale de l’utilisation de l’IA parmi les Français. Il est constaté que la majorité ne considère aucune des applications de l’IA présentées comme moralement acceptable. Cependant, certaines utilisations telles que la création de contenus artistiques et la retouche de photos avec des filtres sont relativement mieux accueillies, avec respectivement 42 % et 32 % des personnes interrogées les trouvant acceptables. Un aspect préoccupant de l’enquête montre que 30 % des participants approuvent l’utilisation de l’IA pour surveiller des comportements révolutionnaires ou dissidents, avec une acceptation légèrement plus élevée chez les jeunes de moins de 35 ans.

deepfakes-ia-morale
Peu d’usages de l’IA sont considérés comme moraux par les personnes sondées. © Ifop/Alucare

D’autre part, l’enquête met en lumière les inquiétudes liées aux deepfakes, notamment dans le contexte personnel ou électoral. Plus de la moitié des répondants (57 %) expriment leur crainte de devenir victimes de tels montages, crainte déjà matérialisée pour 4 % d’entre eux, et spécifiquement pour 13 % des individus de moins de 25 ans. En regardant vers l’avenir, une majorité (62 %) s’inquiète de l’impact potentiel des deepfakes sur l’élection présidentielle de 2027, soulignant une divergence d’opinion notable entre les tranches d’âge, les jeunes étant moins préoccupés par cette perspective que leurs aînés.

voirenimages.net vous produit ce texte qui aborde le thème «  ». Le but de voirenimages.net étant de rassembler en ligne des données sur le sujet de puis les diffuser en essayant de répondre du mieux possible aux interrogations que tout le monde se pose. Cet article se veut reconstitué de la façon la plus correcte que possible. Si jamais vous projetez d’apporter quelques précisions autour du sujet «  », vous avez la possibilité de d’échanger avec notre rédaction. Dans les prochaines heures on rendra accessibles à tout le monde d’autres annonces autour du sujet «  ». Alors, consultez régulièrement notre blog.