À l’approche du jour des élections, la menace de désinformation est plus grande que jamais. Les chercheurs dans le domaine de la désinformation sont particulièrement préoccupés par l’utilisation abusive potentielle de l’intelligence artificielle (IA) et de la technologie des deepfakes.
Les deepfakes sont des vidéos manipulées qui peuvent donner l’impression à n’importe qui de dire et de faire quelque chose qui présente un risque important.
Ahmer Arif, professeur adjoint à la School of Information de l’Université du Texas à Austin, explique que les élections créent une « tempête parfaite » pour la désinformation. Arif affirme que pendant les périodes de stress élevé, les mauvais acteurs peuvent facilement exploiter l’incertitude et la méfiance du public.
“J’ai fait beaucoup de travail technique sur la façon dont ces choses se propagent”, a déclaré Arif. « D’une certaine manière, la pandémie et même les élections peuvent être considérées comme ce genre de situation de crise. C’est comme cette période où il y a beaucoup d’incertitude et d’anxiété. Et quand cela arrive, les rumeurs se répandent naturellement. C’est ainsi que les humains tentent de faire face à ce genre d’incertitude et d’établir un sentiment de contrôle.
Un rapport du Département américain de la Sécurité intérieure fait écho aux sentiments d’Arif : l’évolution des deepfakes grâce à l’IA permet aux individus malveillants d’induire le public en erreur de plus en plus facilement, ce qui peut entraîner des conséquences désastreuses.
“L’utilisation malveillante de contenus synthétiques et de deepfakes constitue une menace pour toute entreprise, organisation ou entité gouvernementale qui compte sur la confiance du public – ou d’un client – pour accomplir sa mission”, indique le rapport. « Lorsque voir n’est plus croire, la confiance dans les entreprises, les organisations non gouvernementales, les forces de l’ordre et le système juridique s’érode, favorisant un environnement intrinsèquement instable et méfiant. »
En environ 30 minutes, Arif a pu créer une vidéo deepfake de Balogun. Le logiciel spécifique qu’il utilise lui permet de taper n’importe quoi pour faire dire n’importe quoi au « deepfake Balogun ».
“Les gens sont capables de produire ce genre de choses, car la facilité avec laquelle cela peut être produit a d’énormes implications pour la société”, prévient Arif.
Comment repérer les deepfakes
Malgré la sophistication des deepfakes, il existe des méthodes pour les identifier. Arif préconise la technique SIFT, développée par Mike Caufield de l’Université de Washington, qui comporte quatre étapes :
1. Arrêter – Faites une pause avant de partager. Prenez un moment pour réfléchir au matériel que vous regardez.
2. Enquêter sur la source – Vérifiez la crédibilité de la source.
3. Trouvez une meilleure couverture – Recherchez des rapports supplémentaires sur le sujet.
4. Retracer les réclamations et les citations jusqu’aux médias originaux – Vérifiez les origines de toutes les réclamations faites.
Cette approche encourage les individus à interagir de manière critique avec le contenu qu’ils consomment, ce qui facilite la navigation dans un paysage en proie à la désinformation.
Le rapport du DHS appelle également à des mesures réglementaires, notamment la création d’une nouvelle agence fédérale pour lutter contre les menaces liées aux contenus manipulés.
À l’approche des élections, il est crucial de rester informé et vigilant. En employant des techniques comme SIFT et en restant sceptique face aux affirmations sensationnelles, chacun peut contribuer à lutter contre la propagation de la désinformation.
Copyright 2024 par KPRC Click2Houston – Tous droits réservés.