Pourquoi les réseaux neuronaux intelligents sont la prochaine génération de fraude
Réseaux neuronaux

En tant que comptable professionnel agréé, vous connaissez probablement toutes les plus récentes tactiques de fraudes financières et de vol d’identité. Vous faites possiblement également partie des sept millions de personnes qui ont visionné la vidéo de l’acteur et imitateur Bill Hader de passage à l’émission de David Letterman1- un chef-d’œuvre de l’hypertrucage transformant habilement Hader en Tom Cruise, puis en Seth Rogan avant qu’il ne redevienne lui-même, alternant ainsi entre les trois pendant plusieurs minutes. Depuis ce temps, l’hypertrucage a été utilisé dans des vidéos de discours politiques2, des films hollywoodiens3 et quelque 15 000 vidéos pornographiques4. Contrairement aux trucages de mauvaise qualité qui altèrent le contenu audio et vidéo pour générer un nouvel enregistrement que la majorité des gens reconnaîtront comme frauduleux ou ridicule (« dumbfake »), dans lequel les véritables déclarations sont modifiées, l’hypertrucage utilise les progrès de l’apprentissage automatique pour manipuler les expressions faciales d’un sujet ainsi que son langage, créant ainsi un contenu à la fois remarquablement crédible et totalement fictif. Cette année, la prolifération des hypertrucages à l’approche de l’élection présidentielle américaine a poussé Facebook à bannir ces vidéos sur sa plateforme.2

L’apparition des premiers hypertrucages remonte à deux ans, lorsqu’un utilisateur de Reddit sous un faux nom, s’est servi de technologies d’intelligence artificielle pour superposer les visages de femmes célèbres sur des corps dénudés dans des vidéos pornographiques. Cette application a rapidement gagné en popularité dans le monde cloisonné des médias sociaux.5

Aujourd’hui, les progrès rapides de l’apprentissage automatisé permettent aux ordinateurs de générer des hypertrucages. Les réseaux antagonistes génératifs sont les mécanismes permettant aux ordinateurs d’apprendre les uns des autres. Les images et les vidéos sont téléchargés dans un logiciel appelé un réseau neuronal qui génère des connexions statistiques entre des zones stratégiques, notamment la bouche et les yeux, sur la personne réelle et les aspects à truquer afin de créer des images uniques. Le logiciel rivalise avec une copie de lui-même qui agit comme un adversaire ayant comme travail de repérer les trucages. Le réseau neuronal continue de rejeter des images jusqu’à ce que son adversaire ordinateur ne puisse plus distinguer le vrai du faux. La vitesse exponentielle de l’apprentissage automatique signifie que les ordinateurs seront bientôt capables de créer des contenus truqués avec de minimes défauts, voire sans défauts détectables.3

Bonne machine

Comme toute nouvelle technologie, les hypertrucages comptent certains attributs positifs. Par exemple dans le monde du jeu vidéo, les joueuses sont souvent la cible d’abus en ligne. La technologie appelée audio skins leur permet de personnaliser la voix de leurs avatars, ce qui pourrait mieux protéger les femmes, bien que cette solution ne règle pas la source de l’abus, la misoginie.6 Hollywood utilise beaucoup les hypertrucages pour rajeunir les acteurs, même si leurs vieilles hanches révèlent toujours leur vrai âge.7

Les hypertrucages servent plutôt bien la tendance des suites de films et des prélogies en ramenant des personnages originaux et sauvent même la production si un personnage important tombe malade ou meurt pendant le tournage. À l’extérieur du divertissement, les hypertrucages ont été utilisés pour créer de nouvelles images IRM pour des formations médicales, pour recréer la voix et l’image de personnes décédées pour leurs proches et pour aider des gens atteints de sclérose latérale amyotrophique (SLA) à retrouver un meilleur contrôle de leur voix.8 En 2019, lors d’une campagne éducative et publicitaire mondiale sur la malaria mettant en vedette David Beckham, l’hypertrucage lui a permis de feindre qu’il s’exprimait en plusieurs langues afin d’atteindre plus de gens.

Mauvaise machine

Malheureusement, les mauvais acteurs ne vivent pas seulement à Hollywood. Les criminels utilisent la technologie des hypertrucages pour extorquer, exploiter et voler. Le nombre grandissant de transactions activées par la voix et les assistants virtuels dans les services financiers ont également fait augmenter drastiquement les fraudes vocales — pour lesquelles le fraudeur imite la voix d’un client pour accéder à ses données personnelles.6,11

Selon un récent sondage sur la cybersécurité, un des risques principaux est l’utilisation des technologies d’hypertrucages par les cybercriminels afin de manipuler les apparences et les voix de dirigeants d’entreprise et du gouvernement.12 Ceci pourrait inclure le sabotage de marques, la manipulation du prix des actions, la falsification de relevés et le partage de renseignements confidentiels.9  

Certains cas ont déjà été signalés, notamment des présidents d’entreprises ayant été dupés par des hypertrucages leur demandant de transférer d’importantes sommes dans les comptes de criminels. Les personnalités publiques sont relativement faciles à parodier, car leur voix et leur image apparaissent fréquemment dans les médias.13

Détection et protection : quelles sont les prochaines étapes?

Une approche défensive est de solidifier notre immunité collective par rapport aux hypertrucages à l’aide de l’éducation et de la formation, surtout si vous êtes un comptable professionnel agréé. Par exemple, apprendre à repérer les indices subtils comme les oscillations faciales ou les irrégularités dans les éclairages et les ombrages qui pourraient indiquer qu’il s’agit d’un contenu truqué.9 Toutefois, les progrès rapides de l’apprentissage automatique rendront éventuellement ces défenses obsolètes.14

Comme pour les marques luxueuses qui incorporent des codes ou d’autres balises dans leurs biens, les créateurs de contenu légitime pourraient employer des solutions comme les filigranes6 ou intégrer des techniques de cryptographie dans leur vidéo ou leur enregistrement audio qui pourraient signaler les modifications.8 Dans le domaine financier, utiliser la biométrie vocale serait un autre moyen d’authentifier une voix humaine.

Les lois sont une autre avenue de défense contre l'hypertrucage qui enfreint la vie privée ou les lois entourant les droits d’auteurs. Comme les hypertrucages ne sont pas des copies de contenu existant, il s’agit d’une zone grise juridique et dans certains cas, il pourrait être impossible de trouver et de poursuivre les organisations criminelles.

Rita Silvan, CIM, est auteure et rédactrice en finances personnelles et investissements. Elle est l’ancienne rédactrice en chef du magazine Elle Canada, une journaliste primée et une personnalité de la télé et des médias. Rita est rédactrice en chef de Golden Girl Finance (en anglais seulement), un magazine en ligne qui porte sur la réussite financière des femmes. Lorsqu'elle ne rédige pas de textes sur les finances, Rita explore les parcs de Toronto avec son caniche royal.

Rita Silvan est une porte-parole payée de Sonnet.
Les comptables et d’autres professionnels peuvent économiser davantage avec un rabais exclusif de Sonnet. https://www.youtube.com/watch?v=VWrhRBb-1Ig https://www.theglobeandmail.com/business/international-business/us-business/article-facebook-bans-deepfakes-in-fight-against-online-manipulation/ https://www.economist.com/the-economist-explains/2019/08/07/what-is-a-deepfake https://www.ft.com/content/9df280dc-e9dd-11e9-a240-3b065ef5fc55 https://www.nytimes.com/2019/11/24/technology/tech-companies-deepfakes.html https://qz.com/1620073/voice-skins-make-it-possible-to-change-your-voice-online-and-thats-scary/ https://www.theatlantic.com/entertainment/archive/2019/12/irishman-gemini-man-and-rise-de-aging/603130/ https://www.csis.org/analysis/trust-your-eyes-deepfakes-policy-brief https://timreview.ca/article/1282 https://www.wsj.com/articles/jpmorgan-cio-says-ai-holds-promise-for-helping-people-save-11576097646 https://www.barrons.com/articles/PR-CO-20191202-903397?tesla=y&tesla=y https://www.zdnet.com/article/forget-email-scammers-use-ceo-voice-deepfakes-to-con-workers-into-wiring-cash/ https://www.ft.com/content/4183b400-f960-11e9-98fd-4d6c20050229 https://www.torys.com/insights/publications/2019/05/a-short-take-on-deepfakes