
Se protéger des arnaques liées à l’intelligence artificielle et à l’hypertrucage
L’intelligence artificielle a ouvert de nouvelles avenues pour les fraudeurs, particulièrement sous la forme d’hypertrucage. En effet, l’intelligence artificielle peut aider l’escroc à produire rapidement des visuels et des messages convaincants par clonage de texte ou de voix. La plupart des tactiques frauduleuses existent depuis longtemps, mais les fraudeurs utilisent maintenant l’intelligence artificielle pour les rendre plus convaincantes et plus difficiles à détecter. Ils peuvent voler l’image de personnalités politiques ou de PDG célèbres dans le but de promouvoir des placements bidon, ou imiter la voix d’un ami ou d’un membre de la famille pour demander de l’argent.
En 2025, des fraudeurs ont créé des hypertrucages vidéo de personnages bien connus, notamment du premier ministre du Canada, pour promouvoir une fausse cryptomonnaie. Malheureusement, de nombreuses victimes se sont fait voler leur argent de cette manière. Au Nouveau-Brunswick, l’une des victimes a perdu 16 000 $!
Les différentes formes d’hypertrucage et l’intelligence artificielle générative
Communications écrites générées par l’intelligence artificielle
Les fraudeurs peuvent se servir de l’intelligence artificielle pour créer des courriels hameçons personnalisés ou se faire passer pour quelqu’un d’autre dans un clavardage.
Usurpation de la voix
L’hypertrucage audio, aussi appelé le « clonage vocal », est une technique qui utilise l’intelligence artificielle pour imiter la voix d’une personne. Les fraudeurs l’utilisent dans leurs appels d’hameçonnage vocal, comme lorsqu’ils veulent se faire passer pour un membre de la famille en détresse ou un agent de la banque.
Hypertrucage visuel ou audio
L’hypertrucage visuel ou audio est une image ou une vidéo générée par l’intelligence artificielle, qui remplace l’image d’une personne ou imite son apparence. Il peut s’agir d’une fausse photo de profil ou d’une vidéo où la personne semble dire des choses qu’elle n’a jamais dites.
L’utilisation de l’intelligence artificielle et de l’hypertrucage pour perpétrer des fraudes
Voici quelques-unes des méthodes les plus courantes fondées sur l’intelligence artificielle qui sont utilisées par les fraudeurs à l’heure actuelle.
Stratagème d’investissement
Dans ce type d’arnaque, l’escroc utilise l’hypertrucage afin de se faire passer pour un gourou financier ou une célébrité vantant les mérites d’un placement « à ne pas manquer ». La fausse vidéo ou le faux message audio tente de convaincre les gens d’investir dans de fausses cryptomonnaies, des actions frauduleuses ou des offres « exclusives ». Une fois qu’il a reçu l’argent, l’escroc disparait, laissant sa victime les mains vides.
Le fraudeur se sert également de l’intelligence artificielle pour créer de l’information fausse ou trompeuse afin de stimuler la demande et augmenter la valeur des actions. Une fois que le cours de l’action est gonflé, le fraudeur fait son profit en vendant ses propres actions. Lorsqu’il cesse de promouvoir les actions en question, leur valeur baisse généralement de façon considérable, laissant d’autres investisseurs essuyer des pertes importantes. Il s’agit d’une fraude de type « gonfler et larguer ».
Stratagème de rencontre
Dans ce type de stratagème, la personne rencontrée sur une application de rencontres ou dans les médias sociaux semble charmante, mais ses photos ou les discussions vidéo peuvent être truquées de manière ultraréaliste. Le fraudeur utilise l’intelligence artificielle pour remplacer le visage et imiter la voix de vraies personnes. À l’aide d’un faux compte, le fraudeur établit une relation en ligne sur plusieurs semaines ou plusieurs mois, puis il finira par demander de l’argent ou des renseignements financiers personnels.
Stratagème du besoin d’argent urgent
Le fraudeur peut se servir de l’intelligence artificielle pour imiter la voix ou l’apparence d’un membre de la famille. On appelle parfois ce stratagème l’« arnaque des grands-parents ». Le fraudeur vous appelle en se servant du clone vocal d’un proche et prétend avoir un besoin d’argent urgent.
Stratagème lié à la recommandation d’une célébrité (annonce de soutien)
Si vous visionnez la vidéo d’une célébrité qui fait la promotion d’un produit ou d’un service dont vous n’avez jamais entendu parler, méfiez-vous. Les fraudeurs peuvent créer de fausses annonces de soutien en utilisant l’image et la ressemblance d’une personne célèbre. L’image et l’apparence de représentants gouvernementaux peuvent également être usurpées pour inciter les victimes à investir leur argent dans des placements ou à fournir des renseignements de nature délicate.
Usurpation d’identité
L’hypertrucage à l’aide de l’intelligence artificielle alimente également de nouvelles formes d’usurpation d’identité. Par exemple, des criminels peuvent utiliser des données personnelles volées ainsi que de fausses images pour se faire passer pour quelqu’un d’autre et accéder à son argent. La technologie de l’hypertrucage peut confondre les systèmes de reconnaissance faciale ou de vérification par vidéo en présentant un faux visage réaliste dans une discussion vidéo en direct ou sur une photo d’identité. Le fraudeur peut également enregistrer la voix des gens (avec ou sans leur consentement) et utiliser ensuite l'intelligence vocale pour contourner les questions de sécurité ou les systèmes d'authentification vocale.
Comment se protéger des hypertrucages malicieux
Méfiez-vous des appels et des messages non sollicités
Ne vous fiez pas automatiquement à l’identification de l’appelant – les criminels peuvent truquer les numéros de téléphone pour qu’ils vous paraissent familiers. Restez sur vos gardes lorsque vous recevez un appel téléphonique ou appel vidéo inattendu provenant d’une personne que vous connaissez; si quelque chose semble anormal, vous devriez raccrocher et vous servir d’une autre méthode pour vérifier l’identité de l’appelant. Une autre bonne idée est d’avoir un « mot code » pour la famille. Cela pourrait être une question ou un mot de passe que seule votre famille connaît.
Ne révélez pas trop d’informations en ligne
Revoyez les paramètres de confidentialité de vos médias sociaux. Si vous rendez publics tous les détails de vos relations, de vos voyages et de votre travail, vous risquez de fournir aux fraudeurs les données dont ils ont besoin pour usurper votre identité ou celle d’une personne que vous connaissez. Faites preuve de discrétion et pensez à limiter le nombre de personnes qui peuvent voir le contenu de vos médias sociaux.
Pensez cybersécurité
Renseignez-vous sur les tactiques courantes d’hameçonnage. L’intelligence artificielle peut être utilisée pour rendre les arnaques plus convaincantes, mais la simple habitude de ne jamais ouvrir de liens suspects ni télécharger de fichiers inconnus demeure un excellent moyen de protéger votre argent
Prenez le temps de vérifier
Avant de vous rendre sur une plateforme de négociation ou de travailler avec un professionnel en placement, vérifiez toujours l’autorisation d’exercice de la plateforme ou du professionnel. Au Nouveau-Brunswick, les plateformes de négociation doivent être inscrites auprès de la Commission tandis que les conseillers en placement doivent être inscrits auprès des Autorités canadiennes en valeurs mobilières (ACVM). Communiquez avec la Commission si vous avez des questions concernant des possibilités de placement non sollicitées ou la légitimité des placements.
Renseignez-vous et faites une pause-réflexion avant de prendre une décision
La sensibilisation est un outil puissant. Renseignez-vous sur les différents types d’arnaques en consultant notre base de données sur les fraudes et les escroqueries.