Première semaine du mois de la sensibilisation en cybersécurité 2025

Thématique de la semaine du 6 octobre ; L’art de l’imposture numérique : l’intelligence artificielle et l’usurpation d’identité

Au cours des dernières années, l’intelligence artificielle (IA) a connu un essor considérable, notamment grâce aux progrès des algorithmes de traitement automatique du langage naturel et des technologies de génération de contenu (voix, images et vidéos synthétiques).

Si ces avancées offrent des applications positives dans des domaines variés comme la santé, la recherche et la productivité, elles introduisent également de nouveaux vecteurs de menace pour la cybersécurité.

Parmi ces risques émergents, l’un des plus préoccupants est celui de l’imposture numérique : l’utilisation de technologies d’IA pour usurper l’identité d’un individu dans le but de manipuler, tromper ou extorquer.

Quels sont les formes contemporaines d’imposture numérique ?

L’imposture numérique n’est plus une simple fraude par courriel mal écrit. Aujourd’hui, elle s’appuie sur des technologies de pointe qui rendent les attaques beaucoup plus convaincantes et difficiles à repérer. Parmi les plus préoccupantes, on retrouve :

Le clonage vocal (deepfake audio)

Avec seulement quelques secondes d’un enregistrement, des logiciels de synthèse vocale peuvent reproduire la voix d’une personne avec une précision étonnante : timbre, intonation, rythme. Ces imitations servent souvent à monter de faux appels téléphoniques où un employé croit parler à son supérieur. La voix “du patron” exige alors un transfert d’argent ou une action urgente, créant une forte pression psychologique.

La génération automatisée de texte

Les modèles de langage (LLMs) produisent des courriels fluides, cohérents et adaptés au contexte. Contrairement aux messages frauduleux d’autrefois, truffés de fautes ou d’incohérences, ces courriels atteignent désormais un niveau quasi professionnel. Certains imitent même le style habituel d’un collègue ou d’un fournisseur, rendant leur détection particulièrement ardue.

Les faux profils numériques

Grâce à l’IA, il est possible de créer des photographies ultra-réalistes de visages humains qui n’existent pas. Ces images, combinées à des biographies inventées, alimentent des profils frauduleux sur LinkedIn ou d’autres réseaux. Leur objectif : gagner la confiance, infiltrer des cercles professionnels ou soutirer des informations sensibles.

Pourquoi l’IA renforce l’efficacité des attaques

L’intégration de l’intelligence artificielle aux techniques de fraude change profondément la donne. Trois facteurs principaux expliquent pourquoi les attaques sont aujourd’hui plus convaincantes et plus difficiles à contrer.

1. Une crédibilité renforcée

Les indices qui trahissaient jadis les tentatives de fraude, comme les fautes d’orthographe, les formulations maladroites ou les enregistrements de mauvaise qualité, tendent à disparaître. Les contenus générés par IA sont souvent impeccables sur le plan formel et stylistique, ce qui réduit fortement les signaux d’alerte habituels.

2. Automatisation à grande échelle et personnalisation fine

L’IA permet de produire rapidement des milliers de messages, chacun adapté au profil et au contexte du destinataire. En exploitant des informations publiques comme les profils sur les réseaux sociaux, les publications professionnelles ou les organigrammes, un attaquant peut personnaliser ses messages de manière très précise, ce qui les rend plus crédibles et plus persuasifs.

3. Une accessibilité technologique accrue

Les outils de clonage vocal, de génération de texte ou de création d’images synthétiques sont aujourd’hui largement disponibles et souvent peu coûteux. La barrière technique qui, autrefois, limitait ces usages aux acteurs les mieux équipés n’existe pratiquement plus, ce qui démocratise l’accès à ces méthodes et augmente les risques pour les organisations.

S’adapter à une nouvelle réalité

Pour contrer ce phénomène, les organisations doivent adapter leurs pratiques sur plusieurs plans. D’abord, il est essentiel de renforcer les mécanismes de vérification, en instaurant des procédures de double validation pour les transactions financières et en confirmant hors ligne toute demande inhabituelle. Ensuite, la formation des employés doit évoluer vers une véritable pensée critique numérique : plutôt que de se limiter à la détection d’indices techniques tels que des fautes de langue ou des adresses suspectes, il s’agit désormais d’apprendre à questionner la plausibilité et le contexte d’une demande. Enfin, les outils technologiques doivent également progresser. Les solutions de cybersécurité intègrent de plus en plus des capacités d’analyse des métadonnées, des empreintes acoustiques ou encore des incohérences comportementales, afin de mieux repérer les contenus générés artificiellement.

Conclusion

L’imposture numérique par IA ne représente pas simplement une évolution des fraudes traditionnelles, mais bien une rupture profonde dans notre rapport à la confiance et à l’information. La capacité de produire des contenus indiscernables du réel bouleverse les repères sur lesquels reposait jusqu’ici la vigilance numérique.

Dans cette nouvelle réalité, la technologie à elle seule ne suffit plus. Les outils de détection automatisée demeurent essentiels, mais ils ne peuvent remplacer le jugement humain. La véritable ligne de défense repose désormais sur la vigilance des utilisateurs, leur capacité à questionner, à douter et à valider avant d’agir.

La sécurité devient ainsi une responsabilité partagée : celle de chaque employé, gestionnaire ou partenaire, qui contribue par ses réflexes et sa prudence à la résilience collective de l’organisation. En somme, faire face à l’imposture numérique, c’est autant un défi technologique qu’un engagement humain.

_____________________________________

Pour les curieux : des cas bien réels

L’imposture numérique ne relève plus de la science-fiction : elle s’invite désormais dans notre quotidien. Ces dernières années, plusieurs histoires bien réelles ont fait les manchettes — des employés piégés par des vidéoconférences truquées, des voix clonées réclamant des virements urgents, ou encore de faux profils LinkedIn utilisés pour infiltrer des entreprises.

Ces cas, documentés par de grands médias internationaux, montrent à quel point les outils d’intelligence artificielle peuvent être détournés pour manipuler et tromper. Comprendre comment ces incidents se produisent, c’est aussi apprendre à mieux s’en protéger.

Clonage vocal : la voix d’une fille utilisée pour escroquer sa mère

En juillet 2025, une résidente de Floride a été victime d’une fraude rendue possible par l’intelligence artificielle. Elle a reçu un appel au cours duquel une voix identique à celle de sa fille, en pleurs, prétendait avoir causé un accident de voiture. Peu après, un individu se présentant comme un avocat lui a réclamé 15 000 USD pour sa mise en liberté provisoire.

Convaincue par l’authenticité émotionnelle de la voix clonée, la mère a transféré la somme demandée. Ce n’est qu’après avoir réussi à joindre sa véritable fille qu’elle a compris qu’il s’agissait d’une supercherie orchestrée par des fraudeurs utilisant des outils d’IA.

Cette arnaque illustre comment les technologies de clonage vocal peuvent être exploitées pour manipuler les émotions et contourner la vigilance, en particulier lors de situations d’urgence simulées.

Source de l’article original (en anglais) ; Malwarebytes

Réunion falsifiée : une fraude à plusieurs millions grâce à l’IA

En février 2024, un employé du bureau de l’entreprise d’ingénierie britannique Arup, à Hong Kong, a été victime d’une fraude sophistiquée orchestrée à l’aide de technologies de deepfake.
Les fraudeurs ont organisé une fausse vidéoconférence au cours de laquelle les visages et les voix de plusieurs dirigeants de l’entreprise avaient été recréés artificiellement à l’aide d’intelligence artificielle.

Convaincu d’assister à une réunion légitime, l’employé a suivi les instructions reçues pendant l’appel et a procédé à une série de 15 transferts bancaires, totalisant près de 200 millions de dollars de Hong Kong (environ 25 millions de dollars américains). Ce n’est qu’après coup, en contactant le siège social, que la supercherie a été découverte.

Cette fraude spectaculaire démontre comment les deepfakes peuvent être utilisés pour créer un contexte de confiance trompeur, en reproduisant avec réalisme l’apparence et la voix de personnes connues afin de manipuler les victimes.

Source de l’artlcle original (en anglais) ; World Economic Forum