Deepfake et intelligence artificielle : les nouvelles arnaques qui arrivent en Suisse

·8 min de lecture

L'intelligence artificielle au service des escrocs

L'intelligence artificielle (IA) a fait d'énormes progrès ces dernières années. Malheureusement, les escrocs l'utilisent désormais pour rendre leurs arnaques encore plus convaincantes. Le terme "deepfake" désigne des images, des vidéos ou des enregistrements audio créés ou modifiés par l'IA pour sembler réels.

En Suisse, le Centre national pour la cybersécurité (NCSC) a commencé à recevoir des signalements d'arnaques utilisant des voix clonées et de fausses vidéos. Cette menace est encore récente, mais elle se développe rapidement.

Qu'est-ce qu'un deepfake ?

Un deepfake, c'est quand un ordinateur imite quelqu'un de manière très réaliste :

  • Voix clonée** — L'IA peut reproduire la voix de quelqu'un à partir de quelques secondes d'enregistrement (trouvées sur les réseaux sociaux, par exemple)
  • Fausse vidéo** — L'IA peut créer une vidéo où une personne semble dire des choses qu'elle n'a jamais dites
  • Fausse photo** — L'IA peut générer des photos réalistes de personnes qui n'existent pas

Les arnaques par deepfake qui existent déjà

L'appel du "petit-fils" avec sa vraie voix

L'arnaque au faux neveu existe depuis longtemps, mais l'IA la rend bien plus dangereuse. Les escrocs peuvent désormais utiliser un enregistrement de la voix de votre petit-fils — récupéré sur Instagram, TikTok ou Facebook — pour vous appeler avec une voix qui semble être exactement la sienne. "Grand-maman, c'est moi, j'ai besoin d'aide !"

La fausse vidéo du conseiller bancaire

Vous recevez un appel vidéo de votre "conseiller bancaire" qui vous demande de confirmer une opération urgente. Le visage et la voix semblent réels, mais c'est un deepfake.

L'email du patron (arnaque au président)

Dans les entreprises, l'IA est utilisée pour imiter la voix du directeur et ordonner des virements urgents. Cette technique a déjà causé des pertes de millions de francs dans le monde.

Les faux témoignages vidéo

Des vidéos montrent de fausses célébrités suisses (présentateurs TV, politiciens) vantant des investissements miraculeux en crypto-monnaies ou des produits de santé "révolutionnaires".

Comment reconnaître un deepfake ?

C'est de plus en plus difficile, mais voici des indices :

  • Le contexte est suspect** — Votre proche vous appelle d'un numéro inconnu pour demander de l'argent en urgence
  • Petits détails visuels** — Dans les vidéos, regardez les yeux (clignement irrégulier), les bords du visage (flou), les mains (souvent mal reproduites)
  • La voix est légèrement robotique** — Des pauses inhabituelles, un ton un peu plat, des intonations qui ne sonnent pas tout à fait naturel
  • La personne évite les questions précises** — Un deepfake audio ne peut pas improviser sur des souvenirs personnels
  • La qualité de la connexion** — Les escrocs invoqueront une "mauvaise connexion" pour justifier les imperfections

Comment vous protéger étape par étape

  • Définissez un mot de passe familial** — Un mot ou une phrase secrète que seuls les vrais membres de votre famille connaissent. Si quelqu'un vous appelle en urgence, demandez-lui le mot de passe
  • Vérifiez par un autre canal** — Si votre petit-fils vous appelle d'un nouveau numéro, raccrochez et rappelez-le sur son numéro habituel, ou envoyez-lui un SMS
  • Méfiez-vous des demandes urgentes d'argent** — Quelle que soit la qualité de la voix, la règle reste la même : ne jamais envoyer d'argent dans l'urgence
  • Limitez vos publications en ligne** — Moins les escrocs ont accès à votre voix et vos photos, plus il est difficile de créer un deepfake
  • Ne faites pas confiance aux vidéos** de célébrités qui promeuvent des investissements ou des produits — Vérifiez toujours sur le site officiel de la personne

Ce que fait la Suisse

La Suisse prend cette menace au sérieux :

  • Le **NCSC** surveille activement les nouvelles formes de cybermenaces liées à l'IA
  • La **police fédérale (fedpol)** collabore avec Europol sur les fraudes par deepfake
  • Le **Parlement** discute d'un renforcement du cadre légal contre l'utilisation malveillante de l'IA

Numéros utiles en Suisse

  • Police** : 117
  • NCSC** (signaler une cyberarnaque) : www.ncsc.admin.ch
  • Pro Senectute** : 0848 000 800
  • Prévention suisse de la criminalité** : www.skppsc.ch
**Le conseil le plus important :** La technologie évolue, mais la meilleure protection reste le bon sens. Si quelqu'un vous demande de l'argent en urgence — même avec une voix familière — raccrochez et vérifiez par un autre moyen. Un vrai proche comprendra toujours que vous preniez le temps de vérifier.

Vous avez été victime ?

Signalez l'arnaque à la police et au Centre national des fraudes.

Signaler maintenant
← Retour aux articles