Intelligence artificielle : rester maître du jeu

L’intelligence artificielle (IA) révolutionne notre quotidien et nos milieux de travail en permettant d’automatiser des tâches, de créer et d’analyser du contenu à une vitesse inégalée. Cependant, ces mêmes outils sont également utilisés par des fraudeurs.

Les escroqueries basées sur l’IA prennent diverses formes : voix clonées, vidéos truquées (hypertrucage, ou deepfake, en anglais), courriels générés automatiquement, etc. Certaines attaques visent à usurper l’identité d’un président-directeur général ou d’un collègue pour manipuler un employé ou détourner des fonds. D’autres cherchent simplement à provoquer une réaction rapide en jouant sur les émotions.

Le problème est que ces messages sont souvent très crédibles. Un ton familier, un langage professionnel, voire une voix connue, suffisent à tromper la vigilance, surtout lorsqu’un sentiment d’urgence est créé.

Méfiez-vous des fraudes « trop parfaites »

  • Un courriel impeccable, sans fautes et au ton idéal peut très bien avoir été généré par l’IA.

Un message professionnel n’est pas toujours fiable. Soyez prudents si vous détectez :

  • Une demande inhabituelle (payer, cliquer, partager un accès).
  • Un ton pressant ou urgent.
  • Une adresse de courriel ou un lien qui n’est pas tout à fait comme d’habitude.

Si quelque chose semble trop parfait ou urgent, prenez le temps de vérifier avant d’agir.

Cinq réflexes pour utiliser l’IA sans se faire piéger

  • Validez vos sources : un nom ou une photo ne suffisent pas. Confirmez toute demande inhabituelle par un autre moyen (appel, rencontre, texto à un numéro connu).
  • Protégez vos données : toute information partagée peut servir à créer de faux profils. Évitez d’entrer des données sensibles, même dans des outils d’IA.
  • Gardez le contrôle : un message qui pousse à agir rapidement ou à contourner une procédure doit éveiller votre méfiance. L’urgence est souvent un piège.
  • Restez vigilants face aux arnaques sophistiquées : l’IA rend les fraudes plus difficiles à détecter. Si tout paraît trop beau pour être vrai, approfondissez vos recherches.
  • Apprenez à repérer les hypertrucages : une vidéo ou une voix familière peuvent être fausses. Observez les détails, comme les expressions, la fluidité ou des incohérences visuelles et sonores.

Cas concrets : quand le faux semble vrai
Une fraude de 25 millions de dollars américains par visioconférence hypertruquée

En 2024, un employé du bureau d’Arup, à Hong Kong, a été piégé par une arnaque d’un genre inédit. Après avoir reçu un courriel apparemment envoyé par le directeur financier, il a été convié à une visioconférence « confidentielle ». À l’écran, il voyait et entendait ce qui semblait être plusieurs cadres dirigeants de l’entreprise, lesquels insistaient sur l’urgence de procéder à des virements. Or, les visages et les voix n’étaient que des imitations générées par l’IA. Persuadé de suivre des instructions légitimes, l’employé a effectué quinze transferts, pour un total de 25 millions de dollars américains, vers des comptes contrôlés par des fraudeurs.

Quand l’image de votre enfant devient une leçon de cybersécurité
Dans une campagne marquante lancée par Deutsche Telekom, une vidéo met en scène un enfant généré par l’IA, vieilli numériquement à partir de vraies images partagées en ligne par ses parents. Le message est fort : cet hypertrucage de leur fille s’adresse directement à eux dans une salle de cinéma, leur montrant à quel point il est facile d’exploiter des photos et des vidéos publiées en ligne. Une version anglaise et sous-titrée en français de cette vidéo est accessible en ligne (lien ci-dessous).

La cybersécurité : l’affaire de tous
La cybersécurité repose sur des gestes simples et réguliers. Chaque utilisateur est un maillon clé de la chaîne de sécurité. Adopter des réflexes prudents, poser des questions et signaler les comportements suspects contribue à protéger tous les utilisateurs. Protéger ses accès, c’est aussi renforcer la sécurité collective.

Pour en savoir plus :

Partage :
Facebook
Twitter
LinkedIn
Autres articles similaires :
2 décembre 2024
0
    0
    Votre panier
    Votre panier est videRetourner aux documents