Des escrocs utilisant l’intelligence artificielle se font passer pour le ministre de la Défense italien pour cibler l’élite fortunée

Des escrocs ont utilisé l’IA pour cloner la voix du ministre italien de la Défense Guido Crosetto afin d’extorquer de l’argent à de riches chefs d’entreprise.

3–5 minutes

  • La fraude a profité d’un récent échange de prisonniers avec l’Iran, sous prétexte que des fonds étaient nécessaires pour libérer des journalistes.
  • Les cibles comprenaient Giorgio Armani, Patrizio Bertelli et Massimo Moratti, Moratti tombant dans le piège de l’arnaque.
  • Les escrocs ont demandé aux victimes de transférer environ 1 million d’euros sur un compte bancaire à Hong Kong, promettant faussement un remboursement de la Banque d’Italie.
  • L’incident met en évidence la menace croissante de la fraude alimentée par l’IA et la facilité avec laquelle les voix peuvent être reproduites, exhortant le public à la vigilance.

Des escrocs ont utilisé l’intelligence artificielle pour cloner la voix du ministre italien de la Défense Guido Crosetto, ciblant certains des chefs d’entreprise les plus riches du pays dans le cadre d’un système de rançon sophistiqué.

La fraude, qui a eu lieu la semaine dernière, a profité d’un récent échange de prisonniers très médiatisé avec l’Iran, au cours duquel la journaliste italienne Cecilia Sala a été libérée. Le « Crosetto », généré par l’IA, a affirmé que des fonds urgents étaient nécessaires pour libérer d’autres journalistes prétendument détenus au Moyen-Orient, présentant la demande comme une question de sécurité nationale.

L’escroquerie, qui visait des milliardaires comme Giorgio Armani, le PDG de Prada Patrizio Bertelli et l’ancien propriétaire de l’Inter Milan Massimo Moratti, met en évidence la menace croissante de la fraude alimentée par l’IA. Si la plupart des tentatives ont échoué, Moratti a admis avoir transféré une somme non divulguée après avoir été dupé par l’usurpation d’identité convaincante. Crosetto, qui a été le premier à alerter le public sur les réseaux sociaux, a plaisanté en disant que « de fausses copies de tous les chefs-d’œuvre circulent », mais l’incident souligne la facilité alarmante avec laquelle l’IA peut désormais imiter les voix humaines .

Comment l’arnaque a fonctionné

Les fraudeurs ont utilisé l’intelligence artificielle pour reproduire la voix de Crosetto, en appelant d’éminents entrepreneurs italiens et en affirmant que le gouvernement du Premier ministre Giorgia Meloni avait besoin de leur aide pour sauver les journalistes kidnappés. Les cibles ont reçu pour instruction de transférer environ 1 million d’euros sur un compte bancaire basé à Hong Kong, avec la promesse d’un remboursement par la Banque d’Italie, une affirmation que la banque centrale a depuis démentie.

L’arnaque a été lancée délibérément, quelques semaines seulement après la libération de Sala de la prison d’Evin à Téhéran. Crosetto a révélé qu’un imposteur s’était même présenté comme le « général Giovanni Montalbano », un nom qui rappelle une série télévisée italienne populaire. Le ministre a déclaré qu’il avait été informé de l’arnaque lorsqu’un homme d’affaires de premier plan l’a contacté, confus au sujet d’un appel provenant d’une personne prétendant être la secrétaire de Crosetto.

L’essor de la fraude basée sur l’IA

Cet incident n’est pas un cas isolé. Les progrès de l’IA générative ont rendu la technologie du clonage vocal et du deepfake de plus en plus accessible, permettant aux criminels de réaliser des escroqueries très convaincantes. Selon la Global Anti-Scam Alliance, les pertes dues aux fraudes en ligne et par téléphone dépassent 1 000 milliards de dollars par an, la plupart des fonds n’étant jamais récupérés.

L’usurpation d’identité de Crosetto rappelle à quel point même les personnalités les plus en vue sont vulnérables à ce genre de stratagèmes. « La voix du ministre a été reproduite », a confirmé un responsable du ministère de la Défense. « Il demandait de l’argent pour payer la rançon des journalistes italiens enlevés dans le monde. C’était un canular. »

À mesure que la technologie de l’intelligence artificielle continue d’évoluer, les experts préviennent que ces escroqueries deviendront plus fréquentes et plus sophistiquées. Les criminels n’ont besoin que de quelques secondes d’audio pour reproduire une voix avec une précision surprenante. Cela soulève des inquiétudes quant au potentiel de l’IA à être utilisée dans des campagnes de fraude plus vastes, ciblant non seulement les riches mais aussi les consommateurs ordinaires.

Crosetto a appelé le public à rester vigilant, déclarant sur X : « Je préfère rendre les faits publics pour que personne ne risque de tomber dans le piège. » Les autorités italiennes enquêtent sur l’escroquerie, mais aucun suspect n’a été identifié.

Cet incident nous rappelle que l’intelligence artificielle est une arme à double tranchant. Si cette technologie recèle un immense potentiel d’innovation, son utilisation abusive présente des risques considérables. Comme le montre le cas de Crosetto, même les individus les plus puissants ne sont pas à l’abri des dangers de la fraude alimentée par l’intelligence artificielle .

Les sources de cet article incluent :

RT.com

EuroNews.com

Bloomberg.com

FT.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Un milliardaire polonais entre en guerre contre Meta de Zuckerberg et remporte un procès pour « deepfake » qui pourrait avoir des répercussions sur la liberté d’expression

L’affaire, bien que limitée à la Pologne, pourrait avoir des implications sur les droits à la liberté d’expression, le développement de l’intelligence artificielle et la manière dont les deepfakes se développeront à l’avenir.

Le milliardaire polonais Rafał Brzoska est entré en guerre avec Meta de Mark Zuckerberg au sujet de l’utilisation de l’image de Brzoska dans divers deepfakes générés par l’IA, et dans son dernier message sur X, il déclare que « le tribunal lui a donné raison ».

Le milliardaire polonais a écrit que chaque deepfake de lui publié sur Meta entraînerait une amende pour le géant des réseaux sociaux. L’affaire, bien que limitée à la Pologne, pourrait avoir des implications sur les droits à la liberté d’expression, le développement de l’intelligence artificielle et la manière dont les deepfakes se développeront à l’avenir.

« Nous avons également demandé une garantie, afin que chaque deepfake ultérieur avec notre image entraîne une pénalité financière immédiate pour le propriétaire de Facebook ! Le tribunal nous a entièrement donné raison et nous a accordé une garantie pour la durée maximale possible, c’est-à-dire un an, et la procédure judiciaire se déroule déjà en parallèle », a-t-il écrit dans son message, qui comprenait également un message vidéo.

Omena Mensah, l’épouse de Brzoska, a également noté dans la vidéo que les faux messages et photos d’elle apparus sur la plateforme, y compris des photos retouchées de son visage battu, des violences présumées de son mari et même de fausses informations sur sa possession de drogue et une tentative de la tuer, ont été considérés comme une violation par les tribunaux polonais.

« Nous ne consentons pas à la propagation de la haine et de la désinformation. Comme vous pouvez le constater, chacun d’entre nous peut gagner contre les grandes entreprises qui en tirent d’énormes bénéfices financiers », a ajouté Mensah.

Avec l’essor de l’intelligence artificielle, les images générées par cette technologie ont inondé Internet, prenant souvent pour cible des célébrités et des politiciens. Ces photos sont souvent comiques et clairement fausses, même si elles ont un côté réaliste, mais d’autres sont très détaillées et trompeuses.

« Selon la décision du tribunal, chaque deepfake avec notre image impose une pénalité financière à Meta », a annoncé Brzoska.

Le propriétaire de l’entreprise polonaise de logistique InPost a également appelé tous les internautes à lui envoyer d’autres deepfakes de sa personne. Il a également demandé aux autres personnalités publiques qui ont subi des préjudices similaires de le contacter, lui et sa femme, car ils ont « un autre plan et une autre étape » dans cette affaire dans la lutte contre Meta, afin que le profit des crimes « ne soit pas honoré, du moins en Pologne ».

Jusqu’à présent, la plupart des plateformes de réseaux sociaux proposent des millions d’images de célébrités et de personnalités politiques générées par l’IA. Si des cas similaires se produisent, on peut se demander si de telles images seront autorisées à proliférer. Dans certains pays comme les États-Unis, les images générées par l’IA peuvent être protégées par les droits du Premier Amendement, mais la jurisprudence sur cette question est rare.

Dans d’autres pays, comme la Corée du Sud, les deepfakes d’IA ciblent également des personnalités non publiques. Des adolescents y créent des deepfakes de filles et de camarades de classe, qui ont fait la une des journaux nationaux et auraient provoqué une crise de santé mentale chez les personnes ciblées. Dans de tels cas, les personnes aux moyens financiers limités peuvent avoir moins de ressources pour poursuivre les opérateurs de réseaux sociaux en justice.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil