Des escrocs ont utilisé l’IA pour cloner la voix du ministre italien de la Défense Guido Crosetto afin d’extorquer de l’argent à de riches chefs d’entreprise.

- La fraude a profité d’un récent échange de prisonniers avec l’Iran, sous prétexte que des fonds étaient nécessaires pour libérer des journalistes.
- Les cibles comprenaient Giorgio Armani, Patrizio Bertelli et Massimo Moratti, Moratti tombant dans le piège de l’arnaque.
- Les escrocs ont demandé aux victimes de transférer environ 1 million d’euros sur un compte bancaire à Hong Kong, promettant faussement un remboursement de la Banque d’Italie.
- L’incident met en évidence la menace croissante de la fraude alimentée par l’IA et la facilité avec laquelle les voix peuvent être reproduites, exhortant le public à la vigilance.
Des escrocs ont utilisé l’intelligence artificielle pour cloner la voix du ministre italien de la Défense Guido Crosetto, ciblant certains des chefs d’entreprise les plus riches du pays dans le cadre d’un système de rançon sophistiqué.
La fraude, qui a eu lieu la semaine dernière, a profité d’un récent échange de prisonniers très médiatisé avec l’Iran, au cours duquel la journaliste italienne Cecilia Sala a été libérée. Le « Crosetto », généré par l’IA, a affirmé que des fonds urgents étaient nécessaires pour libérer d’autres journalistes prétendument détenus au Moyen-Orient, présentant la demande comme une question de sécurité nationale.
L’escroquerie, qui visait des milliardaires comme Giorgio Armani, le PDG de Prada Patrizio Bertelli et l’ancien propriétaire de l’Inter Milan Massimo Moratti, met en évidence la menace croissante de la fraude alimentée par l’IA. Si la plupart des tentatives ont échoué, Moratti a admis avoir transféré une somme non divulguée après avoir été dupé par l’usurpation d’identité convaincante. Crosetto, qui a été le premier à alerter le public sur les réseaux sociaux, a plaisanté en disant que « de fausses copies de tous les chefs-d’œuvre circulent », mais l’incident souligne la facilité alarmante avec laquelle l’IA peut désormais imiter les voix humaines .
Comment l’arnaque a fonctionné
Les fraudeurs ont utilisé l’intelligence artificielle pour reproduire la voix de Crosetto, en appelant d’éminents entrepreneurs italiens et en affirmant que le gouvernement du Premier ministre Giorgia Meloni avait besoin de leur aide pour sauver les journalistes kidnappés. Les cibles ont reçu pour instruction de transférer environ 1 million d’euros sur un compte bancaire basé à Hong Kong, avec la promesse d’un remboursement par la Banque d’Italie, une affirmation que la banque centrale a depuis démentie.
L’arnaque a été lancée délibérément, quelques semaines seulement après la libération de Sala de la prison d’Evin à Téhéran. Crosetto a révélé qu’un imposteur s’était même présenté comme le « général Giovanni Montalbano », un nom qui rappelle une série télévisée italienne populaire. Le ministre a déclaré qu’il avait été informé de l’arnaque lorsqu’un homme d’affaires de premier plan l’a contacté, confus au sujet d’un appel provenant d’une personne prétendant être la secrétaire de Crosetto.
L’essor de la fraude basée sur l’IA
Cet incident n’est pas un cas isolé. Les progrès de l’IA générative ont rendu la technologie du clonage vocal et du deepfake de plus en plus accessible, permettant aux criminels de réaliser des escroqueries très convaincantes. Selon la Global Anti-Scam Alliance, les pertes dues aux fraudes en ligne et par téléphone dépassent 1 000 milliards de dollars par an, la plupart des fonds n’étant jamais récupérés.
L’usurpation d’identité de Crosetto rappelle à quel point même les personnalités les plus en vue sont vulnérables à ce genre de stratagèmes. « La voix du ministre a été reproduite », a confirmé un responsable du ministère de la Défense. « Il demandait de l’argent pour payer la rançon des journalistes italiens enlevés dans le monde. C’était un canular. »
À mesure que la technologie de l’intelligence artificielle continue d’évoluer, les experts préviennent que ces escroqueries deviendront plus fréquentes et plus sophistiquées. Les criminels n’ont besoin que de quelques secondes d’audio pour reproduire une voix avec une précision surprenante. Cela soulève des inquiétudes quant au potentiel de l’IA à être utilisée dans des campagnes de fraude plus vastes, ciblant non seulement les riches mais aussi les consommateurs ordinaires.
Crosetto a appelé le public à rester vigilant, déclarant sur X : « Je préfère rendre les faits publics pour que personne ne risque de tomber dans le piège. » Les autorités italiennes enquêtent sur l’escroquerie, mais aucun suspect n’a été identifié.
Cet incident nous rappelle que l’intelligence artificielle est une arme à double tranchant. Si cette technologie recèle un immense potentiel d’innovation, son utilisation abusive présente des risques considérables. Comme le montre le cas de Crosetto, même les individus les plus puissants ne sont pas à l’abri des dangers de la fraude alimentée par l’intelligence artificielle .
Les sources de cet article incluent :
Voir l’article original cliquez ci-dessous :























Laisser un commentaire