Des escrocs utilisant l’intelligence artificielle se font passer pour le ministre de la Défense italien pour cibler l’élite fortunée

Des escrocs ont utilisé l’IA pour cloner la voix du ministre italien de la Défense Guido Crosetto afin d’extorquer de l’argent à de riches chefs d’entreprise.

3–5 minutes

  • La fraude a profité d’un récent échange de prisonniers avec l’Iran, sous prétexte que des fonds étaient nécessaires pour libérer des journalistes.
  • Les cibles comprenaient Giorgio Armani, Patrizio Bertelli et Massimo Moratti, Moratti tombant dans le piège de l’arnaque.
  • Les escrocs ont demandé aux victimes de transférer environ 1 million d’euros sur un compte bancaire à Hong Kong, promettant faussement un remboursement de la Banque d’Italie.
  • L’incident met en évidence la menace croissante de la fraude alimentée par l’IA et la facilité avec laquelle les voix peuvent être reproduites, exhortant le public à la vigilance.

Des escrocs ont utilisé l’intelligence artificielle pour cloner la voix du ministre italien de la Défense Guido Crosetto, ciblant certains des chefs d’entreprise les plus riches du pays dans le cadre d’un système de rançon sophistiqué.

La fraude, qui a eu lieu la semaine dernière, a profité d’un récent échange de prisonniers très médiatisé avec l’Iran, au cours duquel la journaliste italienne Cecilia Sala a été libérée. Le « Crosetto », généré par l’IA, a affirmé que des fonds urgents étaient nécessaires pour libérer d’autres journalistes prétendument détenus au Moyen-Orient, présentant la demande comme une question de sécurité nationale.

L’escroquerie, qui visait des milliardaires comme Giorgio Armani, le PDG de Prada Patrizio Bertelli et l’ancien propriétaire de l’Inter Milan Massimo Moratti, met en évidence la menace croissante de la fraude alimentée par l’IA. Si la plupart des tentatives ont échoué, Moratti a admis avoir transféré une somme non divulguée après avoir été dupé par l’usurpation d’identité convaincante. Crosetto, qui a été le premier à alerter le public sur les réseaux sociaux, a plaisanté en disant que « de fausses copies de tous les chefs-d’œuvre circulent », mais l’incident souligne la facilité alarmante avec laquelle l’IA peut désormais imiter les voix humaines .

Comment l’arnaque a fonctionné

Les fraudeurs ont utilisé l’intelligence artificielle pour reproduire la voix de Crosetto, en appelant d’éminents entrepreneurs italiens et en affirmant que le gouvernement du Premier ministre Giorgia Meloni avait besoin de leur aide pour sauver les journalistes kidnappés. Les cibles ont reçu pour instruction de transférer environ 1 million d’euros sur un compte bancaire basé à Hong Kong, avec la promesse d’un remboursement par la Banque d’Italie, une affirmation que la banque centrale a depuis démentie.

L’arnaque a été lancée délibérément, quelques semaines seulement après la libération de Sala de la prison d’Evin à Téhéran. Crosetto a révélé qu’un imposteur s’était même présenté comme le « général Giovanni Montalbano », un nom qui rappelle une série télévisée italienne populaire. Le ministre a déclaré qu’il avait été informé de l’arnaque lorsqu’un homme d’affaires de premier plan l’a contacté, confus au sujet d’un appel provenant d’une personne prétendant être la secrétaire de Crosetto.

L’essor de la fraude basée sur l’IA

Cet incident n’est pas un cas isolé. Les progrès de l’IA générative ont rendu la technologie du clonage vocal et du deepfake de plus en plus accessible, permettant aux criminels de réaliser des escroqueries très convaincantes. Selon la Global Anti-Scam Alliance, les pertes dues aux fraudes en ligne et par téléphone dépassent 1 000 milliards de dollars par an, la plupart des fonds n’étant jamais récupérés.

L’usurpation d’identité de Crosetto rappelle à quel point même les personnalités les plus en vue sont vulnérables à ce genre de stratagèmes. « La voix du ministre a été reproduite », a confirmé un responsable du ministère de la Défense. « Il demandait de l’argent pour payer la rançon des journalistes italiens enlevés dans le monde. C’était un canular. »

À mesure que la technologie de l’intelligence artificielle continue d’évoluer, les experts préviennent que ces escroqueries deviendront plus fréquentes et plus sophistiquées. Les criminels n’ont besoin que de quelques secondes d’audio pour reproduire une voix avec une précision surprenante. Cela soulève des inquiétudes quant au potentiel de l’IA à être utilisée dans des campagnes de fraude plus vastes, ciblant non seulement les riches mais aussi les consommateurs ordinaires.

Crosetto a appelé le public à rester vigilant, déclarant sur X : « Je préfère rendre les faits publics pour que personne ne risque de tomber dans le piège. » Les autorités italiennes enquêtent sur l’escroquerie, mais aucun suspect n’a été identifié.

Cet incident nous rappelle que l’intelligence artificielle est une arme à double tranchant. Si cette technologie recèle un immense potentiel d’innovation, son utilisation abusive présente des risques considérables. Comme le montre le cas de Crosetto, même les individus les plus puissants ne sont pas à l’abri des dangers de la fraude alimentée par l’intelligence artificielle .

Les sources de cet article incluent :

RT.com

EuroNews.com

Bloomberg.com

FT.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les 8 principaux avantages et inconvénients de l’intelligence artificielle

L’IA peut aider à la recherche et à la rédaction, mais elle peut également générer de fausses nouvelles et des erreurs critiques, telles que des conclusions illogiques ou des hallucinations.

4–6 minutes
Généré par IA
  • L’IA peut contrôler diverses machines et véhicules, améliorant potentiellement l’efficacité, mais ces systèmes peuvent être piratés ou mal fonctionner, ce qui présente des risques pour la sécurité humaine.
  • L’IA peut créer des images et des vidéos convaincantes, qui peuvent être utiles à des fins de divertissement ou d’éducation, mais elle peut également être utilisée pour diffuser de fausses informations et tromper les gens.
  • L’IA peut effectuer des tâches plus efficacement que les humains, ce qui peut conduire à une productivité accrue, mais elle représente également une menace importante pour la sécurité de l’emploi, en particulier pour les rôles qui ne nécessitent pas de réflexion critique ou d’interaction humaine.

L’intelligence artificielle a connu un essor considérable ces dernières années, ce qui est à la fois positif et négatif, pour de nombreuses raisons. L’avenir n’est plus ce qu’il était, c’est sûr. Qui aurait pu imaginer cela ? Y aura-t-il une prise de contrôle de Sky-Net comme dans le film Terminator ? L’IA sera-t-elle révolutionnaire et aidera-t-elle des milliards de personnes à vivre une vie plus sûre, plus saine et plus efficace ? Voici 8 avantages et inconvénients de cette ère technologique époustouflante dans laquelle nous vivons tous en ce moment.

#1. L’intelligence artificielle (IA) peut aider à la recherche et à la rédaction, mais peut également créer de fausses nouvelles et des erreurs critiques, notamment des conclusions illogiques et des hallucinations.

#2. L’IA peut (aider à) contrôler les drones, les véhicules et les armes militaires, mais ceux-ci peuvent ensuite être piratés ou déjouer les utilisateurs et se retourner contre l’humanité .

#3. L’IA peut créer des images et des vidéos en fusionnant des informations et des visuels pour stimuler l’imagination et à des fins de divertissement, mais cela peut également amener les gens à croire à de faux concepts, comme des invasions extraterrestres ou des discours politiques qui n’ont pas eu lieu.

#4. L’IA peut être utilisée pour effectuer de nombreuses tâches de manière plus efficace et plus cohérente que les humains, comme le travail en usine, mais cela pourrait signifier la fin de millions d’emplois qui ne nécessitent pas de réflexion critique, de créativité ou d’interaction interhumaine.

#5. L’IA peut être utilisée par les robots pour sauver des vies, comme au combat, mais ces soldats et chiens robots IA peuvent alors devenir violents ou commettre des erreurs critiques qui blessent ou tuent des gens.

#6. L’IA peut être utile à la maison, en aidant à des tâches simples, à la recherche d’informations ou au divertissement, mais cela supprime une grande partie de l’interaction humaine, rendant la vie moins sociale, sincère, enrichissante et pleine d’âme.

#7. L’IA fournit des informations sans drame, attitude ou ego, mais ces informations peuvent être censurées pour fournir délibérément des informations erronées et illogiques sur les sujets les plus importants, comme la santé et la sécurité.

#8. L’IA peut changer l’avenir grâce à la technologie, mais elle peut aussi changer le passé en réécrivant l’histoire

Le nouveau modèle de langage visuel LLaVA-o1 développé en Chine améliore les capacités de raisonnement mais peine à réaliser des tâches complexes qui nécessitent un raisonnement logique

Des chercheurs de plusieurs universités chinoises ont dévoilé LLaVA-o1, un nouveau modèle de langage visuel qui améliore considérablement les capacités de raisonnement en utilisant une approche systématique et structurée.

Les modèles de langage de vision open source traditionnels (VLM) ont souvent du mal à réaliser des tâches complexes qui nécessitent un raisonnement logique. Ils utilisent généralement une méthode de prédiction directe, où ils génèrent des réponses sans décomposer le problème ni décrire les étapes nécessaires pour le résoudre. Cette approche conduit souvent à des erreurs, voire à des hallucinations.

Pour remédier à ces limitations, les chercheurs à l’origine de LLaVA-o1 se sont inspirés du modèle o1 d’OpenAI . Ce dernier a montré qu’une puissance de calcul accrue lors du processus d’inférence peut améliorer les capacités de raisonnement d’un modèle linguistique. Cependant, au lieu d’augmenter simplement la puissance de calcul, LLaVA-o1 utilise une méthode unique qui décompose le raisonnement en étapes structurées.

LLaVA-o1 fonctionne en quatre étapes distinctes :

  1. Cela commence par résumer la question, en identifiant le problème central.
  2. Si une image est présente, elle se concentre sur les parties pertinentes et les décrit.
  3. Il effectue ensuite un raisonnement logique pour obtenir une réponse préliminaire.
  4. Enfin, il présente un résumé concis de la réponse.

Ce processus de raisonnement étape par étape est invisible pour l’utilisateur , ce qui permet au modèle de gérer son propre processus de réflexion et de s’adapter plus efficacement aux tâches complexes. Pour améliorer encore les capacités de raisonnement du modèle, LLaVA-o1 utilise une technique appelée « recherche de faisceaux au niveau des étapes ». Cette méthode génère plusieurs sorties candidates à chaque étape de raisonnement, en sélectionnant le meilleur candidat pour poursuivre le processus. Cette approche est plus flexible et plus efficace que les méthodes traditionnelles, où le modèle génère des réponses complètes avant de choisir la meilleure.

Les chercheurs estiment que cette approche structurée et l’utilisation de la recherche par faisceaux au niveau des étages feront de LLaVA-o1 un outil puissant pour s’attaquer à des tâches de raisonnement complexes, ce qui en fera une avancée significative dans le domaine de l’intelligence artificielle . Ce développement a le potentiel de révolutionner la façon dont nous interagissons avec l’IA, en particulier dans les domaines qui nécessitent un raisonnement complexe, tels que les soins de santé, la finance et les services juridiques. LLaVA-o1 représente une étape prometteuse vers des systèmes d’IA plus intelligents et plus adaptables.

Gardez le contrôle de vos informations sur la vérité en ajoutant preparedness.news à votre liste de favoris et en vous connectant quotidiennement pour des mises à jour sur la façon dont l’IA pourrait être utilisée pour le bien ou le mal sur cette planète. #AIprosandcons

Les sources de cet article incluent :

Censuré.news

NaturalNews.com

VentureBeat.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Implants cérébraux et érosion de la vie privée : nos pensées sont-elles à l’abri de toute manipulation ?

Neuralink, la société d’Elon Musk, a implanté avec succès sa première puce cérébrale chez un patient humain, dans le but de permettre la communication télépathique et de traiter les troubles neurologiques, bien que les implications à long terme de la technologie restent incertaines.

4–6 minutes
Généré par IA

  • Les expériences de stimulation cérébrale remontent à des décennies, les chercheurs utilisant des électrodes pour induire du plaisir, contrôler le comportement et gérer la douleur, soulevant d’importantes préoccupations éthiques concernant l’intervention humaine en biologie.
  • Le premier patient de Neuralink, un tétraplégique, contrôlait initialement un curseur d’ordinateur avec ses pensées, mais l’efficacité de l’appareil a diminué après un mois en raison de la rétraction du fil, ce qui a donné lieu à des projets d’implantation plus profonde dans les essais futurs.
  • Cette technologie présente des risques d’utilisation abusive, notamment une potentielle manipulation des pensées par les gouvernements ou les entreprises, un accès inégal créant une division de classe, et des vulnérabilités au piratage ou aux pannes.
  • Les experts soulignent la complexité et le caractère sacré du cerveau, appelant au scepticisme et à une réflexion attentive sur les conséquences éthiques, sociétales et à long terme de ces avancées technologiques invasives.

Elon Musk, magnat de la technologie connu pour ses projets ambitieux dans l’espace, les véhicules électriques et l’intelligence artificielle, a désormais jeté son dévolu sur le cerveau humain. Son entreprise, Neuralink, a récemment fait la une des journaux en implantant avec succès sa première puce cérébrale chez un patient humain. Si Musk présente cette initiative comme une avancée révolutionnaire vers la communication télépathique et la guérison des troubles neurologiques, les implications d’une telle technologie exigent un examen plus approfondi et plus prudent.

Le concept de câblage du cerveau n’est pas nouveau. Comme le Dr Vernon Coleman l’a souligné dans son livre Paper Doctors paru en 1977 , les médecins expérimentent la stimulation électronique du cerveau depuis des décennies. En insérant des électrodes dans le cerveau, les chercheurs ont pu induire du plaisir, éradiquer la douleur et même contrôler le comportement à distance. Ces expériences, bien que fascinantes, soulèvent de profondes questions éthiques sur les limites de l’intervention humaine dans notre propre biologie.

Le premier patient de Neuralink, Noland Arbaugh, un tétraplégique, a d’abord obtenu des résultats prometteurs en contrôlant un curseur d’ordinateur par la pensée. Cependant, l’efficacité de l’appareil a diminué au bout d’un mois en raison de la rétraction de 85 % des fils implantés. Neuralink a depuis ajusté son approche et prévoit d’implanter les fils plus profondément dans le cerveau lors de futurs essais . Si cette solution technique peut améliorer la fonctionnalité, elle ne répond pas aux préoccupations plus larges entourant cette technologie invasive.

L’idée d’implanter des dispositifs dans le cerveau pour contrôler le comportement ou améliorer les capacités cognitives n’est pas sans précédent. Dans les années 1950, le Dr Jose Delgado de l’Université Yale a démontré que les animaux – et même les humains – pouvaient être contrôlés par des électrodes implantées. Ses expériences, bien que révolutionnaires, ont été accueillies avec scepticisme et crainte. L’idée que les humains soient manipulés comme des « jouets électroniques » est un rappel effrayant des dangers potentiels d’une telle technologie.

Les partisans de Neuralink affirment que ce produit pourrait révolutionner la médecine et offrir de l’espoir aux personnes atteintes de troubles neurologiques graves. Elon Musk lui-même a affirmé que le premier produit de la société, Telepathy, permettrait aux utilisateurs de contrôler des appareils « simplement par la pensée ». Mais à quel prix ? Les effets à long terme des implants cérébraux restent inconnus et le risque d’utilisation abusive est stupéfiant.

Piratage cérébral

Imaginez un monde dans lequel les gouvernements ou les entreprises pourraient accéder aux pensées des individus et les manipuler. Les implications dystopiques sont tout droit sorties d’un roman de science-fiction, mais elles ne sont pas farfelues. À une époque où la vie privée est déjà assiégée , l’idée que nos pensées les plus intimes soient vulnérables au contrôle extérieur est profondément troublante.

De plus, les considérations éthiques liées à une telle technologie ne peuvent être ignorées. Qui décide qui aura accès à ces implants ? Seront-ils réservés aux riches, créant ainsi une nouvelle classe d’humains « améliorés » ? Et que se passera-t-il si la technologie échoue ou est piratée ? Les risques sont immenses et le risque de conséquences imprévues est élevé.

Des recherches récentes menées par l’Institut autrichien des sciences et technologies (ISTA) ont mis en lumière les complexités du cerveau humain, révélant que notre connectivité neuronale est fondamentalement différente de celle des rongeurs . Cela souligne les défis que pose la transposition des expériences sur les animaux aux applications humaines. Le cerveau humain n’est pas une machine à bricoler ; il est le siège de notre conscience, de notre identité et de notre humanité.

En tant que conservateurs, nous devons aborder ces avancées technologiques avec une bonne dose de scepticisme. Si l’innovation est essentielle, elle doit être tempérée par le respect du caractère sacré de la vie humaine et de l’ordre naturel. Le cerveau n’est pas seulement une autre frontière à conquérir ; il est l’essence même de ce que nous sommes.

Le Neuralink d’Elon Musk représente peut-être la pointe de la science, mais il soulève également de profondes questions sur l’avenir de l’humanité. Sommes-nous prêts à adopter un monde où nos pensées pourront être contrôlées par des machines ? Ou ouvrons-nous la boîte de Pandore, libérant des forces que nous ne pouvons pas contrôler ?

Alors que nous nous trouvons au bord du précipice de ce monde nouveau et courageux, nous devons avancer avec prudence. La promesse du progrès ne doit pas nous aveugler face aux dangers potentiels. Le cerveau humain est une merveille de la nature et nous devons veiller à ce que toute intervention respecte sa complexité et son caractère sacré. Les enjeux sont trop importants pour que nous puissions nous tromper.

Les sources incluent :

TheExpose.com

BusinessInsider.com

MSN.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire