Des robots humanoïdes seront utilisés dans l’usine Foxconn de Houston

Des robots humanoïdes devraient être déployés dans une usine Foxconn de Houston qui produira des serveurs pour le géant des puces Nvidia

En mars, le PDG de Nvidia, Jensen Huang, a prédit que les robots humanoïdes seraient largement utilisés dans la fabrication au cours des cinq prochaines années.

1–2 minutes
Crédit image : NurPhoto / Contributeur / Getty Images

Des robots humanoïdes devraient être déployés dans une usine Foxconn de Houston qui produira des serveurs pour le géant des puces Nvidia.

Le déploiement devrait être finalisé dans les prochains mois, et les deux entreprises visent une mise en service des robots d’ici le premier trimestre de l’année prochaine. Selon Reuters, cela « marquera une étape importante dans l’adoption de robots humanoïdes qui promettent de transformer les processus de fabrication ».

Foxconn a développé ses propres robots humanoïdes avec Nvidia et a également testé des robots fabriqués par la société chinoise UBTech.

À l’heure actuelle, on ne sait pas exactement quel type de robot humanoïde sera utilisé dans l’usine ni ce qu’il fera ; bien qu’il soit probable qu’il soit impliqué dans la production des serveurs d’IA GB3000 de Nvidia.



Foxconn a formé des robots à saisir et à placer des objets, à insérer des câbles et à effectuer des travaux d’assemblage, selon une présentation vidéo donnée par l’entreprise le mois dernier.

Lors d’un événement industriel à Taipei, le directeur général de l’unité robotique de Foxconn a déclaré que la société possédait au moins deux robots humanoïdes, l’un avec des jambes et l’autre avec une base à roues.

En mars, le PDG de Nvidia, Jensen Huang, a prédit que les robots humanoïdes seraient largement utilisés dans l’industrie manufacturière au cours des cinq prochaines années.

Des constructeurs automobiles comme Mercedes-Benz et BMW ont déjà testé des robots humanoïdes sur leurs chaînes de production, et Tesla développe ses propres modèles.

Le gouvernement chinois investit également massivement dans cette technologie.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Des escrocs utilisant l’intelligence artificielle se font passer pour le ministre de la Défense italien pour cibler l’élite fortunée

Des escrocs ont utilisé l’IA pour cloner la voix du ministre italien de la Défense Guido Crosetto afin d’extorquer de l’argent à de riches chefs d’entreprise.

3–5 minutes

  • La fraude a profité d’un récent échange de prisonniers avec l’Iran, sous prétexte que des fonds étaient nécessaires pour libérer des journalistes.
  • Les cibles comprenaient Giorgio Armani, Patrizio Bertelli et Massimo Moratti, Moratti tombant dans le piège de l’arnaque.
  • Les escrocs ont demandé aux victimes de transférer environ 1 million d’euros sur un compte bancaire à Hong Kong, promettant faussement un remboursement de la Banque d’Italie.
  • L’incident met en évidence la menace croissante de la fraude alimentée par l’IA et la facilité avec laquelle les voix peuvent être reproduites, exhortant le public à la vigilance.

Des escrocs ont utilisé l’intelligence artificielle pour cloner la voix du ministre italien de la Défense Guido Crosetto, ciblant certains des chefs d’entreprise les plus riches du pays dans le cadre d’un système de rançon sophistiqué.

La fraude, qui a eu lieu la semaine dernière, a profité d’un récent échange de prisonniers très médiatisé avec l’Iran, au cours duquel la journaliste italienne Cecilia Sala a été libérée. Le « Crosetto », généré par l’IA, a affirmé que des fonds urgents étaient nécessaires pour libérer d’autres journalistes prétendument détenus au Moyen-Orient, présentant la demande comme une question de sécurité nationale.

L’escroquerie, qui visait des milliardaires comme Giorgio Armani, le PDG de Prada Patrizio Bertelli et l’ancien propriétaire de l’Inter Milan Massimo Moratti, met en évidence la menace croissante de la fraude alimentée par l’IA. Si la plupart des tentatives ont échoué, Moratti a admis avoir transféré une somme non divulguée après avoir été dupé par l’usurpation d’identité convaincante. Crosetto, qui a été le premier à alerter le public sur les réseaux sociaux, a plaisanté en disant que « de fausses copies de tous les chefs-d’œuvre circulent », mais l’incident souligne la facilité alarmante avec laquelle l’IA peut désormais imiter les voix humaines .

Comment l’arnaque a fonctionné

Les fraudeurs ont utilisé l’intelligence artificielle pour reproduire la voix de Crosetto, en appelant d’éminents entrepreneurs italiens et en affirmant que le gouvernement du Premier ministre Giorgia Meloni avait besoin de leur aide pour sauver les journalistes kidnappés. Les cibles ont reçu pour instruction de transférer environ 1 million d’euros sur un compte bancaire basé à Hong Kong, avec la promesse d’un remboursement par la Banque d’Italie, une affirmation que la banque centrale a depuis démentie.

L’arnaque a été lancée délibérément, quelques semaines seulement après la libération de Sala de la prison d’Evin à Téhéran. Crosetto a révélé qu’un imposteur s’était même présenté comme le « général Giovanni Montalbano », un nom qui rappelle une série télévisée italienne populaire. Le ministre a déclaré qu’il avait été informé de l’arnaque lorsqu’un homme d’affaires de premier plan l’a contacté, confus au sujet d’un appel provenant d’une personne prétendant être la secrétaire de Crosetto.

L’essor de la fraude basée sur l’IA

Cet incident n’est pas un cas isolé. Les progrès de l’IA générative ont rendu la technologie du clonage vocal et du deepfake de plus en plus accessible, permettant aux criminels de réaliser des escroqueries très convaincantes. Selon la Global Anti-Scam Alliance, les pertes dues aux fraudes en ligne et par téléphone dépassent 1 000 milliards de dollars par an, la plupart des fonds n’étant jamais récupérés.

L’usurpation d’identité de Crosetto rappelle à quel point même les personnalités les plus en vue sont vulnérables à ce genre de stratagèmes. « La voix du ministre a été reproduite », a confirmé un responsable du ministère de la Défense. « Il demandait de l’argent pour payer la rançon des journalistes italiens enlevés dans le monde. C’était un canular. »

À mesure que la technologie de l’intelligence artificielle continue d’évoluer, les experts préviennent que ces escroqueries deviendront plus fréquentes et plus sophistiquées. Les criminels n’ont besoin que de quelques secondes d’audio pour reproduire une voix avec une précision surprenante. Cela soulève des inquiétudes quant au potentiel de l’IA à être utilisée dans des campagnes de fraude plus vastes, ciblant non seulement les riches mais aussi les consommateurs ordinaires.

Crosetto a appelé le public à rester vigilant, déclarant sur X : « Je préfère rendre les faits publics pour que personne ne risque de tomber dans le piège. » Les autorités italiennes enquêtent sur l’escroquerie, mais aucun suspect n’a été identifié.

Cet incident nous rappelle que l’intelligence artificielle est une arme à double tranchant. Si cette technologie recèle un immense potentiel d’innovation, son utilisation abusive présente des risques considérables. Comme le montre le cas de Crosetto, même les individus les plus puissants ne sont pas à l’abri des dangers de la fraude alimentée par l’intelligence artificielle .

Les sources de cet article incluent :

RT.com

EuroNews.com

Bloomberg.com

FT.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les 8 principaux avantages et inconvénients de l’intelligence artificielle

L’IA peut aider à la recherche et à la rédaction, mais elle peut également générer de fausses nouvelles et des erreurs critiques, telles que des conclusions illogiques ou des hallucinations.

4–6 minutes
Généré par IA
  • L’IA peut contrôler diverses machines et véhicules, améliorant potentiellement l’efficacité, mais ces systèmes peuvent être piratés ou mal fonctionner, ce qui présente des risques pour la sécurité humaine.
  • L’IA peut créer des images et des vidéos convaincantes, qui peuvent être utiles à des fins de divertissement ou d’éducation, mais elle peut également être utilisée pour diffuser de fausses informations et tromper les gens.
  • L’IA peut effectuer des tâches plus efficacement que les humains, ce qui peut conduire à une productivité accrue, mais elle représente également une menace importante pour la sécurité de l’emploi, en particulier pour les rôles qui ne nécessitent pas de réflexion critique ou d’interaction humaine.

L’intelligence artificielle a connu un essor considérable ces dernières années, ce qui est à la fois positif et négatif, pour de nombreuses raisons. L’avenir n’est plus ce qu’il était, c’est sûr. Qui aurait pu imaginer cela ? Y aura-t-il une prise de contrôle de Sky-Net comme dans le film Terminator ? L’IA sera-t-elle révolutionnaire et aidera-t-elle des milliards de personnes à vivre une vie plus sûre, plus saine et plus efficace ? Voici 8 avantages et inconvénients de cette ère technologique époustouflante dans laquelle nous vivons tous en ce moment.

#1. L’intelligence artificielle (IA) peut aider à la recherche et à la rédaction, mais peut également créer de fausses nouvelles et des erreurs critiques, notamment des conclusions illogiques et des hallucinations.

#2. L’IA peut (aider à) contrôler les drones, les véhicules et les armes militaires, mais ceux-ci peuvent ensuite être piratés ou déjouer les utilisateurs et se retourner contre l’humanité .

#3. L’IA peut créer des images et des vidéos en fusionnant des informations et des visuels pour stimuler l’imagination et à des fins de divertissement, mais cela peut également amener les gens à croire à de faux concepts, comme des invasions extraterrestres ou des discours politiques qui n’ont pas eu lieu.

#4. L’IA peut être utilisée pour effectuer de nombreuses tâches de manière plus efficace et plus cohérente que les humains, comme le travail en usine, mais cela pourrait signifier la fin de millions d’emplois qui ne nécessitent pas de réflexion critique, de créativité ou d’interaction interhumaine.

#5. L’IA peut être utilisée par les robots pour sauver des vies, comme au combat, mais ces soldats et chiens robots IA peuvent alors devenir violents ou commettre des erreurs critiques qui blessent ou tuent des gens.

#6. L’IA peut être utile à la maison, en aidant à des tâches simples, à la recherche d’informations ou au divertissement, mais cela supprime une grande partie de l’interaction humaine, rendant la vie moins sociale, sincère, enrichissante et pleine d’âme.

#7. L’IA fournit des informations sans drame, attitude ou ego, mais ces informations peuvent être censurées pour fournir délibérément des informations erronées et illogiques sur les sujets les plus importants, comme la santé et la sécurité.

#8. L’IA peut changer l’avenir grâce à la technologie, mais elle peut aussi changer le passé en réécrivant l’histoire

Le nouveau modèle de langage visuel LLaVA-o1 développé en Chine améliore les capacités de raisonnement mais peine à réaliser des tâches complexes qui nécessitent un raisonnement logique

Des chercheurs de plusieurs universités chinoises ont dévoilé LLaVA-o1, un nouveau modèle de langage visuel qui améliore considérablement les capacités de raisonnement en utilisant une approche systématique et structurée.

Les modèles de langage de vision open source traditionnels (VLM) ont souvent du mal à réaliser des tâches complexes qui nécessitent un raisonnement logique. Ils utilisent généralement une méthode de prédiction directe, où ils génèrent des réponses sans décomposer le problème ni décrire les étapes nécessaires pour le résoudre. Cette approche conduit souvent à des erreurs, voire à des hallucinations.

Pour remédier à ces limitations, les chercheurs à l’origine de LLaVA-o1 se sont inspirés du modèle o1 d’OpenAI . Ce dernier a montré qu’une puissance de calcul accrue lors du processus d’inférence peut améliorer les capacités de raisonnement d’un modèle linguistique. Cependant, au lieu d’augmenter simplement la puissance de calcul, LLaVA-o1 utilise une méthode unique qui décompose le raisonnement en étapes structurées.

LLaVA-o1 fonctionne en quatre étapes distinctes :

  1. Cela commence par résumer la question, en identifiant le problème central.
  2. Si une image est présente, elle se concentre sur les parties pertinentes et les décrit.
  3. Il effectue ensuite un raisonnement logique pour obtenir une réponse préliminaire.
  4. Enfin, il présente un résumé concis de la réponse.

Ce processus de raisonnement étape par étape est invisible pour l’utilisateur , ce qui permet au modèle de gérer son propre processus de réflexion et de s’adapter plus efficacement aux tâches complexes. Pour améliorer encore les capacités de raisonnement du modèle, LLaVA-o1 utilise une technique appelée « recherche de faisceaux au niveau des étapes ». Cette méthode génère plusieurs sorties candidates à chaque étape de raisonnement, en sélectionnant le meilleur candidat pour poursuivre le processus. Cette approche est plus flexible et plus efficace que les méthodes traditionnelles, où le modèle génère des réponses complètes avant de choisir la meilleure.

Les chercheurs estiment que cette approche structurée et l’utilisation de la recherche par faisceaux au niveau des étages feront de LLaVA-o1 un outil puissant pour s’attaquer à des tâches de raisonnement complexes, ce qui en fera une avancée significative dans le domaine de l’intelligence artificielle . Ce développement a le potentiel de révolutionner la façon dont nous interagissons avec l’IA, en particulier dans les domaines qui nécessitent un raisonnement complexe, tels que les soins de santé, la finance et les services juridiques. LLaVA-o1 représente une étape prometteuse vers des systèmes d’IA plus intelligents et plus adaptables.

Gardez le contrôle de vos informations sur la vérité en ajoutant preparedness.news à votre liste de favoris et en vous connectant quotidiennement pour des mises à jour sur la façon dont l’IA pourrait être utilisée pour le bien ou le mal sur cette planète. #AIprosandcons

Les sources de cet article incluent :

Censuré.news

NaturalNews.com

VentureBeat.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire