Plus de 100 pays soutiennent le pacte sur l’intelligence artificielle lié à l’ONU, qui encourage la censure et la surveillance

Le sommet mondial sur l’IA fait progresser la gouvernance soutenue par l’ONU, mais les inquiétudes grandissent concernant les liens avec la censure et la surveillance.

2–3 minutes

Le Sommet d’action sur l’IA, qui s’est tenu à Paris cette semaine, a réuni 60 signataires soutenant une déclaration sur « une intelligence artificielle inclusive et durable pour les personnes et la planète ».

Parmi les dizaines de pays concernés figurent l’Union européenne et la Commission de l’Union africaine, ainsi que l’Australie, le Brésil, le Canada, la Chine, la France, l’Allemagne – mais pas les États-Unis ni le Royaume-Uni.

La réunion en France a réuni des représentants de gouvernements, d’organisations internationales, de la société civile, d’universitaires, de chercheurs et du secteur privé.

La déclaration s’engage à respecter un certain nombre d’initiatives des Nations Unies, comme les Objectifs de développement durable (ODD), régulièrement critiqués pour avoir favorisé la censure et la surveillance. Parmi les autres initiatives internationales citées figurent la Recommandation de l’UNESCO sur l’éthique de l’IA et un certain nombre de résolutions de l’Assemblée générale des Nations Unies.

Mais le document signé à Paris évoque le renforcement de la coopération internationale et une gouvernance internationale mieux coordonnée comme principales priorités, tout en s’engageant, de manière inquiétante (étant donné que « l’intégrité de l’information » est souvent utilisée comme un « mot de code » pour la censure) à « continuer à s’attaquer aux risques de l’IA pour l’intégrité de l’information ».

Afin de renforcer le travail conjoint sur les initiatives d’IA « publiques et privées », les partisans de la déclaration ont lancé la Plateforme et l’Incubateur d’IA d’intérêt public.

En ce qui concerne l’approbation des ODD de l’ONU et la manière dont cela peut faire obstacle à la liberté d’expression, il convient de rappeler que cet ensemble de 17 objectifs mondiaux interconnectés favorise non seulement l’identité numérique, mais aussi indirectement la censure de ce que les autorités considèrent comme des « menaces à l’intégrité de l’information » qui peuvent avoir un impact négatif sur les ODD – comme les « discours de haine », la « désinformation », etc.

Une autre initiative de l’ONU mentionnée par la Déclaration de Paris dans le Pacte numérique mondial, dont les signataires ont convenu qu’elle servirait de base au lancement d’un Dialogue mondial sur la gouvernance de l’IA et du Groupe scientifique international indépendant sur l’IA, comme moyen « d’aligner les efforts de gouvernance en cours ».

Le Pacte numérique mondial est l’une des annexes du Pacte pour l’avenir de l’ONU, qui promeut notamment l’identification numérique (via ce que l’ONU, l’UE, le WEF et la Fondation Gates aiment appeler l’infrastructure publique numérique, DPI), ainsi qu’un certain nombre de politiques de censure et de surveillance, liées à la « lutte contre et au traitement » des éléments considérés comme des « discours de haine », de la « mésinformation », de la « désinformation » et de la « cyberintimidation ».

Le Pacte pour l’avenir, tout en affirmant que des mesures de protection de la vie privée sont intégrées, promeut également une plus grande « circulation (partage) de données transfrontalières ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Le projet de loi  Josh Hawley propose d’interdire l’intelligence artificielle visant DeepSeek en Chine, et menace de peines de prison et d’amendes

Le projet de loi de Hawley suscite des inquiétudes quant à la liberté d’expression et prévoit des sanctions sévères pour l’utilisation de l’IA.

2–3 minutes

Le sénateur américain Josh Hawley cherche à étendre la « guerre technologique » sino-américaine à un autre front : l’intelligence artificielle. Cette initiative a apparemment été déclenchée par le lancement du modèle d’intelligence artificielle chinois DeepSeek, qui est devenu très populaire en peu de temps.

Hawley, un républicain, a réagi en présentant le projet de loi visant à découpler les capacités d’intelligence artificielle de l’Amérique de la Chine. Jusqu’à 20 ans de prison et de lourdes amendes pour ceux qui téléchargent « volontairement » DeepSeek figurent parmi les possibilités les plus frappantes découlant de la formulation du projet de loi.

Nous avons obtenu une copie de la facture pour vous ici .

Certains observateurs interprètent ici le terme « volontairement » comme signifiant qu’une personne a non seulement téléchargé DeepSeek, mais qu’elle sait également qu’il s’agit d’une application chinoise, ce qui devrait alors être prouvé devant un tribunal – si la proposition de Hawley devenait loi.

Cela pourrait toutefois également affecter, par exemple, Hugging Face, une entreprise américaine qui donne accès aux entreprises au code utilisé pour évaluer les modèles d’apprentissage automatique, ainsi que les fournisseurs de cloud, qui pourraient ne plus être en mesure d’héberger des modèles ou des applications chinoises.

Hawley a expliqué son effort législatif par la nécessité de garantir la « supériorité économique » des États-Unis, ce qui nécessite d’empêcher l’argent et les données de circuler vers les produits chinois et de « couper la Chine de l’ingéniosité américaine », mais aussi de mettre un terme à ce qu’il appelle « le subventionnement de l’innovation du PCC (Parti communiste chinois) ».

L’annonce de Hawley mentionne le nom de DeepSeek, le décrivant comme un modèle de collecte de données à faible coût qui a suscité une « inquiétude internationale » – mais qui a également fait « chuter » les actions technologiques américaines.

Les principaux objectifs du projet de loi sont d’interdire à la fois l’exportation de technologies d’IA vers la Chine et l’importation vers les États-Unis ; d’interdire aux entreprises américaines de coopérer avec des entreprises chinoises pour effectuer des recherches sur l’IA dans ce pays ; et d’interdire aux entreprises américaines d’investir dans le développement de l’IA chinoise.

Le projet de loi cite la loi de réforme du contrôle des exportations de 2018 comme base juridique et menace également d’amendes pouvant aller jusqu’à 1 million de dollars et/ou d’une peine de prison pouvant aller jusqu’à 20 ans les personnes qui violent « volontairement » ladite interdiction.

Les premiers critiques du projet de loi soulignent qu’il aurait un impact négatif sur la recherche scientifique publique en dressant des barrières entre les informaticiens des deux pays.

Les entreprises qui enfreignent l’interdiction de la recherche américano-chinoise pourraient être punies d’amendes pouvant aller jusqu’à 100 millions de dollars.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Paul McCartney appelle à la protection des artistes contre l’intelligence artificielle

Paul McCartney a exhorté le gouvernement britannique à ne pas modifier les lois sur le droit d’auteur qui, selon lui, pourraient permettre aux sociétés d’intelligence artificielle d’arnaquer les artistes.

2–3 minutes

Le gouvernement mène actuellement une consultation pour déterminer s’il faut autoriser les entreprises technologiques à utiliser du matériel protégé par le droit d’auteur pour aider à former des modèles d’intelligence artificielle, à moins que les créateurs ne s’y opposent explicitement.

McCartney a déclaré à la BBC que cela rendrait plus difficile pour les artistes de garder le contrôle de leur travail et porterait atteinte aux industries créatives britanniques.

« Il y a des jeunes qui arrivent, des jeunes filles qui écrivent une belle chanson, mais ils n’en sont pas les propriétaires et n’y ont rien à voir. Et quiconque le souhaite peut la copier », a déclaré l’ancien membre des Beatles, âgé de 82 ans, dans une interview diffusée dimanche. Un extrait a été diffusé samedi par la BBC.

« La vérité, c’est que l’argent va quelque part. Quand il arrive sur les plateformes de streaming, quelqu’un le reçoit, et ce devrait être la personne qui l’a créé. Ce ne devrait pas être un géant de la technologie quelque part. »

Le gouvernement travailliste de centre-gauche britannique affirme vouloir faire du Royaume-Uni un leader mondial de l’intelligence artificielle. En décembre, il a annoncé une consultation sur la manière dont la loi sur le droit d’auteur peut « permettre aux créateurs et aux titulaires de droits d’exercer un contrôle sur l’utilisation de leurs œuvres pour la formation à l’intelligence artificielle et d’obtenir une rémunération pour cette utilisation », tout en garantissant que « les développeurs d’intelligence artificielle ont facilement accès à un large éventail de contenus créatifs de haute qualité ».

Des éditeurs, des organisations d’artistes et des sociétés de médias, dont l’Associated Press, se sont regroupés au sein de la Creative Rights in AI Coalition pour s’opposer à l’affaiblissement des protections du droit d’auteur.

« Nous sommes le peuple, vous êtes le gouvernement. Vous êtes censés nous protéger. C’est votre travail », a déclaré McCartney. « Donc, vous savez, si vous faites passer un projet de loi, assurez-vous de protéger les penseurs créatifs, les artistes créatifs, sinon vous ne les accepterez pas. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les 8 principaux avantages et inconvénients de l’intelligence artificielle

L’IA peut aider à la recherche et à la rédaction, mais elle peut également générer de fausses nouvelles et des erreurs critiques, telles que des conclusions illogiques ou des hallucinations.

4–6 minutes
Généré par IA
  • L’IA peut contrôler diverses machines et véhicules, améliorant potentiellement l’efficacité, mais ces systèmes peuvent être piratés ou mal fonctionner, ce qui présente des risques pour la sécurité humaine.
  • L’IA peut créer des images et des vidéos convaincantes, qui peuvent être utiles à des fins de divertissement ou d’éducation, mais elle peut également être utilisée pour diffuser de fausses informations et tromper les gens.
  • L’IA peut effectuer des tâches plus efficacement que les humains, ce qui peut conduire à une productivité accrue, mais elle représente également une menace importante pour la sécurité de l’emploi, en particulier pour les rôles qui ne nécessitent pas de réflexion critique ou d’interaction humaine.

L’intelligence artificielle a connu un essor considérable ces dernières années, ce qui est à la fois positif et négatif, pour de nombreuses raisons. L’avenir n’est plus ce qu’il était, c’est sûr. Qui aurait pu imaginer cela ? Y aura-t-il une prise de contrôle de Sky-Net comme dans le film Terminator ? L’IA sera-t-elle révolutionnaire et aidera-t-elle des milliards de personnes à vivre une vie plus sûre, plus saine et plus efficace ? Voici 8 avantages et inconvénients de cette ère technologique époustouflante dans laquelle nous vivons tous en ce moment.

#1. L’intelligence artificielle (IA) peut aider à la recherche et à la rédaction, mais peut également créer de fausses nouvelles et des erreurs critiques, notamment des conclusions illogiques et des hallucinations.

#2. L’IA peut (aider à) contrôler les drones, les véhicules et les armes militaires, mais ceux-ci peuvent ensuite être piratés ou déjouer les utilisateurs et se retourner contre l’humanité .

#3. L’IA peut créer des images et des vidéos en fusionnant des informations et des visuels pour stimuler l’imagination et à des fins de divertissement, mais cela peut également amener les gens à croire à de faux concepts, comme des invasions extraterrestres ou des discours politiques qui n’ont pas eu lieu.

#4. L’IA peut être utilisée pour effectuer de nombreuses tâches de manière plus efficace et plus cohérente que les humains, comme le travail en usine, mais cela pourrait signifier la fin de millions d’emplois qui ne nécessitent pas de réflexion critique, de créativité ou d’interaction interhumaine.

#5. L’IA peut être utilisée par les robots pour sauver des vies, comme au combat, mais ces soldats et chiens robots IA peuvent alors devenir violents ou commettre des erreurs critiques qui blessent ou tuent des gens.

#6. L’IA peut être utile à la maison, en aidant à des tâches simples, à la recherche d’informations ou au divertissement, mais cela supprime une grande partie de l’interaction humaine, rendant la vie moins sociale, sincère, enrichissante et pleine d’âme.

#7. L’IA fournit des informations sans drame, attitude ou ego, mais ces informations peuvent être censurées pour fournir délibérément des informations erronées et illogiques sur les sujets les plus importants, comme la santé et la sécurité.

#8. L’IA peut changer l’avenir grâce à la technologie, mais elle peut aussi changer le passé en réécrivant l’histoire

Le nouveau modèle de langage visuel LLaVA-o1 développé en Chine améliore les capacités de raisonnement mais peine à réaliser des tâches complexes qui nécessitent un raisonnement logique

Des chercheurs de plusieurs universités chinoises ont dévoilé LLaVA-o1, un nouveau modèle de langage visuel qui améliore considérablement les capacités de raisonnement en utilisant une approche systématique et structurée.

Les modèles de langage de vision open source traditionnels (VLM) ont souvent du mal à réaliser des tâches complexes qui nécessitent un raisonnement logique. Ils utilisent généralement une méthode de prédiction directe, où ils génèrent des réponses sans décomposer le problème ni décrire les étapes nécessaires pour le résoudre. Cette approche conduit souvent à des erreurs, voire à des hallucinations.

Pour remédier à ces limitations, les chercheurs à l’origine de LLaVA-o1 se sont inspirés du modèle o1 d’OpenAI . Ce dernier a montré qu’une puissance de calcul accrue lors du processus d’inférence peut améliorer les capacités de raisonnement d’un modèle linguistique. Cependant, au lieu d’augmenter simplement la puissance de calcul, LLaVA-o1 utilise une méthode unique qui décompose le raisonnement en étapes structurées.

LLaVA-o1 fonctionne en quatre étapes distinctes :

  1. Cela commence par résumer la question, en identifiant le problème central.
  2. Si une image est présente, elle se concentre sur les parties pertinentes et les décrit.
  3. Il effectue ensuite un raisonnement logique pour obtenir une réponse préliminaire.
  4. Enfin, il présente un résumé concis de la réponse.

Ce processus de raisonnement étape par étape est invisible pour l’utilisateur , ce qui permet au modèle de gérer son propre processus de réflexion et de s’adapter plus efficacement aux tâches complexes. Pour améliorer encore les capacités de raisonnement du modèle, LLaVA-o1 utilise une technique appelée « recherche de faisceaux au niveau des étapes ». Cette méthode génère plusieurs sorties candidates à chaque étape de raisonnement, en sélectionnant le meilleur candidat pour poursuivre le processus. Cette approche est plus flexible et plus efficace que les méthodes traditionnelles, où le modèle génère des réponses complètes avant de choisir la meilleure.

Les chercheurs estiment que cette approche structurée et l’utilisation de la recherche par faisceaux au niveau des étages feront de LLaVA-o1 un outil puissant pour s’attaquer à des tâches de raisonnement complexes, ce qui en fera une avancée significative dans le domaine de l’intelligence artificielle . Ce développement a le potentiel de révolutionner la façon dont nous interagissons avec l’IA, en particulier dans les domaines qui nécessitent un raisonnement complexe, tels que les soins de santé, la finance et les services juridiques. LLaVA-o1 représente une étape prometteuse vers des systèmes d’IA plus intelligents et plus adaptables.

Gardez le contrôle de vos informations sur la vérité en ajoutant preparedness.news à votre liste de favoris et en vous connectant quotidiennement pour des mises à jour sur la façon dont l’IA pourrait être utilisée pour le bien ou le mal sur cette planète. #AIprosandcons

Les sources de cet article incluent :

Censuré.news

NaturalNews.com

VentureBeat.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un milliardaire polonais entre en guerre contre Meta de Zuckerberg et remporte un procès pour « deepfake » qui pourrait avoir des répercussions sur la liberté d’expression

L’affaire, bien que limitée à la Pologne, pourrait avoir des implications sur les droits à la liberté d’expression, le développement de l’intelligence artificielle et la manière dont les deepfakes se développeront à l’avenir.

Le milliardaire polonais Rafał Brzoska est entré en guerre avec Meta de Mark Zuckerberg au sujet de l’utilisation de l’image de Brzoska dans divers deepfakes générés par l’IA, et dans son dernier message sur X, il déclare que « le tribunal lui a donné raison ».

Le milliardaire polonais a écrit que chaque deepfake de lui publié sur Meta entraînerait une amende pour le géant des réseaux sociaux. L’affaire, bien que limitée à la Pologne, pourrait avoir des implications sur les droits à la liberté d’expression, le développement de l’intelligence artificielle et la manière dont les deepfakes se développeront à l’avenir.

« Nous avons également demandé une garantie, afin que chaque deepfake ultérieur avec notre image entraîne une pénalité financière immédiate pour le propriétaire de Facebook ! Le tribunal nous a entièrement donné raison et nous a accordé une garantie pour la durée maximale possible, c’est-à-dire un an, et la procédure judiciaire se déroule déjà en parallèle », a-t-il écrit dans son message, qui comprenait également un message vidéo.

Omena Mensah, l’épouse de Brzoska, a également noté dans la vidéo que les faux messages et photos d’elle apparus sur la plateforme, y compris des photos retouchées de son visage battu, des violences présumées de son mari et même de fausses informations sur sa possession de drogue et une tentative de la tuer, ont été considérés comme une violation par les tribunaux polonais.

« Nous ne consentons pas à la propagation de la haine et de la désinformation. Comme vous pouvez le constater, chacun d’entre nous peut gagner contre les grandes entreprises qui en tirent d’énormes bénéfices financiers », a ajouté Mensah.

Avec l’essor de l’intelligence artificielle, les images générées par cette technologie ont inondé Internet, prenant souvent pour cible des célébrités et des politiciens. Ces photos sont souvent comiques et clairement fausses, même si elles ont un côté réaliste, mais d’autres sont très détaillées et trompeuses.

« Selon la décision du tribunal, chaque deepfake avec notre image impose une pénalité financière à Meta », a annoncé Brzoska.

Le propriétaire de l’entreprise polonaise de logistique InPost a également appelé tous les internautes à lui envoyer d’autres deepfakes de sa personne. Il a également demandé aux autres personnalités publiques qui ont subi des préjudices similaires de le contacter, lui et sa femme, car ils ont « un autre plan et une autre étape » dans cette affaire dans la lutte contre Meta, afin que le profit des crimes « ne soit pas honoré, du moins en Pologne ».

Jusqu’à présent, la plupart des plateformes de réseaux sociaux proposent des millions d’images de célébrités et de personnalités politiques générées par l’IA. Si des cas similaires se produisent, on peut se demander si de telles images seront autorisées à proliférer. Dans certains pays comme les États-Unis, les images générées par l’IA peuvent être protégées par les droits du Premier Amendement, mais la jurisprudence sur cette question est rare.

Dans d’autres pays, comme la Corée du Sud, les deepfakes d’IA ciblent également des personnalités non publiques. Des adolescents y créent des deepfakes de filles et de camarades de classe, qui ont fait la une des journaux nationaux et auraient provoqué une crise de santé mentale chez les personnes ciblées. Dans de tels cas, les personnes aux moyens financiers limités peuvent avoir moins de ressources pour poursuivre les opérateurs de réseaux sociaux en justice.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil