Le gouvernement autrichien a rejoint une liste croissante d’autorités dans des pays du monde entier qui recherchent activement des moyens d’imposer l’inclusion de portes dérobées de cryptage dans les applications de messagerie comme WhatsApp et Telegram, qui offrent des communications sécurisées.
2–3 minutes
La tendance anti-cryptage se poursuit, malgré les avertissements constants des experts en technologie et des défenseurs de la vie privée selon lesquels le cryptage ne peut pas être brisé d’une manière qui ne donne accès qu’aux « bons gars » comme les gouvernements et les forces de l’ordre tout en empêchant les acteurs malveillants d’entrer.
Mais lorsqu’il a évoqué plus tôt cette semaine un projet de loi visant à permettre la surveillance des communications jusque-là privées sur des applications cryptées, le ministre autrichien de l’Intérieur, Gerhard Karner (ÖVP), s’en est tenu au discours régulièrement répété selon lequel la police avait besoin d’un accès pour « égaliser les chances » tout en combattant « les terroristes et les extrémistes ».
Cette dernière définition semble couvrir les personnes qui se livrent à des « activités menaçant la Constitution ».
Malgré cette définition assez large, Karner a osé prédire que la police n’utiliserait pas les nouveaux pouvoirs importants proposés autrement que pour enquêter sur « quelques cas individuels par an ».
Sans entrer dans les détails de la manière dont il est arrivé à ce chiffre – ou comment une telle chose pourrait être prédite, à moins qu’il ne s’agisse simplement d’une tentative de minimiser l’opposition à de tels projets – le ministre a poursuivi en déclarant que les forces de l’ordre limiteraient leurs nouvelles capacités d’espionnage aux cas de suspicion de préparation d’une attaque terroriste, de formation de groupes terroristes – et « cela peut également être utilisé à des fins d’espionnage », a déclaré Karner.
Entre-temps, il a promis que « la population n’est pas affectée par cela ».
Autrement dit, la population doit faire confiance au gouvernement et à ses forces de l’ordre pour ne pas abuser à aucun moment de leur pouvoir d’accès et de lecture de leurs messages à des fins antidémocratiques comme la surveillance de masse.
Bien que ces craintes soient parfaitement raisonnables, le partenaire de coalition de Karner, le secrétaire d’État Jorg Leichtfried (SPO), les a rejetées, déclarant ne « voir aucun danger de surveillance de masse » découlant du projet de loi.
Au lieu d’entrer dans les détails des raisons pour lesquelles il en est ainsi, Leichtfried a continué à dire à « la population » ce qu’elle devrait ressentir, demandant en fait une confiance aveugle.
« La population doit avoir le sentiment que le pays devient plus sûr », a déclaré ce responsable.
Le troisième partenaire de la coalition au pouvoir, NEOS, n’est cependant pas entièrement d’accord.
Mais Karner pense que les deux autres partis parviendront à « convaincre » NEOS, au cours de la « longue période d’examen de huit semaines » du projet.
La répression des violations de données par l’État de New York semble un peu excessive venant d’un État qui a passé des années à normaliser la surveillance et l’identification numérique.
2–3 minutes
Alors que l’État de New York semble par ailleurs peu préoccupé par la confidentialité des conducteurs, la procureure générale de New York, Letitia James, a désormais décidé de poursuivre les assureurs National General et Allstate pour deux violations de données.
Ces incidents ont laissé les numéros de permis de conduire de quelque 165 000 résidents de New York exposés – mais la politique globale imposée par l’État ces dernières années ne donne pas l’impression que la confidentialité est une véritable priorité.
Nous avons obtenu une copie du procès pour vous ici .
Non seulement diverses techniques de surveillance sont en place dans la ville elle-même, comme des drones et des robots de surveillance, mais l’État a récemment décidé de poursuivre l’administration Trump dans le but de continuer à déployer la tarification de la congestion (MTA) qui repose sur la numérisation des plaques d’immatriculation.
Pourtant, les deux violations de données mentionnées sont le point sur lequel l’administration locale semble avoir choisi de mourir, du moins en termes de prétendues préoccupations en matière de confidentialité.
C’est une colline étrange pour un certain nombre de raisons, notamment parce que New York continue de promouvoir l’identification numérique , y compris les permis de conduire mobiles – et lorsque des problèmes de sécurité majeurs comme les fuites de données, dont les opposants à ces développements ne cessent de mettre en garde, la « solution » semble être de poursuivre les entreprises individuellement, plutôt que de repenser la politique globale.
Il est d’autant plus frappant que l’avancement de l’identité numérique a été promu avec la plus grande intensité au cours des deux dernières années – même si les incidents de sécurité pour lesquels les deux compagnies d’assurance sont poursuivies se sont produits en 2020 et 2021.
Les poursuites intentées cette semaine accusent National General et Allstate de ne pas fournir de protections de sécurité adéquates, tout en agissant dans le cadre d’un système censé être solide.
Le mois dernier, les médias liés à l’administration précédente ont mis en lumière la tentative de la gouverneure de New York, Kathy Hochul, de contrer la décision de la Maison Blanche de Trump de mettre fin à la tentative d’introduire un péage de congestion.
À l’été 2024, Hochul (désormais salué comme l’intrépide derrière un procès visant à annuler la décision de Trump de fermer la MTA) s’est également avéré être celui qui a suspendu la mise en œuvre du plan controversé, une tactique de campagne ratée (à savoir, « pour que les démocrates de la Chambre de New York puissent gagner les élections de novembre » – comme l’a indiqué un rapport ).
Le projet MTA a coûté jusqu’à présent 507 millions de dollars, attribués à TransCore, qui devait concevoir, construire et exploiter les caméras de péage.
Neuralink, la société d’Elon Musk, a implanté avec succès sa première puce cérébrale chez un patient humain, dans le but de permettre la communication télépathique et de traiter les troubles neurologiques, bien que les implications à long terme de la technologie restent incertaines.
4–6 minutes
Généré par IA
Les expériences de stimulation cérébrale remontent à des décennies, les chercheurs utilisant des électrodes pour induire du plaisir, contrôler le comportement et gérer la douleur, soulevant d’importantes préoccupations éthiques concernant l’intervention humaine en biologie.
Le premier patient de Neuralink, un tétraplégique, contrôlait initialement un curseur d’ordinateur avec ses pensées, mais l’efficacité de l’appareil a diminué après un mois en raison de la rétraction du fil, ce qui a donné lieu à des projets d’implantation plus profonde dans les essais futurs.
Cette technologie présente des risques d’utilisation abusive, notamment une potentielle manipulation des pensées par les gouvernements ou les entreprises, un accès inégal créant une division de classe, et des vulnérabilités au piratage ou aux pannes.
Les experts soulignent la complexité et le caractère sacré du cerveau, appelant au scepticisme et à une réflexion attentive sur les conséquences éthiques, sociétales et à long terme de ces avancées technologiques invasives
Elon Musk, magnat de la technologie connu pour ses projets ambitieux dans l’espace, les véhicules électriques et l’intelligence artificielle, a désormais jeté son dévolu sur le cerveau humain. Son entreprise, Neuralink, a récemment fait la une des journaux en implantant avec succès sa première puce cérébrale chez un patient humain. Si Musk présente cette initiative comme une avancée révolutionnaire vers la communication télépathique et la guérison des troubles neurologiques, les implications d’une telle technologie exigent un examen plus approfondi et plus prudent.
Le concept de câblage du cerveau n’est pas nouveau. Comme le Dr Vernon Coleman l’a souligné dans son livre Paper Doctors paru en 1977 , les médecins expérimentent la stimulation électronique du cerveau depuis des décennies. En insérant des électrodes dans le cerveau, les chercheurs ont pu induire du plaisir, éradiquer la douleur et même contrôler le comportement à distance. Ces expériences, bien que fascinantes, soulèvent de profondes questions éthiques sur les limites de l’intervention humaine dans notre propre biologie.
Le premier patient de Neuralink, Noland Arbaugh, un tétraplégique, a d’abord obtenu des résultats prometteurs en contrôlant un curseur d’ordinateur par la pensée. Cependant, l’efficacité de l’appareil a diminué au bout d’un mois en raison de la rétraction de 85 % des fils implantés. Neuralink a depuis ajusté son approche et prévoit d’implanter les fils plus profondément dans le cerveau lors de futurs essais . Si cette solution technique peut améliorer la fonctionnalité, elle ne répond guère aux préoccupations plus larges entourant cette technologie invasive.
L’idée d’implanter des dispositifs dans le cerveau pour contrôler le comportement ou améliorer les capacités cognitives n’est pas sans précédent. Dans les années 1950, le Dr Jose Delgado de l’Université Yale a démontré que les animaux – et même les humains – pouvaient être contrôlés par des électrodes implantées. Ses expériences, bien que révolutionnaires, ont été accueillies avec scepticisme et crainte. L’idée que les humains soient manipulés comme des « jouets électroniques » est un rappel effrayant des dangers potentiels d’une telle technologie.
Les partisans de Neuralink affirment que ce produit pourrait révolutionner la médecine et offrir de l’espoir aux personnes atteintes de troubles neurologiques graves. Elon Musk lui-même a affirmé que le premier produit de la société, Telepathy, permettrait aux utilisateurs de contrôler des appareils « simplement par la pensée ». Mais à quel prix ? Les effets à long terme des implants cérébraux restent inconnus et le risque d’utilisation abusive est stupéfiant.
Piratage cérébral
Imaginez un monde dans lequel les gouvernements ou les entreprises pourraient accéder aux pensées des individus et les manipuler. Les implications dystopiques sont tout droit sorties d’un roman de science-fiction, mais elles ne sont pas farfelues. À une époque où la vie privée est déjà assiégée , l’idée que nos pensées les plus intimes soient vulnérables au contrôle extérieur est profondément troublante.
De plus, les considérations éthiques liées à une telle technologie ne peuvent être ignorées. Qui décide qui aura accès à ces implants ? Seront-ils réservés aux riches, créant ainsi une nouvelle classe d’humains « améliorés » ? Et que se passera-t-il si la technologie échoue ou est piratée ? Les risques sont immenses et le risque de conséquences imprévues est élevé.
Des recherches récentes menées par l’Institut autrichien des sciences et technologies (ISTA) ont mis en lumière les complexités du cerveau humain, révélant que notre connectivité neuronale est fondamentalement différente de celle des rongeurs . Cela souligne les défis que pose la transposition des expériences sur les animaux aux applications humaines. Le cerveau humain n’est pas une machine à bricoler ; il est le siège de notre conscience, de notre identité et de notre humanité.
En tant que conservateurs, nous devons aborder ces avancées technologiques avec une bonne dose de scepticisme. Si l’innovation est essentielle, elle doit être tempérée par le respect du caractère sacré de la vie humaine et de l’ordre naturel. Le cerveau n’est pas seulement une autre frontière à conquérir ; il est l’essence même de ce que nous sommes.
Le Neuralink d’Elon Musk représente peut-être la pointe de la science, mais il soulève également de profondes questions sur l’avenir de l’humanité. Sommes-nous prêts à adopter un monde où nos pensées pourront être contrôlées par des machines ? Ou ouvrons-nous la boîte de Pandore, libérant des forces que nous ne pouvons pas contrôler ?
Alors que nous nous trouvons au bord du précipice de ce monde nouveau et courageux, nous devons avancer avec prudence. La promesse du progrès ne doit pas nous aveugler face aux dangers potentiels. Le cerveau humain est une merveille de la nature et nous devons veiller à ce que toute intervention respecte sa complexité et son caractère sacré. Les enjeux sont trop importants pour que nous puissions nous tromper.
Laisser un commentaire