Les chercheurs découvrent la divergence marquée entre TikTok et les plateformes rivales dans la sélection de contenus politiquement sensibles.

Une étude récente a intensifié la surveillance de TikTok, alléguant que l’application sélectionne des contenus d’une manière qui profite au Parti communiste chinois (PCC). L’étude suggère que la plateforme supprime les critiques à l’égard de la Chine tout en amplifiant les récits favorables, ce qui suscite des inquiétudes quant à son influence sur l’opinion publique.
Menée par l’université Rutgers et le Network Contagion Research Institute (NCRI), l’étude s’appuie sur des résultats antérieurs et devrait être publiée dans la revue Frontiers in Social Psychology. Elle se veut la première enquête évaluée par des pairs et basée sur des données montrant le biais algorithmique de TikTok en faveur du contenu pro-chinois.
Ces résultats surviennent à un moment critique pour l’application, qui risque une interdiction potentielle aux États-Unis à moins que sa société mère, ByteDance, ne rompe ses liens avec la Chine d’ici le 19 janvier 2025.
TikTok riposte
TikTok a dénoncé l’étude, qualifiant ses conclusions de dénuées de fondement et sa méthodologie de défectueuse. Dans un communiqué, un porte-parole de l’entreprise a déclaré : « Cette expérience défectueuse a clairement été conçue pour aboutir à une conclusion fausse et prédéterminée. Les recherches précédentes du NCRI ont été démystifiées par des analystes extérieurs, et ce dernier article est tout aussi erroné. »
Les chercheurs ont certes reconnu les limites de leurs méthodes, comme le recours à des comptes nouvellement créés pour simuler le comportement des utilisateurs, mais ils maintiennent leurs conclusions. Le directeur du NCRI, Joel Finkelstein, a souligné la nécessité d’une plus grande transparence, avertissant que les algorithmes des réseaux sociaux peuvent être exploités pour influencer les perceptions à l’échelle mondiale.
Preuve de biais algorithmique
L’étude a révélé des différences marquées dans la manière dont TikTok traite les sujets politiquement sensibles par rapport à des plateformes comme Instagram et YouTube. Par exemple, les recherches sur des termes tels que « Tiananmen » et « Tibet » ont généré beaucoup moins de résultats critiques sur TikTok. Les chercheurs ont noté que si les utilisateurs s’intéressaient davantage au contenu anti-chinois, l’algorithme de la plateforme recommandait de manière disproportionnée du contenu pro-PCC, un déséquilibre qui n’est pas observé sur d’autres plateformes.
La Cour suprême examinera cette semaine les arguments du Premier Amendement contre une interdiction de TikTok
Voir l’article original cliquez ci-dessous :



Laisser un commentaire