La Chine surveille les algorithmes de ses géants du Web

Descriptions de leurs algorithmes, des données récoltées, des informations personnelles sauvegardées : les entreprises technos chinoises comme Baidu et Alibaba doivent plus que jamais s’ouvrir à Pékin. L’idée fera-t-elle des petits ici aussi ?

seamartini / Getty Images / Wiki Commons / montage : L’actualité

Lorsque le géant chinois d’Internet Baidu veut trouver et détruire des informations « illégales » dans ses différentes applications, comme Baidu Nouvelles et Baidu Encyclopédie, il utilise un algorithme enregistré sous le numéro 110108645502804220021. La plateforme de commerce Tmall se sert pour sa part du numéro 330110046572903220011 pour déterminer l’ordre des produits affichés dans son application mobile en fonction de divers critères, comme le taux de clics et les ventes qui leur sont associés.

Ces deux exemples comptent parmi les 30 premiers algorithmes dont le régulateur chinois d’Internet (CAC, pour Cyberspace Administration of China, ou Administration du cyberespace de Chine) a publié les grandes lignes en août. La liste mise en ligne permet d’en savoir un peu plus sur le fonctionnement d’entreprises telles Alibaba, Tencent et ByteDance (qui possède TikTok). D’autres noms s’ajouteront à la liste à mesure qu’elle sera mise à jour.

La CAC ne révèle qu’une partie des renseignements que ces entreprises ont eu à lui fournir, suivant l’entrée en vigueur en mars 2022 d’une loi sur la surveillance des algorithmes, l’une des nombreuses lois à avoir été instaurées au cours des deux dernières années pour augmenter le pouvoir de Pékin sur ses entreprises technos. Les autorités ont, par exemple, limité le temps de jeu en ligne des personnes mineures à une heure par jour, du vendredi au dimanche ainsi que les jours fériés, et encadré les conditions au sein des entreprises qui gèrent des applications de livraison de repas.

La nouvelle réglementation de la CAC, appelée IISARM (pour Internet Information Service Algorithmic Recommendation Management, ou Gestion des recommandations algorithmiques des services d’information Internet), force les entreprises chinoises à lui dévoiler d’autres renseignements, dont les sources qu’elles utilisent pour entraîner leurs outils d’intelligence artificielle, les données personnelles qu’elles recueillent au sujet de leurs utilisateurs et les mesures de sécurité mises en place pour les protéger. L’IISARM exige aussi que les entreprises soient plus transparentes avec les utilisateurs de leurs produits en ce qui a trait au rôle des différents algorithmes dans ceux-ci.

La loi vise officiellement plusieurs objectifs, comme la protection des données personnelles des citoyens chinois, mais Pékin a également un autre but, selon les analystes : empêcher que les algorithmes de recommandation influencent la société en Chine comme ils l’ont fait en Occident ces dernières années.

Pour l’instant, le code des algorithmes lui-même ne semble pas avoir été remis à la CAC, mais les informations recueillies pourraient faciliter de futures enquêtes et demandes de renseignements, notamment (si le gouvernement soupçonne une plateforme d’avoir une influence néfaste sur la société, par exemple). Mentionnons que la loi ne touche que les entreprises chinoises, et non les entreprises étrangères établies en Chine. Les applications gérées à l’extérieur de la Chine, comme TikTok, ne sont pas non plus visées par l’IISARM.

Un aperçu de ce qui s’en vient ?

La nouvelle loi n’aura pas d’effet direct au Canada et ailleurs dans le monde, sauf peut-être en cas de poursuites contre des entreprises chinoises, puisque la Chine s’est donné le pouvoir de restreindre les informations transmises par les entreprises chinoises lors d’un procès à l’étranger. La loi pourrait toutefois inspirer d’autres législateurs, notamment aux États-Unis, où la popularité de TikTok inquiète (il s’agit de l’un des réseaux sociaux les plus influents, surtout chez les jeunes, et des doutes subsistent quant à l’influence que Pékin pourrait avoir sur le contenu qui y est mis en avant).

Plus de transparence ne serait pas une mauvaise chose. Les entreprises alimentaires doivent indiquer les ingrédients dans leurs aliments, et le secteur de la mode doit inscrire la composition des tissus des vêtements. Ce qui vaut pour ce que l’on mange et ce que l’on porte devrait aussi s’appliquer à ce que l’on consulte. Tout le monde gagnerait à comprendre un peu mieux les rouages de ces algorithmes qui transforment de plus en plus la société.

Laisser un commentaire

Les commentaires sont modérés par l’équipe de L’actualité et approuvés seulement s’ils respectent les règles de la nétiquette en vigueur. Veuillez nous allouer du temps pour vérifier la validité de votre commentaire.

Le numéro de l’algorithme provenant d’une ferme à troll c est lequel ?
C est une gouvernance mondiale effective qu’il conviendrai d’avoir
Pour le web comme pour l’espace
Ainsi que les énergies et la biodiversité.
Chaque état fait son potager empirique dans son coin et ça donne n’importe quoi
Comment décider de choix de fond entre des pays qui n’ont ni les mêmes temps parlementaires, ni les mêmes types dé gouvernances ?
Ça donne des abus de toutes parts et au final on va y laisser la vie des terriens et contrairement à ce que croit Elon Musk il n’y a pas de planète B ni d’humanité B

Répondre

« La loi vise officiellement plusieurs objectifs, comme la protection des données personnelles des citoyens chinois, mais Pékin a également un autre but, selon les analystes : empêcher que les algorithmes de recommandation influencent la société en Chine comme ils l’ont fait en Occident ces dernières années. » J’ai l’impression de lire une apologie à peine déguisée du droit des gouvernements à contrôler l’information à la portée de leurs citoyens. Comment les algorithmes de recommandation ont-ils influencé l’Occident ces dernières années? Quelles transformations légitimeraient aux yeux des gouvernements de contrôler l’information sur Internet? Les gouvernements étant ce qu’ils sont et ce qu’ils ont toujours été, il faut être bien naïf pour croire que ça se limiterait à la protection des données personnelles.

Répondre