Amnesty International France alerte sur l’algorithme de TikTok et le risque pour la santé mentale des jeunes

Suisse

Contexte et actions d’Amnesty International France

Une étude publiée mardi par l’antenne française d’Amnesty International met en évidence les risques potentiels liés à l’algorithme de TikTok, notamment l’exposition accrue à des contenus associés à la dépression, à l’automutilation et au suicide. Amnesty indique son intention de saisir l’Arcom, régulateur du numérique et de l’audiovisuel, dans le cadre du Digital Services Act (DSA) pour déposer une plainte contre TikTok.

Katia Roux, chargée de plaidoyer pour Amnesty International France, précise que ces conclusions s’appuient sur de nouvelles preuves et servent à alimenter l’action judiciaire au titre du DSA.

Nouvelles preuves et méthodologie

Selon le rapport, des adolescents manifestant un intérêt pour des contenus relatifs à la tristesse ou au mal-être psychologique seraient en moins d’une heure dirigés vers des contenus dépressifs. Après avoir publié en 2023 un premier rapport sur l’algorithme, Amnesty a mené de nouvelles expériences en France.

Le document affirme que TikTok expose les jeunes à des contenus préjudiciables qui peuvent être normalisés, banalisés, voire idéalisés. Katia Roux indique que l’objectif est de porter l’affaire devant l’Arcom afin de faire respecter les obligations prévues par le DSA.

Pour l’expérience, Amnesty a créé trois profils factices d’adolescents de 13 ans et a déroulé le fil personnalisé Pour toi pendant plusieurs heures pour observer les contenus relatifs à la tristesse ou à des problèmes de santé mentale.

Résultats observés et éléments techniques

Dans les 15 à 20 minutes qui ont suivi le début de l’expérience, les fils des trois comptes contenaient presque exclusivement des vidéos sur la santé mentale, dont environ la moitié traitaient de la tristesse et du mal-être. Sur deux des trois comptes, des vidéos exprimant des pensées suicidaires sont apparues dans les 45 minutes.

Douze comptes automatisés ont ensuite été créés, liés à l’Algorithmic Transparency Institute et intégrant l’historique des trois premiers comptes.

Enquête européenne et réactions des plateformes

Amnesty note une amplification des contenus liés à la santé mentale, bien que ce phénomène soit moins prononcé que sur les comptes gérés manuellement. Katia Roux affirme que TikTok n’aurait pas satisfait aux obligations du DSA depuis août 2023 et espère que ces nouvelles preuves seront examinées dans le cadre de l’enquête menée par la Commission européenne.

En février 2024, la Commission européenne a ouvert une enquête visant TikTok pour des manquements présumés à la protection des mineurs. TikTok a répliqué en affirmant proposer une expérience sûre et adaptée à l’âge des adolescents, et précise que neuf vidéos sur dix qui enfreignent ses règles sont supprimées avant même d’être visionnées.