TikTok s’apprête à durcir significativement sa politique de protection des mineurs en Europe. Dans les prochaines semaines, la plateforme de partage de vidéos va déployer un nouveau système de vérification de l’âge destiné à mieux détecter et supprimer les comptes appartenant à des enfants de moins de 13 ans, a indiqué l’entreprise à l’agence Reuters.
Ce dispositif, déjà testé pendant un an au Royaume-Uni, repose sur une analyse croisée des informations de profil, des contenus publiés et des signaux comportementaux des utilisateurs. Selon TikTok, cette phase pilote a permis d’identifier et de supprimer des milliers de comptes ne respectant pas l’âge minimum requis pour utiliser la plateforme.
Une technologie de vérification renforcée
En complément des méthodes classiques de vérification – telles que la présentation d’une pièce d’identité officielle ou l’utilisation d’une carte bancaire –, TikTok prévoit également de recourir à une application de reconnaissance faciale. Cette technologie serait utilisée principalement lorsqu’un utilisateur conteste la suppression de son compte, afin de confirmer son âge réel.
Ce type de procédé n’est pas inédit. Meta, maison mère de Facebook et Instagram, utilise déjà des outils similaires. Toutefois, leur conformité avec la réglementation européenne sur la protection des données personnelles continue de susciter des interrogations, notamment au regard du Règlement général sur la protection des données (RGPD).
Une pression réglementaire accrue en Europe
La décision de TikTok intervient dans un contexte de surveillance renforcée des grandes plateformes numériques par les autorités européennes. L’application, très populaire auprès des jeunes, est depuis longtemps critiquée pour ses pratiques en matière de protection de la vie privée et pour l’exposition des mineurs à des contenus potentiellement inadaptés.
La Commission européenne avait, il y a plus d’un an, ouvert une enquête afin de vérifier si TikTok respectait ses obligations légales en matière de protection des enfants. Par le passé, la plateforme a déjà écopé d’une lourde sanction financière de 500 millions d’euros pour violation des règles européennes sur la protection des données, notamment en raison de transferts de données vers la Chine jugés insuffisamment sécurisés.
Selon TikTok, le nouveau système de vérification de l’âge a été spécifiquement développé pour le marché européen, en concertation avec une autorité européenne de protection des données, afin de garantir sa conformité aux exigences réglementaires.
Un contexte international plus strict
Cette évolution européenne s’inscrit dans une tendance mondiale de durcissement des règles encadrant l’accès des mineurs aux réseaux sociaux. En décembre dernier, l’Australie est devenue le premier pays au monde à interdire l’accès aux réseaux sociaux aux enfants de moins de 16 ans. Cette mesure a conduit à la suppression de plus de 4,7 millions de comptes.
En Australie, la responsabilité de l’application de cette interdiction incombe directement aux plateformes, qui s’exposent à des amendes pouvant atteindre près de 30 millions d’euros en cas de manquement. Les autorités australiennes justifient cette loi par la nécessité de protéger les jeunes contre les pressions psychologiques, les peurs et les risques criminels liés à l’usage intensif des réseaux sociaux.
Une information préalable des utilisateurs
TikTok a assuré que les utilisateurs européens seront clairement informés de la mise en place de ce nouveau dispositif de vérification de l’âge. L’entreprise affirme vouloir renforcer la sécurité de sa plateforme tout en respectant les normes européennes en matière de protection des données et de droits des utilisateurs.
Avec cette initiative, TikTok entend démontrer sa volonté de se conformer aux exigences européennes et de répondre aux préoccupations croissantes concernant la protection des mineurs dans l’univers numérique.
Avec NOS






Commentaires Facebook