Justice: la «réticence historique» de Meta à protéger les enfants
La Presse Canadienne|Publié le 18 janvier 2024La plainte du Nouveau-Mexique fait suite au procès intenté en octobre par 33 États qui prétendent que Meta nuit aux jeunes et contribue à leurs problèmes de santé mentale. (AP Photo/Godofredo A. Vásquez)
Des documents récemment non expurgés de la poursuite intentée par le Nouveau-Mexique contre Meta soulignent la «réticence historique» de l’entreprise à assurer la sécurité des enfants sur ses plateformes, selon le procureur général du Nouveau-Mexique.
Raúl Torrez, a poursuivi Meta, propriétaire de Facebook et d’Instagram, en décembre, affirmant que la société n’avait pas réussi à protéger les jeunes utilisateurs contre l’exposition à du matériel pédopornographique et avait permis aux adultes de solliciter des images explicites de leur part.
Dans les passages non expurgés de la poursuite, mercredi, les messages à l’interne et présentations des employés de 2020 et 2021 montrent que l’entreprise Meta était consciente de nombreux problèmes, dont la possibilité pour des adultes de contacter des enfants sur Instagram, la sexualisation de mineurs sur cette plateforme et les dangers de l’utilisation de la fonctionnalité «personnes que vous connaissez peut-être», qui recommande des connexions entre des adultes et des enfants.
Mais Meta a traîné les pieds lorsqu’est venu le temps d’agir, comme le montrent les passages.
Instagram, par exemple, a commencé à restreindre la capacité des adultes à envoyer des messages aux mineurs en 2021. Un document interne présenté au procès montre Meta «se démenant en 2020 pour s’adresser à un dirigeant d’Apple dont l’enfant de 12 ans a été sollicité sur la plateforme, soulignant que »c’est le genre de chose qui énerve Apple au point de menacer de nous retirer de l’App Store »».
Selon la poursuite, l’entreprise Meta «savait que les adultes sollicitant des mineurs constituaient un problème sur la plateforme et était prête à le traiter comme un problème urgent lorsqu’elle le devait».
Dans un document de juillet 2020 intitulé Sécurité des enfants — État des lieux (7/20), Meta a répertorié les «vulnérabilités immédiates des produits» qui pourraient nuire aux enfants, y compris la difficulté de signaler les vidéos qui disparaissent et a confirmé que les mesures de protection offertes sur Facebook n’étaient pas toujours présentes sur Instagram.
À l’époque, le raisonnement de Meta était qu’elle ne voulait pas empêcher les parents et les proches plus âgés sur Facebook de contacter leurs plus jeunes membres de la famille, selon la poursuite. L’auteur du rapport a qualifié le raisonnement de «peu convaincant» et a déclaré que Meta avait sacrifié la sécurité des enfants pour un «pari de croissance».
Cependant, en mars 2021, l’application Instagram a annoncé qu’elle interdisait aux personnes de plus de 19 ans d’envoyer des messages aux mineurs.
Pendant ce temps, lors d’une conversation interne en juillet 2020, un employé a demandé : «que faisons-nous spécifiquement quant à la manipulation des enfants (quelque chose dont je viens d’entendre parler et qui se produit souvent sur TikTok)?»
La réponse d’un autre employé a été : «quelque part entre zéro et rien. La sécurité des enfants n’est pas un objectif explicite de cette moitié» (ce qui signifie probablement un semestre), selon le procès.
Avances sexuelles non désirées
Dans un communiqué, Meta a déclaré vouloir que les adolescents vivent des expériences en ligne sécuritaires et adaptées à leur âge et avoir passé «une décennie à travailler sur ces questions et à embaucher des personnes qui ont consacré leur carrière à assurer la sécurité et le soutien des jeunes en ligne. La plainte dénature notre travail en utilisant des citations sélectives et des documents qui soutiennent sa position».
Instagram n’a pas non plus résolu le problème des commentaires inappropriés sous les publications de mineurs, indique la plainte. C’est ce qu’a mentionné Arturo Béjar, ancien directeur de l’ingénierie de Meta, devant un comité. Ce dernier, connu pour son expertise dans la lutte contre le harcèlement en ligne, a raconté les expériences troublantes de sa propre fille avec Instagram.
«Je me présente devant vous aujourd’hui en tant que père ayant vécu une expérience directe d’un enfant qui a reçu des avances sexuelles non désirées sur Instagram», a-t-il déclaré devant un panel de sénateurs américains en novembre. «Elle et ses amies ont commencé à vivre des expériences horribles, notamment des avances sexuelles non désirées et répétées, du harcèlement.»
Une présentation sur la sécurité des enfants de mars 2021 a noté que Meta n’est pas assez «investie contre la sexualisation des mineurs sur (Instagram), notamment contre les commentaires sexualisés sur le contenu publié par des mineurs. Non seulement c’est une expérience terrible pour les créateurs et les internautes, mais c’est aussi un vecteur permettant aux mauvaises personnes de s’identifier et de connecter entre elles».
Le témoignage de Zuckerberg attendu fin janvier
Meta, basée à Menlo Park, en Californie, a mis à jour ses mesures de protection et ses outils pour les jeunes utilisateurs, même si les critiques estiment qu’elle n’en a pas fait assez. La semaine dernière, la société a annoncé qu’elle commencerait à cacher le contenu inapproprié des comptes d’adolescents sur Instagram et Facebook, notamment les publications sur le suicide, l’automutilation et les troubles de l’alimentation.
La plainte du Nouveau-Mexique fait suite au procès intenté en octobre par 33 États qui prétendent que Meta nuit aux jeunes et contribue à leurs problèmes de santé mentale en concevant sciemment et délibérément des fonctionnalités sur Instagram et Facebook qui rendent les enfants accros à ses plateformes.
«Pendant des années, les employés de Meta ont tenté de tirer la sonnette d’alarme sur la manière dont les décisions prises par les dirigeants de Meta soumettaient les enfants à des sollicitations dangereuses et à une exploitation sexuelle», a déclaré Raúl Torrez dans un communiqué. «Alors que l’entreprise continue de minimiser les activités illégales et nuisibles auxquelles les enfants sont exposés sur ses plateformes, les données internes et les présentations de Meta montrent que le problème est grave et omniprésent.»
Le fondateur de Meta, Mark Zuckerberg, ainsi que les dirigeants de Snap, Discord, TikTok et X, devraient témoigner devant une commission du Sénat américain sur la sécurité des enfants à la fin janvier.