A l’heure où la plateforme est à nouveau sur le devant de la scène et où la lanceuse d’alerte Frances Haugen rencontrait les députés français, les équipes de Facebook, dirigées par Laurent Solly, VP de Facebook en charge de l’Europe du sud, ont accepté de s’exprimer sur les récentes révélations (« Facebook files ») parues dans les médias quant aux biais de modération des contenus que rencontrerait la plateforme. Ils ont également apporté leur éclairage face aux inquiétudes des marques portant sur l’audience et les mesures relatives à l’influence des plateformes du groupe sur la santé mentale des adolescents. 90 membres de l’Union des marques ont participé à cette rencontre exceptionnelle le 8 novembre dernier.
Facebook files : la sécurité des environnements en question
A la mi-septembre, le Wall Street Journal, à la suite des révélations de l’ex-collaboratrice de la plateforme Frances Haugen, mettait en lumière des problèmes de modération des contenus dont seraient exemptes certaines personnalités. De manière plus générale, le modèle de Facebook, fondé sur la viralité, ne favoriserait-il pas les contenus polémiques et litigieux, vecteurs d’audience, en ne prenant pas suffisamment de mesures pour en limiter la portée (épisode du Capitole, fake news, etc.) ? Cet environnement pose de toute évidence question aux marques, non seulement quant à leur propre sécurité mais aussi quant à leur contribution involontaire à un internet préjudiciable, voire illicite. La plateforme prend-elle suffisamment en compte les signaux faibles et forts qu’elle reçoit, en particulier de ses propres collaborateurs ? La maîtrise des puissants algorithmes sur lesquels reposent la plateforme n’ont-ils pas dépassé leurs auteurs ?
Laurent Solly a tenu tout d’abord à affirmer que, contrairement à ce que certaines prises de parole induisaient, Facebook n’avait jamais accordé la priorité à ses profits au détriment de la sécurité des marques et des individus. Beaucoup de moyens sont mis en œuvre pour l’assurer. Rien qu’en 2021, 5 milliards de dollars y ont été consacrés. L’intelligence artificielle est au cœur de la modération des contenus et les résultats des contrôles effectués en continu sont publiés chaque trimestre par la plateforme. Les progrès en l’occurrence sont notables. 97 % des contenus inappropriés (haine, pédophilie, …) sont ainsi désormais bloqués de manière proactive. Facebook estime avoir également beaucoup progressé en matière de sécurité dans la « zone grise » de la haine qui est très importante. Contrairement à ce qui a pu être écrit, Facebook ne néglige aucune région du monde dans ce combat, même si certaines langues sont encore difficiles à bien appréhender par l’intelligence artificielle.
Facebook ads : quelle qualité pour la recommandation et la mesure ?
Ce sujet également soulevé par le Wall Street journal concerne très directement le marché publicitaire et les annonceurs. La plateforme, qui fournit ses propres mesures d’audience et propose aux marques, via Facebook Ads, de se reposer sur ses propres algorithmes pour réaliser un médiaplanning efficace dans ses univers, rencontrerait ainsi des problèmes d’identification des utilisateurs à la tête de plusieurs comptes. Selon les récentes révélations, entre 1/3 et ½ des nouveaux profils seraient créés par des personnes qui utilisaient déjà le réseau social.
Selon Laurent Solly les faux comptes seraient estimés entre 4 à 5 % sur la plateforme et font, après identification, l’objet d’une mesure de suppression. Ce sont ainsi 1,7 milliards de fausses pages/faux comptes qui ont été supprimés en 2021. Parallèlement, selon Facebook, 11 % de ses profils seraient des « doublons ». La plateforme dit les prendre en compte pour ses estimations d'audience auprès de ses annonceurs en publiant chaque trimestre un nombre de ses utilisateurs quotidiens et mensuels qui tient compte de ces estimations. En parallèle, il a été rappelé que l’estimated reach n’était pas un outil de facturation mais un outil de media planning. Il peut donc présenter des écarts par rapport à la réalité. A la question de savoir si certaines cibles seraient davantage concernées par les duplications, Laurent Solly indique que, malgré cet écueil, la précision du ciblage est beaucoup plus forte sur Facebook que sur le web en général.
L’Union des marques a également rappelé que l’audit des mesures était une exigence forte des annonceurs. La mesure d’audience est en cours d’audit par le MRC aux Etats-Unis mais les résultats de cet audit ne sont toujours pas publiés alors même qu’ils sont attendus depuis de longs mois. Si la plateforme a préféré s’en référer à l’auditeur américain pour la mesure d’audience, le CESP en France, est parfaitement compétent pour contrôler les mesures d’efficacité proposées en local qui, si leur audit était positif, pourraient intégrer le Référentiel de l’Union des marques.
Quelle protection de la jeunesse ?
La jeunesse est particulièrement exposée aux dérives des réseaux sociaux dont la fréquentation peut dans certains cas générer des traumatismes. Ils peuvent notamment être relatifs à l’image du corps renvoyée par les plateformes à des jeunes en recherche de repères, voire d’identité. Parallèlement, les réseaux sociaux peuvent entrainer des comportements de consommation compulsive et d’addiction. Sur ces différents points en particulier, Facebook se reconnait une responsabilité et des études commanditées par la plateforme sur 11 items sont mises en œuvre pour suivre les évolutions. La plateforme utilise par ailleurs l’IA pour relever les indices qui pourraient confirmer qu’un compte appartient à un enfant de moins de 13 ans et permettre de procéder à sa fermeture. Un processus de signalement est proposé et des « clubs de parents » contribuent à la formation et l’accompagnement des adultes.
Sur la question de la qualité de sa modération à l’épreuve de la prochaine échéance électorale en France, Facebook estime posséder une bonne expérience des enjeux démocratiques qui repose notamment sur une équipe dédiée. Sa priorité est de lutter contre les interférences et les fausses informations. Une fausse information est définie comme une information factuellement fausse et publiée par un faux compte. L’AFP (Agence France Presse) est pour Facebook sa principale source de contrôle. Dans le contexte électoral, Facebook propose aux candidats, des formations à l’usage de ses outils, fait application du code électoral qui interdit en France la publicité commerciale durant les 6 mois précédant un scrutin et développe des actions grand public contre l’abstention.
Une prochaine rencontre avec Facebook sera proposée à nos membres sur le sujet des bulles algorithmiques et sur le métavers, au cœur des nouvelles propositions de la plateforme créée par Marc Zuckerberg.