Republication du 13 janvier 2021
Imaginer un réseau social en travaillant particulièrement sur la modération et la sécurité des utilisateurs·rices, c’est le pari de Yubo depuis 2015. La startup, lancée par trois anciens étudiants en ingénierie - Sacha Lazimi, Jérémy Aouate et Arthur Patora - propose aux 18-25 ans de se retrouver en groupes pour discuter de leurs passions sous forme de livre-streaming ou par chat. Les propos restent confinés dans la conversation, il n’y a pas de "mur" public où poster des contenus, ni de like possible. Pour autant, la question de la modération a tout de suite fait partie de la politique des trois associés qui ont mis en place plusieurs gardes fou pour tuer dans l'oeuf d’éventuelles dérives. Retour sur leur méthode à un moment où la modération des contenus sur les plateformes enfle avec les suppressions successives des comptes de Donald Trump.
Algorithmes et modérateurs veillent sur vos enfants
Leur stratégie débute lors de l’inscription sur la plateforme. "Un important travail de vérification est réalisé en amont. Nous encourageons vraiment les utilisateurs à ajouter une photo à leur profil et si un compte nous paraît suspect, nous le bloquons en attendant d’avoir reçu une preuve de l’identité de la personne” , dévoile Marc-Antoine Durand, COO de la société.
C’est ensuite au tour des algorithmes d’entrer en action. "Nous disposons de plusieurs algorithmes textuels et visuels qui analysent et repèrent à la fois les mots utilisés et les images partagées pour vérifier qu’elles respectent nos règles : pas de nudité, de sang ou de violence” , détaille Lucien Grandval, Communication and policy Lead au sein de Yubo. En cas de suspicion, les modérateurs sont informés et peuvent intervenir dans le live pour "évaluer la situation dans un premier temps et sanctionner si cela est nécessaire" . Les utilisateurs·rices sont d’abord alerté·e·s via un pop up qui leur demande de rester dans les clous. Si leur comportement ne change pas, ils peuvent être bannis temporairement ou totalement de l'application et le live peut même être arrêté. L’interpellation des modérateurs peut aussi être effectuée par les participant·e·s eux-mêmes.
Interrogée, Yubo n'a pas communiqué sur les effectifs mis en place pour gérer cette sécurité durant les live. Pourtant, ce sujet fait débat. De nombreux articles ont relaté le calvaire d'employés de Facebook ou YouTube et de sous-traitants devant modérer et vérifier les messages, photos et vidéos publiés par les utilisateurs.
Une politique qui doit évoluer
Pour aller encore plus loin, Yubo a même testé en France un projet pilote avec l’association e-enfance qui pourrait être généralisé. "Si un utilisateur·rice se sent mal, il peut contacter et discuter avec un membre d’e-enfance sans sortir de l’application et sans avoir à appeler un numéro de téléphone, ce qui constitue parfois un frein” , renchérit Marc-Antoine Durand.
Pour rester en alerte sur le sujet, les fondateurs de Yubo ont même choisi de créer un safety board composé d’experts parmi lesquels on trouve : Alex Holmes, Deputy CEO of Diana Award, Annie Mullins spécialisée dans la protection des enfants en ligne, Travis Bright, Director of Product at Thorn, Mick Moran, ancien directeur adjoint d’Interpol, Dr Richard Graham, psychiatre et Anne Collier, membre du conseil de surveille de Snap.Inc (Snapchat) et Facebook, des personnalités expertes et investies qui tenter de tirer vers le haut les débats et les pratiques.
La modération, un sujet qui monte et embrase les foules
Après avoir été critiqué pour sa lenteur à réagir aux fake news, au harcèlement et à la violence circulant sur son réseau, Twitter s'est retrouvée dans la tourmente pour avoir sanctionné le futur ex-Président des Etats-Unis, Donald Trump. Plus que le simple droit d’une entreprise privée à octroyer ou refuser l'accès d’un membre à son réseau, c’est à des questions éminemment plus politiques que renvoie cette suppression, à savoir : doit-on réguler les réseaux sociaux comme des médias ? Et qui doit s’en charger ? Yubo ne fait pas exception.
"Cela nous touche assez directement car 50% de nos utilisateurs en Amérique du Nord et le sujet a suscité de nombreux débats depuis le début du mois. On a vu passer plus de 20 000 lives qui peuvent être enflammés, nous sommes très vigilants” , reconnaît Lucien Grandval. La situation est très complexe à gérer. "En l’absence d’un cadre légal clair qui leur donnerait des consignes sans équivoque pour gérer ce genre de contenu, ils sont pris en étau” , tempère Lucien Grandval en parlant des dirigeants de Twitter comme de Facebook. "Il faut avant tout un cadre bien uniformisé au niveau mondial avec une définition claire de ce qu’est un contenu illicite ou non. L’Union européenne est en train de le faire avec le DSA". Le texte, sur la table des débats, prend forme et pourrait même être voté sous la présidence française du Conseil de l'UE pour une mise en application début 2023.