Tech&Co
Tech

Facebook: le métavers, environnement "toxique" et "pratiquement impossible" à modérer

Workrooms, la première entrée de Facebook dans le métavers.

Workrooms, la première entrée de Facebook dans le métavers. - Facebook / Oculus

Andrew Bosworth, directeur des nouvelles technologies de Meta (nouveau nom du groupe Facebook), a exprimé ses craintes au sujet d'une modération titanesque, bien au delà des conditions déjà complexes des réseaux sociaux actuels.

Avant même d'exister, le métavers est déjà décrit comme incontrôlable. Le directeur des nouvelles technologies chez Meta -le nouveau nom de Facebook-, Andrew Bosworth, a exprimé ses craintes sur la gestion de cet univers qui mêle virtuel et réel.

Le Financial Times révèle que Bosworth a recommandé à ses équipes la mise en place d'un niveau de sécurité "digne de Disney". Il a également alerté sur le fait que le métavers puisse devenir un "environnement toxique" notamment pour les femmes et les minorités, qui sont déjà la cible régulière du harcèlement sur les réseaux sociaux.

Le directeur, qui est à la tête d'un budget de 10 milliards de dollars pour concrétiser les ambitions de l'entreprise dans ce domaine, parle même de "menace existentielle" envers ces dernières si les utilisateurs s'en détournaient par crainte d'être exposés à cette haine en ligne.

Des milliards d'interactions simultanées

La modération du métavers implique de surveiller, en temps réel, des millions, voire des milliards d'interactions simultanées. Or, les récentes affaires autour de l'entreprise ont démontré sa difficulté à maîtriser la régulation de ses contenus, et à lutter contre la haine et la désinformation sur ses plateformes.

Le principe de ces plateformes permet toutefois quelques avantages dans la modération, comme le fait de disposer d'enregistrements, et donc de preuve, pour bannir quelqu'un, sous réserve d’une législation adaptée et respectueuse des données privées des utilisateurs, sujet sur lequel Facebook doit encore faire ses preuves.

D'autre part, le cadre mentionne la possible "mutualisation" des comptes des utilisateurs: concrètement, au lieu d'avoir différents comptes pour Facebook, Instagram, WhatsApp ou Messenger, un seul suffira. Cette nouvelle méthode permettra de bannir plus facilement un individu. Mais ces solutions ne sont pas une garantie: la multiplication des comptes “robots”, comme on a pu le voir ces derniers mois sur la plateforme de diffusion en direct Twitch, mettent à mal les capacités des modérateurs.

Beaucoup d'utilisateurs, peu de solutions

Andrew Bosworth a mentionné, publiée par Meta en 2020, présentant certaines pratiques de sécurité dans l'univers d'Horizon, le nom donné au métavers de Facebook. Pour lutter contre la haine en ligne, les utilisateurs peuvent avoir recours à des "zones de sûreté", ou encore des "bulles" personnelles qui leur permettent temporairement de ne pas interagir avec les autres personnes présentes sur la plateforme.

Pour autant, les volumes d'interactions que représentent un métavers en tant que tel ont de quoi inquiéter. Et Andrew Bosworth l'a bien compris: selon les propos tenus à ses équipes il a conscience que la nature immersive de la réalité virtuelle puisse exacerber le harcèlement et les comportements toxiques déjà présents sur les réseaux sociaux.

"En 3D, ce n'est plus du contenu qu'il faut réguler, mais des comportements à part entière", s'inquiète, après du Financial Times, Brittan Heller, avocate spécialisée en technologie.

Interrogé par le journal, Facebook a affirmé "explorer les meilleures utilisations de l'intelligence artificielle" bien que "cela soit toujours en construction".

Victoria Beurnez