facebook securite faux compte
Partager sur facebook
Facebook
Partager sur google
Google+
Partager sur twitter
Twitter
Partager sur linkedin
LinkedIn

La réseau social leader au niveau mondial, n’en finit pas de devoir lutter contre les aspects néfastes de sa plateforme. Effectivement, la société de Marc Zuckerberg recense un nombre phénoménal de faux comptes et de contenus illicites. Alors, le CEO américain doit appliquer des mesures afin de remettre de l’ordre sur sa plateforme. Votre agence SMO vous dévoile les dessous des coulisses.

Les chiffres ont doublé

Les éléments que Facebook a révélés sont édifiants. La société américaine a reconnu avoir supprimer la bagatelle de 3,2 milliards de comptes entre avril et septembre 2019, contre 1,55 milliards l’année passée, sur la même période. Dans le même temps, près de 20 millions de publications sur le réseau, sont aussi passées à la trappe, car elles ne respectaient pas les règles de la plateforme ; les contenus de ces posts étaient à caractère sexuel, influençaient au suicide, ou faisaient la promotion de la consommation de drogues. Malheureusement, ces chiffres sont constamment en hausse mais la firme de la Sillicon Valley a la volonté d’être totalement transparente. Toujours est-il que, ces mesures doivent être prises, car ces publications allant à l’encontre d’un environnement sain se multiplient. D’ailleurs, Christopher Wray, directeur du FBI, craint que les changements de politique de Facebook, visant à améliorer la confidentialité des utilisateurs, bénéficient aux prédateurs sexuels.

De gros moyens mis en place

Toutefois, Facebook ne compte pas freiner et s’avouer vaincu dans cette lutte, très importante pour l’image qu’elle dégage. Les outils que la société californienne développe autour de l’intelligence artificielle et du machine learning ne sont pas assez développés, et encore moins infaillibles. La technologie a ses limites, et ne compter que sur cette dernière est impossible. C’est pour cette raison que Facebook a une équipe de 7500 modérateurs de contenus. Ils couvrent plus de 50 langues sur le réseau et se relaient constamment afin d’être constamment actifs.

L’importance de cette unité est primordiale car elle fournit un travail que les outils automatisés ne peuvent accomplir. Bien qu’il y ait des simples vérifications à réaliser, concernant des publications comportant de la nudité par exemple, un modérateur analyse le contexte. Ce que l’intelligence artificielle ne peut faire.

« Ce travail n’est pas facile. Cela signifie parfois regarder des contenus troublants ou violents et prendre des décisions sur les mesures à prendre, en tenant compte à la fois du contexte culturel et des normes communautaires qui établissent nos politiques. »

Ellen Silver, vice-présidente des opérations de Facebook

Que retenir ?

La firme de Mark Zuckerberg sait qu’elle doit faire face à des intrusions venant de toute part sur son réseau social phare. Elle a aussi compris que, s’exprimer ouvertement et évoquer les faits en toute transparence pouvait rassurer les utilisateurs, qui se sentent moins baladés.

Cependant, Facebook va devoir revoir sa politique de confidentialité s’il souhaite être moins complice des idées toxiques des personnes mal intentionnées, voire dangereuses. Cette aptitude à les attirer, à cause de cette politique de confidentialité visiblement mal remaniée, repoussera les utilisateurs, et par la même occasion, les annonceurs. Ce n’est pas nouveau, et ce sera davantage le cas dans les mois à venir : le bien-être des internautes a un impact considérable sur la réussite dans le marketing digital.

Alors, n’hésitez pas et prenez contact avec nos experts SMO ! Ils vous aideront à développer votre stratégie digitale en profondeur.

Partager sur facebook
Facebook
Partager sur google
Google+
Partager sur twitter
Twitter
Partager sur linkedin
LinkedIn

Laisser un commentaire