Le post it de George

-

Au début, les sociétés de médias sociaux se sont établies pour ne pas être tenues responsables du contenu publié sur sa plateforme. Dans les années qui ont suivi, ils ont depuis mis en place un mélange de processus éditoriaux automatisés et pilotés par l’homme pour promouvoir ou filtrer certains types de contenu. En plus de cela, leurs utilisateurs utilisent de plus en plus ces plateformes comme principale source d’information. Les moments Twitter, dans lesquels vous pouvez voir un bref instantané de l’actualité quotidienne, est un excellent exemple de la façon dont Twitter se rapproche de devenir un média d’information. Comme les médias sociaux deviennent pratiquement des médias d’information, leur niveau de responsabilité sur le contenu qu’ils distribuent devrait augmenter en conséquence.
Bien que je pense qu’il soit naïf de considérer les médias sociaux comme des technologies de partage de contenu simplement neutres et sans responsabilité, je ne pense pas que nous devrions non plus avoir le même niveau d’attentes éditoriales des médias sociaux que les médias traditionnels.
Le volume considérable de contenu partagé sur les médias sociaux rend impossible la mise en place d’un système éditorial complet. Prenons l’exemple de Twitter: on estime que 500 millions de tweets sont envoyés par jour. En supposant que chaque tweet contient en moyenne 20 mots, le volume de contenu publié sur Twitter en une seule journée sera équivalent à celui du New York Times en 182 ans. La terminologie et l’orientation du discours de haine changent au fil du temps, et la plupart des faux articles de presse contiennent un certain degré de véracité. Par conséquent, les sociétés de médias sociaux ne peuvent pas compter uniquement sur l’intelligence artificielle ou les humains pour surveiller et modifier leur contenu. Ils devraient plutôt développer des approches qui utilisent l’intelligence artificielle et humaine ensemble.
Trouver l’aiguille dans une botte de foin
Pour surmonter les défis éditoriaux de tant de contenu, je suggère que les entreprises se concentrent sur un nombre limité de sujets jugés importants avec des conséquences importantes. Le mouvement anti-vaccination et ceux qui croient en la théorie de la terre plate diffusent tous les deux des contenus anti-scientifiques et faux. Cependant, les conséquences de croire que les vaccins causent des dommages sont éminemment plus dangereuses que de croire que la terre est plate. Le premier crée de graves problèmes de santé publique, le second fait bien rire dans un bar. Les sociétés de médias sociaux devraient réunir des groupes d’experts dans divers domaines pour surveiller en permanence les principaux sujets dans lesquels les fausses informations ou les discours de haine peuvent causer de graves dommages.
Il est également important de considérer comment les algorithmes de recommandation sur les plateformes de médias sociaux peuvent par inadvertance promouvoir un discours faux et haineux. À la base, ces systèmes de recommandation regroupent les utilisateurs en fonction de leurs intérêts communs, puis promeuvent le même type de contenu à tous les utilisateurs de chaque groupe. Si la plupart des utilisateurs d’un groupe s’intéressent, par exemple, à la théorie de la terre plate et aux canulars anti-vaccination, alors l’algorithme promouvra le contenu anti-vaccination auprès des utilisateurs du même groupe qui ne peuvent être intéressés que par la terre plate. théorie. Au fil du temps, l’exposition à un tel contenu promu pourrait persuader les utilisateurs qui croyaient initialement aux vaccins de devenir sceptiques à leur sujet. Une fois que les principaux domaines d’intérêt pour lutter contre les faux discours et les propos haineux sont déterminés, les sociétés de médias sociaux peuvent modifier leurs systèmes de recommandation assez facilement afin de ne pas inciter les utilisateurs au contenu nuisible.

Une fois que ce nombre limité de sujets est identifié, les sociétés de médias sociaux devraient décider de la manière de lutter contre la propagation de ce contenu. Dans de rares cas, la réponse la plus appropriée est de censurer et d’interdire le contenu sans hésitation. Les exemples incluent les messages qui incitent à la violence ou invitent d’autres personnes à commettre des crimes. Le récent incident néo-zélandais au cours duquel le tireur a diffusé en direct ses crimes odieux sur Facebook est le parfait exemple du contenu qui n’aurait jamais dû être publié et partagé sur la plateforme.
Facebook s’appuie actuellement sur sa communauté d’utilisateurs pour signaler un tel contenu, puis utilise une armée de vrais humains pour surveiller ce contenu dans les 24 heures afin de déterminer s’ils enfreignent réellement ses conditions d’utilisation. Le contenu en direct est surveillé par les humains une fois qu’il atteint un certain niveau de popularité. S’il est plus facile d’utiliser l’intelligence artificielle pour surveiller le contenu textuel en temps réel, nos technologies d’analyse des images et des vidéos progressent rapidement. Par exemple, Yahoo! a récemment rendu publics ses algorithmes de détection d’images offensantes et adultes. Les algorithmes d’IA de Facebook deviennent suffisamment intelligents pour détecter et signaler des images intimes non consensuelles
Combattez la désinformation avec des informations
Actuellement, les sociétés de médias sociaux ont adopté deux approches pour lutter contre la désinformation. La première consiste à bloquer purement et simplement un tel contenu. Par exemple, Pinterest interdit le contenu anti-vaccination et Facebook interdit le contenu suprémaciste blanc. L’autre consiste à fournir des informations alternatives aux côtés du contenu avec de fausses informations afin que les utilisateurs soient exposés à la vérité et aux informations correctes. Cette approche, qui est mise en œuvre par YouTube, encourage les utilisateurs à cliquer sur les liens contenant des informations vérifiées et approuvées qui démentiraient les allégations erronées faites dans un contenu faux ou haineux. Si vous recherchez les vaccins provoquent l’autisme »sur YouTube, alors que vous pouvez toujours voir les vidéos publiées par les anti-vaxxers, vous serez également présenté avec un lien vers la page Wikipedia du vaccin ROR qui démystifie ces croyances.

georgem101 on Mai 4th, 2021

Sorry comments are closed for this entry