L’étude montre que la toxicité dans la communauté open source est différente des autres forums en ligne

Crédit : Pixabay / domaine public CC0

Les trolls, les haineux, les flammes et autres personnages laids sont malheureusement courants dans de nombreux internautes. Leur laideur viole les réseaux sociaux et les sites comme Reddit et Wikipedia.

Cependant, le contenu toxique semble différent selon l’endroit où il se produit, et l’identification de la toxicité en ligne est la première étape pour s’en débarrasser.

Une équipe de chercheurs de l’Institute for Software Research (ISR) de la Carnegie Mellon School of Computer Science a récemment collaboré avec des collègues de l’Université Wesleyan pour faire une première réflexion sur la compréhension de la toxicité sur des plateformes open source telles que GitHub.

“Vous devez savoir à quoi ressemble cette toxicité afin de concevoir des outils pour y faire face”, a déclaré Courtney Miller, Ph.D. Étudiant ISR et auteur principal. “Et s’attaquer à cette toxicité peut conduire à des endroits plus sains, plus inclusifs, plus diversifiés et généralement meilleurs.”

Pour mieux comprendre la toxicité dans la communauté open source, l’équipe a d’abord collecté le contenu toxique. Ils ont utilisé un détecteur de toxicité et de courtoisie développé pour la deuxième plate-forme pour scanner près de 28 millions de publications sur GitHub entre mars et mai 2020. L’équipe a également recherché dans ces publications un “code de conduite”, une expression souvent utilisée pour répondre à un contenu toxique. recherché des problèmes verrouillés ou supprimés qui peuvent également être un signe de toxicité.

Au cours de ce processus de curation, l’équipe a développé un ensemble de données final de 100 publications toxiques. Ils ont ensuite utilisé ces données pour étudier la nature de la toxicité. Était-ce offensant, justifié, en voie de disparition, à la traîne ou non professionnel ? Était-il destiné au code lui-même, aux gens ou ailleurs ?

“La toxicité varie dans les communautés open source”, a déclaré Miller. “C’est plus contextuel, légitime, subtil et passif-agressif.”

Environ la moitié seulement des messages toxiques identifiés par l’équipe contenaient de l’obscénité. D’autres étaient des utilisateurs exigeants du logiciel. Certains provenaient d’utilisateurs qui postent beaucoup de problèmes sur GitHub mais contribuent peu. Les commentaires sur le code du logiciel sont devenus personnels. Aucun des messages n’a aidé à améliorer le logiciel open source ou la communauté.

“La pire application de tous les temps. S’il vous plaît, n’en faites pas la pire application de tous les temps. Merci”, a écrit un utilisateur dans un message.

L’équipe a remarqué une tendance unique dans la façon dont les gens réagissaient à la toxicité des plateformes open source. Souvent, le développeur du projet faisait de son mieux pour accommoder l’utilisateur ou résoudre les problèmes liés au contenu toxique. Cela provoquait régulièrement de la frustration.

“Ils voulaient profiter de la suspicion et créer une solution”, a déclaré Miller. “Mais cela s’est avéré assez lourd.”

La réaction au document a été forte et positive, a déclaré Miller. Les développeurs open source et les membres de la communauté étaient ravis que cette étude soit menée et que leur comportement de longue date commence enfin à être reconnu.

“Nous entendons depuis longtemps des développeurs et des membres de la communauté parler de la toxicité malheureuse et presque enracinée de l’open source”, a déclaré Miller. “Les communautés open source sont un peu inégales. Elles ont souvent une diversité et une préservation énormes, et il est important que nous commencions à nous attaquer à la toxicité là-bas pour la rendre plus inclusive et meilleure.”

Miller espère que l’étude jettera les bases de travaux plus nombreux et de meilleure qualité dans ce domaine. Son équipe a terminé le développement d’un détecteur de toxicité pour la communauté open source, mais les fondations sont en place.

“Il y a tellement de travail à faire dans cette salle”, a déclaré Miller. “J’espère vraiment que les gens le verront, le développeront et continueront à faire avancer les choses.”

Miller a été rejoint par Daniel Klug, scientifique des systèmes de l’ISR ; professeur ISR Bogdan Vasilescu et Christian Kästner; et Sophie Cohen de l’Université Wesleyan. L’article du groupe a été présenté à la Conférence internationale sur la technologie logicielle ACM / IEEE à Pittsburgh le mois dernier.


La recherche montre que Twitter gagne en popularité et prend en charge les logiciels open source


Plus d’information:
Article : Vous avez manqué mon commentaire ou quoi ? » Comprendre la toxicité dans les discussions Open Source

Fourni par l’Université Carnegie Mellon

Devis: Une étude montre que la toxicité dans la communauté open source est différente des autres forums Internet (2022, 28 juin) trouvé le 28 juin 2022 sur https://techxplore.com/news/2022-06-toxicity-open-source-varies -internet-forums.html

Ce document est protégé par le droit d’auteur. Sauf dans le cadre d’une transaction loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans notre autorisation écrite. Le contenu est fourni à titre informatif uniquement.

Leave a Comment