Modération

Twitter teste le blocage automatique de comptes qu'il juge nuisibles

Pour contrer l’envoi de tweets et comportements malveillants sur son réseau, Twitter teste le Safety Mode, qui bloque automatiquement des comptes identifiés comme nuisibles.

Le Safety Mode de Twitter bloque notamment des comptes ayant envoyé des messages insultants ou haineux. (Source: Twitter)
Le Safety Mode de Twitter bloque notamment des comptes ayant envoyé des messages insultants ou haineux. (Source: Twitter)

Twitter poursuit ses efforts pour lutter contre les comportements potentiellement nuisibles sur son réseau social. L’entreprise teste Safety Mode, une nouvelle fonctionnalité qui évite de se voir submergé par des tweets malintentionnés et autres mentions ou réponses indésirables.

Safety Mode est pour l'heure proposé à un groupe restreint d'utilisateurs, explique sur le blog de la firme Jarrod Doherty, Product Manager. Quand elle est activée dans les paramètres, la fonctionnalité bloque automatiquement les comptes identifiés comme potentiellement nuisibles, durant sept jours. Ces comptes temporairement bloqués ne pourront plus voir les tweets de l'utilisateur ciblé, ni lui envoyer de messages directs. Il peut s'agir de comptes envoyant des messages insultants ou haineux, ou des réponses ou des mentions répétitives et non sollicitées. «Nos systèmes évaluent la probabilité d'un engagement négatif en prenant en compte à la fois le contenu du tweet et la relation entre l'auteur du tweet et le destinataire. Notre technologie tient compte des relations existantes, de sorte que les comptes que vous suivez ou avec lesquels vous interagissez fréquemment ne seront pas bloqués automatiquement», précise Jarrod Doherty,

Les informations sur les comptes ainsi bloqués sont accessibles et une notification est envoyée avant la fin de chaque période de blocage. «ll se peut que nous ne fassions pas toujours les bons choix et que nous commettions des erreurs, c'est pourquoi les blocages automatiques du Safety Mode peuvent être consultés et annulés à tout moment dans vos paramètres. Nous contrôlerons aussi régulièrement la précision de nos systèmes de Safety Mode afin d'améliorer nos capacités de détection», assure le Product Manager.

Avant de déployer le Safety Node à tous ses utilisateurs, Twitter va récolter les feedbacks du groupe de testeurs et faire des modifications si nécessaire. La plupart des testeurs sont des personnes issues de communautés marginalisées et des femmes journalistes.

Les comportements en ligne indésirables donnent naissance à différentes solutions numériques pour les contrer, sur les réseaux sociaux mais aussi dans le monde des jeux vidéo. A l’image de la technologie de la start-up Oto Systems, basé entre Zurich et les Etats-Unis, tout juste rachetée par Unity et qui vise à lutter contre les comportements toxiques de certains gamers en mode multijoueur.

Webcode
DPF8_228490