Eventbrite

Pages d'aide

Comment Eventbrite personnalise et modère le contenu

Dernière mise à jour : 17 février 2024. Eventbrite a pour mission de réunir les gens au moyen d'expériences partagées. Nous sommes bien déterminés à créer une place de marché à laquelle les consommateurs et créateurs font confiance pour permettre des expériences sûres et inclusives. Dans cet article, nous expliquons davantage comment nous protégeons notre place de marché en ligne, notamment comment nous personnalisons et modérons le contenu sur notre plateforme.

En este artículo

  • Comment nous personnalisons le contenu
  • Comment nous modérons le contenu
  • Comment nous détectons les violations de contenu
  • Comment nous examinons le contenu

Comment nous personnalisons le contenu

Pour vous aider à découvrir les expériences les plus pertinentes sur la place de marché Eventbrite, nous utilisons les données que nous avons vous concernant afin d'accorder des priorités aux événements que nous vous présentons. Certains des signaux que nous utilisons pour personnaliser votre expérience dans l'affichage des pages d'événements et publicités incluent le contenu que vous avez visionné, aimé, suivi, cherché ou sur lequel vous avez cliqué, ainsi que les informations que vous fournissez lorsque vous répondez à l'une de nos enquêtes ou vous inscrivez ou achetez des billets pour un événement. Pour en savoir plus sur la façon dont nous utilisons et protégeons vos données, consultez notre Politique de confidentialité

Comment nous modérons le contenu

La modération de contenu est le processus par lequel une plateforme examine et agit sur le contenu illégal, inapproprié ou nuisible. Nos Règles de la communauté permettent de mieux comprendre comment nous protégeons notre communauté. Elles servent aussi de garde-fou en permettant de savoir quels types de contenu sont encouragés et lesquels menacent l'intégrité de notre plateforme et ne sont donc pas autorisés. Pour lutter contre l'abus de la plateforme, nous nous appuyons sur une combinaison d'outils et de processus, comprenant une détection proactive via une technologie d'apprentissage machine et des systèmes basés sur des règles, la détection réactive via les signalements de notre communauté, et les examens humains.

Comment nous détectons les violations de contenu

Détection proactive

Nous détectons une grande part de violations de contenu de manière proactive via deux méthodes principales : (1) les systèmes basés sur les règles (c'est-à-dire des règles manuelles visant à identifier le contenu répondant à des critères spécifiques), et (2) la technologie d'apprentissage machine (c'est-à-dire un processus statistique dans lequel nous entraînons un modèle pour reconnaître certains types de schémas sur la base des exemples précédents et réaliser des prédictions sur les nouvelles données). 

Les systèmes basés sur des règles sont efficaces en présence de quelques critères simples qui indiquent un risque élevé. La technologie d'apprentissage machine tire parti de plusieurs signaux et est donc plus efficace en présence de schémas complexes indiquant un risque élevé. Les deux stratégies de détection sont validées par l'analyse hors ligne et suivies pour des opportunités d'amélioration continue.

Détection réactive

Outre les méthodes proactives décrites ci-dessus, notre communauté joue un rôle important pour signaler le contenu qu'elle juge nuisible, soit en Nous contactant soit en utilisant le lien Signaler cet événement qui existe dans le pied-de-page de chaque événement. Bien que nous aspirions à supprimer de manière proactive le contenu nuisible avant que quiconque le voie, cette ligne de communication ouverte avec notre communauté est une part cruciale de notre programme de modération de contenu. 

Comment nous examinons le contenu

Bien que l'automatisation soit cruciale dans notre capacité à développer notre programme de modération du contenu, il reste des domaines dans lesquels l'examen humain est, et sera peut-être toujours, obligatoire. Par exemple, pour discerner si un individu fait l'objet de harcèlement, il peut falloir considérer le contexte et les nuances. 

Lorsque notre équipe examine du contenu, voilà ce qu'il se passe :

  • Examen : notre équipe examine le contenu et décide s'il viole nos politiques ou est illégal ou non. Selon les détails du cas, notre équipe peut examiner uniquement le contenu signalé, ou le compte de manière plus globale. 

  • Obtention d'informations (si nécessaire) : si l'équipe ne parvient pas à déterminer si le contenu viole nos politiques, elle peut demander des informations additionnelles auprès des parties pertinentes (par exemple le titulaire du compte ou l'individu qui a signalé le contenu).

  • Action : s'il est déterminé que le contenu enfreint nos politiques, l'équipe prendra une mesure appropriée, en retirant notamment le contenu des résultats de recherche, en supprimant le contenu des pages d'événements, en dépubliant des pages d'événements de la place de marché, et/ou en suspendant ou en résiliant l'accès au compte concerné.

  • Communication : après résolution, l'équipe informera les parties concernées de toute(s) mesure(s) prise(s) et de la ou des raisons. Les utilisateurs impactés peuvent répondre à cette communication en faisant appel de la décision. 

Notre priorité est de supprimer le contenu nuisible rapidement et en perturbant le moins possible notre communauté. Au moyen d'une détection à la fois proactive et réactive, à laquelle nous associons un examen humain du contenu remonté lorsque c'est nécessaire, nous pouvons rapidement détecter et agir de manière appropriée sur le contenu.

Nos méthodes de modération du contenu évoluent en même temps que le monde. Nous sommes constamment en train de mettre à jour notre programme pour anticiper ou en réponse aux nouveaux comportements, tendances et menaces perçues à l'intégrité de la place de marché Eventbrite.

Vous avez encore des questions ?