La modération de contenu fait référence au processus de surveillance et de contrôle du contenu généré par les utilisateurs sur diverses plateformes, telles que les plateformes de médias sociaux, les forums en ligne et les sites web. Elle implique la révision, le filtrage et la gestion du contenu généré par les utilisateurs pour garantir la conformité avec les directives, politiques et exigences légales de la plateforme. Les modérateurs de contenu sont responsables de l'évaluation et de la catégorisation du contenu, de la suppression ou du signalement de matériel inapproprié ou nuisible, et du maintien d'un environnement sûr et engageant pour les utilisateurs.
La modération de contenu joue un rôle crucial dans l'aide aux modèles d'IA (Intelligence Artificielle) et d'AM (Apprentissage Machine).