Le succès des outils de modération automatique et de la machine learning, malgré les connaissances actuelles de leurs limites et des nombreuses polémiques à leur sujet (on pense notamment au robot nazi de Microsoft ou à l’appli Google qui confond les personnes noires avec des gorilles), pose question. L’engouement pour l’automatisation de la modération de contenu web serait révélateur de la façon dont l’importance de l’homme est perçue. Même si l’humain ne peut traiter des flux importants d’informations comme le fait une machine, est-il judicieux de faire une croix sur l’empreinte de l’homme ? Rien n’est moins sûr !
Voici 3 bonnes raisons de ne pas automatiser l’intégralité de votre modération web.
La surveillance et la régulation des discussions dans les sites participatifs comme les forums, les blogs et les réseaux sociaux requièrent une présence efficiente 24 h/24, 7 j/7. Si l’occasion se présente, le modérateur web répond aux questions des membres à la recherche de réponses. Il s’agit en quelque sorte de l’arbitre du « cyber-échange ».
Il assure la mise en application des règles instaurées par l’éditeur de l’espace de contribution et protège le public des commentaires haineux, racistes et inappropriés. Lorsqu’un sujet dérape, le modérateur de contenu web sera amené à avertir les membres, voire les bannir, si son acte est contraire à la charte de modération.
Même si la modération automatique connait de grandes avancées en matière de programmation, même si les outils sont capables d’identifier les « trolls » et les fauteurs de troubles, il n’en reste pas moins que la modération humaine constitue la seule arme efficace pour faire des analyses sémantiques.
Des commentaires peuvent être désignés « acceptables » par un robot sans qu’ils n’aient de sens. De même, une machine n’est, à l’heure actuelle, pas capable d’identifier des tournures de phrases ironiques. Sans parler des posts d’internautes qui passent injustement à la trappe alors que ces derniers ont respecté la charte de modération.
Dans ce domaine, l’homme restera irremplaçable (du moins pour le moment !).
Les outils de modération automatique sont aujourd’hui en mesure d’analyser les images et les vidéos. Cependant, leur efficacité est encore limitée. Par exemple, un robot ne sera pas en mesure de différencier des photos sur le thème du nu artistique et celles de l’érotisme, voire de la pornographie. Pour l’heure, rien ne peut remplacer l’œil humain pour vérifier que les images publiées respectent la charte éditoriale du site participatif.
Une machine est incapable de désamorcer ou d’anticiper une crise. Les forums et surtout les réseaux sociaux sont devenus l’exutoire des détracteurs et des clients insatisfaits. De plus, ces derniers maîtrisent désormais l’art de « clasher » une marque sans enfreindre sa charte. À ce stade, c’est l’homme qui doit prendre en main la relation client et non un robot qui pourrait envenimer encore plus la situation. Sans une intervention humaine, le risque de bad buzz est fort probable, ce qui mettra à mal votre image.
Vous l’aurez compris, l’intervention humaine reste encore le moyen le plus efficace pour mener à bien la modération d’un espace contributif. Certes, la machine learning a révolutionné un grand nombre d’approches concernant l’intelligence artificielle, mais elle présente encore des limites.
Bien sûr, cela ne veut pas dire que vous devez mettre ces outils aux oubliettes. Une stratégie mixte robot/humain est tout à fait possible. C’est d’ailleurs, l’alternative à privilégier pour réduire le coût humain de la modération.