Un mal vieux comme le monde qui s’est modernisé

L’âge d’avoir un smartphone est de plus en plus jeune. Je me rappelle encore avoir obtenu le mien à l’âge mûr de 15 ans, au bout de supplications et de déviations de conversations à l’heure du dîner sur le sujet, un Nokia 3310, le Graal. Avoir un smartphone, qui prend des photos, des vidéos, enregistre les conversations et permet de manipuler toutes ces informations, c’est un pouvoir. Le simple fait de pouvoir les mettre en ligne sur un coup de tête aurait-il exacerbé le harcèlement à l’école ? L’interdiction des téléphones dans les écoles et les collèges, en vigueur depuis la rentrée 2018, démontre qu’il y a bien du souci à se faire… Pourtant, selon l’Éducation nationale, seulement 10 % des enfants seraient victimes de cyberharcèlement, contre 59 % des adolescents aux États-Unis.

En tête des formes de cyberharcèlement arrivent : les messages injurieux et dégradants, la propagation de rumeurs fausses, la réception non-consentie d’images explicites. L’enjeu que représente la lutte contre le cyberharcèlement est de taille, puisque ses effets, surtout à un très jeune âge, sont durables (le stress post-traumatique en est un) et peuvent rester une ombre menaçante tout au long d’une vie. Fait plus effrayant, les victimes du cyberharcèlement sont davantage sujettes à l’automutilation et aux pensées suicidaires, ainsi que leurs harceleurs.

cyberharcèlement enfant

Tik Tok, le réseau social plébiscité par les moins de 16 ans qui compte déjà plus de 500 millions d’utilisateurs a récemment été la cible de comportements malveillants. La plateforme est accusée d’entretenir l’hypersexualisation des mineurs dans une course aux likes effrénée, où des petites filles préadolescentes cherchent le succès par des vidéos sexy, qui récoltent plus de likes, en dessous desquelles défilent les commentaires plus ou moins bienveillants largement basés sur le physique. Un enquêteur français aurait reçu des messages de prédateurs sexuels via son faux profil de mineur. En Inde, certaines autorités régionales souhaitent son interdiction. Quand on sait que les utilisateurs peuvent n’avoir qu’une dizaine d’années, il est urgent de les protéger. Face aux accusations, la plateforme a annoncé qu’elle recruterait un responsable des enjeux de sécurisation de l’expérience. Comme ses grands frères Facebook, Instagram et YouTube, elle dispose déjà d’un programme de repérage de contenus malveillants.

L’IA a-t-elle réponse à tout ?

Pendant ses deux jours d’auditions au Congrès américain au printemps 2018, Mark Zuckerberg a mentionné l’intelligence artificielle plus de 30 fois, la citant comme réponse aux problèmes de harcèlement et de comportements haineux. Facebook et Instagram ont tous deux mis en place des programmes qui usent de l’intelligence artificielle et l’automatisation pour faire la guerre aux harceleurs. Depuis juin 2017, Instagram, triste leader en la matière, utilise l’intelligence artificielle pour identifier les cas de cyberharcèlement avec une IA appelée DeepText. Un article publié par Wired, référence de la presse tech, détaille le fonctionnement de la technologie : si un utilisateur publie un contenu haineux ou insultant, à sa détection, DeepText le supprimera instantanément. De plus, pour éviter tout détournement du système, le langage insultant reste visible par son auteur, occultant sa suppression.

Pour résumer, le machine learning se base sur la détection d’un champ lexical lié au harcèlement, composé d’insultes récurrentes, de formules de menaces, etc. Plus récemment, cette détection a été étendue aux contenus visuels. Enfin, parce que le harcèlement est aussi une question de fréquence, la technologie prend aussi en compte la succession de messages et l’heure à laquelle ils sont émis.

Lire aussi : « Nous apprenons aux enfants à décrypter les fake news »

Facebook affirme que 96 % des images de nudité ou destinées à un public adulte sont automatiquement supprimées du réseau. 15 % des posts effacés pour cause de harcèlement ne sont jamais vus par les utilisateurs, cela dit ils ne sont pas effacés d’office, mais transférés à l’équipe de modérateurs. Facebook embauche environ 15 000 « modérateurs humains », qui eux vivent un autre enfer.

Cependant, ceux qui travaillent sur le sujet du machine learning pour le géant s’accordent sur le fait qu’il est encore trop tôt et que l’intelligence artificielle n’arrive pas encore à remplacer la compréhension humaine des nuances de langage, et donc à dénicher toutes les menaces. Des nouvelles recherches tentent de remédier à ce point faible, comme les questions posées aux modérateurs de plus en plus précises et circonstancielles, au lieu de simplement refléter le code de conduite de Facebook. Par un traitement de l’information plus granulaire, Facebook espère former une intelligence à la hauteur des tactiques vicieuses des auteurs des utilisateurs malveillants.

De nouveaux outils voient le jour pour lutter contre la cyber-malveillance

Gilles Jacobs, chercheur linguiste à l’Université de Ghent en Belgique a entraîné un algorithme à repérer des mots appartenant au champ lexical du cyberharcèlement. L’intelligence bloque les insultes avec succès, mais les choses se corsent face au sarcasme. Les machines n’ont pas encore intégré le second degré.

D’autres chercheurs à l’université québécoise de McGill sont en train de paramétrer les algorithmes pour qu’ils détectent les discours haineux en les exposant aux champs lexicaux composés à partir de messages de harcèlement ciblés sur Reddit, notamment envers les femmes, les Afro-Américains et les obèses.

Lire aussi : Face à l’hyperconnexion, gardons le contrôle

À l’autre bout de la planète, une intelligence artificielle est mise en œuvre pour apprendre une détection fine à partir de 9 000 cas de harcèlement scolaire dans les écoles japonaises. Les facteurs pris en compte sont l’âge des victimes et des harceleurs, leur sexe, leur niveau de diplôme, mais aussi le lieu ou encore la date des harcèlements. Le but final étant de prêter main-forte aux professeurs et encadrants. Ainsi seront certainement évités les jugements subjectifs et les biais cognitifs, au profit d’une action plus rapide.

Plus près de chez nous, une l’intelligence artificielle intitulée Creep est en développement à Sophia Antipolis. En ce moment même testée sur la région de Trente en Italie, elle permettra d’identifier le caractère harceleur des échanges sur les réseaux sociaux. Les chercheuses, Serena Villata et Elena Cabrio, se concentrent sur la récurrence des échanges entre un émetteur et un destinataire. Une fois la menace identifiée, l’idée est d’accompagner les victimes grâce à un chatbot comme soutien psychologique aux victimes.

Enfin, la technologie devra évoluer aussi vite que le langage des plus jeunes pour détecter les différentes nuances du harcèlement composées de sobriquets et noms de codes. Aussi, malheureusement la loi du silence persiste, seulement 10 % des enfants harcelés en font part à leurs parents. Quand ils s’expriment, les enfants ou adolescents sont parfois confrontés à l’ignorance des adultes sur ce sujet, l’inaction les pousse par désespoir de cause à des comportements dangereux. Combien de suicides ou cas d’automutilation pourraient être évités par une meilleure identification des signes de souffrance ?

Lire aussi : L’intelligence artificielle produira-t-elle des travailleurs flemmards ?

La modération par l’IA effectuée par les réseaux sociaux est-elle suffisante ?

Non, parce qu’elle repose toujours sur des modérateurs humains qui eux prennent justement de plein fouet des images d’une violence inouïe. Ils sont les secondes victimes du cyberharcèlement.

Non, parce que la technologie se trompe encore dans l’identification de la menace. Il suffit de voir le nombre de comptes Instagram visant une meilleure éducation sexuelle qui ont été fermés, puis rouverts. Ils continuent d’être sous le joug d’un algorithme mal calibré et de ceux qui dénoncent par extrémisme. D’autres utilisateurs se retrouvent également identifiés à cause de conversations mal analysées par l’algorithme. L’intelligence artificielle a encore du chemin à faire pour venir à bout de la complexité des relations humaines.

cyberhacèlement enfant

Non, parce qu’elle agit comme un remède après-coup et non comme antidote à la source du problème. Ne devrait-on pas donner les clés aux parents de harceleurs avérés, souvent désemparés face aux exactions de leur progéniture ? Enfin, comment éviter que la victime se transforme elle-même en harceleur par la suite ?

 

Le 19 avril dernier, un jury #NonAuHarcelement en partenariat avec l’UNICEF s’est réuni au ministère de l’Éducation nationale pour juger le fruit du travail de milliers d’élèves qui ont proposé des solutions au harcèlement en tout genre. Les projets soumis viennent nourrir des campagnes d’informations, telle que celle-ci diffusée en 2018.

L’urgence est à la rééducation, nous devons ré-apprendre à échanger en ligne, sur cette place publique au milieu de laquelle nous ne savons pas nous comporter. La valorisation de l’apparence y est pour beaucoup, tandis que les plus jeunes se trémoussent en petite tenue sur Tik Tok pour chasser le like, d’autres souffrent à cause de leur orientation sexuelle ou de leur appartenance à une minorité. Protéger les enfants, c’est les rendre capables de plus de discernement face aux menaces pernicieuses. Il ne s’agit plus d’une intelligence artificielle, mais hybride entre l’intellectuel et l’émotionnel.

Maï Trébuil
Maï Trébuil
Digital Nomade
Fascinée par la relation entre l'humain et la tech, je décrypte les tendances innovantes qui tentent de répondre aux enjeux sociétaux d'aujourd'hui et de demain. Éternelle curieuse, je m'inspire de mes déambulations de digital nomade, avec ou sans connexion.