Facebook comptait sur son système d'intelligence artificielle pour faire fonctionner correctement la plateforme en appliquant ses règles contre les discours violents ou haineux. Pourtant, les ingénieurs de Facebook affirment que l'intelligence artificielle est loin d'être en mesure d'appliquer avec succès les règles de la plateforme contre les discours de haine, les images violentes et autres contenus problématiques, selon des documents internes de l'entreprise.
Les dirigeants de Facebook, Inc. disent depuis longtemps que l'intelligence artificielle résoudrait les problèmes chroniques de l'entreprise en gardant ce qu'elle considère comme des discours de haine et une violence excessive ainsi que les utilisateurs mineurs hors de ses plateformes.
Cet avenir est plus éloigné que ne le suggèrent ces dirigeants, selon des documents internes examinés par le Wall Street Journal. L'IA de Facebook ne peut pas systématiquement identifier les vidéos filmées à la première personne, les diatribes racistes et même, dans un épisode notable qui a intrigué les chercheurs internes pendant des semaines, la différence entre les combats de coqs et les accidents de voiture.
Concernant les discours de haine, les documents internes montrent que les employés de Facebook ont estimé que l'entreprise ne supprime qu'une partie des messages qui enfreignent ses règles (un pourcentage à un chiffre, disent-ils). Lorsque les algorithmes de Facebook ne sont pas suffisamment certains que le contenu enfreint les règles pour le supprimer, la plateforme montre moins souvent ce contenu aux utilisateurs, mais les comptes qui ont publié le contenu restent impunis.
Les employés analysaient le succès de Facebook dans l'application de ses propres règles sur le contenu qu'il énonce en détail en interne et dans des documents publics comme ses normes communautaires.
Les documents examinés par le Journal montrent également qu'il y a deux ans, Facebook a réduit le temps que les examinateurs humains passaient sur les plaintes pour propos haineux des utilisateurs et a apporté d'autres ajustements qui ont réduit le nombre total de plaintes. Cela a rendu l'entreprise plus dépendante de l'application de ses règles par l'IA et a gonflé le succès apparent de la technologie dans ses statistiques publiques.
Selon les documents, les personnes chargées de maintenir la plateforme exempte de contenus que Facebook juge offensants ou dangereux reconnaissent que l'entreprise est loin de pouvoir la filtrer de manière fiable.
« Le problème est que nous n'avons pas et n'aurons peut-être jamais un modèle qui capture même la majorité des atteintes à l'intégrité, en particulier dans les zones sensibles », a écrit un ingénieur de l'équipe de recherche dans une note à la mi-2019.
Il a estimé que les systèmes automatisés de l'entreprise supprimaient les messages qui généraient seulement 2 % des vues de discours de haine sur la plateforme qui enfreignaient ses règles. « Des estimations récentes suggèrent qu'à moins d'un changement majeur de stratégie, il sera très difficile de l'améliorer au-delà de 10-20 % à court et moyen terme », a-t-il écrit.
En mars, une autre équipe d'employés de Facebook a tiré une conclusion similaire, estimant que ces systèmes supprimaient les publications qui généraient 3 à 5 % des vues de discours de haine sur la plateforme, et 0,6 % de tout le contenu qui violait les politiques de Facebook contre la violence et incitation.
Facebook encourage les discours de haine pour gagner de l'argent, selon une lanceuse d'alerte
Pourtant, la dénonciatrice Frances Haugen qui a fait fuiter un énorme cache de documents glané lors de son passage dans l'entreprise avait déjà indiqué lors d'une interview que la situation était en quelque sorte « encouragée ». « Ce que j'ai vu à plusieurs reprises chez Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi de faire passer ses propres intérêts en premier, comme gagner plus d'argent », a déclaré Haugen à Scott Pelley, son interlocuteur.
Elle a secrètement copié des dizaines de milliers de pages de recherches internes sur Facebook. Elle dit que les preuves montrent que l'entreprise ment au public sur ses progrès significatifs contre la haine, la violence et la désinformation.
Scott Pelley : Pour citer un autre des documents que vous avez publiés : « Nous avons des preuves provenant de diverses sources que les discours de haine, les discours politiques qui divisent et la désinformation sur Facebook et la famille d'applications affectent les sociétés du monde entier. »
Frances Haugen : Lorsque nous vivons dans un environnement d'information rempli de contenus colériques, haineux et polarisants, cela érode notre confiance civique, cela érode notre confiance mutuelle, cela érode notre capacité à vouloir prendre soin les uns des autres, la version de Facebook qui existe aujourd'hui déchire nos sociétés et provoque des violences ethniques dans le monde.
Frances Haugen : Alors, vous savez, vous avez votre téléphone. Vous pourriez ne voir que 100 éléments de contenu si vous vous asseyez et faites défiler pendant, disons, cinq minutes. Mais Facebook a des milliers d'options qu'il pourrait vous montrer.
L'algorithme choisit parmi ces options en fonction du type de contenu avec lequel vous vous êtes le plus engagé dans le passé.
Frances Haugen : Et l'une des conséquences de la façon dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses propres recherches montrent qu'un contenu haineux, qui divise, qui polarise, inspire plus facilement aux gens de la colère que d'autres émotions.
Scott Pelley : La désinformation, du contenu plein de colère est attrayant pour les gens et continue de les garder sur la plateforme.
Françoise Haugen : Oui. Facebook s'est rendu compte que s'ils changent l'algorithme pour qu'il devienne plus sûr, les gens passeront moins de temps sur le site, ils cliqueront sur moins de publicités, ils gagneront moins d'argent.
Haugen note que Facebook a compris le danger pour les élections de 2020. Facebook a donc activé les systèmes de sécurité pour réduire la désinformation, mais bon nombre de ces changements, dit-elle, étaient temporaires.
Frances Haugen : Et dès que les élections étaient terminées, ils les ont désactivés ou ils ont ramené les paramètres à ce qu'ils étaient avant, pour donner la priorité à la croissance plutôt qu'à la sécurité. Et cela ressemble vraiment à une trahison de la démocratie pour moi.
Scott Pelley : Facebook amplifie essentiellement le pire de la nature humaine.
Frances Haugen : C'est l'une de ces conséquences malheureuses, n'est-ce pas ? Personne chez Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Néanmoins, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager dans des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.
Tenir les réseaux sociaux pour responsables de leurs algorithmes
Face à cette situation, la lanceuse d'alerte a témoigné devant un panel du Sénat, recommandant une liste de changements pour freiner l'entreprise, y compris une refonte de l'article 230 qui tiendrait le géant des médias sociaux pour responsables de ses algorithmes qui promeuvent le contenu en fonction de l'engagement qu'il reçoit dans le fil d'actualité des utilisateurs.
« Si nous avions une surveillance appropriée ou si nous réformions [l'article] 230 pour rendre Facebook responsable des conséquences de leurs décisions de classement intentionnelles, je pense qu'ils se débarrasseraient du classement basé sur l'engagement », a déclaré Haugen. « Parce que cela expose les adolescents à plus de contenu anorexique, cela sépare les familles, et dans des endroits comme l'Éthiopie, cela attise littéralement la violence ethnique ».
Haugen s'est assuré de faire la distinction entre le contenu généré par les utilisateurs et les algorithmes de Facebook, qui priorisent le contenu dans les fils d'actualité et stimulent l'engagement. Elle a suggéré que Facebook ne devrait pas être responsable du contenu que les utilisateurs publient sur ses plateformes, mais qu'il devrait être tenu responsable une fois que ses algorithmes commencent à prendre des décisions sur le contenu que les gens voient.
Cette suggestion reflète un projet de loi, le Protecting Americans from Dangerous Algorithms Act, qui a été présenté à la Chambre.
Pourtant, malgré l'appel à la réforme de l'article 230, Haugen a également averti que la réforme à elle seule ne suffirait pas à surveiller de manière adéquate la large portée de l'entreprise. « La gravité de cette crise exige que nous rompions avec les cadres réglementaires précédents », a-t-elle déclaré. « Les modifications apportées aux protections de la vie privée obsolètes ou les modifications apportées à la section 230 ne seront pas suffisantes. »
Et vous ?
Quelle lecture en faites-vous ?
Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes.
L'IA n'a qu'un succès minime dans la suppression des discours de haine
Facebook estime que l'IA va assainir sa plateforme, mais ses propres ingénieurs ont des doutes.
L'IA n'a qu'un succès minime dans la suppression des discours de haine
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !