Accélération de l'information et dérives en ligne : Internet, le bon coupable ?

Partagez l'article

Cultures・Sociétés

Accélération de l'information et dérives en ligne : Internet, le bon coupable ?

Dérives en ligne Exploreur

Oui, le web permet de diffuser et partager de plus en en plus d'informations et très vite. Oui, les fake news, comme les raccourcis et les propos haineux, y circulent aussi. Pour autant, est-ce Internet le « responsable » ?

Cet article fait partie du dossier

Toujours plus « fast » ?

Lire le dossier

Par Camille Pons, journaliste scientifique.

Pour Guillaume Sire et Jérôme Ferret, enseignants-chercheurs à l’Université Toulouse 1 Capitole, la course à l'information opérée par les médias traditionnels, la lenteur des institutions à élaborer des contre-discours adaptés et l'impatience à vouloir se servir de l'outil et non à le comprendre, sont davantage à mettre en cause.

Comment analyser des informations qui circulent de plus en plus vite et en masse sur le web, comment y distinguer les fake news, se prémunir des propos haineux ou visant à constituer une communauté autour d'un projet radical ? Tous ces sujets font débat, voire suscitent la « panique », à tel point que le Parlement français a adopté, fin 2018, deux lois pour lutter contre la manipulation de l'information (Loi n° 2018-1202 et loi organique n° 2018-1201 promulguées le 22 décembre 2018). Mais fait-on les bons diagnostics - en cause, Internet, notamment -, a-t-on la bonne approche, prend-on les bonnes décisions en la matière ? Apparemment non, au regard de plusieurs recherches menées sur ces questions.

Portrait Jérôme Ferret
© Droits réservés

 

 

 

« Ce n'est pas Internet le problème »,

explique Jérôme Ferret, enseignant-chercheur à l'Institut du droit de l'espace, des territoires, de la culture et de la communication (Idetcom) à Université Toulouse 1 Capitole et directeur adjoint de la Maison des sciences de l'Homme et de la société de Toulouse (MSHS T - CNRS).

 

 

 

Il fait notamment référence à un article, « Pourquoi avons-nous si peur des fake news ? », publié en deux volets en juin dernier par un autre sociologue très en pointe sur ces questions, Dominique Cardon. « Il y a beaucoup d'idées reçues. Il faut plutôt se demander ce que cela représente, qui consomme les fake news. Alain Soral, un pourvoyeur de fake news issu de l'extrême droite en France, n'a que 32 000 abonnés. Ce n'est rien. C'est aussi une erreur de dire que ce sont les fake news qui ont fait gagner Trump. Les fake news les plus partagées lors de son élection représentaient à peine 0,006 % des informations partagées sur Facebook aux États-Unis pendant la même période. »

Pour Jérôme Ferret, qui compte parmi ses thèmes de recherche les réseaux et activismes numériques, ce n'est pas tant le volume et la vitesse à laquelle circulent ces posts qui sont à redouter mais plutôt la visibilité qu'on leur donne. En cause notamment, « les médias traditionnels qui cherchent la rentabilité », comme BFM TV ou encore Fox News aux États-Unis, qui s'emparent à une vitesse effrénée des informations circulant sur la toile, et génèrent « du flux en temps réel avec zéro information » et donnent ainsi écho à ces informations qui, autrement, seraient restées dans leur écosystème.

Qui contre-attaquer, avec quels contre-discours ?

Pour autant, poursuit le sociologue, s'il convient de rétablir la vérité concernant les modalités de propagation de ces fake news et le volume de personnes qu'elles touchent, « il ne faut pas ignorer le problème ». Ses travaux actuels, menés dans le cadre du projet Hatemeter financé par la Commission européenne, donnent des éclairages sur la façon d'interpréter certains discours en ligne et de se positionner face à ces derniers. Avec des chercheurs italiens (groupe E-Crime de l’Université de Trente et Fondation Bruno Kessler), anglais (Université de Teeside), des chercheurs de la Maison des sciences de l’homme et de la société de Toulouse (MSHS-T) et le post-doctorant Mario Laurent, le sociologue travaille sur le développement d'une plateforme d'intelligence artificielle (IA). Leur objectif : repérer et analyser des tweets contenant des incitations à la haine, notamment islamophobes, et générer automatiquement des propositions de contre-discours pour enrayer la haine et les fausses informations.

Les premiers résultats montrent que les contre-discours « ne s'adaptaient pas forcément aux contextes nationaux et à leurs histoires ». Les contextes peuvent être différents du point de vue de la langue et plus largement de la culture : ce qui justifie d'ailleurs la coopération avec des pays comme l'Angleterre et la France... Il est nécessaire de s'adapter aux expressions propres, à l'argot mais aussi aux « tonalités », selon les âges ciblés, par exemple.

« Le contexte a une importance majeure : ce qui rend d'ailleurs le projet très riche mais en même temps très difficile »,

insiste le chercheur.

Première difficulté, « définir » la haine et « vers qui doit se faire la contre-attaque ». Important car « ce sont les discours ambigus, teintés, tendancieux, par raccourcis historiques, par allusions... qui sont les plus dangereux. Et pour produire du contre-discours, il faut d'abord comprendre ce qui est dit. » Et, en bout de chaîne, une autre difficulté : quels contre-discours, et qui les écrit ? Car là aussi, des gens peuvent être « guidés par des représentations et des valeurs issues de leurs trajectoires sociales ».

Veiller à la modernité du discours

Les travaux permettent de tirer quelques enseignements. Surtout ne pas produire du discours institutionnel. Il n'a pas permis, par exemple, de contrecarrer le départ en Syrie de nombreux jeunes, qui partageaient pourtant des milliers de tweets par jour sur le net.

« Une erreur que l'on a faite en matière de lutte contre la radicalisation. Dès que ça émane d'une institution, c'est suspect pour ces acteurs »,

regrette le chercheur.

Pour lui, c'est d'ailleurs sur cette génération que le travail doit être porté, car c'est pour celle-ci que s'est opérée « une véritable accélération du changement des rapports sociaux » et parce que « le numérique est propre aux jeunes, qui sont hyper connectés, hyper informés, hyper structurés... » Il faudrait donc « s'adapter aux spécificités de cette génération » et notamment « veiller à coller à la modernité du discours ». À ce titre d'ailleurs, ce sont principalement des jeunes volontaires, issus des communautés visées et choisis par les ONG et associations partenaires d'Hatemeter qui sont chargés d'élaborer les contre-discours.

« S'il existe une machine, c'est qu'il y a des machinistes et une machination »

Les travaux de Guillaume Sire, chercheur à l’Idetcom, spécialisé en sciences de l'information et de la communication, donnent aussi des éclairages sur ce qui se joue réellement sur Internet et sur l'approche que l'on devrait avoir dès lors qu'on se sert de l'outil pour s'informer. Pour lui aussi, le problème n'est pas Internet, mais la méconnaissance de ce qui est « derrière ».

Celui-ci s'est notamment intéressé, dès le début des années 2010, à la façon dont les impératifs liés au référencement sur les moteurs de recherche, notamment ceux qui régissent la « machine Google », changent la presse, tant d'un point de vue économique et juridique, que dans l'organisation du travail et la mise en récit. Et à ce qu'il y a derrière une page web, le code. Car ce qu'il y a derrière éclaire sur le contenu, sa présentation... « S'il existe une machine, c'est qu'il y a des machinistes et une machination », écrit-il dans un article publié en 2016 dans la revue Communication & Langages. Il est donc indispensable, selon lui, de toujours se poser la question « comment ça marche ? » : qui décide, de quelle politique éditoriale, de la manière de coder pour produire un certain résultat... Bref, ne pas perdre de vue que tout est « biaisé ».

Ces recherches donnent quelques illustrations de ces biais. Google a une politique éditoriale qui préfère un contenu à un autre, en particulier : les fichiers qui se chargent plus vite. Est-ce pertinent pour autant ?

Autre exemple, le PageRank : plus des liens sont faits vers un contenu, plus ce dernier remonte dans Google. Ce qui induit un effet « boule de neige » : « un contenu remonte, c'est lui que l'on cite, donc il remonte encore plus haut et devient autorité sur tel ou tel sujet ! »

Le code est un langage : il est donc capable de modifier ou travestir la réalité

Ce dernier exemple montre d'ailleurs que ce ne sont pas seulement ceux qui définissent les critères de référencement qui façonnent le web, mais l'interaction d' « une multitude d'acteurs [concepteurs, utilisateurs et éditeurs], qui n'en sont pas forcément conscients au moment où ils agissent, [qui] contribuent à faire de la liste de résultats ce qu’elle est effectivement ».

Car les règles de ceux qui paramètrent l'algorithme influencent par exemple la manière dont les autres prennent la parole sur le web pour optimiser leur exposition. Influence sur les sujets choisis (on voit ce qui marche), sur les mots utilisés (les fameux mots-clés), sur les liens hypertextes que l'on va choisir (le chercheur a observé six sites de presse français parmi les plus connus, qui ont effectivement tous tendance, du fait de ces règles de référencement, à pointer vers leurs propres pages).

Portrait Guillaume Sire
© Droits réservés

 

 

« Il n'y a pas de machine sans que des actions soient coordonnées, interprétées, traduites, ni sans négociations, sans choix empiriques »,

explique Guillaume Sire, enseignant-chercheur à Université Toulouse 1 Capitole et membre de l'Institut du droit de l'espace, des territoires, de la culture et de la communication (Idetcom) et co-responsable de l’URFIST Occitanie (Unité Régionale de Formation à l'Information Scientifique Technique).

 

 

 

 

« Mais tout est intéressant, dès lors que l'on ne perd pas de vue que, lorsqu'on choisit un outil, à l'instar d'un navigateur ou d'un code plutôt qu'un autre, on s'inscrit dans un éco-système qui n'a pas les mêmes valeurs qu'un autre, en intermédiation avec un environnement surtout social et culturel ». Or, la société a tendance à vouloir d'abord apprendre à se servir d'un outil et non à comprendre « ce qui l'entoure ».

Dans la même lignée, écrit-il encore dans un article consacré au langage de programmation, il faut « donner toute son ampleur » à la recherche en sciences de l'information et de la communication, pour « aider » les législateurs et les régulateurs « à prendre les mesures adaptées à l'écosystème digital ». Mais cette analyse, prévient-il, doit se faire « en prenant à la lettre le mot langage », donc en le considérant comme un texte « qui dit quelque chose et sert de base à des énoncés performatifs, c’est-à-dire à la fois à des énoncés capables de produire du réel et à des énoncés capables de changer, modifier, diminuer, amplifier ou travestir la réalité ».