Un mathématicien entre dans un bar (de désinformation) – TechCrunch


Désinformation, désinformation, infodivertissement, algowars – si les débats sur l’avenir des médias au cours des dernières décennies ont eu un sens, ils ont au moins laissé une empreinte âcre sur la langue anglaise. Il y a eu beaucoup d’invectives et de peur sur ce que les médias sociaux nous font, de nos psychologies et neurologies individuelles aux préoccupations plus larges concernant la force des sociétés démocratiques. Comme Joseph Bernstein l’a dit récemment, le passage de la « sagesse des foules » à la « désinformation » a en effet été brutal.

Qu’est-ce que la désinformation ? Existe-t-il, et si oui, où se trouve-t-il et comment savons-nous que nous le regardons ? Devrions-nous nous soucier de ce que les algorithmes de nos plateformes préférées nous montrent alors qu’ils s’efforcent de serrer le pruneau de notre attention ? C’est juste ce genre de questions complexes de mathématiques et de sciences sociales qui Noé Giansiracusa intéressé par le sujet.

Giansiracusa, professeur à l’Université Bentley de Boston, est formé en mathématiques (en concentrant ses recherches dans des domaines comme la géométrie algébrique), mais il a également eu un penchant pour les sujets sociaux à travers une lentille mathématique, comme la connexion géométrie computationnelle à la Cour suprême. Plus récemment, il a publié un livre intitulé Comment les algorithmes créent et empêchent les fausses nouvelles pour explorer certaines des questions difficiles autour du paysage médiatique d’aujourd’hui et comment la technologie exacerbe et améliore ces tendances.

J’ai récemment hébergé Giansiracusa sur un espace Twitter, et comme Twitter n’a pas facilité l’écoute de ces discussions par la suite (éphémère !), j’ai pensé que je tirerais les morceaux les plus intéressants de notre conversation pour vous et la postérité.

Cette interview a été éditée et condensée pour plus de clarté.

Danny Crichton: Comment avez-vous décidé de rechercher des fake news et d’écrire ce livre ?

Noé Giansiracusa: Une chose que j’ai remarquée, c’est qu’il y a beaucoup de discussions sociologiques et politiques vraiment intéressantes sur les fake news et ce genre de choses. Et puis du côté technique, vous aurez des choses comme Mark Zuckerberg disant que l’IA va résoudre tous ces problèmes. Il semblait juste qu’il soit un peu difficile de combler cet écart.

Tout le monde a probablement entendu cette récente citation de Biden disant: “ils tuent des gens», en ce qui concerne la désinformation sur les réseaux sociaux. Nous avons donc des politiciens qui parlent de ces choses là où il leur est difficile de vraiment saisir le côté algorithmique. Ensuite, nous avons des informaticiens qui sont vraiment approfondis dans les détails. Donc je suis en quelque sorte assis entre les deux, je ne suis pas une vraie personne inconditionnelle de l’informatique. Je pense donc que c’est un peu plus facile pour moi de prendre du recul et d’avoir une vue plongeante.

À la fin de la journée, j’ai juste senti que je voulais en quelque sorte explorer d’autres interactions avec la société où les choses se compliquent, où les mathématiques ne sont pas si claires.

Crichton: Venant d’un milieu mathématique, vous entrez dans ce domaine controversé où beaucoup de gens ont écrit sous différents angles. Qu’est-ce que les gens réussissent dans ce domaine et qu’est-ce que les gens ont peut-être manqué de nuance ?

Giansiracusa: Il y a beaucoup de journalisme incroyable, j’ai été époustouflé par la façon dont beaucoup de journalistes étaient vraiment capables de traiter des trucs assez techniques. Mais je dirais une chose qu’ils ne se sont peut-être pas trompés, mais qui m’a un peu frappé, c’est qu’il arrive souvent qu’un article universitaire sorte, ou même qu’une annonce de Google ou de Facebook ou de l’une de ces sociétés de technologie, et ils vont en quelque sorte mentionner quelque chose, et le journaliste va peut-être extraire une citation et essayer de la décrire, mais ils semblent un peu effrayés d’essayer vraiment de la regarder et de la comprendre. Et je ne pense pas que ce soit parce qu’ils n’ont pas pu, cela ressemble vraiment plus à une intimidation et à une peur.

Une chose que j’ai vécue énormément en tant que professeur de mathématiques, c’est que les gens ont tellement peur de dire quelque chose de mal et de faire une erreur. Et cela vaut pour les journalistes qui doivent écrire sur des choses techniques, ils ne veulent pas dire quelque chose de mal. Il est donc plus simple de citer un communiqué de presse de Facebook ou de citer un expert.

Une chose qui est si amusante et belle dans les mathématiques pures, c’est que vous ne vous inquiétez pas vraiment de vous tromper, vous essayez simplement des idées et voyez où elles mènent et vous voyez toutes ces interactions. Lorsque vous êtes prêt à rédiger un article ou à donner une conférence, vous vérifiez les détails. Mais la plupart des mathématiques sont ce processus créatif où vous explorez, et vous voyez simplement comment les idées interagissent. Ma formation de mathématicien me ferait craindre de faire des erreurs et pour être très précis, mais cela a eu l’effet inverse.

Deuxièmement, beaucoup de ces choses algorithmiques ne sont pas aussi compliquées qu’elles le paraissent. Je ne suis pas assis là à les mettre en œuvre, je suis sûr que les programmer est difficile. Mais juste la vue d’ensemble, tous ces algorithmes de nos jours, tellement de ces choses sont basées sur l’apprentissage en profondeur. Donc, vous avez un réseau neuronal, peu importe pour moi en tant qu’étranger, quelle architecture ils utilisent, tout ce qui compte vraiment, c’est, quels sont les prédicteurs ? En gros, quelles sont les variables que vous alimentez cet algorithme de machine learning ? Et qu’est-ce qu’il essaie de sortir? Ce sont des choses que tout le monde peut comprendre.

Crichton: L’un des grands défis que je pense de l’analyse de ces algorithmes est le manque de transparence. Contrairement, par exemple, au monde des mathématiques pures qui est une communauté d’universitaires travaillant à résoudre des problèmes, bon nombre de ces entreprises peuvent en fait être assez contradictoires quant à la fourniture de données et d’analyses à la communauté au sens large.

Giansiracusa: Il semble qu’il y ait une limite à ce que n’importe qui peut déduire simplement en étant de l’extérieur.

Ainsi, un bon exemple est avec YouTube, des équipes d’universitaires voulaient explorer si l’algorithme de recommandation YouTube envoie les gens dans ces trous de lapin de la théorie du complot de l’extrémisme. Le défi est que parce qu’il s’agit de l’algorithme de recommandation, il utilise l’apprentissage en profondeur, il est basé sur des centaines et des centaines de prédicteurs basés sur votre historique de recherche, vos données démographiques, les autres vidéos que vous avez regardées et pendant combien de temps – toutes ces choses. C’est tellement personnalisé pour vous et votre expérience, que toutes les études que j’ai pu trouver utilisent le mode incognito.

Il s’agit donc essentiellement d’un utilisateur qui n’a pas d’historique de recherche, aucune information et qui accède à une vidéo, puis clique sur la première vidéo recommandée, puis sur la suivante. Et voyons où l’algorithme emmène les gens. C’est une expérience tellement différente de celle d’un utilisateur humain réel avec une histoire. Et cela a été vraiment difficile. Je ne pense pas que quiconque ait trouvé un bon moyen d’explorer algorithmiquement l’algorithme YouTube de l’extérieur.

Honnêtement, la seule façon dont je pense que vous pourriez le faire est un peu comme une étude à l’ancienne où vous recrutez tout un tas de bénévoles et mettez en quelque sorte un tracker sur leur ordinateur et dites: «Hé, vis ta vie comme tu le fais normalement. faites avec vos histoires et tout et dites-nous les vidéos que vous regardez. Il a donc été difficile de surmonter le fait que beaucoup de ces algorithmes, presque tous, je dirais, sont si fortement basés sur vos données individuelles. Nous ne savons pas comment étudier cela dans l’ensemble.

Et ce n’est pas seulement moi ou quelqu’un d’autre à l’extérieur qui a des problèmes parce que nous n’avons pas les données. Ce sont même des personnes au sein de ces entreprises qui ont construit l’algorithme et qui savent comment l’algorithme fonctionne sur papier, mais ils ne savent pas comment il va se comporter réellement. C’est comme le monstre de Frankenstein : ils ont construit ce truc, mais ils ne savent pas comment il va fonctionner. Donc, la seule façon, je pense, que vous puissiez vraiment l’étudier, c’est si les gens de l’intérieur avec ces données font tout leur possible et consacrent du temps et des ressources à les étudier.

Crichton: De nombreuses mesures sont utilisées pour évaluer la désinformation et déterminer l’engagement sur une plateforme. D’après votre formation mathématique, pensez-vous que ces mesures sont robustes ?

Giansiracusa: Les gens essaient de démystifier la désinformation. Mais dans le processus, ils peuvent le commenter, le retweeter ou le partager, et cela compte comme un engagement. Donc, beaucoup de ces mesures de l’engagement sont-elles vraiment positives ou tout simplement l’engagement ? Vous savez, tout est en quelque sorte regroupé?

Cela se produit également dans la recherche universitaire. Les citations sont la mesure universelle du succès des recherches. Eh bien, des choses vraiment fausses comme l’article original de Wakefield sur l’autisme et les vaccins ont reçu des tonnes de citations, beaucoup d’entre elles l’ont cité parce qu’elles pensaient que c’était juste, mais beaucoup étaient des scientifiques qui l’ont démystifié, ils l’ont cité dans leur article pour disons, nous démontrons que cette théorie est fausse. Mais d’une certaine manière, une citation est une citation. Tout compte donc pour la mesure du succès.

Je pense donc que c’est un peu ce qui se passe avec l’engagement. Si je poste quelque chose sur mes commentaires en disant : « Hé, c’est fou », comment l’algorithme sait-il si je le soutiens ou non ? Ils pourraient utiliser un traitement du langage par l’IA pour essayer, mais je ne sais pas s’ils le sont, et c’est beaucoup d’efforts pour le faire.

Crichton: Enfin, je veux parler un peu de GPT-3 et de la préoccupation concernant les médias synthétiques et les fausses nouvelles. Il y a beaucoup de crainte que les robots d’IA submergent les médias de désinformation – à quel point devrions-nous avoir peur ou pas ?

Giansiracusa: Parce que mon livre est vraiment né d’une classe d’expérience, je voulais essayer de rester impartial, et juste en quelque sorte informer les gens et les laisser prendre leurs propres décisions. J’ai décidé d’essayer de couper court à ce débat et de vraiment laisser les deux côtés parler. Je pense que les algorithmes de flux d’actualités et les algorithmes de reconnaissance amplifient beaucoup de choses nuisibles, et c’est dévastateur pour la société. Mais il y a aussi beaucoup de progrès incroyables dans l’utilisation d’algorithmes de manière productive et réussie pour limiter les fausses nouvelles.

Il y a ces techno-utopistes, qui disent que l’IA va tout réparer, nous aurons la vérité, la vérification des faits et des algorithmes qui peuvent détecter la désinformation et la supprimer. Il y a des progrès, mais ce genre de choses n’arrivera pas, et ce ne sera jamais pleinement réussi. Il faudra toujours s’appuyer sur les humains. Mais l’autre chose que nous avons est une sorte de peur irrationnelle. Il y a ce genre de dystopie hyperbolique de l’IA où les algorithmes sont si puissants, un peu comme des trucs de type singularité qu’ils vont nous détruire.

Lorsque les contrefaçons profondes ont fait les manchettes pour la première fois en 2018, et que GPT-3 avait été publié il y a quelques années, il y avait beaucoup de craintes que, « Oh merde, cela va faire tous nos problèmes avec les fausses nouvelles et comprendre ce qui est vrai dans le monde beaucoup, beaucoup plus dur. Et je pense que maintenant que nous avons quelques années de distance, nous pouvons voir qu’ils ont rendu les choses un peu plus difficiles, mais pas aussi significativement que prévu. Et le problème principal est en quelque sorte plus psychologique et économique qu’autre chose.

Les auteurs originaux de GPT-3 ont donc un document de recherche qui présente l’algorithme, et l’une des choses qu’ils ont fait était un test où ils ont collé du texte et l’ont développé en un article, puis ils ont demandé à des volontaires d’évaluer et de deviner lequel est celui généré par l’algorithme et quel article est celui généré par l’homme. Ils ont rapporté qu’ils ont obtenu une précision très, très proche de 50%, ce qui signifie à peine au-dessus des suppositions aléatoires. Cela semble donc, vous savez, à la fois incroyable et effrayant.

Mais si vous regardez les détails, ils s’étendaient comme un titre d’une ligne à un paragraphe de texte. Si vous essayez de faire un article complet, dans The Atlantic ou dans le New Yorker, vous allez commencer à voir les divergences, la pensée va serpenter. Les auteurs de cet article n’ont pas mentionné cela, ils ont juste fait leur expérience et ont dit: “Hé, regardez comme c’est réussi.”

Donc ça a l’air convaincant, ils peuvent faire ces articles impressionnants. Mais voici la principale raison, en fin de compte, pour laquelle GPT-3 n’a pas été aussi transformateur en ce qui concerne les fausses nouvelles et la désinformation et tout ce genre de choses. C’est parce que les fausses nouvelles sont principalement des ordures. C’est mal écrit, c’est de mauvaise qualité, c’est tellement bon marché et rapide à lancer, vous pourriez simplement payer votre neveu de 16 ans pour juste lancer un tas de faux articles de nouvelles en quelques minutes.

Ce n’est pas tant que les maths m’ont aidé à voir ça. C’est juste que d’une manière ou d’une autre, la principale chose que nous essayons de faire en mathématiques est d’être sceptique. Il faut donc remettre ces choses en question et être un peu sceptique.



Source link