« L'attention est devenue le nouveau pétrole »

07-10-2019 usbeketrica.com 20 min #162668

Mathématicien et médiateur scientifique à  l'Ecole polytechnique fédérale de Lausanne (EPFL), Lê Nguyên Hoang revient avec nous sur les notions d' éthique by design et de  transparence algorithmique. Objectif : faire en sorte que les intelligences artificielles de demain soient plus responsables que celles d'aujourd'hui.

Sujet de discussion de plus en plus récurrent dans le milieu de la tech, la notion d' éthique by design vise à intégrer les notions d'éthique dès la conception d'un algorithme ou d'une intelligence artificielle. A l'occasion d'une  « matinale » consacrée au sujet par le groupe  OCTO Technology, nous avons rencontré Lê Nguyên Hoang, mathématicien de formation et médiateur scientifique à  l'Ecole polytechnique fédérale de Lausanne (EPFL). Par ailleurs vidéaste sur YouTube, où il anime la chaîne de vulgarisation  Science4All, le chercheur évoque notamment les notions de transparence des algorithmes et d'économie de l'attention, tout en proposant des pistes pour faire émerger des intelligences artificielles plus éthiques. Un défi sans commune mesure, certes, mais que Lê Nguyên Hoang décrit comme « l'un des plus excitants à accomplir ». En attendant la publication d'un livre dont il est le co-auteur,  Le fabuleux chantier pour rendre les IA robustement bénéfiques, prévu pour la fin de l'année.

Lê Nguyên Hoang en mars 2018 lors d'une conférence à l'École polytechnique. CC Wikimédia / Jérémy Barande.

Usbek & Rica : Différentes interprétations du terme « éthique » sont possibles. On sait, par exemple, que les Français consultent leur smartphone  26,6 fois par jour, ce qui peut poser des questions du point de vue de la santé ou encore de la sociabilité. En termes de démocratie, on voit aussi les problèmes que peuvent créer les algorithmes lorsqu'ils font l'objet de manipulation à grande échelle. Quelle y est votre interprétation de la notion d'éthique ?

Lê Nguyên Hoang : C'est très compliqué (Rires). Ce qui nous manque actuellement, c'est justement d'arriver à regrouper ces différents aspects tout en définissant nos priorités. Mon éthique personnelle, je pense qu'elle importe assez peu. Je n'ai qu'un avis parmi beaucoup d'autres. La réflexion sur l'éthique, en revanche, est quelque chose de fondamental. Parfois, au lieu de parler d'éthique, on parle même de « méta-éthique » : cela renvoie à tout ce qu'il y a autour de l'éthique elle-même, par exemple comment structurer la réflexion autour de l'éthique, comment choisir une éthique plutôt qu'une autre... L'un des aspects les plus importants de l'éthique by design, c'est d'avoir des intelligences artificielles dont la fonction objective contient des motivations éthiques. Cela nous forcerait à formaliser ce qu'on juge préférable pour notre société.

« Dans nos démocraties actuelles, on réussit à se mettre d'accord... même lorsqu'on n'est pas d'accord. On passe par un vote (...) Pour l'éthique, c'est la même chose »

Se pose donc la question suivante : comment concevoir un algorithme qui calcule ce qu'on préfère pour une société, voire pour le monde ? C'est une interrogation fondamentale et sans doute l'une des plus fascinantes actuellement. Cela passera clairement par une réflexion collective. Dans nos démocraties actuelles, on réussit à se mettre d'accord... même lorsqu'on n'est pas d'accord. Comment fait-on ? On passe par un vote : le résultat d'un scrutin devient légitime et on finit par l'accepter même lorsqu'on n'est pas d'accord avec le résultat. Pour l'éthique, c'est la même chose : on n'est probablement pas d'accord sur ce que signifie le terme d'éthique, mais on peut trouver des moyens de se mettre d'accord malgré tout. Malheureusement, s'agissant de la question de l'éthique, les choses sont beaucoup plus compliquées à organiser qu'un scrutin classique avec quelques choix possibles entre différents candidats ou différentes propositions sur une liste. Il va falloir organiser des scrutins plus complexes, qui nécessiteront inévitablement l'utilisation d'algorithmes.

Après l'étape de la conception de l'algorithme, vient celle de sa mise à disposition pour les utilisateurs. Peut-on vraiment imaginer que des  algorithmes utilisés à grande échelle soient transparents ? Comment pourrait-on faire ?

Techniquement, des bouts de l'algorithme de certains réseaux sociaux sont déjà publics. Il existe des intelligences artificielles dont on peut télécharger le code binaire, c'est-à-dire une suite de 0 et de 1 que l'ordinateur exécute - après, bien sûr, on ne peut pas interpréter ça facilement... De façon plus générale, ce qui importe, ce n'est pas seulement que le code soit transparent. Cela ne suffit pas. Pour s'en rendre compte, il suffit de voir que les IA les plus développées et les plus sophistiquées pèsent souvent des giga-octets. Pour vous donner une idée, un méga-octet représente un livre. Un giga-octet correspond donc à mille livres. Or, évidemment, un humain ne peut pas lire mille livres sans que cela lui prenne des années. Et même s'il le fait, ce n'est pas dit qu'il retienne tout. L'interprétabilité ne se résume donc pas à l'accès au code source.

Comment implanter, alors, plus d'interprétabilité ? C'est bien sûr toute la question. Je pense que c'est en partie une question de niveau. Si on prend l'exemple de  l'algorithme APB, qui avait fait polémique il y a quelques années, on voit que les ingénieurs qui ont bossé dessus n'ont pas fait un boulot très transparent. Mais imaginons qu'ils aient fait ça parfaitement : le code est censé un implanter un algorithme très connu, celui de Gale et Shapley. Un chercheur en informatique saurait exactement comment cet algorithme fonctionne, mais la quasi-totalité de la population - et notamment des lycéens - ne le comprendraient pas spontanément. Non pas parce que l'algorithme n'est pas transparent, mais tout simplement parce qu'il faut un certain effort pour le comprendre. La transparence dépend donc aussi de la compétence de la personne et de sa capacité à comprendre ce contenu.

Capture d'écran du site designersethiques.org.

Sur YouTube, vous animez une chaîne intitulée  Science4All. Au cours de votre intervention à OCTO, vous avez dit que l'intelligence artificielle de ce réseau social est sans doute « la plus puissante et la plus sophistiquée au monde » actuellement. Pourquoi ?

Il y a quelques chiffres que je trouve vraiment stupéfiants sur ce sujet. D'abord, YouTube compte aujourd'hui plus de vues que Google ne compte de recherches. Ce qui veut dire que les gens ne vont plus vraiment chercher l'information, mais plutôt la regarder. Par ailleurs, la plupart du temps, ils ne vont pas vraiment choisir ce qu'ils regardent : 70% des vues sur YouTube sont le résultat de recommandations de son intelligence artificielle, qui choisit donc, en grande partie, l'information que les gens consomment. A l'échelle du monde entier, cela s'ajoute à un milliard d'heures de vues par jour pour deux milliards d'utilisateurs, ce qui correspond à environ 30 minutes par personne. Ce sont des quantités monstrueuses.

L'influence que j'ai pendant une conférence comme celle que je viens de mener, c'est que je parle à une centaine de personnes pendant 30 minutes. Ce qui est déjà pas mal... mais il me faudrait parler comme cela pendant plusieurs millénaires, peut-être à raison de plusieurs conférences par jour, pour pouvoir avoir la même attention que YouTube a pendant une journée. Cela donne une idée du phénomène, et de son ampleur complètement déraisonnable aujourd'hui.

« YouTube, c'est 500 heures de vidéos mises en ligne par minute »

Ensuite, il faut se rendre compte qu'il y a une quantité de travail énorme derrière YouTube. YouTube, c'est 500 heures de vidéos mises en ligne par minute, ce qui veut dire autant pour l'algorithme à analyser. Le nombre d'humains qu'il faudrait pour faire cela serait énorme, d'autant plus qu'il faudrait à la fois vérifier les droits d'auteur, regarder si c'est trop violent, si c'est un appel à la haine, de la pédophilie, de la pornographie, etc. Dans les étapes supplémentaires, on compte aussi la reconnaissance d'image, le sous-titrage automatique, la traduction sémantique... Côté utilisateurs, enfin, l'IA de YouTube analyse le profil de deux milliards de personnes, sur lesquelles elle est capable d'interpréter énormément de choses à partir de leur historique. En fonction des vidéos visionnées, YouTube peut savoir si vous êtes plutôt heureux, plutôt triste, voire si vous venez d'avoir un enfant.

A en juger par votre conférence, vous semblez pourtant penser que les choses progressent...

Oui, je pense qu'énormément de progrès ont été faits dans la sensibilisation à l'éthique. Moi-même, j'ai commencé à vraiment m'intéresser à ces questions-là à partir de 2017, donc je ne suis pas du tout en train de faire la morale aux autres. Je découvre aussi cela, comme tout le monde. Et je ne suis clairement pas le seul ; de plus en plus de mouvements insistent sur tous ces enjeux éthiques des entreprises du numérique.

Récemment, Facebook a notamment lancé un blog,  Hard Questions, où ils proposent de débattre du fonctionnement de leur propre réseau.  Mark Zuckerberg lui-même intervient souvent sur les questions d'éthique, ce qui n'est pas si courant pour un PDG d'une grande entreprise. YouTube et Twitter se sont aussi engagés à combattre les vidéos anti-vaccination, climatosceptiques ou qui relèvent des théories du complot. Ils essayent de lancer des services de fact-checking, soit en interne soit sur leurs plateformes. Il y a clairement beaucoup de travaux qui sont nés ces deux dernières années. Cela ne suffit pas du tout, évidemment, mais c'est en bonne voie.

« Souvent, l'objectif des réseaux sociaux n'est pas horrible au départ, même lorsqu'ils sont fondés sur la notion de profit »

La question de l'éthique renvoie aussi à ce qu'on appelle  l'économie de l'attention, c'est-à-dire le fait que les réseaux sociaux veulent faire rester leurs utilisateurs sur leurs plateformes le plus longtemps possible, et sont modelés sur ce principe. N'est-ce pas la raison d'être de ces services ? N'y a-t-il pas un vice de forme entre la notion d'éthique et les objectifs mêmes de ces réseaux sociaux, que l'on cherche aujourd'hui à modifier ?

Souvent, l'objectif des réseaux sociaux n'est pas horrible au départ, même lorsqu'ils sont fondés sur la notion de profit : vouloir générer de l'argent n'est pas en soi quelque chose de mal. Le problème est plutôt que cela a des conséquences catastrophiques. Qu'un objectif soit louable ou pas, quand on l'applique à une très grande échelle, il va forcément avoir des effets secondaires indésirables. Là où la réflexion éthique est intéressante, c'est davantage dans l'anticipation d'effets secondaires indésirables, qui se sont déjà produits et qui pourraient continuer à se produire dans le futur.

Si on y réfléchit, l'objectif de beaucoup de start-ups, de mouvements politiques ou d'associations est aussi de gagner de l'attention. La guerre de l'attention ne concerne pas que les réseaux sociaux. Obtenir de l'attention est quelque chose de critique, notamment quand on est petit et qu'on grandit lentement. Un phénomène nouveau s'ajoute à cela : avant, lorsqu'on grandissait beaucoup, si on produisait des chaussures par exemple, il fallait mettre en place toute une infrastructure et recruter des nouvelles personnes. Plus on grandissait, plus des coûts s'ajoutaient. C'est beaucoup moins le cas avec les technologies du numérique : lorsqu'on grandit, les coûts n'augmentent pas tant que ça car on a une IA développée. Une fois déployée, cette IA peut servir 1000 personnes tout comme elle peut servir 1 milliard de personnes.

Capture d'écran de la page d'accueil de YouTube, le 4 octobre.

De ce point de vue, on peut dire que certaines entreprises du numérique n'ont aucun modèle d'affaire. Instagram est l'exemple typique de ce phénomène : son fonctionnement ne repose sur aucun modèle d'affaire, si ce n'est la recherche permanente d'un maximum d'utilisateurs. L'objectif de ces entreprises n'est plus le profit, mais l'attention. La même chose peut être dite des youtubeurs : à titre personnel, je ne fais pas ma chaîne YouTube pour l'argent, je ne la monétise pas. Mais en grandissant, je peux obtenir des contrats et c'est beaucoup plus facile d'écrire un livre, par exemple. L'attention est devenue le nouveau pétrole et, aujourd'hui, les gens se battent pour l'attention peut-être plus encore que pour l'argent.

« Le gros danger pour les réseaux sociaux, ce n'est plus la concurrence, ce sont les scandales »

Cette discussion renvoie aussi à ce qu'on appelle l'effet de réseau : dans de tels systèmes, si vous gagnez, vous gagnez tout. Les effets de réseau conduisent donc souvent à des monopoles ou des oligopoles. Ce sont des situations où il n'y a pas « plein de petits acteurs » mais « peu de très grands acteurs ». C'est en partie un problème parce que tout le pouvoir est entre les mains de peu de personnes ; si elles déraillent, cela peut créer des bouleversements énormes. Mais personnellement, je vois aussi cela comme une opportunité parce que, dans des situations où la compétition n'est plus une question, les entreprises sont davantage impliquées dans une vision à long terme. Elles sont presque « obligées » de penser en termes de stabilité. Il est alors plus facile de mettre en avant les questions éthiques, parce qu'on peut faire prendre conscience à ces grands groupes que leur monopole les protège déjà de la concurrence. Le gros danger pour eux, ce n'est plus la concurrence, ce sont les scandales et les catastrophes à grande échelle, en particulier les problèmes de sécurité et d'éthique. Paradoxalement, cette situation un peu étrange est aussi une opportunité pour introduire davantage d'éthique.

Que changerait concrètement un algorithme éthique du point de vue de « l'expérience » de l'utilisateur ?

Cette question renvoie à la notion de «  volition cohérente extrapolée », qui a été développée par le chercheur Eliezer Yudkowsky - même si sa première version était assez floue. Telle que je l'interprète, elle correspond à l'idée que nos préférences ne correspondent pas forcément à nos « volitions » : ma « préférence » renvoie à ce que je préfère sur l'instant, et ma « volition » renvoie à ce que je voudrais préférer. Les réseaux sociaux mettent actuellement en avant nos préférences, mais pas nos volitions.

« C'est un défi qui s'annonce compliqué mais très excitant »

L'exemple que je prends tout le temps, c'est celui des vidéos YouTube de foot, tout simplement parce que j'en suis victime tous les jours : quand je vois les vidéos de foot qui me sont proposées par YouTube, je veux cliquer dessus... mais une partie de moi est aussi consciente des risques associés à cette action. Peut-être que trois heures plus tard, je serai encore à regarder mes vidéos de foot. Au moment où je vois une vidéo comme ça, je voudrais donc vouloir ne pas cliquer dessus. L'idée de Yudkowsky, que je réinterprète un peu à ma façon, est donc la suivante : plutôt que de programmer dans l'objectif d'une IA « ce qu'on préfère », il faudrait en fait encoder ce qu'on « voudrait préférer ».

L'idée, c'est aussi qu'un tel objectif soit extrapolé à des situations futures, qu'on n'a pas même pas encore imaginé nous-mêmes : autant il est facile de savoir ce qu'on « préférerait préférer » entre deux vidéos YouTube sous nos yeux, autant dans des situations complexes auxquelles on n'a encore jamais été confronté, il est très difficile de le savoir. C'est pour cela qu'on parle de volition cohérente extrapolée : il faudrait, à terme, appliquer cette notion non plus seulement au présent, mais également au futur. C'est un défi qui s'annonce compliqué mais très excitant.

 usbeketrica.com

 Commenter