Amy Webb, futuriste, professeur à NYU et auteur primé, a passé une grande partie de la dernière décennie à rechercher, discuter et rencontrer des personnes et des organisations sur l’intelligence artificielle. « Nous avons atteint un paroxysme dans tout ce qui concerne l’IA », dit-elle. Il est maintenant temps de prendre du recul pour voir où cela va.
Telle est la tâche de son nouveau livre, The Big Nine: Comment les Tech Titans et leurs machines à penser pourraient déformer l’humanité, où elle a une vue d’ensemble des tendances qui, selon elle, ont mis le développement de la technologie sur une voie dangereuse. Aux États-Unis, Google, Microsoft, Amazon, Facebook, IBM et Apple (le «G-MAFIA») sont paralysés par les exigences incessantes à court terme d’un marché capitaliste, rendant impossible une planification réfléchie à long terme de l’IA. En Chine, Tencent, Alibaba et Baidu consolident et exploitent d’énormes quantités de données pour alimenter les ambitions autoritaires du gouvernement.
Si nous ne changeons pas cette trajectoire, soutient Webb, nous pourrions nous diriger tout droit vers la catastrophe. Mais il reste encore du temps pour agir et un rôle pour chacun. La MIT Technology Review s’est entretenue avec elle pour lui expliquer pourquoi elle s’inquiète et ce qu’elle pense que nous pouvons y faire.
Les questions et réponses suivantes ont été condensées et éditées pour plus de clarté.
Vous mentionnez que nous assistons actuellement à une convergence de tendances technologiques, politiques et économiques préoccupantes. Pouvez-vous nous expliquer quelles sont les tendances technologiques?
Lorsque vous parlez à un chercheur travaillant dans le domaine, il vous dira qu’il faudra beaucoup de temps avant que nous voyions beaucoup de promesses qui ont été faites au sujet de l’IA: des choses comme l’automatisation complète dans les véhicules, la reconnaissance absolue ou l’intelligence générale artificielle – AGI – des systèmes capables de cognition et de pensée plus humaine.
De mon point de vue, regardant vers l’horizon pour la journée où nous avons une sorte de machine à marcher, parler ou une machine avec une voix désincarnée prenant des décisions autonomes, manque un peu le point. Nous constatons déjà des milliards de petites avancées qui auront un effet cumulatif au fil du temps et conduiront à des systèmes capables de prendre de nombreuses décisions de manière autonome à la fois.
L’équipe DeepMind, par exemple, a travaillé dur sur les machines d’enseignement comment battre les humains en jouant à des jeux. Ils ont pris une longueur d’avance dans des domaines tels que l’apprentissage par renforcement hiérarchique et l’apprentissage multitâche. La dernière version de son algorithme AlphaGo, AlphaZero, est capable d’apprendre à jouer à trois jeux à la fois sans un humain dans la boucle. C’est un grand pas en avant. Il y a aussi le tout nouveau domaine des réseaux contradictoires génératifs, où avec un corpus d’images de taille décente, vous pouvez maintenant générer des visages humains qui semblaient très, très réalistes.
Ces avancées ne sont pas aussi sexy ou aussi excitantes que ce qu’on nous a dit sur AGI. Mais si vous êtes en mesure de prendre la vue de 40 000 pieds, vous pouvez voir que nous nous dirigeons vers une situation dans laquelle les systèmes feront des choix pour nous. Et nous devons nous arrêter et nous demander ce qui se passe lorsque ces systèmes mettent de côté la stratégie humaine au profit de quelque chose de totalement inconnu pour nous.
Qu’en est-il des tendances politiques et économiques? Pouvez-vous décrire celles qui vous inquiètent le plus?
Aux États-Unis, la libre circulation des idées peut se répandre sans entrave. C’est ainsi que la Silicon Valley a été fondée. Il a engendré à la fois la concurrence et l’innovation, c’est ainsi que nous en sommes arrivés là où nous en sommes maintenant avec l’IA, entre autres types de technologies.
Cependant, aux États-Unis, nous souffrons également d’un manque tragique de prévoyance. Plutôt que de créer une grande stratégie pour l’IA ou pour notre avenir à long terme, le gouvernement fédéral a supprimé le financement de la recherche scientifique et technologique. L’argent doit donc provenir du secteur privé. Mais les investisseurs attendent également une sorte de rendement. C’est un problème. Vous ne pouvez pas planifier vos percées en R&D lorsque vous travaillez sur la technologie fondamentale et la recherche. Ce serait formidable si les grandes entreprises de technologie avaient le luxe de travailler très dur sans avoir à produire une conférence annuelle pour montrer leur dernière et meilleure chose de whiz-bang. Au lieu de cela, nous avons maintenant d’innombrables exemples de mauvaises décisions que quelqu’un dans la G-MAFIA a prises, probablement parce qu’ils travaillaient rapidement. Nous commençons à voir les effets négatifs de la tension entre faire des recherches dans le meilleur intérêt de l’humanité et rendre les investisseurs heureux.
Maintenant, ce serait déjà assez mauvais, n’est-ce pas? Mais tout cela se passe en même temps qu’il y a une énorme puissance qui se consolide en Chine. La Chine dispose d’un fonds souverain pour la recherche fondamentale fondamentale en IA. Ils jettent d’énormes sommes d’argent à l’IA. Et ils ont une idée totalement différente des États-Unis en matière de confidentialité et de données. Cela signifie qu’ils ont beaucoup plus de données qui peuvent être extraites et affinées. Avec une autorité centrale, il est extrêmement facile pour le gouvernement de tester et de créer des services d’IA qui intègrent les données de 1,3 milliard de personnes. Et c’est juste dans leur propre pays.
Ensuite, ils ont la Belt and Road Initiative, qui ressemble à un programme d’infrastructure traditionnel mais qui est en partie également numérique. Il ne s’agit pas seulement de construire des routes et des ponts; il s’agit également de créer des réseaux 5G et de poser des fibres, et d’exploiter et d’affiner les données à l’étranger. Le déploiement de ces technologies est un risque pour les personnes qui se soucient de choses comme la liberté d’expression et les idéaux démocratiques occidentaux.
Pourquoi devrions-nous lutter pour les idéaux démocratiques occidentaux?
C’est une grande question. J’ai vécu en Chine, au Japon et bien sûr aux États-Unis. Et vous pourriez regarder l’état de notre pays en ce moment et ce qui se passe en Chine et se demander, est-ce vraiment la pire chose? Soit dit en passant, le système de notation du crédit social de la Chine semble effrayant et horrible pour les Américains, mais ce que beaucoup de gens ne réalisent pas, c’est que le comportement d’auto-déclaration et de surveillance dans les villages et les communautés fait partie de la culture chinoise depuis toujours. Le score de crédit social automatise simplement cela. Alors oui, c’est une question formidable.
Je suppose que ce que je dirais c’est que si je regardais la version idéalisée du communisme chinois et la version idéalisée de la démocratie occidentale, je choisirais la démocratie occidentale parce que je pense qu’il y a une meilleure opportunité pour la libre circulation des idées et pour tous les jours les gens à réussir. Je pense que donner aux gens des incitations à la réussite individuelle et personnelle est un excellent moyen de relever une société, nous aide à atteindre notre potentiel individuel.
Avec la direction que le monde prend avec l’IA aujourd’hui, est-ce une comparaison juste? Faut-il comparer les versions idéalisées du communisme chinois avec la démocratie occidentale, ou les pires versions des deux?
C’est une grande question, car vous pourriez dire que des éléments de l’écosystème de l’IA ont déjà un impact vraiment négatif sur nos idéaux démocratiques occidentaux. De toute évidence, tout ce qui s’est passé avec Facebook sert d’exemple. Mais regardez aussi ce qui se passe avec la communauté anti-vaxxer. Ils diffusent des informations totalement incorrectes sur les vaccins et la science fondamentale. Nos traditions américaines diront la liberté d’expression, les plateformes sont des plateformes, nous devons laisser les gens s’exprimer. Eh bien, le défi avec cela est que les algorithmes font des choix sur le contenu éditorial qui amènent les gens à prendre de très mauvaises décisions et à rendre les enfants malades en conséquence.
Le problème est que notre technologie est devenue de plus en plus sophistiquée, mais notre réflexion sur ce qu’est la liberté d’expression et à quoi ressemble une économie de marché libre n’est pas devenue aussi sophistiquée. Nous avons tendance à recourir à des interprétations très basiques: la liberté d’expression signifie que tout discours est libre à moins qu’il ne se heurte à la loi sur la diffamation, et c’est la fin de l’histoire. Ce n’est pas la fin de l’histoire. Nous devons commencer à avoir une conversation plus sophistiquée et intelligente sur nos lois actuelles, notre technologie émergente et comment nous pouvons amener ces deux à se rencontrer au milieu.
En d’autres termes, vous avez la conviction que nous évoluerons de là où nous en sommes maintenant vers une version plus idéalisée de la démocratie occidentale. Et vous préféreriez de beaucoup cela au communisme chinois idéalisé.
Oui, j’ai la conviction que c’est possible. Ma grande préoccupation est que tout le monde attend, que nous traînons les talons et que cela va prendre une véritable catastrophe pour inciter les gens à agir, comme si l’endroit où nous sommes arrivés n’est pas catastrophique. Mais le fait que la rougeole soit de retour dans l’État de Washington pour moi est un résultat catastrophique. C’est ce qui s’est passé au lendemain des élections. Peu importe de quel côté de l’éventail politique vous vous trouvez, je ne peux imaginer que personne aujourd’hui pense que le climat politique actuel est bon pour notre avenir.
Je crois donc absolument qu’il existe une voie à suivre. Mais nous devons nous rassembler et combler le fossé entre la Silicon Valley et DC afin que nous puissions tous diriger le bateau dans la même direction.
Que recommandez-vous au gouvernement, aux entreprises, aux universités et aux particuliers?
La piste de développement de l’IA est un problème, et chacun de nous a un intérêt. Vous, moi, mon père, mon voisin, le gars du Starbucks que je traverse en ce moment. Alors, que devraient faire les gens ordinaires? Sachez plus qui utilise vos données et comment. Prenez quelques minutes pour lire le travail écrit par des gens intelligents et passez quelques minutes pour comprendre de quoi nous parlons vraiment. Avant de signer votre vie et de commencer à partager des photos de vos enfants, faites-le de manière informée. Si vous êtes d’accord avec ce que cela implique et ce que cela pourrait signifier plus tard, très bien, mais au moins ayez d’abord cette connaissance.
Les entreprises et les investisseurs ne peuvent pas s’attendre à précipiter un produit encore et encore. Il nous prépare à des problèmes en cours de route. Ainsi, ils peuvent faire des choses comme consolider leurs processus d’embauche, accroître considérablement leurs efforts pour améliorer l’inclusivité et s’assurer que leur personnel est plus représentatif de ce à quoi ressemble le monde réel. Ils peuvent également mettre des freins. Tout investissement fait dans une entreprise ou un projet d’IA ou quoi que ce soit devrait également inclure du financement et du temps pour vérifier des choses comme le risque et les biais.
Les universités doivent créer un espace dans leurs programmes pour les diplômes hybrides. Ils devraient inciter les étudiants CS à étudier la littérature comparée, les religions du monde, la microéconomie, l’anthropologie culturelle et des cours similaires dans d’autres départements. Ils devraient défendre les programmes de double diplôme en informatique et relations internationales, théologie, science politique, philosophie, santé publique, éducation, etc. L’éthique ne doit pas être enseignée en tant que classe autonome, quelque chose pour simplement cocher une liste. Les écoles doivent inciter même les professeurs titulaires à tisser des discussions compliquées sur les préjugés, les risques, la philosophie, la religion, le sexe et l’éthique dans leurs cours.
L’une de mes plus grandes recommandations est la formation de GAIA, ce que j’appelle la Global Alliance on Intelligence Augmentation. À l’heure actuelle, les gens du monde entier ont des attitudes et des approches très différentes en ce qui concerne la collecte et le partage de données, ce qui peut et devrait être automatisé et à quoi pourrait ressembler un avenir avec des systèmes plus généralement intelligents. Je pense donc que nous devrions créer une sorte d’organisation centrale qui peut développer des normes et standards mondiaux, une sorte de garde-corps pour imprégner non seulement les idéaux américains ou chinois à l’intérieur des systèmes d’IA, mais des visions du monde qui sont beaucoup plus représentatives de tout le monde.
Par-dessus tout, nous devons être disposés à penser à cette échéance beaucoup plus longue, et pas seulement dans cinq ans. Nous devons cesser de dire: «Eh bien, nous ne pouvons pas prédire l’avenir, alors ne nous inquiétons pas pour le moment.» C’est vrai, on ne peut pas prédire l’avenir. Mais nous pouvons certainement mieux planifier cela.
Une version abrégée de cette histoire est apparue à l’origine dans notre bulletin AI The Algorithm. Pour le recevoir directement dans votre boîte de réception, inscrivez-vous ici gratuitement.