Flavien Chervet, expert en intelligence artificielle, entrepreneur et essayiste, est l'invité de 6 minutes chrono/ Lyon Capitale.
"Nous nous trouvons devant une alternative vertigineuse. Prendrons-nous le chemin du Projet Manhattan : faire de l’IA la plus dangereuse arme de destruction massive de l’histoire ? Ou bien le chemin du CERN : faire de l’IA l’occasion de la plus grande coopération internationale de l’histoire ? La réponse dépend d’une autre question : saurons-nous contrôler les superintelligences de demain ?"
Le pitch est saisissant. Après Hyperprompt, manuel français de référence sur l’art du prompt qui offrait un parcours didactique pour maîtriser les outils d’intelligence artificielle génératives, le nouvel essai de Flavien Chervet, expert en intelligence artificielle, a de quoi susciter la curiosité.
En 2023, le grand public a découvert l'intelligence artificielle avec ChatGPT. 2024, il y en a eu une utilisation massive. Et maintenant ?
Lire aussi :
- Le jour où ChatGPT a rédigé cette chronique
- "L'IA n'est ni ni bonne ni mauvaise, tout dépend de l'usage qu'on en fait"
"Dans les labos, on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs."
"Il y a toute une face de l'intelligence artificielle, beaucoup plus géopolitique, que le grand public connaît moins. Une face militaire en train de rentrer en ébullition, notamment du fait de la guerre en Ukraine et puis des autres guerres qui animent notre monde, assure Flavien Chervet. Il y a tout un nouvel arsenal, un nouvel armement qui est en train d'être créé avec l'intelligence artificielle. L'intelligence artificielle représente non pas seulement des possibilités, mais aussi, même si les possibilités sont incroyables, un risque. La science-fiction nous a beaucoup prévenus mais, aujourd'hui, dans les labos on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs."
Lire aussi : “L’IA est une autre race extraterrestre à laquelle il va falloir s’habituer”
"Les premiers androïdes robots humanoïdes pour le grand public commencent à arriver"
L'intelligence artificielle commencerait-elle à penser par elle-même ?
"Ce n'est pas intentionnel comme un humain, mais c'est juste que, pour atteindre l'objectif qu'on leur a donné, elles vont réaliser des objectifs intermédiaires qui sont dangereux. Typiquement, si on leur dit d'optimiser une production de trombones pour une usine, c'est le cas classique, elles peuvent se mettre à transformer tout le pays en usine de trombones pour essayer de faire le plus de trombones possible. C'est un peu exagéré, mais c'est une différence de pensée."
Aujourd'hui, les systèmes d'IA, beaucoup plus puissants, gagnent en autonomie. Le buzzword ? Les agents IA, présentés comme des entités autonomes révolutionnaires, capables de prendre des décisions complexes, sans intervention humaine. "Toutes les entreprises sont en train de commencer à réfléchir à ça. C'est le fait de donner de l'autonomie à l'IA pour que, toute seule, elle puisse réaliser tout un processus assez complexe, assez complet. Et c'est là, quand il y a de l'autonomie pour atteindre un objectif, on ne sait pas comment faire en sorte que l'IA reste alignée par rapport aux intentions de ses concepteurs. C'est un vrai problème."
"On pourra avoir un espèce de salarié digital instantané"
Et d'ajouter : "on pourra avoir un espèce de salarié digital instantané. En 2025, on va aussi avoirune explosion de la robotique. Les problèmes qu'on avait en robotique étaient plus des problèmes d'intelligence que des problèmes de mécanique. Aujourd'hui, pour faire des voitures autonomes, on met moins de capteurs, moins de robotique et plus d'intelligence dans la machine. Et donc, avec l'explosion de l'IA, la robotique explose, et notamment les robots humanoïdes commencent à devenir une réalité. Il y a BMW qui a fait une première grosse expérimentation dans son usine et il y a des chances que, même auprès du grand public, les premiers androïdes robots humanoïdes pour le grand public commencent à arriver."
La restranscription intégrale de l'entretien avec Flavien Chervet
Bonjour à tous et bienvenue dans ce nouveau rendez-vous de 6 minutes chrono. J'en profite pour vous souhaiter une bonne année 2025. Nous recevons aujourd'hui Flavien Chervet, expert en intelligence artificielle, essayiste conférencier entrepreneur. D'ici quelques jours, sort votre deuxième livre qui s'appelle Hyperarme. Le pitch est passionnant. Après la lecture d'Hyperarme, vous comprendrez pourquoi Microsoft vient d'acheter une centrale nucléaire et "vous ne verrez plus l'IA comme un gadget cool de la Silicon Valley". En 2023, le grand public a découvert l'intelligence artificielle avec ChatGPT. 2024, il y a eu une utilisation massive. 2025 finalement qu'est-ce que ça nous réserve ? Quelles sont les grandes promesses ? Et je voudrais revenir pourquoi ce sera plus un gadget cool l'IA ?
Alors jusqu'à maintenant, en effet, on a vraiment eu cette impression de plein de produits sympas, en plus des produits grand public, comme ChatGPT, que n'importe qui peut utiliser, c'est fun. Et, en fait, il y a toute une face que le grand public connaît moins de l'intelligence artificielle qui est beaucoup plus géopolitique. Il y a déjà une face militaire qui est en train de rentrer en ébullition, notamment du fait de la guerre en Ukraine et puis des autres guerres qui animent notre monde actuellement. Donc, il y a tout un nouvel arsenal, un nouvel armement qui est en train d'être créé avec l'intelligence artificielle et je pense que le grand public va en entendre parler. Et puis, par exemple, des choses comme l'élection de Trump vont aussi favoriser le déploiement de ressources colossales, par exemple pour construire des clusters de calculs pour entraîner des systèmes d'IA qui vont consommer plusieurs gigawatts, avoir une puissance énergétique de plusieurs gigawatts. C'est du délire dans un monde environnementalement contraint. Et donc, progressivement, le sujet va prendre une teinte très géopolitique. En plus, l'intelligence artificielle représente non pas seulement des possibilités, mais aussi, même si les possibilités sont incroyables, ça représente aussi un risque. La science fiction nous a beaucoup prévenus mais, aujourd'hui, dans les labos on a des premiers cas de ce qu'on appelle des désalignements des systèmes d'IA qui commencent à faire des choses qui n'étaient pas prévues par leurs concepteurs.
Par elles-mêmes ?
Alors, ce n'est pas intentionnel comme un humain, mais c'est juste que pour atteindre l'objectif qu'on leur a donné, elles vont réaliser des objectifs intermédiaires qui sont dangereux. Typiquement, si on leur dit d'optimiser une production de trombones pour une usine, c'est le cas classique, elles peuvent se mettre à transformer tout le pays en usine de trombones pour essayer de faire le plus de trombones possible. C'est un peu exagéré, mais c'est une différence de pensée.
Et ça, ces désalignements, comment on fait justement pour arriver à les cadrer à les contraindre ?
Alors, il y a plein de tentatives de techniques. Par exemple, le fait que ChatGPT ne puisse pas donner la recette d'un cocktail molotov, ce sont des techniques d'alignement qui font que l'IA ne va pas faire des choses préjudiciables. Mais aujourd'hui, on n'a aucune idée de comment faire si on a des systèmes d'IA beaucoup plus puissants et surtout qui gagnent en autonomie. Parce que 2025 un des gros sujets c'est ce qu'on appelle les agents IA...
Ça va être le buzzword de 2025 les agents IA...
C'est le gros buzzword. Après ChatGPT, IA générative, ce sont les agents IA. Toutes les entreprises sont en train de commencer à réfléchir à ça. C'est le fait de donner de l'autonomie à l'IA pour que, toute seule, elle puisse réaliser tout un processus assez complexe, assez complet. Et c'est là, quand il y a de l'autonomie pour atteindre un objectif, on ne sait pas comment faire en sorte que l'IA reste alignée par rapport aux intentions de ses concepteurs. C'est un vrai problème.
Pour préparer cette édition j'ai justement demandé à ChatGPT quelles étaient ses prédictions pour l'évolution de l'IA en 2025. On parle de médecine personnalisée, d'une IA omniprésente dans la vie quotidienne, et d'une IA plus éthique et intuitive. C'est quoi les grandes promesses 2025 Flavien Chervet pour l'IA ?
Je pense que ChatGPT n'est pas le meilleur pour faire de la prospective. Moi, mon avis sur 2025, c'est qu'u niveau des entreprises, des cas d'usage business on va dire, ce sont les agents qui vont monter en flèche avec un niveau de maturité progressif et 2026 ça va vraiment être mature. On pourra avoir un espèce de salarié digital instantané. En 2025, on va avoir aussi une explosion de la robotique. La robotique s'est préparée en 2024 à son explosion. Les problèmes qu'on avait en robotique étaient plus des problèmes d'intelligence que des problèmes de mécanique. Aujourd'hui, pour faire des voitures autonomes, on met moins de capteurs, moins de robotique et plus d'intelligence dans la machine. Et donc, avec l'explosion de l'IA, la robotique explose, et notamment les robots humanoïdes commencent à devenir une réalité. Il y a BMW qui a fait une première grosse expérimentation dans son usine et il y a des chances que, même auprès du grand public, les premiers androïdes robots humanoïdes pour le grand public commencent à arriver. Au Japon la tendance ça va être 2025.
Oui parce qu'il me semble que j'avais vu il y a très longtemps il y avait déjà des assistants pour les professeurs d'école en Corée. On voyait déjà ça c'est un peu vieux.
Oui mais c'était des choses très limitées. Il y avait un corps avec un script qui faisait quelque chose de très basique et répétitif. Là, on parle de robots qui ont une compréhension de leur environnement, pas la même que l'humain, mais une compréhension numérique de leur environnement et qui sont capables de réagir et d'agir avec un spectre général de capacité. Et donc, ils commencent à être capables de faire autant - si on imagine un usage domestique -, lave-vaisselle, garder les enfants, aller allumer la télévision, etc. Après, c'est là où la question éthique rentre aussi beaucoup en jeu.
J'ai lu, ce sera la dernière question, parce que ça va vite mais c'est passionnant, que les bébés nés depuis le 1er janvier 2025 changent d'ère, n'appartiennent plus à la génération alpha qui courait de 2010 à 2024, mais à la génération bêta. Et c'est un chercheur en sciences sociales australien qui disait que, pour ces enfants, les mondes numériques et physiques seront indissociables pour eux. C'est-à-dire que l'intelligence artificielle ça va être leur…
Ils vont grandir avec. Alors on va voir de quoi sera fait le monde. En ce moment, la révolution de l'IA, elle va, si on regarde un peu tous les indicateurs, entre 15 et 20 fois plus vite que l'arrivée d'Internet. Donc, en deux ans, on a fait autant qu'en 20 ans d'Internet. C'est du délire. Et imaginez le monde dans 10 ans. Je pense qu'aujourd'hui c'est très, très, très compliqué. Alors dans Hyperarme, j'essaye d'ébaucher des scénarios. C'est un des sujets. Mais pour ces jeunes là, ils vont grandir dans un monde qui aura rien à voir avec celui qu'on connaît, mais de façon encore bien plus radicale qu'entre moi et mes parents ou entre mes parents et leurs parents et grands-parents.