Session 1

Session 1 – Synthèse artificielle et contribution : critique et prospective techno-politique et industrielle

16 décembre

9H30-12H30

Une vision historique et prospective sur la composante synthétique de l’IAG qui disrupte l’économie mondiale dans le contexte d’un techno-capitalisme hors sol qui tend, par les IA générales ou génériques à réduire ses contextes, métiers, territoires à leur calculabilité, et court le risque d’une dégradation de ses performances s’il ne tisse pas de nouvelles alliances avec la contribution humaine et en premier lieu avec la science. Quel régime de vérité ou quel régime de « facticité », pour reprendre le terme d’Antoinette Rouvroy, se dessine avec cette disruption ?

Introduction

Vincent Puig, IRI

Manuel Zacklad, CNAM

Intervenants

Guillaume Pellerin, IRI — Architectures et méthodes

Dominique Boullier, sociologue

Giuseppe Longo, ENS — L’empire numérique de l’alphabet à l’IA

  • On verra comment des machines, produisant des résultats à partir de moyennes statistiques ou par de l’apprentissage automatique construits en suivant des géodésiques (parcours optimaux) dans des espaces prédéfinis – enrichies d’un peu d’aléatoire physique, génèrent des banalités à partir de banalités moyennes, produisant du mal sans même qu’on le leur demande. Elles arrivent à le faire par l’itération et l’amplification de moyennes, par la recherche du maximum des corrélations, en excluant tout écart, en fait toute pensée en tant que toute pensée de ce qui est différent, de ce qui est nouveau. Qui plus est, ces « optima » et moyennes sont obtenus par la réduction de tout processus à des règles (des ”ordres”) de remplacement de suites de signes par des suites de signes où tout se calcule par la récursion sur des bases de données énormes, mais finies. Or, la récursion mathématique engendre une classe infinie et fort intéressante de fonctions, quand elle agît sur un ensemble infini (de nombres). Dans le Deep Learning, sous la forme d’une ”retro-propagation” décrite dans le continu, elle est à la base de techniques remarquables, dont on mettra en évidence quelques imites. Dans les LLM et leurs bases de données discrètes, elle produit l’ ”autophagie” et atteint la platitude de l’identique. On peut co-construire un nouveau milieu avec ces outils, comme les humains l’on toujours fait, si on développe une épistémologie critique, historique et scientifique du numérique. Cela doit s’accompagner d’une conscience technique des enjeux politiques implicites à une « organologie des savoirs », fondée sur des outils réflexifs et sur des méthodes de capacitation et de recherche contributive qui permettent à chacun de comprendre et dépasser les dangers d’une utilisation systématique et aveugle des processus d’optimisation statistique dans nos activités.

Antoinette Rouvroy, Un. de Namur — Le nouveau régime de facticité

Laurence Allard — Trajectoires critiques de l’IA