Argumentaire


Dans le cadre d’une réflexion globale sur une nouvelle articulation des processus de traitement de données dans la data economy (intelligence artificielle réticulée, deep learning, machine learning en général et calcul intensif), d’une part, et de l’interprétation de ces données et de ces traitements, d’autre part, et dans le contexte scientifique aussi bien que dans l’exercice de la citoyenneté et plus généralement de la responsabilité, cette onzième édition des Entretiens du Nouveau Monde Industriel se propose d’analyser l’impact des instruments de calculs automatisés sur la constitution des savoirs académiques au moment où les technologies issues des mathématiques appliquées à l’informatique en réseau tendent à s’imposer au monde scientifique à partir des critères d’efficience prescrits par les marchés.

*

Il en résulte une menace extrême et hautement paradoxale quant aux possibilités d’exercer, de cultiver et de développer les savoirs scientifiques s’il est vrai que ceux-ci ne sauraient se soumettre aux processus de prolétarisation qui sont induits par les “boîtes noires” que les instruments et appareils deviennent pour les scientifiques désormais tout autant que pour le commun des mortels.

*

Il s’agira cette année d’analyser les problèmes posés par les instruments numériques dans le champ scientifique et dont le fonctionnement et les processus de catégorisation afférents deviennent inaccessibles, aveugles et non formalisables du point de vue théorique. À l’encontre d’Ian Hacking déclarant « inutile » la « connaissance du microscope », comme à l’encontre de Chris Anderson annonçant en 2008 « la fin de la théorie » à l’époque des « big data », il s’agira- d’analyser, de questionner et de critiquer les phénomènes de boîtes noires dans le champ instrumental et appareillé en général, et dans le cas des instruments scientifiques en particulier afin d’évaluer leur coût épistémologique aussi bien que les bénéfices à attendre d’un dépassement de cet état de fait incompatible avec l’état de droit sans lequel aucune science n’est possible, et de prescrire autant que possible dans les champs scientifiques concernés des modèles instrumentaux et des pratiques instrumentales permettant de les surmonter.

*

Menés en référence à l’analyse phénoménotechnique de Gaston Bachelard et à la mécanologie de Gilbert Simondon, mobilisant les questionnements et concepts d’Edmund Husserl, d’Alfred Whitehead, de Norbert Wiener et de Karl Popper, notamment, ces travaux ont une valeur générique quant aux questions que pose l’expansion de l’intelligence artificielle réticulée dans toutes les dimensions de l’activité humaine : ils seront conduits dans la perspective d’une réflexion globale sur les enjeux de l’expansion du calcul automatisé et des mathématiques appliquées dans les aspects les plus divers de la vie quotidienne – et bien sûr dans le champ économique.

*

 Tout en étendant la portée de ces questions aux aspects les plus divers et les plus quotidiens de l’existence, le calcul intensif mis en œuvre à travers la data economy et le capitalisme des plateformes provoquent des processus performatifs induits par la vitesse de traitement des informations par les algorithmes et les boucles de rétroaction qu’ils permettent d’opérer sur les actes quotidiens en prenant de vitesse tous les processus délibératifs, individuels ou collectifs. Ces évolutions factuelles, qui sont encore très peu théorisées, ont pénétré les marchés à travers le “capitalisme linguistique” (tel que l’a décrit Frédéric Kaplan) et la logistique de la vente en ligne. Elles atteignent désormais aussi bien la “médecine 3.0”, également appelée infomédecine, que la gestion urbaine, l’administration de la justice, la sécurité, les services, etc. – après la conception et la production robotisée. La question qui s’impose à travers tous ces champs – si hétérogènes qu’ils puissent paraître – est celle de la fonction du calcul, des bénéfices qui peuvent en être attendus, mais aussi et surtout de ses limites et des conditions dans lesquelles il peut être mis au service d’une délibération (qu’elle soit scientifique, citoyenne, au service d’une inventivité sociale ou économique), et des surdéterminations induites par les structures de données.