Gouvernementalité algorythmique et machine learning
Les big data configurent un processus social qui a été décrit par Thomas Berns et Antoinette Rouvroy comme l’avènement d’une gouvernementalité algorithmique. Outre la crise de la science statistique et de l’épistémè contemporaine (c’est à dire de l’articulation entre les savoir-faire, les savoir vivre et les savoirs académiques) que provoque le corrélationnisme des mathématiques algorithmiquement appliquées, la gouvernementalité algorithmique s’achemine vers l’époque du deep learning. Comment concevoir des agencements entre artifices computationnels et actions rationnelles des individus psychiques et collectifs qui ne conduisent pas à la standardisation massive des comportements et des représentations – c’est à dire à l’effondrement des capacités néguentropiques caractéristiques de l’homme ?
Intervenants
Olivier Grisel (INRIA)Modélisation prédictive et Deep Learning
David Berry (Université du Sussex)Algorythmes, Big Data et Critical Theory
Thomas Berns (Université libre de Bruxelles)La réflexivité algorythmique
Paul Jorion (Anthropologue)La mise à l’écart de l’homme par la machine est-elle irréversible ?