PRENDRE SOIN DE L'INFORMATIQUE ET DES GÉNÉRATIONS
À la mémoire de Bernard Stiegler.
22 et 23 décembre 2020
Avant son décès le 5 août 2020, Bernard Stiegler avait projeté l’organisation des Entretiens du Nouveau Monde Industriel 2020 autour des questions de l’informatique et des générations. Lors de ce colloque, nous prolongerons le travail amorcé autour de ces questions, en nous appuyant sur les textes de Bernard Stiegler et sur les travaux des intervenants.
Suite aux mesures sanitaires décrétées par le gouvernement, les Entretiens du Nouveau Monde Industriel se tiendront entièrement en ligne mardi 22 et mercredi 23 décembre prochains. Les personnes inscrites avant le 21 décembre recevront très prochainement un lien pour suivre la conférence et une diffusion en streaming sera proposée sur ce site.
Argumentaire et programme rédigés par Anne Alombert (UCL), Victor Chaix (IRI) et Maël Montévil (IRI)
En proposant de prendre soin de l’informatique et des générations, les Entretiens du Nouveau Monde Industriel 2020 poursuivent deux objectifs principaux :
. interroger les fondements théoriques de l’informatique qui commandent le fonctionnement des technologies numériques contemporaines ;
. et concevoir de nouveaux dispositifs et de nouvelles pratiques pour mettre ces technologies au service de la transmission, du partage et de la constitution de savoirs transgénérationnels.
Nous tenterons ainsi de repenser la question de l’intelligence artificielle à partir d’un nouveau paradigme théorique, qui ne se fonde plus sur l’analogie entre l’humain et la machine, mais qui prenne en compte les interactions entre individus psychiques, milieux techniques et organisations sociales : au lieu d’envisager la vie ou l’esprit comme des processus de traitement d’information, comme le propose les paradigmes cybernétiques et cognitivistes dominants, nous nous interrogerons sur le processus d’exosomatisation, à travers lequel les vivants humains extériorisent leurs fonctions noétiques dans des organes artificiels, qui peuvent ainsi devenir les supports d’une mémoire collective et de savoirs transgénérationnels dont il faut prendre soin.
Nous tenterons ensuite de traduire ces questions théoriques en terme de conception et de développement technologiques. Comment réaliser des plateformes numériques au service des relations sociales et intergénérationnelles, aujourd’hui menacées par les applications addictives et l’économie des données ? Comment intégrer dans les dispositifs computationnels des fonctions délibératives et interprétatives, qui dépassent toujours les programmes calculables en produisant des bifurcations improbables ? Comment transformer les technologies de l’information et de la communication en supports de mémoire, d’interprétation, de délibération et d’invention, au service du partage des savoirs et de l’intelligence collective, et pour répondre aux enjeux de l’ère post-vérité ? En un mot, comment penser un web herméneutique et transgénérationnel ?
Sur le site polemictweet.com et sur twitter avec le hashtag #enmi20
Ouverture de la salle : 9h20
Le fonctionnement des dispositifs numériques et des systèmes d’intelligence artificielle contemporains repose sur des modèles théoriques hautement problématiques : la cybernétique et le cognitivisme auquel elle a donné lieu se fondent tous deux sur une notion vague d’information, qui rend possible des analogies entre les machines et le vivant d’une part, et entre les ordinateurs et le cerveau et l’esprit d’autre part, les uns et les autres étant compris comme des processus de traitement d’informations. Or, la réinscription de la machine et de l’ordinateur dans l’histoire des techniques, donc dans l’évolution exosomatique du vivant, implique un changement de paradigme théorique : loin de constituer des modèles du vivant ou de la pensée, les machines et les ordinateurs constituent des produits de la vie technique dans lesquels s’extériorisent des fonctions vitales et noétiques, qui évoluent donc avec les systèmes d’écritures et de calculs. Dès lors, la question qui se pose est moins celle des performances desdites « intelligences artificielles », que celle de la transformation des différents types de savoirs dans les milieux digitaux, et en particulier, celle de l’avenir des capacités de délibérer, de raisonner et de décider, qui sont au fondement de la vie politique, mais qui semblent bien aujourd’hui menacées par l’automatisation numérique, l’efficience des algorithmes et l’hégémonie du marché.
09h30 : Introduction générale
10h15 : Anne Alombert (Philosophie, université Catholique de Lille)
10h45 : Mathieu Triclot (Philosophie, université de technologie de Belfort-Montbéliard)
11h15 : Pause
11h30 : Daniel Ross (Philosophie politique, collectif Internation)
12h00 : Discussion
12h30 : Pause déjeuner
La notion d’information a été introduite en biologie à la suite de plusieurs événements scientifiques : la publication de la théorie de la communication de Shannon en 1948, la mécanisation de certains calculs avec la première implémentation d’une machine équivalente à celle de Turing (ENIAC) en 1945, et la découverte de la structure de l’ADN en 1953. Et pourtant, d’un point de vue théorique, le concept d’information demeure encore flou aujourd’hui : les biologistes se réfèrent à la fois à Shannon et à Turing, alors que les deux cadres sont fort différents. Surtout, le concept d’information tend à faire accroire que la compréhension du vivant pourrait être obtenue par le “décryptage” de l’ADN, qui donnerait sa forme à l’organisme. De même, dans la vie exosomatique, à l’époque de la génération automatique d’articles par les systèmes d’intelligence artificielle, certains tendent à penser que les textes et plus généralement les données auraient un sens intrinsèque, accessible par une mécanique calculatoire. Dans les deux cas, la notion d’information fait disparaître l’activité vivante au profit d’une interprétation mécanique des processus en jeu, sans que cette dernière ne soit justifiée ou même réellement élaborée théoriquement. Comment dépasser ce paradigme informationnel pour penser non seulement le vivant, mais aussi la forme technique de la vie et les nouvelles machines computationnelles qui constituent son milieu ambiant ?
13h30 : Yuk Hui (Informatique, philosophie de la technique, Hong Kong university)
14h00 : Maël Montévil (Biologie théorique et épistémologie, IRI et IHPST, université paris 1)
14h30 : Pause
14h45 : Jean Lassègue (Anthropologie philosophique, CNRS LIAS) & Giuseppe Longo (Mathématiques et épistémologie, CNRS et ENS)
15h45 : Discussion
16h30 : Pause
Le stade numérique du processus de grammatisation transforme radicalement les conditions de la lecture, de l’écriture, de la traduction et de l’expression. Si l’informatique émane du langage et si l’ordinateur peut être défini comme une machine à réécriture automatique, cela ne signifie pas pour autant que la pratique des langues puisse être réduite à un processus computationnel. Au contraire, les pratiques linguistiques, y compris la traduction, comportent toujours une dimension diachronique, qui rend possible leurs évolutions à travers les expressions locales et singulières. Or, c’est précisément cette dynamique et cette diversité langagière qui semblent aujourd’hui menacées par le « capitalisme linguistique » de Google, qui exerce un contrôle sur la pratique des langues au moyen d’outils de correction, d’auto-complétion et de traduction automatique, transformant ainsi les savoirs linguistiques locaux en ressources économiques. Comment lutter contre les effets homogénéisants, régularisant et synchronisant de ces nouvelles technologies d’écritures, qui tendent à désidiomatiser les langues ? Aussi performante soit-elle, la génération automatique de textes par les logiciels peut-elle combler le désir d’histoire qui relie les générations entre elles ? La génération automatique de musiques ne manque-t-elle pas la dimension d’improvisation inattendue qui caractérise toute œuvre nouvelle ? A quelles conditions un programme peut-il assister des pratiques créatives ? Cela suppose de comprendre le rôle de l’interprétation dans sa capacité à produire du sens au-delà du calculable, et d’en tirer les conséquences pour transformer les technologies de l’information et de la communication en supports de mémoire, d’interprétation et d’invention.
17h00 : Frédéric Kaplan (Informatique et linguistique, école Polytechnique Fédérale de Lausanne)
17h30 : Michal Krzykawski (Philosophie, université de Silésie à Katowice)
18h00 : Pause
18h15 : Gerard Assayag (Musique et informatique, IRCAM)
18h45 : Discussion
Ouverture de la salle à 9h20
Depuis la surexposition aux écrans des jeunes enfants jusqu’aux nouvelles formes d’addictions aux applications, depuis l’exploitation des données personnelles jusqu’à la diffusion des fake news, en passant par la généralisation de la surveillance, l’extension des technologies numériques dans toutes les sphères de l’existence (notamment par l’intermédiaire des smartphones) engendrent de nouvelles pathologies, à la fois psychiques et sociales, et soulèvent de nouvelles questions, à la fois juridiques et politiques. Longtemps restés inaperçus, ces phénomènes inquiètent aujourd’hui massivement : aussi bien les citoyens (parents et adolescents) que les organisations internationales, aussi bien les professionnels de la santé, de l’éducation et du soin, que les designers de la Silicon Valley. Quels sont les effets psycho-sociaux engendrés par les nouvelles formes de télé-communication numérisée ? En quoi transforment-elles les manières de se rapporter à soi-même et aux autres ? En quoi les processus d’individuation psychiques et collectives sont-ils perturbés ? Comment transformer les modèles comportementalistes et neurologiques qui sous-tendent le fonctionnement des « réseaux anti-sociaux » et l’économie des données ?
09h30 : Introduction générale
10h00 : Marie-Claude Bossière (Pédopsychiatrie, Institut de recherche et d’innovation)
10h30 : Simon Woillet (Philosophie, littérature et psychanalyse, université Paris 3)
11h00 : Pause
11h15 : Gerald Moore (Philosophie et anthropologie, Durham university)
11h45 : Peter Szendy (Philosophie et musicologie, université Paris Nanterre)
12h15 : Discussion
13h : Pause déjeuner
En tant qu’elles constituent un nouveau milieu mnémotechnique, les technologies numériques opèrent des disruptions majeures dans les champs de la recherche et de l’éducation : plutôt que de permettre le partage de savoirs (processus dynamiques et transgénérationnels qui font l’objet de pratiques singulières), les médias sociaux favorisent la diffusion d’informations mémétiques, chargée en signaux émotionnels, calculables par des algorithmes et susceptibles de produire des effets de “buzz” en temps réel. La loi de l’audience et du marché semble ainsi s’imposer sur ces plateformes, en dépit des nombreuses potentialités contributives des technologies numériques. En effet, contrairement aux technologies analogiques traditionnelles, les technologies numériques contiennent en puissance la possibilité de dépasser la frontière entre producteurs et consommateurs d’images, en ouvrant de nouvelles possibilités d’analyse, d’annotation et d’éditorialisation des objets temporels audiovisuels (films, émissions, vidéos, cours, etc.). De telles pratiques sont au principe de la réflexivité critique que l’école a pour fonction de développer, et qui devrait permettre aux plus jeunes générations d’affronter les enjeux de l’ère post-vérité. Alors que se développe le télé-enseignement, l’école et l’université sauront-elles inventer de nouvelles pratiques et outils capacitants fondés sur les potentialités contributives des technologies audiovisuelles numérisées ? Sauront-elles transformer les spectateurs passifs en contributeurs critiques, et les audiences en publics, afin de redonner une chance à la démocratie ?
14h00 : Victor Chaix (Étudiant et activiste, Institut de Recherche et d’Innovation et Association des amis de la génération Thunberg)
14h15 : Tyler Reigeluth (Philosophie, université catholique de Lille)
14h45 : Franck Cormerais (Sciences de l’information et de la communication, université Bordeaux Montaigne)
15h15 : Maxime Barilleau (Enseignement, référent numérique et coordinateur du projet UNEJ, collège Raymond Poincaré et DANE Créteil)
15h45 : Discussion
16h30 : Pause
L’industrialisation de la production et l’avènement des sociétés de consommation ont engendré une prolétarisation des modes de vie, désormais prescrits par les campagnes publicitaires, elles-mêmes préparées par des études de marketing. La mise en circulation d’objets techniques « fermés » dont le fonctionnement interne demeure indéchiffrable et dont l’obsolescence est programmée, a contribué à transformer les praticiens en utilisateurs : alors que dans le monde industriel, l’impératif de l’innovation se substitue à l’exercice de l’invention, la socialisation des objets de la vie quotidienne, qui s’opérait traditionnellement à travers la transmission intergénérationnelle de savoirs, tend désormais à s’effectuer à travers les modes d’emploi standardisés. La numérisation des environnements et objets quotidiens (smartphones, objets et habitats connectés) a largement contribué à aggraver cette tendance, en multipliant les « boites noires » et les dispositifs d’« intelligence artificielle » « auto-apprenants ». Mais qu’appelle-t-on ici « apprendre » ? Les programmes et les logiciels peuvent-ils servir de supports pour la recherche, la création collective et la vie politique ? Comment intégrer dans les dispositifs computationnels des fonctions délibératives et interprétatives, qui dépassent les programmes calculables en produisant des bifurcations improbables ?
17h00 : Tallulah Frappier (Design d’interaction et plateformes de délibérations, ENS Cachan) & Samuel Huron (Mines-Telecom)
17h20 : Anthony Masure (Design, HEAD – Genève)
17h40 : Stéphane Crozat (Framasoft et UTC)
18h00 : Sébastien Massart (Directeur de la stratégie de Dassault Systèmes)
18h30 : Discussion
Présentation des intervenants :
Université Catholique de Lille
Anne Alombert est enseignante-chercheuse à l’Université Catholique de Lille, au sein de la chaire “Ethique, technologie et transhumanismes”. Elle est auteure d’une thèse de philosophie sur les travaux de Gilbert Simondon et Jacques Derrida, dirigée par François-David Sebbah à l’Université Paris Nanterre. Elle a participé à la conception et l’élaboration du programme de recherche contributive « Plaine Commune Territoire Apprenant Contributif ». Ses recherches portent sur la question des relations entre savoirs et techniques, notamment dans les travaux de Jacques Derrida, Gilbert Simondon et Bernard Stiegler, ainsi que sur les enjeux anthropologiques, politiques, psychiques et sociaux des technologies numériques.
IRCAM
Gérard Assayag a dirigé le laboratoire de recherche Sciences et technologies de la musique et du son (sous tutelles de l’Ircam / Ministère de la culture, du CNRS et de Sorbonne Université) de 2011 à 2017, et il y dirige l’équipe Représentations musicales, qu’il a fondée en 1992 et qui a été constamment déterminante depuis dans la définition des axes de recherche musicale de l’Ircam. Ses intérêts de recherche sont centrés sur les outils computationnels au service de la créativité musicale dans la composition et l’interaction vivante mettant en jeu les langages de programmation, l’apprentissage automatique, la modélisation des structures musicales ou l’intelligence artificielle.
Collège Poincaré et DANE Créteil
Diplômé d’un Master Métiers de l’Enseignement, de l’Éducation et de la Formation, Maxime Barilleau, 28 ans, est professeur d’anglais au Collège Raymond Poincaré de La Courneuve (Seine-Saint-Denis) où il assure aussi le rôle de référent pour les usages pédagogiques du numérique. Intéressé par l’utilisation du jeu vidéo en tant que ressource pédagogique, il a déjà expérimenté son utilisation au cours de projets innovants, notamment autour du Discovery Tour de la série de jeux vidéo Assassin’s Creed. Il coordonne le projet Urbanités Numériques en jeux à l’Incubateur de la Délégation Académique au Numérique Éducatif (DANE) de Créteil depuis septembre 2020.
Institut de Recherche et d’Innovation
Marie-Claude Bossière, pédopsychiatre praticien hospitalier, psychiatre à la Maison des Femmes de St Denis (93), milite pour une information concernant les effets des écrans sur le développement des jeunes enfants avec le collectif CoSE (Collectif Surexposition Ecrans). Elle participe à la recherche de clinique contributive initiée par Bernard Stiegler, à St Denis. Ses dernières publications chez Enfances et Psy, sont “Plaidoyer pour un nouveau syndrome EPEE (Exposition Précoce et Excessive aux Ecrans) », “Les effets des écrans sur les tout-petits – hypothèses sociétales et psychomotrice »,(2018) et ” L’arrêt d’une surexposition aux écrans peut-il normaliser un score d’autisme? » en 2020.
Institut de recherche et d’innovation et Association des amis de la génération Thunberg
Victor Chaix est chargé d’études à l’Institut de Recherche et d’Innovation et membre fondateur de l’Association des amis de la génération Thunberg, association dont il a travaillé à l’animation et à la coordination depuis sa naissance, fin 2019. Notamment intéressé par l’histoire de la philosophie et en lien avec les enjeux environnementaux, il a étudié en ‘Liberal Arts’ au King’s College de Londres – un parcours interdisciplinaire dans les sciences humaines et sociales. Après avoir été en charge de la section ‘essais’ du Strand Magazine de son université et y avoir écrit divers articles sur ces questions, il a écrit pour le quotidien de l’écologie en ligne Reporterre. Durant la même période, il s’est engagé dans les mouvements d’Extinction Rebellion et Youth For Climate, au Royaume-Uni puis en France. En ce moment, il s’intéresse particulièrement aux questions d’éducations et de générations soulevées par l’Anthropocène.
Université Bordeaux Montaigne
Professeur en sciences de l’information et de la communication à l’Université de Bordeaux-Montaigne. Responsable de l’axe Études digitales : des donnés aux dispositifs (E3D) au sein du laboratoire MICA. Co-directeur de la Revue Études Digitales publiée chez Classiques Garnier. Ses recherches portent sur l’anthropologie des technologies contemporaines et sur l’usage des TIC en milieu urbain. Son programme comporte deux axes. Le premier est lié à l’établissement de nouvelles pratiques éditoriales en ligne. Le second s’intéresse à l’industrialisation contemporaine du langage et de la culture, et plus aux généralement aux processus d’innovation et de valorisation dans le cadre d’une économie de la contribution.
Framasoft et UTC
Stéphane Crozat est enseignant au département Technologie et Sciences Humaines de l’UTC et chercheur au laboratoire Costech. Depuis 1998 il mène des activités d’enseignement et de recherche dans le domaine du numérique à l’Université de Technologie de Compiègne. Il s’inscrit dans une démarche de recherche technologique fondée sur l’articulation entre recherche théorique, usages réels et développements informatiques. Il a co-inventé et participe à l’élaboration du logiciel Scenari, logiciel de conception de chaînes éditoriales numériques. Il a ouvert le site aswemay.fr pour formaliser et capitaliser ses pratiques et recherches. Il articule son enseignement de l’informatique avec l’usage du document numérique pour la pédagogie, sur librecours.net. Il a co-fondé l’association Picasoft, membre du mouvement Chatons et est membre de Framasoft. Il a écrit le roman Traces, publié chez Framabook.
Université Technologie de Dublin
Noel Fitzpatrick est professeur de Philosophie et directeur de la recherche développement au Collège des arts et du tourisme à l’Université Technologique de Dublin (TU Dublin), Irlande. Il est également le doyen de l’École supérieure des arts créatifs et des médias (GradCAM) qui est une plateforme collaborative pour la recherche doctorale dans les arts créatifs, les arts de la scène et les arts médiatiques. Il est également membre d’un Réseau Européen de Recherche Artistique EARN et membre du Digital Studies Network. Noël est le co-ordinateur de Real Smart Cities Project (realsms.eu). La recherche du Prof Noel Fitzpatrick comprend l’esthétique, les études de performance et la philosophie de la technologie.
Centre Européen de Sociologie et de Science Politique
Tallulah Frappier est doctorante en Design et Science politique à l’université Paris 1 Panthéon Sorbonne. Agrégée d’arts appliqués et ancienne élève du département design de l’ENS Paris-Saclay, elle est aujourd’hui rattachée au laboratoire CESSP – Centre Européen de Sociologie et de Science Politique. Sa thèse porte sur le design des plateformes numériques de délibérations et tente à travers une réflexion sur les modalités de mise en technologie du débat de saisir comment le design des plateformes cadre nos discussions en ligne et en influence notre pratique. Constitué à partir d’un cursus orienté majoritairement vers la pratique, ce travail de recherche tente de dégager des pistes pour mieux comprendre et pour mieux designer ces nouvelles formes de pratiques et technologies délibératives.
Hong Kong University
Yuk Hui a étudié l’informatique, la théorie culturelle et la philosophie à l’Université de Hong Kong et au Goldsmiths College de Londres, et se focalise sur la philosophie de la technologie. Il est professeur à la Bauhaus-Universitätde Weimar et à la China Academy of Art de Shengcheng, depuis 2015. Il est membre du Centre international des études simondoniennes à Paris. Il a été l’auteur de On the Existence of Digital Objects en 2016, The Question Concerning Technology in China en 2017 et de Recursivity and Contingency en 2019.
Mines-Telecom
Samuel Huron est designer d’interaction et maître de conférences en Design à Télécom Paris dans l’institut Polytechnique de Paris, il est rattaché au laboratoire CNRS I3 – Institut Interdisciplinaire de l’Innovation. Ses recherches portent sur la façon dont les humains créent des représentations visuelles et physiques d’informations abstraites pour penser, collaborer, apprendre, analyser, explorer et concevoir de nouvelles représentations de données, de systèmes et d’artefacts informationnel. Il dirige le studio de design de Telecom Paris et il fait partie des équipes Interact, Diva HCI et co-design Lab. En 2014, il a obtenu un doctorat en informatique de l’université Paris Saclay en collaboration avec l’INRIA et l’Institut de Recherche et d’Innovation du Centre Pompidou. Pour son travail sur la « visualisation constructive », il a reçu le prix de la meilleure thèse de doctorat 2015 de l’IEEE VGTC Pioneer Group. Il a ensuite été invité comme chercheur post-doctorant à l’Université de Calgary dans le groupe Innovis. Auparavant, il a été le lead designer de l’Institut de recherche et d’innovation du Centre Pompidou. Son travail de recherche est fondée sur quinze d’années d’expérience dans l’industrie des médias interactifs où il a travaillé pour un large éventail de clients dans différents domaines.
École Polytechnique Fédérale de Lausanne
Frédéric Kaplan est professeur à l’Ecole Polytechnique Fédérale de Lausanne (chair d’Humanités numériques), directeur du Digital Humanities Institute, spécialiste des interfaces hommes-machines et de l’intelligence artificielle. Ses recherches portent notamment sur les enjeux de l’algorithmique et de la numérisation d’archives en épistémologie de l’histoire, les effets de l’économie linguistique de Google sur les langues naturelles, et les dimensions cognitive et sociales des pratiques d’annotation. Il travaille plus généralement sur le design muséographique, l’utilisation des big data en sciences humaines, et le rôle des interfaces numériques dans l’apprentissage et la transmission de connaissances.
Université de Silésie à Katowice
Michał Krzykawski, philosophe, professeur associé à l’Université de Silésie à Katowice où il dirige le Centre for Critical Technology Studies. Auteur de nombreux travaux sur la philosophie française contemporaine dans ses courants différents : de la philosophie de la technique et de la science à la philosophie « post-structuraliste » et la critique de l’économie politique. Traducteur d’ouvrages de Bernard Stiegler en polonais et co-directeur de la collection « Techniques et cosmologies » aux Presses universitaires de l’Université de Silésie.
CNRS LIAS
Jean Lassègue est philosophe, directeur de recherche au CNRS. Articulant épistémologie, anthropologie et histoire, ses recherches portent sur les médiations symboliques, en particulier les systèmes d’écriture des langues et des nombres, rendant possible l’élaboration collective des connaissances, des sciences exactes aux sciences de la culture. Parmi ses publications, Turing (1998), Cassirer, du transcendantal au sémiotique (2016) et avec Antoine Garapon, Justice digitale (2018).
École Normale Supérieure et CNRS
Giuseppe Longo est un spécialiste de logique mathématique et de l’épistémologie des mathématiques et de la biologie. Il a été d’abord professeur de Logique Mathématique puis d’Informatique à l’Université de Pise, ensuite, Directeur de Recherche CNRS aux départements de Mathématiques et d’Informatique de l’Ecole Normale Supérieure, puis au centre interdisciplinaire Cavaillès. Depuis une quinzaine d’années son oeuvre porte sur les relations entre Mathématiques et Sciences de la nature, dont en premier lieu la biologie évolutive et des organismes. Il est adjunt professor, School of Medicine, Tufts University, Boston. Membre de l’Academia Europaea. Dans les années ’80, il a été post-doc à Berkeley et au MIT, professeur invité à Carnegie Mellon, à Oxford (GB) et Utrecht (NL), pour trois ans au total. Fondateur et rédacteur en chef de Mathematical Structures in Computer Science, Cambridge U.P. (1991-2015), il dirige une collection de livres chez Hermann, puis Spartacus IDH. Co-auteur des livres avec A. Asperti, Categories, Types and Structures. Category Theory for the working computer scientist. M.I.T. Press, 1991; avec F. Bailly, Mathematics and the natural sciences: The Physical Singularity of Life ; avec M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities (Springer, Berlin, 2014). Avec A. Soto, il a édité From the century of the genome to the century of the organism: New theoretical approaches, Prog Biophys Mol Biol, 2016. Il a été responsable d’un projet à l’IEA de Nantes sur le concept de loi, en sciences humaines et de la nature (voir le volume chez Spartacus IDH avec ce titre). Son projet actuel développe une épistémologie des nouvelles interfaces explorant les corrélations historiques et des alternatives à la nouvelle alliance entre formalismes computationnels et gouvernance de l’homme et de la nature par les algorithmes et par des “méthodes d’optimalité” prétendument objectives.
Dassault Systèmes
Sébastien Massart est directeur de la stratégie de Dassault Systèmes.
Auparavant, Sébastien a été conseiller technique au sein du cabinet du Ministre de la Défense Jean-Yves Le Drian, puis conseiller industriel à la Présidence de la République. Il a commencé sa carrière chez Deloitte Consulting Group, puis comme responsable du développement économique à la DIRECCTE et à la Préfecture du Languedoc-Roussillon. Il rejoint ensuite l’Autorité des Marchés Financiers où il pilote la définition d’un nouveau plan stratégique intitulé « Redonner du sens à la finance » et prend part aux négociations européennes sur la régulation des marchés d’instruments dérivés. Il contribue ensuite, au sein de l’Agence des Participations de l’Etat (Ministère de l’Economie), au rapprochement franco-allemand entre KMW et Nexter. Sébastien enseigne à SciencesPo Paris. Il est diplômé de l’Ecole Polytechnique et ingénieur des mines. Diplômé en philosophie de l’Ecole Normale Supérieure de la rue d’Ulm et en physique théorique (master 2), il a publié plusieurs articles sur l’innovation et les univers virtuels, dont récemment : « Shaping the Unknown with Virtual Universes – the New Fuel for Innovation » (Global Innovation Index Report, 2020), « De l’entreprise-plateforme à l’institution sphérique » (Métamorphoses des relations Etat-Entreprise, Editions Manucius, 2020).
HEAD – Genève et université Toulouse – Jean Jaurès
Anthony Masure est responsable de la recherche à la HEAD – Genève (IRAD, Institut de Recherche en Art & Design). Agrégé d’arts appliqués et ancien élève du département design de l’ENS Paris-Saclay, il est membre associé du laboratoire LLA-CRÉATIS de l’université Toulouse – Jean Jaurès. Sa thèse en esthétique portant sur le design des programmes a été dirigée par Pierre-Damien Huyghe à l’université Paris 1 Panthéon-Sorbonne. Ses recherches portent sur les implications sociales, politiques et esthétiques des technologies numériques. Il a cofondé les revues de recherche Back Office et Réel-Virtuel. Il est l’auteur de l’essai Design et humanités numériques (éd. B42, 2017).
IRI et IHPST, Université paris 1
Maël Montévil est théoricien de la biologie, travaillant à la croisée de la biologie expérimentale, des mathématiques et de la philosophie. Il s’intéresse aux fondements théoriques de la biologie et au statut des mathématiques dans cette discipline. Plus précisément il travaille sur les temporalités biologiques, en particulier l’historicité du vivant, ainsi que sur l’organisation biologique. Il travail sur des applications telles que la théorisation de la désorganisation du vivant en développant un concept biologique de disruption, et participe à plusieurs projets de recherche contributive. Il est chercheur contractuel à l’Institut de Recherche et d’Innovation et à l’IHPST, Université Paris 1 Panthéon Sorbonne. Ses publications sont accessibles sur https://montevil.theobio.org.
Durham University
Gerald Moore, philosophe, est maître de conférence dans les départements de langues modernes et de philosophie à l’Université de Durham (Royaume-Uni), ainsi que membre du réseau Digital Studies et du conseil d’administration de l’Association des amis de la génération Thunberg – Ars Industrialis. Il est l’auteur de Politics of the Gift (Edinburgh University Press, 2011) et codirecteur de l’ouvrage collectif Stiegler and Technics (EUP, 2013). Ses recherches portent sur l’intersection de la politique culturelle de la technique avec l’anthropologie évolutionniste.
Université Catholique de Lille
Tyler Reigeluth détient un Master en Sciences politiques et un Doctorat en Philosophie de l’Université Libre de Bruxelles. Sa thèse de
doctorat porte sur la question du comportement comme enjeu normatif dans le développement du “machine learning”. Il a mené des séjours postdoctoraux à l’Université du Québec à Montréal, à l’University of Chicago et à l’Université Grenoble Alpes. A la croisée de la philosophie des techniques et de la philosophie politique, ses travaux portent sur les enjeux éthiques et sociaux liés au déploiement des technologies d’intelligence artificielle. Plus récemment il approfondi des recherches sur les rapports entre éducation, apprentissage et technique à l’ère de l’IA.
Collectif Internation
Daniel Ross est réalisateur du film The Ister (2004), auteur de Violent Democracy (Presse universitaire de Cambridge, 2004) et traducteur de onze livres de Bernard Stiegler, dont le plus récent est The Age of Disruption (Polity Press, 2019) et Nanjing Lectures. 2016-2019 (Open Humanities Press, 2020).
Université Paris Nanterre
Peter Szendy est professeur en humanités à l’université de Brown et conseiller pour les programmes de la Philharmonie de Paris. Parmi ses publications récentes : « Voiries du visible, iconomies de l’ombre » (dans Le Supermarché des images, Gallimard, 2020) ; Coudées. Quatre variations sur Anri Sala (Mousse, 2019) ; Le Supermarché du visible. Essai d’iconomie (Éditions de Minuit, 2017) ; A Coups de points. La ponctuation comme expérience (Éditions de Minuit, 2013) ; Kant chez les extraterrestres. Philosofictions cosmopolitiques (Éditions de Minuit, 2011). Il est le commissaire de l’exposition Le Supermarché des images au Jeu de Paume (février-juin 2020).
Université de technologie de Belfort-Montbéliard
Mathieu Triclot est maître de conférences en philosophie à l’université de technologie de Belfort-Montbéliard. Ses recherches portent sur la cybernétique, l’histoire de l’informatique et la notion d’information. Il est l’auteur de « Le moment cybernétique : la constitution de la notion d’information » (Champ Vallon, 2008) et de « Philosophie des jeux vidéo » (La Découverte, 2011).
Université Paris 3
Simon Woillet, doctorant en littérature générale et comparée à l’université Paris 3 Sorbonne Nouvelle sous la direction d’Isabelle Alfandary. Coordinateur du groupe Architecture Symboles et Productions Capitalistes hébergé par Agnès Callu à l’Institut Interdisciplinaire d’Anthropologie du Contemporain de l’EHESS. Directeur de la rubrique médias du magazine Le Vent Se Lève (co-auteur d’une enquête sur le Health Data Hub France et Microsoft Azure Cloud). Membre du Groupe de Travail Numérique du Think Tank Institut Rousseau.
Ressources pour la première journée
Bernard Stiegler, Démesure, promesses, compromis p. 1, p. 2, p. 3.
Naomi Klein, La stratégie du choc du capitalisme numérique.
Giuseppe Longo, Complexité, science et démocratie.
Daniel Ross, Carbon and silicon: contribution to a critique of political economy.
(vidéo) Alain Supiot, Bernard Stiegler, Giuseppe Longo et al. Table Ronde La révolution Numérique.
(vidéo) Bernard Stiegler, Où en est l’humain face au numérique ?.
Session 1
Anne Alombert, Qu’appelle-t-on pe/anser à l’époque de “l’intelligence artificielle” et des “machines morales” ?.
Daniel Ross, From the market of information to the pharmacology of the gift.
David Bates, Automaticity, Plasticity and the deviant origins of artificial intelligence.
Mathieu Triclot, La notion d’information dans la cybernétique.
Session 2
Maël Montévil et Matteo Mossio, The Identity of Organisms in Scientific Practice: Integrating Historical and Relational Conceptions.
Giuseppe Longo, Information at the Threshold of Interpretation.
(vidéo) Discussion Jean Lassègue et David Bates, Lire Turing aujourd’hui.
Yuk Hui, Simondon et la question de l’information.
Session 3
Frédéric Kaplan, Google et le capitalisme linguistique.
(vidéo) Michal Krzykawski, Pour un nouveau rapport sur le savoir à l’âge de la computation généralisée.
Gerard Assayag, L’informatique musicale: informatique et musique en interdisciplinarité.
(vidéo) Bernard Stiegler, Sur la jeunesse et les écrans.
Session 4
Peter Szendy, Iconomie et innervation Pour une généalogie du regard endetté.
Gerald Moore, Le pharmakon, le dopaminage et la société addictogène.
Simon Woillet, L’écriture et l’inconscient, essai d’anthropologie philosophique et psychanalytique des rapports entre la lettre et l’image.
Session 5
Victor Chaix, Pourquoi repenser nos fondements et rapports à l’informatique théorique ?.
Tyler Reigeluth, Vers une culture de l’activité technique à l’école.
(vidéo) Franck Cormerais, Mémoire numérique et transdisciplinarité.
Session 6
Anthony Masure, Résister aux boîtes noires. Design et Intelligences.
Stéphane Crozat, Connaître les machines, une question d’autonomie pour les humains ; Vers une ataraxie numérique.
Noel Fitzpatrick, Questions concerning attention and Stiegler’s therapeutics.
Les inscriptions sont closes pour l’édition 2020.
Voir le site de l’édition 2019
Voir les vidéos de l’édition 2019
Voir le site de l’édition 2018
Voir les vidéos de l’édition 2018
Voir le site de l’édition 2017
Voir les vidéos de l’édition 2017
Voir le site de l’édition 2016
Voir les vidéos de l’édition 2016
Voir le site de l’édition 2015
Voir les vidéos de l’édition 2015
Voir le site de l’édition 2014
Voir les vidéos de l’édition 2014
Voir le site de l’édition 2013
Voir les vidéos de l’édition 2013
Voir le site de l’édition 2012
Voir les vidéos de l’édition 2012