Ressources pour préparer la conférence :
La prise de pouvoir par les données et la mort de la politique
Evgeny Morozov, The Observer, 20 juillet 2014.
http://www.pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov/
Cette réflexion se penche de manière approfondie et critique sur l’idée récente de « réglementation algorithmique », portée en particulier par les startups en technologies de pointe de la Silicon Valley, qui ouvrent une forme de « politique sans politique » : au lieu d’un Etat, ce sont les objets intelligents de notre quotidien qui nous gouvernent, au moyen de mesures et de boucles de rétroaction. Depuis l’opération CORRAL – Computer Oriented Re-trieval of Auto Larcenists –, qui détecte automatiquement et arrête les automobilistes qui ont grillé un feu rouge, jusqu’aux distributeurs de savon « Safeguard Germ Alarm » qui, installés dans des toilettes aux Philippines, se mettent à sonner dès que s’ouvre la porte des WC et jusqu’à ce que le bouton du distributeur de savon soit enclenché, ce que l’auteur appelle la « smartification » des objets de tous les jours est de plus en plus présente, et la question se pose de leur utilisation à des fins politiques. Evgeny Morozov analyse cependant les innombrables dangers de cette réglementation automatique des comportements, qui relève bien moins du petit Etat libertaire que de la surveillance généralisée basée sur une obsession des données.
Another history of the Web from its architecture. Heterogeneous assemblages and open futures
Alexandre Monnin, Fabien Gandon, The TTOW Symposium, décembre 2015
http://fr.slideshare.net/aamonnz/another-history-of-the-web-from-its-architecture
A l’occasion du vingt-cinquième anniversaire de la naissance du Web, Alexandre Monnin, auteur d’une thèse sur la philosophie du Web, propose de revenir sur l’histoire de celui-ci, envisagée du point de vue de son architecture. Les cinq moments forts qui structurent sa présentation sont 1) le débat autour de la relation entre le web et l’hypertexte (le web est-il un hypertexte ?), 2) une autre histoire du web autour de ses influences et systèmes concurrents, 3) les notions d’assemblage et d’agencement, 4) la fixation a posteriori d’une essence du web notamment à travers le W3C (1994) et le REST (REpresentational State Transfer) et 5) l’interrogation sur les futurs ouverts du web, avec entre autres l’enjeu de sa re-décentralisation. Ce dernier temps de la réflexion, où Alexandre Monnin propose de basculer de la question du « Web We Want » à celle du « Web We Can Afford » à l’heure de l’Anthropocène, nous intéresse particulièrement dans le cadre des ENMI 2015.
Ontologie(s). De la métaphysique au web en passant par l’intelligence artificielle
Alexandre Monnin, La Tribune d’Huma-Num – Lettre de l’InSHS, janvier 2015
http://web-and-philosophy.org/announcements/parution-dune-tribune-pour-huma-num…
L’article fait le point sur une notion aussi fréquemment utilisée que difficile à saisir : celle d’ontologie. Depuis les premières occurrences du mot au début du XVIIème siècle jusqu’à son utilisation – au pluriel désormais – dans le cadre de l’architecture du web et de la sémantique formelle, en passant par les théoriciens de l’intelligence artificielle qui en ont fait dans les années 1980 un outil de formalisation logique, l’ontologie et les ontologies ont eu de multiples significations qu’il s’agit d’éclairer. Cette présentation, instructive pour un débat sur la Toile que nous voulons, s’achève sur une réflexion consacrée à l’architecture du web et à ce qu’elle a de spécifique par rapport à une conception de l’ontologie dérivée de l’intelligence artificielle.
Internet congestionné d’ici à 2023 ? Pas si vite !
Martin Untersinger, Le Monde Pixels, 12 mai 2015
http://www.lemonde.fr/pixels/article/2015/05/12/internet-congestionne-d-ici-a-2023-pas-si-vite_4631574_4408996.html
Martin Untersinger aborde avec un regard critique les craintes récentes d’une fin d’internet, très médiatisées depuis que la Royal Society britannique a évoqué en mai l’idée d’une « crise de capacité » d’internet. Les principales menaces qui pèsent sur le réseau seraient le risque d’engorgement des tuyaux, provoqué par l’augmentation spectaculaire du volume des données (notamment avec la télévision numérique et l’essor des smartphones), et l’explosion du nombre de data centers, qui tend à démultiplier les besoins en électricité. Or pour de nombreux chercheurs, indique l’auteur, cette prédiction est empreinte de catastrophisme et « basée sur des chiffres alarmistes ». En effet, écrit-il, « Selon les estimations de Greentouch, un consortium d’industriels et d’universitaires auquel participe l’Inria, les marges de manœuvre de l’industrie en matière d’économie d’énergie sont considérables », et « les clés de cette maîtrise de la gourmandise énergétique d’internet sont nombreuses : diminution de la consommation des appareils, organisation plus décentralisée du réseau, mais aussi optimisation des logiciels et des applications qui fonctionnent sur les appareils ». Martin Untersinger souligne également la récurrence des mythes sur l’effondrement d’internet tout au long de son histoire.
La gouvernementalité algorithmique comme régime de vérité
Antoinette Rouvroy, intervention aux ENMI 2014.
https://enmi-conf.org/wp/enmi14/session-2/#video
Aux ENMI 2014, Antoinette Rouvroy est revenue sur la définition foucaldienne des régimes de vérité pour l’envisager dans le contexte de ce qu’elle nomme la gouvernementalité algorithmique – un mode de gouvernement des comportements qui se nourrit essentiellement des données massives, brutes et décontextualisées du web, qui fonctionnent comme de purs signaux. Elle met au jour, à l’heure des idéologies du Big Data, la présence d’une « passion pour le réel » qui entend abolir toute forme de médiation – représentation, interprétation et langage – au profit du rêve d’un monde qui deviendrait lisible à même les données, donnant lieu au régime de vérité paradoxal que serait le comportementalisme numérique.
Cycle des data et explicitation
Christian Fauré, Intervention aux ENMI 2013
https://enmi-conf.org/wp/enmi13/session-5/
Christian Fauré part du constat de la domination des langues mortes – ces langages de programmation informatique, conçue pour les machines et que personne ne parle. Il relie ces « langues mortes » au cycle historique de l’explicitation des modes opératoires des métiers, qui, comme l’a montré Simondon dès les années 1960, se pose à nouveaux frais à l’heure des machines complexes automatisées, capables de recevoir tous les ordres sous forme de données et de règles. L’automatisation en cours transforme en effet le régime d’explicitation – dont les règles étaient jadis toujours mi-implicites mi-explicites – au profit d’une explicitation maximale qui se passe de tout recours à l’interprétation. Dans ce dernier stade du processus de grammatisation, expliciter devient du même coup exécuter, ce qui se paie par une contrepartie : il n’y a plus d’interprétation possible. Christian Fauré se penche alors sur une question essentielle à la réflexion sur la « Toile que nous voulons » : celle de savoir comment maintenir la possibilité de l’interprétation, afin que celle-ci demeure présente dans nos rapports aux automates et que le bug puisse devenir une fonctionnalité.
Manifeste et manifestation pour une troisième époque du web et des technologies numériques
Bernard Stiegler, Penser-improviser, 2015.
http://penserimproviser.org/wp/a-propos/
Ecrit dans le contexte de Mons capitale européenne de la culture 2015 et en préparation du Festival des Inattendues qui se déroulera à Tournai fin août 2015, ce texte pose les bases du projet, conduit par Bernard Stiegler et le musicien de jazz Bernard Lubat, d’une rencontre de la musique et de la philosophie sous le signe de l’improvisation collective et de l’annotation contributive. La première partie du manifeste fait un retour sur les espoirs qui ont accompagné les premiers pas du web 2.0 – promesse d’un web culturel collaboratif, où les amateurs pourraient librement échanger, partager et cultiver de nouvelles formes d’intelligence individuelle et collective – et les déceptions qui ont suivi, notamment depuis les révélations d’Edward Snowden et la transformation du web en une machine hyper-consumériste, où les internautes forment moins la communauté d’un public qu’une audience mesurable. Portées par l’espoir de remodeler, à l’appui d’initiatives technologiques, l’esprit du web pour le faire davantage ressembler à la Toile que nous voulons, les Rencontres Inattendues se veulent à la fois une mise en scène de pratiques d’improvisation et d’annotation contributive appuyées sur des logiciels mis à la disposition des amateurs, et une réflexion philosophique collective sur l’improvisation et le sens dont elle peut éclairer l’avenir du web.
« Blockchain and Beyond », Rapport sur la Blockchain (en anglais)
CELLABZ, novembre 2015.
https://enmi-conf.org/wp/enmi15/blockchain-and-beyond-rapport-sur-la-blockchain/
Ce rapport d’étude sur la Blockchain a été réalisé par le CELLABZ, un laboratoire d’innovation qui associe les technologies émergentes et la Blockchain autour d’une approche multidisciplinaire et multi-acteurs, réunissant des universités, des start-ups et des entreprises. Cofondé par Nicolas Loubet et Clément Epié, le CELLABZ a mené une enquête de deux ans et interrogé une grande variété d’acteurs pour constituer ce document, à la fois descriptif et réflexif, particulièrement instructif pour une réflexion autour de « La Toile que nous voulons ».
Présentation. Comme l’indique la préface, la BlockChain a l’originalité de se présenter comme un « protocole distribué, transparent et consensuel permettant à des parties fiables d’échanger de l’information, sans intermédiaire ni autorité centrale (banque, entreprise, avocat ou gouvernement) pour le contrôler ou le réguler ». Si sa première application – et la plus célèbre – est financière (le Bitcoin), la Blockchain est pourtant loin de se limiter à cette dernière et se prête à d’innombrables extensions pratiques que le rapport s’attache à analyser en détail. Son potentiel est tel que cette technologie est souvent comparée, comme le souligne la préface, à la pensée des débuts de l’Internet et de son impact sur la société, les industries, les systèmes de gouvernance, l’implication individuelle dans des projets à grande échelle et les processus de prise de décision. Si la création du web au début des années 1990 a rendu possible un premier échange d’information à travers un réseau d’ordinateurs à l’échelle globale, la Blockchain ouvre la voie à une propriété plus avancée de l’information qu’est la transaction, en partageant celle-ci au sein d’un mécanisme distribué et peu coûteux qui s’affranchit du rôle des intermédiaires.
lire la suite
Facebook attaqué sur la neutralité du net en Inde
Morgan Tual, Le Monde Pixels, 20 avril 2015.
http://www.lemonde.fr/pixels/article/2015/04/20/facebook-attaque-sur-la-neutralite-du-net-en-inde_4619124_4408996.html
Suite à son initiative internet.org, permettant aux utilisateurs de smartphones de se connecter gratuitement à un bouquet d’une quarantaine de services sur Internet, Facebook suscite une levée de boucliers. Les détracteurs de l’application – qui la surnomment « internet pour les pauvres – l’accusent de mettre en cause la neutralité du net, un principe présent dès les origines du net qui garantit un « traitement technique identique à tous les fournisseurs de contenu […] : tout le monde doit avoir un égal accès à Internet et aucun contenu ne doit bénéficier d’un traitement préférentiel et s’afficher plus vite que les autres » – neutralité menacée par le caractère restrictif de l’offre et l’éventualité d’une privatisation d’internet.
Tesla Powerwall : la batterie d’Elon Musk peut-elle tout changer ?
Hubert Guillaud, Internet Actu, 10 juin 2015
http://www.internetactu.net/2015/06/10/tesla-powerwall-la-batterie-delon-musk-peut-elle-tout-changer/
L’article présente et discute le tout nouveau produit d’Elon Musk, patron des voitures électriques Tesla Motors : le Powerwall, des batteries lithium-ion domestiques pour le stockage de l’énergie. En s’attaquant au problème épineux du stockage de l’énergie – point faible du passage aux énergies renouvelable –, l’innovation de Tesla est a priori séduisante : facile à utiliser et peu coûteuse, elle permet de stocker 7 à 10 kWh et de fournir l’électricité « dont la maison a besoin pour fonctionner si le soleil est suffisant pour la recharger chaque jour ». Mais Hubert Guillaud soulève aussi les limitations et points faibles du Powerwall, depuis la question de la suffisance des réserves en lithium et de l’évaluation des gains réels que permettraient ces batteries, jusqu’à celle du modèle de vie que propose Elon Musk. Si cette technologie est amenée à transformer les villes, quelle articulation dessine-t-elle entre la décentralisation du stockage d’énergie et le maintien d’infrastructures communautaires ? Et en se retirant du réseau électrique, risque-t-elle de « pousser l’individualisme un cran plus loin ? ». Autant de questions à adresser au modèle de développement amorcé par Tesla aussi bien qu’à la Toile que nous voulons.
« Pour une deuxième vague numérique plus humaine et critique »
Ariel Kyrou, Yann Moulier-Boutang, François Nemo et Bruno Teboul, Libération, 7 juillet 2015
http://www.liberation.fr/futurs/2015/07/07/pour-une-deuxieme-vague-numerique-plus-humaine-et-critique_1345050
Cet article-manifeste propose une vision très éclairante de la « Toile que nous voulons », en prônant la transition vers un nouvel âge du numérique tel qu’il s’accompagne de l’élaboration d’un véritable projet de société. Cette volonté naît d’une critique du modèle de vivre ensemble que véhiculent les « visionnaires de la Silicon Valley » qui, depuis une vingtaine d’années, sont les principaux acteurs qui définissent l’orientation du numérique en fondant celui-ci sur un modèle monopolistique, basé sur la privatisation, l’ubérisation de l’économie, la disruption et la domination infinie du pouvoir du calcul à travers les algorithmes. A ce paradigme qui détourne la notion de contribution et de partage au profit d’un « nouveau système de servitude volontaire », les auteurs entendent opposer le passage à un numérique plus juste et humain, soucieux du respect de la vie de chacun et de ses droits fondamentaux, de l’équité sociale et économique qui nous permette de reprendre en mains ce qui serait sinon un déterminisme de la technologie sur nos vies. Il s’agirait donc de mobiliser les chercheurs dans une réflexion collective et pluridisciplinaire qui permette d’élaborer un modèle européen du numérique, qui place en son cœur les logiques éthiques et créatives. Cet article est co-signé par deux des intervenants aux ENMI 2015, Ariel Kyrou et Bruno Teboul, qui présentent le 15 décembre le projet d’une « contre-université du numérique » à la Singularity University lancée par les acteurs de la Silicon Valley.
The End of Theory. Will the data deluge make the scientific method obsolete?
Chris Anderson, The Edge (initialement publié dans Wired), 30 juin 2008.
http://edge.org/3rd_culture/anderson08/anderson08_index.html
Abondamment commenté et critiqué, le texte de Chris Anderson a maintenant sept ans, une occasion d’y revenir en tentant d’articuler ses propositions à la question de l’avenir du web. La thèse de Chris Anderson, alors rédacteur en chef du magazine Wired, est que le Big Data tend à rendre obsolète la méthode classique de recherche scientifique fondée sur le triplet hypothèse, modèle et expérimentation. A l’âge du petabyte et de Google, c’est à même la massivité des données que peut se dégager la vérité scientifique, « traitant ce corpus massif comme un laboratoire de la condition humaine », sans avoir à passer par l’intermédiaire de la formation de modèles. Les mathématiques appliquées et le Big Data peuvent ainsi remplacer les différents outils mis en place par le passé en vue de l’interprétation des faits, « de la linguistique à la sociologie », de l’ontologie à la psychologie : « avec assez de données, les chiffres parlent par eux-mêmes ».
Google et le capitalisme linuistique
Frédéric Kaplan, Blog personnel, 7 septembre 2011.
https://fkaplan.wordpress.com/2011/09/07/google-et-le-capitalisme-linguistique/
Frédéric Kaplan présente avec concision ce qu’il nomme le capitalisme linguistique : « C’est avant tout un algorithme d’enrichissement sur les mots qui a rendu Google riche. Nous pouvons sous cette lumière réinterpréter tous les outils de complétion / correction automatique qui petit à petit tendent à accroître leur contrôle sur la langue elle-même. Ces nouvelles prothèses linguistiques ramènent la langue dans le domaine où elle est le mieux exploitable commercialement ».
Après avoir décrit les mécanismes du jeu d’enchères sur les mots qui se produit à chaque entrée d’une requête sur le moteur de recherche par un utilisateur de Google, et qui génère à ce dernier plusieurs dizaines de milliards de revenu par an, Frédéric Kaplan montre que cette nouvelle forme de capitalisme a pour conséquence de pousser à la régularisation de la langue, en nous ramenant toujours par des chemins statistiques vers des formes linguistiques commercialement exploitables.
Pour plus de précisions, voir l’article publié par M. Kaplan dans Le Monde Diplomatique, « Quand les mots valent de l’or », en novembre 2011 : http://www.monde-diplomatique.fr/2011/11/KAPLAN/46925, et son intervention aux ENMI 2012.
A côté, au-dessus, dedans, en-dessous : les métriques de la visibilité
Dominique Cardon, Intervention aux Enmi 2014.
https://enmi-conf.org/wp/enmi14/session-2/#video
Lors de son intervention aux ENMI 2014, le sociologue Dominique Cardon a proposé un modèle pour distinguer les différents régimes selon lesquels les outils numériques calculent l’information, la classent et la hiérarchisent sur le web. Il élabore ainsi une typologie mettant au jour quatre familles de web – ceux de l’audience (« à côté »), de l’autorité (« au-dessus »), de l’affinité (« dedans ») et de la prédictivité (« en-dessous ») –, chacun étant défini par un type de calcul qui met en forme la visibilité numérique selon une logique spécifique qui pose la question de leurs enjeux politiques.
Deep-linking into Media Assets at the Fragment Level: Specification, Model and Application
Raphael Troncy, intervention aux ENMI 2013.
https://enmi-conf.org/wp/enmi13/session-5/
Dans son intervention aux ENMI 2013, Raphaël Troncy, enseignant-chercheur à EURECOM, se penche sur la question de savoir comment il est possible d’automatiser l’indexation des documents textuels et multimédias sur le web. Il explique d’abord de quelle façon les moteurs de recherche actuels procèdent à l’indexation des données et montre en quoi celle-ci reste problématique pour l’image et la vidéo qui, dénuées de sémantique pour la machine, nécessite une couche d’interprétation humaine (le « fossé sémantique »). Il présente ensuite des exemples qui permettent toutefois à la machine de reconnaître et de retrouver ces médias, depuis la fonctionnalité de tagging d’une image et de ses parties chez Flickr jusqu’à la tentative de standardisation des syntaxes vidéo par le W3C, à l’annotation sémantique identifiée par une URI unique et à l’Open Annotation Data Model.
L’automatisation en cours des compétences intellectuelles
Marc Giget, intervention aux ENMI 2013.
https://enmi-conf.org/wp/enmi13/session-2/
Dans son intervention aux ENMI 2013, Marc Giget, président de l’Institut Européen de Stratégies Créatives et d’Innovation, a étudié la question de l’automatisation en cours des compétences intellectuelles. Lors d’un premier point, il s’est demandé ce que la révolution dite digitale a de spécifique par rapport aux autres révolutions techniques que l’on a connues à travers l’histoire, en se concentrant sur la question de l’économie numérique. Il s’est ensuite penché sur la notion de création destructive dans l’économie digitale pour mettre au jour les réalités actuelles de son impact sur l’emploi et les métiers ; avant de conclure sur l’intérêt d’accélérer le passage vers une phase de synthèse créative.
La question de la langue à l’époque de Google
Frédéric Kaplan, intervention aux ENMI 2012
https://enmi-conf.org/wp/enmi12/video-enmi12-session-5/
Comme le montre Frédéric Kaplan, le chiffre d’affaires de Google – 40 milliards de dollars par an – est essentiellement réalisé par la vente de mots, ouvrant ainsi un nouveau marché qui lui permet d’organiser le capitalisme linguistique à l’échelle mondiale. Après avoir détaillé le fonctionnement des deux principaux algorithmes de Google, celui qui l’a rendu célèbre – PageRank – et celui qui l’a rendu riche – la vente aux enchères des mots destinée à exploiter le capital linguistique qu’il a accumulé – Frédéric Kaplan montre que loin de rester sans effet sur la langue, ces outils tendent à la transformer. Les autres projets technologiques de Google, telle la correction automatique qui permet de transformer un mot mal orthographié et sans valeur en un matériau commercialement rentable, pourraient être analysés comme des outils dédiés à l’expansion de ce marché linguistique dont la principale conséquence est de tendre à une régularisation de nos pratiques linguistiques à des fins spéculatives.