LA TOILE QUE NOUS VOULONS : du web sémantique au web herméneutique.
Paris. Centre Pompidou. Grande Salle. 14 et 15 décembre 2015
Au printemps 2014, dans le sillage des effets provoqués par les révélations d’Edward Snowden, Tim Berners Lee et le W3C lançaient l’initiative « The Web We Want ». C’est dans la suite de cette démarche que l’IRI a proposé à ses partenaires (Cap digital, France Télévisions, Strate Ecole de Design, Institut Mines-Télécom, W3C) de consacrer la neuvième édition des Entretiens du nouveau monde industriel à l’hypothèse d’une refondation et d’une réinvention du World Wide Web, et sous le titre « La toile que nous voulons » – la toile que l’on perçoit désormais aussi bien comme le dispositif de capture de l’araignée que comme l’écran de projection d’un avenir meilleur.
SSID : evenement
login : enmi2015
mot de passe : cnacenmi2015
Ouverture |
Lundi 14 décembre – 9h30 |
|
avec |
Serge Lasvignes (président du Centre Pompidou) |
Table ronde introductive avec Xavier de La Porte de rue 89 |
Lundi 14 décembre – 9h45 |
|
avec |
Axelle Lemaire (Secrétaire d’Etat chargée du numérique) Bernard Stiegler (Directeur de l’Institut de Recherche et d’Innovation) |
Session 1 : Anthropocène et entropie du web |
Lundi 14 décembre – matinée |
|
En 1993, le World Wide Web fut conçu au sein du CERN en vue d’instrumenter des relations entre pairs éditeurs, contribuant par leur activité à enrichir les savoirs et débats publics de controverses fécondes, c’est à dire, dans un langage systémique, de bifurcations néguentropiques. Ce n’est pas internet mais le World Wide Web qui, avec Mosaic, puis avec Netscape, a permis la constitution d’une réticulation planétaire à laquelle, vingt deux ans plus tard, sont connectés près de trois milliards d’êtres humains, et où sont apparues de nouvelles plateformes. |
avec |
10h15 : Bernard Stiegler (IRI, UTC, Conseil National du Numérique) Le WEB dans l’anthropocène 11h00 : Evgeny Morozov (journaliste, écrivain) 11h45 : Dominique Cardon (Orange Labs, université de Marne la Vallée) La bazar et les algorithmes : à propos de l’espace public numériqueh30 : Giuseppe Longo (ENS) De la collaboration des diversités à la compétition vers l’identique : les très grandes bases de données et les régularités sans sens
|
Session 2 : Architecture, traces et modèles de valeur |
Lundi 14 décembre – après-midi |
|
Comment réarchitecturer le Web dans une telle perspective « néguentropique » ? Le protocole de transfert HTTP et le format de données HTML ont rendu possible sur la base du protocole TCP/IP la constitution de pages et de sites web qui se sont multipliés de façon exponentielle lorsque que le Web est devenu accessible à tous. Les investissements dans des infrastructures capables d’assurer les services et les trafics qui se sont imposés ont mis le marché au cœur du réseau, le ramenant de plus en plus près des modèles d’audiences propres aux médias de masse. |
avec |
14h30 : Julian Assange (Wikileaks) (par Skype) 15h30 : Renata Avila (Web Foundation) 15h30 : Débat 16h00 : Christian Fauré (Octo technologies, Ars Industrialis) L’émergence de la Blockchain 16h45 : Pierre Guehenneux (Vinci construction) BTP du futur, accélérateur du nouveau monde industriel européen 17h30 : Discussion 18h00 : Yuk Hui (Leuphana Un) Le concept de group dans les réseaux sociaux 18h30 : Harry Halpin (contributeur du projet européen NextLeap – MIT/INRIA)
|
Session 3 : Gouvernementalité algorithmique et machine learning |
Mardi 15 décembre – matinée |
|
Les big data configurent un processus social qui a été décrit par Thomas Berns et Antoinette Rouvroy comme l’avènement d’une gouvernementalité algorithmique. Outre la crise de la science statistique et de l’épistémè contemporaine (c’est à dire de l’articulation entre les savoir-faire, les savoir vivre et les savoirs académiques) que provoque le corrélationnisme des mathématiques algorithmiquement appliquées, la gouvernementalité algorithmique s’achemine vers l’époque du deep learning. Comment concevoir des agencements entre artifices computationnels et actions rationnelles des individus psychiques et collectifs qui ne conduisent pas à la standardisation massive des comportements et des représentations – c’est à dire à l’effondrement des capacités néguentropiques caractéristiques de l’homme ? |
avec |
9h30 : Olivier Grisel (INRIA) Modélisation prédictive et Deep Learning 10h00 : David Berry (Université du Sussex) Algorithms, Big Data, and Critical Theory 10h30 : Discussion 11h15 : Thomas Berns (Université libre de Bruxelles) La réflexivité algorithmique 12h00 : Paul Jorion (Vrije Universiteit, Bruxelles) Le mise à l’écart de l’homme par la machine est-elle irréversible ? |
Session 4 : Espace public, études digitales et éditorialisation |
Mardi 15 décembre – après-midi |
|
La question de l’open access déjà évoquée doit être étendue et approfondie – en s’enrichissant des analyses critiques de la bibliométrie et de la scientométrie – dans la perspective beaucoup plus générale d’une réinvention de la chose publique, laquelle suppose des activités de publication de toute sorte. Si, comme Jean-Pierre Vernant le mit en évidence, la polis grecque apparut avec la géométrie, c’est parce que la parité des citoyens est fondée sur la parité qui structure les coopérations rationnelles. Quelles conséquences en tirer pour les territoires à l’époque de la nouvelle parité à la fois rendue possible et menacée par l’hypercontrôle computationnel, pour la production et la transmission des savoirs académiques, et pour l’avenir des industries éditoriales françaises et européennes ? |
avec |
14h00 : Ariel Kyrou et Bruno Teboul (Keyrus) Pour une contre–université du numérique 14h30 : Boris Razon (France Télévisions) 15h00 : Xavier de La Porte (Rue89) 15h30 : François Bon (écrivain) 16h00 : Pause
|
Table ronde Le web des territoires |
Mardi 15 décembre – 16h45 |
|
avec |
Patrick Braouezec (Président de Plaine Commune) Catherine Beaugrand (Artiste) Bernard Stiegler (Directeur de l’Institut de Recherche et d’Innovation) Fin |
|
Présentation des intervenants :
Wikileaks
Julian Paul Assange, est un informaticien et cybermilitant australien. Il est surtout connu en tant que fondateur, rédacteur en chef et porte-parole de WikiLeaks.
Artiste
Après une formation scientifique et des études d’anthropologie, Catherine Beaugrand a établi, dans sa pratique artistique, une relation privilégiée aux espaces urbains. Jusqu’au début des années 2000, elle est intervenue sous forme d’installations multimédia dans un parcours d’expositions internationales. Depuis, elle s’est engagée dans des projets pluridisciplinaires afin de penser les transformations des espaces communs par les outils de l’information et de la communication. De 2010 à 2015, elle a mis en place et dirigé DatAData, unité de recherche consacrée aux relations entre les pratiques artistiques et le monde numérique, à l’ENSBA de Lyon.
Professeur de philosophie à l’Université Libre de Bruxelles (ULB).
Thomas BERNS est professeur en philosophie politique à l’Université Libre de Bruxelles, où il a longtemps dirigé le PHI – Centre de recherche en philosophie. A la fois spécialiste de la Renaissance et philosophe du politique, du droit et des normes au sens large, il est l’auteur de nombreux ouvrages. Ses travaux actuels portent, outre sur la pensée politique à la Renaissance et au seuil de la modernité, sur la question générale de la guerre dans la philosophie, sur les nouvelles formes de normativité et de contrôle statistiques. Il est membre du comité de rédaction de la revue Multitudes.
Université du Sussex
David M. Berry is Reader in the School of Media, Film and Music at the University of Sussex and Director of the Sussex Humanities Lab. He writes widely on computation and the digital and is the author of Critical Theory and the Digital, The Philosophy of Software: Code and Mediation in the Digital Age, Copy, Rip, Burn: The Politics of Copyleft and Open Source, the editor of Understanding Digital Humanities and co-editor of Postdigital Aesthetics: Art, Computation and Design.
Ecrivain
François Bon, est né en 1953 en Vendée. Publie après plusieurs années d’industrie Sortie d’usine aux éditions Minuit en 1982, et se consacre plusieurs décennies à l’écriture contemporaine. Enseigne désormais l’écriture créative à l’École nationale supérieure d’arts Paris-Cergy.
Président de Plaine commune
Patrick Braouezec est un homme politique français. Ancien député-maire de Saint-Denis, il est aujourd’hui président de Plaine Commune.
Orange Labs, université de Marne la Vallée
Dominique Cardon est sociologue au Laboratoire des usages d’Orange Labs et professeur associé à l’Université de Marne la vallée. Ses travaux portent sur les usages d’Internet et les transformations de l’espace public numérique. Ses recherches récentes portent sur les réseaux sociaux de l’Internet, les formes d’identité en ligne, l’autoproduction amateur et l’analyse des formes de coopération et de gouvernance dans les grands collectifs en ligne. Il conduit aujourd’hui une analyse sociologique des algorithmes permettant d’organiser l’information sur le web. Il a publié récemment, avec Antonio Casilli, Qu’est-ce que le digital labor ? (Paris, Ina Éditions, 2015) et A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil/République des idées, 2015.
Rue 89
Xavier de La Porte, est un journaliste, producteur de radio et essayiste français.
Partner, OCTO Technology
Christian Fauré est Partner au sein d’OCTO Technology, il est également membre de l’association Ars Industralis et Président de l’IRI.
Ingénieur expert en Machine Learning à Inria Saclay.
Il contribue notamment au projet open source scikit-learn qui fournit une bibliothèque d’algorithmes de modélisation prédictive. La bibliothèques scikit-learn est utilisée par de nombreux chercheurs et data scientists aussi bien dans des organismes de recherches publiques que dans des startups technologiques et dans grands groupes innovants.
Directeur New Cost Vinci construction
Ingénieur civil diplômé de l’Ecole Nationale des Ponts et Chaussées. Il a construit toute sa carrière autour de la problématique de modernisation du secteur du BTP.
Loin de la frénésie marketing autour du BIM, des smart grids, smart cities, Pierre Guéhenneux défend l’idée que le BTP peut aujourd’hui non seulement se moderniser mais être un accélérateur du développement d’une industrie du futur européenne locale globale.
Contributeur du projet européen NextLeap
Dr. Harry HALPIN is currently at the World Wide Web Consortium (W3C/MIT) under the direction of Tim Berners-Lee, where he started the successful Web Cryptography Working Group and the Social Web Working Group working on standards for decentralized social networks. He is also the project co-ordinator of the NEXTLEAP project at INRIA starting in 2016 to build a new foundation for digital rights and privacy-preserving protocols. Harry Halpin received his Ph.D. in Informatics from Edinburgh University under the supervision of Andy Clark, published as _Social Semantics_, and completed a postdoctoral study under Bernard Stiegler on the Web and philosophy. He organized the first workshop on the ‘magna carta’ for the Internet at the United Nations Internet Governance Forum in 2014.
Leuphana Un.
Yuk Hui est chargé du projet « techno-écologie de participation » à l’Institut de culture et d’esthétique des médias numériques, université de Leuphana en Allemagne, professeur associé à l’Académie des Arts de Chine. Il est coéditeur de l’anthologie 30 Years after Les Immatériaux : Art, Science and Theory (2015) et auteur du livre des Presses Universitaires du Minnesota, On the Existence of Digital Objects, préfacé par Bernard Stiegler (2016).
Anthropologue, membre du Haut comité pour l’avenir du secteur financier belge
Paul Jorion est sociologue et anthropologue ; il a été chercheur en intelligence artificielle. Il s’est fait connaître en publiant un ouvrage “La crise du capitalisme américain” où il annonçait la crise des subprimes. Il s’efforce dans ses ouvrages récents de rebâtir une science économique digne de ce nom. Son livre le plus récent est intitulé : “Penser tout haut l’économie avec Keynes” (Odile Jacob 2015).
Essayiste et rédacteur en chef de culturemobile.net
Directeur associé de Moderne Multimédias et à ce titre l’un des créateurs du site Virgin Megaweb en 1995, Ariel Kyrou est rédacteur en chef de culturemobile.net, site de réflexion sur la société et les cultures qui naissent du numérique. Il est membre du collectif de rédaction de la revue Multitudes, professeur d’histoire critique des cultures actuelles à l’Université de Versailles Saint-Quentin-en-Yvelines et directeur de la programmation du festival d’art contemporain a-part. Il est l’auteur de plusieurs essais autour du « nouveau monde digital », de la science-fiction et de la contre-culture.
Président du Centre Georges Pompidou
Serge Lasvignes est né en 1954. Il est agrégé de lettres et ancien élève à l’Ecole nationale d’administration (Ena) Après un début de carrière au Conseil d’Etat, il fut Directeur des affaires générales, internationales et de la coopération au ministère de l’Education nationale, de l’Enseignement supérieur (1995-96), Directeur des affaires juridiques au ministère de l’Education nationale, de l’Enseignement supérieur et de la Recherche (1996-97), Directeur au Secrétariat général du gouvernement (1997-2006) et Secrétaire général du gouvernement (2006-15). Serge Lasvignes est depuis 2015, Président du Centre national d’art et de culture Georges Pompidou.
Secrétaire d’Etat Chargée du numérique
Élue en 2012 députée de la troisième circonscription des Français établis hors de France (Europe du Nord) et secrétaire nationale du Parti socialiste aux droits de l’Homme1, elle est secrétaire d’État chargée du numérique dans le gouvernement Valls I depuis le 9 avril 2014
Directeur de Recherche (DRE) CNRS au centre interdisciplinaire Cavaillès (République des Savoirs, Collège de France et l’Ecole Normale Supérieure, Paris).
Giuseppe Longo est également adjunt professor, Department of Integrative Physiology and Pathobiology, Tufts University, Boston. Il est rédacteur en chef de Mathematical Structures in Computer Science (Cambridge). Ses recherches ont d’abord concerné les fondements des Mathématique et leurs applications à l’Informatique. Il a ensuite étendu son champ de recherches à l’épistémologie des mathématiques et aux fondements théoriques de la Biologie. Il est actuellement responsable d’un projet à l’IEA de Nantes sur le concept de loi, en sciences humaines et de la nature.
Ecrivain, journaliste
Evgeny Morozov est un chercheur et écrivain américain d’origine biélorusse, spécialiste des implications politiques et sociales du progrès technologique et du numérique.
France Télévisions
Journaliste, Boris Razon est entré au Monde.fr en 2000. Il rejoint France Télévisions en 2011où il prend la direction des nouvelles écritures et du transmédia. Il expérimente de nouvelles formes narratives en poursuivant son observation de la mutation des médias et la progression de l’environnement numérique. Depuis octobre 2013 il est également directeur éditorial de France 4.
Web Foundation
Renata Avila is a human rights lawyer specialised in Intellectual Property and New Technologies from Guatemala. She worked as one of the lawyers representing the Nobel Peace Prize Laureate Rigoberta Menchu Tum . Involved in Internet and Human Rights research since 2009, she joined Sir Tim Berners-Lee as to coordinate the work of the Web We Want campaign at the Web Foundation , dedicated to preserving and upholding human rights, responding to threats to the future of the Internet. She currently serves as a Board Member of Creative Commons Board of Directors. She is also a member of Courage Foundation advisory board, assisting whistleblowers and sources at risk and in the D-Cent board, exploring the future of decentralised technologies. He is researching the impact of biometrics in refugee camps.
Twitter @avilarenata
Institut de Recherche et d’Innovation
Philosophe, Directeur de l’Institut de Recherche et d’Innovation, Bernard Stiegler est aussi président de l’association Ars Industrialis et professeur associé à l’Université de Technologie de Compiègne.
Il est l’auteur de nombreux ouvrages de philosophie.
Groupe Keyrus, Université Paris Dauphine
Senior Vice President Science & Innovation du groupe Keyrus, Membre de la Gouvernance de la Chaire Data Scientist de l’Ecole Polytechnique et Enseignant-Chercheur à l’Université Paris-Dauphine. Après une carrière passée au sein de grands groupes à des directions marketing et digital, et en tant qu’entrepreneur du web (QXL, Brandalley), il a réorienté sa carrière en 2012 dans le conseil et la recherche scientifique. Ses travaux transdisciplinaires (Philosophie, Economie, Digital Humanities) s’articulent autour de l’analyse de la mutation numérique et de ses conséquences au sens large. Il est l’auteur de nombreux articles et de plusieurs livres sur le web, le Big Data et l’uberisation de l’économie. .
Evgeny Morozov, The Observer, 20 juillet 2014.
http://www.pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov/
Cette réflexion se penche de manière approfondie et critique sur l’idée récente de « réglementation algorithmique », portée en particulier par les startups en technologies de pointe de la Silicon Valley, qui ouvrent une forme de « politique sans politique » : au lieu d’un Etat, ce sont les objets intelligents de notre quotidien qui nous gouvernent, au moyen de mesures et de boucles de rétroaction. Depuis l’opération CORRAL – Computer Oriented Re-trieval of Auto Larcenists –, qui détecte automatiquement et arrête les automobilistes qui ont grillé un feu rouge, jusqu’aux distributeurs de savon « Safeguard Germ Alarm » qui, installés dans des toilettes aux Philippines, se mettent à sonner dès que s’ouvre la porte des WC et jusqu’à ce que le bouton du distributeur de savon soit enclenché, ce que l’auteur appelle la « smartification » des objets de tous les jours est de plus en plus présente, et la question se pose de leur utilisation à des fins politiques. Evgeny Morozov analyse cependant les innombrables dangers de cette réglementation automatique des comportements, qui relève bien moins du petit Etat libertaire que de la surveillance généralisée basée sur une obsession des données.
Alexandre Monnin, Fabien Gandon, The TTOW Symposium, décembre 2015
http://fr.slideshare.net/aamonnz/another-history-of-the-web-from-its-architecture
A l’occasion du vingt-cinquième anniversaire de la naissance du Web, Alexandre Monnin, auteur d’une thèse sur la philosophie du Web, propose de revenir sur l’histoire de celui-ci, envisagée du point de vue de son architecture. Les cinq moments forts qui structurent sa présentation sont 1) le débat autour de la relation entre le web et l’hypertexte (le web est-il un hypertexte ?), 2) une autre histoire du web autour de ses influences et systèmes concurrents, 3) les notions d’assemblage et d’agencement, 4) la fixation a posteriori d’une essence du web notamment à travers le W3C (1994) et le REST (REpresentational State Transfer) et 5) l’interrogation sur les futurs ouverts du web, avec entre autres l’enjeu de sa re-décentralisation. Ce dernier temps de la réflexion, où Alexandre Monnin propose de basculer de la question du « Web We Want » à celle du « Web We Can Afford » à l’heure de l’Anthropocène, nous intéresse particulièrement dans le cadre des ENMI 2015.
Alexandre Monnin, La Tribune d’Huma-Num – Lettre de l’InSHS, janvier 2015
http://web-and-philosophy.org/announcements/parution-dune-tribune-pour-huma-num…
L’article fait le point sur une notion aussi fréquemment utilisée que difficile à saisir : celle d’ontologie. Depuis les premières occurrences du mot au début du XVIIème siècle jusqu’à son utilisation – au pluriel désormais – dans le cadre de l’architecture du web et de la sémantique formelle, en passant par les théoriciens de l’intelligence artificielle qui en ont fait dans les années 1980 un outil de formalisation logique, l’ontologie et les ontologies ont eu de multiples significations qu’il s’agit d’éclairer. Cette présentation, instructive pour un débat sur la Toile que nous voulons, s’achève sur une réflexion consacrée à l’architecture du web et à ce qu’elle a de spécifique par rapport à une conception de l’ontologie dérivée de l’intelligence artificielle.
Martin Untersinger, Le Monde Pixels, 12 mai 2015
http://www.lemonde.fr/pixels/article/2015/05/12/internet-congestionne-d-ici-a-2023-pas-si-vite_4631574_4408996.html
Martin Untersinger aborde avec un regard critique les craintes récentes d’une fin d’internet, très médiatisées depuis que la Royal Society britannique a évoqué en mai l’idée d’une « crise de capacité » d’internet. Les principales menaces qui pèsent sur le réseau seraient le risque d’engorgement des tuyaux, provoqué par l’augmentation spectaculaire du volume des données (notamment avec la télévision numérique et l’essor des smartphones), et l’explosion du nombre de data centers, qui tend à démultiplier les besoins en électricité. Or pour de nombreux chercheurs, indique l’auteur, cette prédiction est empreinte de catastrophisme et « basée sur des chiffres alarmistes ». En effet, écrit-il, « Selon les estimations de Greentouch, un consortium d’industriels et d’universitaires auquel participe l’Inria, les marges de manœuvre de l’industrie en matière d’économie d’énergie sont considérables », et « les clés de cette maîtrise de la gourmandise énergétique d’internet sont nombreuses : diminution de la consommation des appareils, organisation plus décentralisée du réseau, mais aussi optimisation des logiciels et des applications qui fonctionnent sur les appareils ». Martin Untersinger souligne également la récurrence des mythes sur l’effondrement d’internet tout au long de son histoire.
Antoinette Rouvroy, intervention aux ENMI 2014.
https://enmi-conf.org/wp/enmi14/session-2/#video
Aux ENMI 2014, Antoinette Rouvroy est revenue sur la définition foucaldienne des régimes de vérité pour l’envisager dans le contexte de ce qu’elle nomme la gouvernementalité algorithmique – un mode de gouvernement des comportements qui se nourrit essentiellement des données massives, brutes et décontextualisées du web, qui fonctionnent comme de purs signaux. Elle met au jour, à l’heure des idéologies du Big Data, la présence d’une « passion pour le réel » qui entend abolir toute forme de médiation – représentation, interprétation et langage – au profit du rêve d’un monde qui deviendrait lisible à même les données, donnant lieu au régime de vérité paradoxal que serait le comportementalisme numérique.
Christian Fauré, Intervention aux ENMI 2013
https://enmi-conf.org/wp/enmi13/session-5/
Christian Fauré part du constat de la domination des langues mortes – ces langages de programmation informatique, conçue pour les machines et que personne ne parle. Il relie ces « langues mortes » au cycle historique de l’explicitation des modes opératoires des métiers, qui, comme l’a montré Simondon dès les années 1960, se pose à nouveaux frais à l’heure des machines complexes automatisées, capables de recevoir tous les ordres sous forme de données et de règles. L’automatisation en cours transforme en effet le régime d’explicitation – dont les règles étaient jadis toujours mi-implicites mi-explicites – au profit d’une explicitation maximale qui se passe de tout recours à l’interprétation. Dans ce dernier stade du processus de grammatisation, expliciter devient du même coup exécuter, ce qui se paie par une contrepartie : il n’y a plus d’interprétation possible. Christian Fauré se penche alors sur une question essentielle à la réflexion sur la « Toile que nous voulons » : celle de savoir comment maintenir la possibilité de l’interprétation, afin que celle-ci demeure présente dans nos rapports aux automates et que le bug puisse devenir une fonctionnalité.
Bernard Stiegler, Penser-improviser, 2015.
http://penserimproviser.org/wp/a-propos/
Ecrit dans le contexte de Mons capitale européenne de la culture 2015 et en préparation du Festival des Inattendues qui se déroulera à Tournai fin août 2015, ce texte pose les bases du projet, conduit par Bernard Stiegler et le musicien de jazz Bernard Lubat, d’une rencontre de la musique et de la philosophie sous le signe de l’improvisation collective et de l’annotation contributive. La première partie du manifeste fait un retour sur les espoirs qui ont accompagné les premiers pas du web 2.0 – promesse d’un web culturel collaboratif, où les amateurs pourraient librement échanger, partager et cultiver de nouvelles formes d’intelligence individuelle et collective – et les déceptions qui ont suivi, notamment depuis les révélations d’Edward Snowden et la transformation du web en une machine hyper-consumériste, où les internautes forment moins la communauté d’un public qu’une audience mesurable. Portées par l’espoir de remodeler, à l’appui d’initiatives technologiques, l’esprit du web pour le faire davantage ressembler à la Toile que nous voulons, les Rencontres Inattendues se veulent à la fois une mise en scène de pratiques d’improvisation et d’annotation contributive appuyées sur des logiciels mis à la disposition des amateurs, et une réflexion philosophique collective sur l’improvisation et le sens dont elle peut éclairer l’avenir du web.
CELLABZ, novembre 2015.
https://enmi-conf.org/wp/enmi15/blockchain-and-beyond-rapport-sur-la-blockchain/
Ce rapport d’étude sur la Blockchain a été réalisé par le CELLABZ, un laboratoire d’innovation qui associe les technologies émergentes et la Blockchain autour d’une approche multidisciplinaire et multi-acteurs, réunissant des universités, des start-ups et des entreprises. Cofondé par Nicolas Loubet et Clément Epié, le CELLABZ a mené une enquête de deux ans et interrogé une grande variété d’acteurs pour constituer ce document, à la fois descriptif et réflexif, particulièrement instructif pour une réflexion autour de « La Toile que nous voulons ».
Présentation. Comme l’indique la préface, la BlockChain a l’originalité de se présenter comme un « protocole distribué, transparent et consensuel permettant à des parties fiables d’échanger de l’information, sans intermédiaire ni autorité centrale (banque, entreprise, avocat ou gouvernement) pour le contrôler ou le réguler ». Si sa première application – et la plus célèbre – est financière (le Bitcoin), la Blockchain est pourtant loin de se limiter à cette dernière et se prête à d’innombrables extensions pratiques que le rapport s’attache à analyser en détail. Son potentiel est tel que cette technologie est souvent comparée, comme le souligne la préface, à la pensée des débuts de l’Internet et de son impact sur la société, les industries, les systèmes de gouvernance, l’implication individuelle dans des projets à grande échelle et les processus de prise de décision. Si la création du web au début des années 1990 a rendu possible un premier échange d’information à travers un réseau d’ordinateurs à l’échelle globale, la Blockchain ouvre la voie à une propriété plus avancée de l’information qu’est la transaction, en partageant celle-ci au sein d’un mécanisme distribué et peu coûteux qui s’affranchit du rôle des intermédiaires.
lire la suite
Morgan Tual, Le Monde Pixels, 20 avril 2015.
http://www.lemonde.fr/pixels/article/2015/04/20/facebook-attaque-sur-la-neutralite-du-net-en-inde_4619124_4408996.html
Suite à son initiative internet.org, permettant aux utilisateurs de smartphones de se connecter gratuitement à un bouquet d’une quarantaine de services sur Internet, Facebook suscite une levée de boucliers. Les détracteurs de l’application – qui la surnomment « internet pour les pauvres – l’accusent de mettre en cause la neutralité du net, un principe présent dès les origines du net qui garantit un « traitement technique identique à tous les fournisseurs de contenu […] : tout le monde doit avoir un égal accès à Internet et aucun contenu ne doit bénéficier d’un traitement préférentiel et s’afficher plus vite que les autres » – neutralité menacée par le caractère restrictif de l’offre et l’éventualité d’une privatisation d’internet.
Hubert Guillaud, Internet Actu, 10 juin 2015
http://www.internetactu.net/2015/06/10/tesla-powerwall-la-batterie-delon-musk-peut-elle-tout-changer/
L’article présente et discute le tout nouveau produit d’Elon Musk, patron des voitures électriques Tesla Motors : le Powerwall, des batteries lithium-ion domestiques pour le stockage de l’énergie. En s’attaquant au problème épineux du stockage de l’énergie – point faible du passage aux énergies renouvelable –, l’innovation de Tesla est a priori séduisante : facile à utiliser et peu coûteuse, elle permet de stocker 7 à 10 kWh et de fournir l’électricité « dont la maison a besoin pour fonctionner si le soleil est suffisant pour la recharger chaque jour ». Mais Hubert Guillaud soulève aussi les limitations et points faibles du Powerwall, depuis la question de la suffisance des réserves en lithium et de l’évaluation des gains réels que permettraient ces batteries, jusqu’à celle du modèle de vie que propose Elon Musk. Si cette technologie est amenée à transformer les villes, quelle articulation dessine-t-elle entre la décentralisation du stockage d’énergie et le maintien d’infrastructures communautaires ? Et en se retirant du réseau électrique, risque-t-elle de « pousser l’individualisme un cran plus loin ? ». Autant de questions à adresser au modèle de développement amorcé par Tesla aussi bien qu’à la Toile que nous voulons.
Ariel Kyrou, Yann Moulier-Boutang, François Nemo et Bruno Teboul, Libération, 7 juillet 2015
http://www.liberation.fr/futurs/2015/07/07/pour-une-deuxieme-vague-numerique-plus-humaine-et-critique_1345050
Cet article-manifeste propose une vision très éclairante de la « Toile que nous voulons », en prônant la transition vers un nouvel âge du numérique tel qu’il s’accompagne de l’élaboration d’un véritable projet de société. Cette volonté naît d’une critique du modèle de vivre ensemble que véhiculent les « visionnaires de la Silicon Valley » qui, depuis une vingtaine d’années, sont les principaux acteurs qui définissent l’orientation du numérique en fondant celui-ci sur un modèle monopolistique, basé sur la privatisation, l’ubérisation de l’économie, la disruption et la domination infinie du pouvoir du calcul à travers les algorithmes. A ce paradigme qui détourne la notion de contribution et de partage au profit d’un « nouveau système de servitude volontaire », les auteurs entendent opposer le passage à un numérique plus juste et humain, soucieux du respect de la vie de chacun et de ses droits fondamentaux, de l’équité sociale et économique qui nous permette de reprendre en mains ce qui serait sinon un déterminisme de la technologie sur nos vies. Il s’agirait donc de mobiliser les chercheurs dans une réflexion collective et pluridisciplinaire qui permette d’élaborer un modèle européen du numérique, qui place en son cœur les logiques éthiques et créatives. Cet article est co-signé par deux des intervenants aux ENMI 2015, Ariel Kyrou et Bruno Teboul, qui présentent le 15 décembre le projet d’une « contre-université du numérique » à la Singularity University lancée par les acteurs de la Silicon Valley.
Chris Anderson, The Edge (initialement publié dans Wired), 30 juin 2008.
http://edge.org/3rd_culture/anderson08/anderson08_index.html
Abondamment commenté et critiqué, le texte de Chris Anderson a maintenant sept ans, une occasion d’y revenir en tentant d’articuler ses propositions à la question de l’avenir du web. La thèse de Chris Anderson, alors rédacteur en chef du magazine Wired, est que le Big Data tend à rendre obsolète la méthode classique de recherche scientifique fondée sur le triplet hypothèse, modèle et expérimentation. A l’âge du petabyte et de Google, c’est à même la massivité des données que peut se dégager la vérité scientifique, « traitant ce corpus massif comme un laboratoire de la condition humaine », sans avoir à passer par l’intermédiaire de la formation de modèles. Les mathématiques appliquées et le Big Data peuvent ainsi remplacer les différents outils mis en place par le passé en vue de l’interprétation des faits, « de la linguistique à la sociologie », de l’ontologie à la psychologie : « avec assez de données, les chiffres parlent par eux-mêmes ».
Frédéric Kaplan, Blog personnel, 7 septembre 2011.
https://fkaplan.wordpress.com/2011/09/07/google-et-le-capitalisme-linguistique/
Frédéric Kaplan présente avec concision ce qu’il nomme le capitalisme linguistique : « C’est avant tout un algorithme d’enrichissement sur les mots qui a rendu Google riche. Nous pouvons sous cette lumière réinterpréter tous les outils de complétion / correction automatique qui petit à petit tendent à accroître leur contrôle sur la langue elle-même. Ces nouvelles prothèses linguistiques ramènent la langue dans le domaine où elle est le mieux exploitable commercialement ».
Après avoir décrit les mécanismes du jeu d’enchères sur les mots qui se produit à chaque entrée d’une requête sur le moteur de recherche par un utilisateur de Google, et qui génère à ce dernier plusieurs dizaines de milliards de revenu par an, Frédéric Kaplan montre que cette nouvelle forme de capitalisme a pour conséquence de pousser à la régularisation de la langue, en nous ramenant toujours par des chemins statistiques vers des formes linguistiques commercialement exploitables.
Pour plus de précisions, voir l’article publié par M. Kaplan dans Le Monde Diplomatique, « Quand les mots valent de l’or », en novembre 2011 : http://www.monde-diplomatique.fr/2011/11/KAPLAN/46925, et son intervention aux ENMI 2012.
Dominique Cardon, Intervention aux Enmi 2014.
https://enmi-conf.org/wp/enmi14/session-2/#video
Lors de son intervention aux ENMI 2014, le sociologue Dominique Cardon a proposé un modèle pour distinguer les différents régimes selon lesquels les outils numériques calculent l’information, la classent et la hiérarchisent sur le web. Il élabore ainsi une typologie mettant au jour quatre familles de web – ceux de l’audience (« à côté »), de l’autorité (« au-dessus »), de l’affinité (« dedans ») et de la prédictivité (« en-dessous ») –, chacun étant défini par un type de calcul qui met en forme la visibilité numérique selon une logique spécifique qui pose la question de leurs enjeux politiques.
Raphael Troncy, intervention aux ENMI 2013.
https://enmi-conf.org/wp/enmi13/session-5/
Dans son intervention aux ENMI 2013, Raphaël Troncy, enseignant-chercheur à EURECOM, se penche sur la question de savoir comment il est possible d’automatiser l’indexation des documents textuels et multimédias sur le web. Il explique d’abord de quelle façon les moteurs de recherche actuels procèdent à l’indexation des données et montre en quoi celle-ci reste problématique pour l’image et la vidéo qui, dénuées de sémantique pour la machine, nécessite une couche d’interprétation humaine (le « fossé sémantique »). Il présente ensuite des exemples qui permettent toutefois à la machine de reconnaître et de retrouver ces médias, depuis la fonctionnalité de tagging d’une image et de ses parties chez Flickr jusqu’à la tentative de standardisation des syntaxes vidéo par le W3C, à l’annotation sémantique identifiée par une URI unique et à l’Open Annotation Data Model.
Marc Giget, intervention aux ENMI 2013.
https://enmi-conf.org/wp/enmi13/session-2/
Dans son intervention aux ENMI 2013, Marc Giget, président de l’Institut Européen de Stratégies Créatives et d’Innovation, a étudié la question de l’automatisation en cours des compétences intellectuelles. Lors d’un premier point, il s’est demandé ce que la révolution dite digitale a de spécifique par rapport aux autres révolutions techniques que l’on a connues à travers l’histoire, en se concentrant sur la question de l’économie numérique. Il s’est ensuite penché sur la notion de création destructive dans l’économie digitale pour mettre au jour les réalités actuelles de son impact sur l’emploi et les métiers ; avant de conclure sur l’intérêt d’accélérer le passage vers une phase de synthèse créative.
Frédéric Kaplan, intervention aux ENMI 2012
https://enmi-conf.org/wp/enmi12/video-enmi12-session-5/
Comme le montre Frédéric Kaplan, le chiffre d’affaires de Google – 40 milliards de dollars par an – est essentiellement réalisé par la vente de mots, ouvrant ainsi un nouveau marché qui lui permet d’organiser le capitalisme linguistique à l’échelle mondiale. Après avoir détaillé le fonctionnement des deux principaux algorithmes de Google, celui qui l’a rendu célèbre – PageRank – et celui qui l’a rendu riche – la vente aux enchères des mots destinée à exploiter le capital linguistique qu’il a accumulé – Frédéric Kaplan montre que loin de rester sans effet sur la langue, ces outils tendent à la transformer. Les autres projets technologiques de Google, telle la correction automatique qui permet de transformer un mot mal orthographié et sans valeur en un matériau commercialement rentable, pourraient être analysés comme des outils dédiés à l’expansion de ce marché linguistique dont la principale conséquence est de tendre à une régularisation de nos pratiques linguistiques à des fins spéculatives.
Voir le site de l’édition 2014
Voir les vidéos de l’édition 2014
Voir le site de l’édition 2013
Voir les vidéos de l’édition 2013
Voir le site de l’édition 2012
Voir les vidéos de l’édition 2012