Session 3

Session 3 : Technologies de la langue, programmes musicaux et langages informatiques : des données calculables aux improvisations interprétatives

Mardi 22 décembre – 17h00-19h30

Le stade numérique du processus de grammatisation transforme radicalement les conditions de la lecture, de l’écriture, de la traduction et de l’expression. Si l’informatique émane du langage et si l’ordinateur peut être défini comme une machine à réécriture automatique, cela ne signifie pas pour autant que la pratique des langues puisse être réduite à un processus computationnel. Au contraire, les pratiques linguistiques, y compris la traduction, comportent toujours une dimension diachronique, qui rend possible leurs évolutions à travers les expressions locales et singulières. Or, c’est précisément cette dynamique et cette diversité langagière qui semblent aujourd’hui menacées par le « capitalisme linguistique » de Google, qui exerce un contrôle sur la pratique des langues au moyen d’outils de correction, d’auto-complétion, de recommandation et de traduction automatique, transformant ainsi les savoirs linguistiques locaux en ressources économiques. Comment lutter contre les effets homogénéisants et désidiomatisants (c’est-à-dire entropiques) de ces nouvelles technologies d’écriture, qui tendent à éliminer les singularités et la diversité des langues ? Comment le traitement informatique de la musique peut-il ouvrir à la dimension d’improvisation inattendue qui caractérise toute œuvre nouvelle ? A quelles conditions un programme peut-il assister les pratiques créatives ? Cela suppose de comprendre le rôle de l’interprétation dans sa capacité à produire du sens au-delà du calculable, et d’en tirer les conséquences pour transformer les technologies de l’information et de la communication en supports de mémoire, d’interprétation et d’invention.

Interventions :

Frédéric Kaplan – École Polytechnique Fédérale de Lausanne

Enjeux globaux de la médiation algorithmique de la langue

Michal Krzykawski – Université de Silésie à Katowice

De la langue à l’idiome. Pour une linguistique anti-entropique en vue de l’idiodiversité

La nécessité d’interroger les fondements théoriques de l’informatique à l’époque du traitement automatique des langues et le BERT (modèle de langage développé par Google en 2018) recoupe la nécessité d’interroger les fondements théoriques de la linguistique, la question de la langue étant d’une importance considérable dans le développement de la théorie de l’information. À quoi pourraient ressembler nos pratiques langagières en 2020 si les bases théoriques de la linguistique cognitive étaient différentes ? Sommes-nous capables d’écrire, dans l’après-coup, une contre-histoire de la linguistique du 20e siècle afin de théoriser et concevoir des modèles informatiques qui servent à nous désautomatiser dans nos pratiques de penser-écrire à l’époque de l’automatisation ? Comment devons-nous théoriser le système-langue et comprendre les fonctions du langage sous condition algorithmique tout en sachant que le modèle scientifique de Google n’est fondé sur aucune théorie linguistique ? Qu’est-ce les sciences du langage après l’automatisation ?

Cet exposé sert à fournir quelques éléments de réponse à ces questions à travers une relecture du Cours de linguistique générale, avec une attention particulière portée sur la manière dont Saussure a défini « l’idiome » et sa fonction vitale dans le système-langue. Il reste à retrouver cette fonction idiomatique du phénomène linguistique à notre époque, ce qui revient aussi à redéfinir la fonction de la traduction à l’époque du Google Neural Machine Translation. Je tenterai de le faire en deux étapes : 1) en proposant d’ajouter à trois linguistiques saussuriennes : synchronique, diachronique et géographique, une linguistique anti-entropique par rapport au fonctionnement des organismes comme systèmes thermodynamiquement ouverts ; 2) en interrogeant plus profondément la manière dont Saussure a pu comprendre le système lui-même depuis le débat scientifique de son époque. Il semble, en effet, nécessaire d’interroger l’épistémologie même du système, laquelle est à l’origine du système-langue, pour voir si d’autres épistémologies sont possible en vue de ce que j’appellerai comme idiodiversité.

Gérard Assayag – IRCAM

Vers la Co-créativité humains – machine : quels langages et modèles ? 

L’imbrication de la créativité humaine avec les processus computationnels environnants suscite de nouvelles potentialités d’action conjointe homme-machine et de nouveaux modèles d’interaction qui dépassent largement les enjeux déjà datés de l’information et de la cybernétique tels qu’ils sont convoqués avec une certaine angoisse dans le débat actuel.

Des formes originales de réalité partagée impliquant des “interactions symbiotiques” se généraliseront dans les arts, et  dans l’activité humaine en général qu’elle soit individuelle ou collective. Des formes de  co-créativité entre les humains et les machines entraîneront l’émergence de structures d’information distribuées et performatives impliquant la coopération d’agents artificiels et humains. Cela transformera certainement les ordres culturels connus et aura un impact significatif sur le développement humain ainsi que sur les technologies elles-même. L’apprentissage génératif de représentations symboliques à partir de signaux physiques et humains, et la compréhension des stratégies artistiques et sociales de l’improvisation nous aident à mieux comprendre cette dynamique de coopération (ou de conflits) inhérente à ce que l’on pourrait appeler réseaux cyber-humains. Tout l’enjeu pour nous, qui visons une démarche de recherche indisciplinée, est de savoir si ces objets théoriques et techniques (algorithmes, langages, modèles, données etc.) ne sont qu’un reflet du capitalisme cognitif ou computationnel, ou bien  s’ils peuvent nous servir, tout comme les outils du capitalisme traditionnel ont servi à leur heure, à dynamiter la banalité, la soumission, la vulgarité et la vénalité promues par les technologies informationnelles de masse (réseaux sociaux, formatage linguistique, domination économique et politique).

Notre  projet ERC REACH vise dans cette perspective à comprendre, modéliser et développer la co-créativité musicale entre les humains et les machines par le biais d’interactions improvisées, permettant aux musiciens de tout niveau de formation de développer leurs compétences et d’accroître leur potentiel créatif individuel et social. En effet, l’improvisation est au cœur même de l’ensemble des interactions humaines, et la musique constitue un terrain fertile pour développer des modèles et des outils de créativité qui peuvent être généralisés à d’autres activités, du fait de la richesse de ses structures et de ses contraintes formelles, qui favorisent l’émergence de comportement coopératifs et de cours d’actions fortement intégrés.  Nous étudions la «  musicalité partagée »  à l’intersection des sphères physique, humaine et numérique, comme archétype d’une intelligence distribuée, pour produire des modèles et des outils permettant de mieux cerner la créativité humaine dans un contexte où elle est de plus en plus imbriquée avec le calcul, mais aussi de plus en plus singulière et idiomatique. 

C’est ce paradoxe qu’il s’agit d’élucider, et pour cela il nous faut aborder la co-créativité avec les machines comme phénomène émergent, qui apparaît lorsque se produisent des rétroactions croisées complexes en termes d’apprentissage et de générativité entre des agents naturels et artificiels. Comme système complexe, ses propriétés ne sont alors pas simplement réductibles à celles des agents en interaction, elles font irruption de manière explosive dans le réel d’une façon qui peut être déstabilisante pour les individus, mais aussi, et c’est là que se nouerait une subversion, pour le système politique et social où elle prend place.

En ce sens, il n’y a plus lieu de s’interroger sur l’épineuse (et aporique) question philosophique de la possibilité réelle ou non d’une créativité computationnelle, objet de fantasmes et de craintes (l’anti-epistémé de B. Stiegler). Car ce qui importe dès lors, est de savoir comment les effets créatifs émergent d’une interaction complexe impliquant aussi l’humain dans sa liberté et sa créativité, sans que cela signifie nécessairement conférer une valeur subjective à l’information algorithmique (sans l’instituer sujet de création), tout en la suscitant comme stimulant ou catalyseur ultime de ce qui fait l’humain.

Début de la session 3