Twitter et la littérature

Il y a la twictée (contraction de Twitter et dictée)

https://www.twictee.org/

Le twaïku

La twittérature

https://twiterrature.blogspot.com/2013/05/le-tweet-une-forme-litteraire-par-nelly.html

Twitter et la littérature font bon ménage depuis plusieurs années, en anglais comme en français.

Twitter cependant c’est aussi la caisse de résonnance de dizaines, sinon de centaines de magazines et de webzines de littérature, notamment en poésie. Le gros du contingent hélas est en anglais, mais en parler c’est déjà stimuler un peu.

Voici quelques exemples de fils Twitter littéraires :

The Poetry Question @poetryquestion

Sequestrum @SequestrumLit

Dark Marrow @dark_marrow

Poetry Daily @Poetry_Daily

Ink Sweat & Tears @InkSweatTears

The Rialto @RialtoPoetry

Magma Poetry @magmapoetry

Carcanet Press @Carcanet

Verve Poetry Press @VervePoetryPres

Nine Arches Press @NineArchesPress

lyrikline.org @lyrikline

Poetry Foundation @PoetryFound

Crucial : La Foire de Francfort publie une étude – gratuite – sur l’intelligence artificielle et l’édition!

La célébrissime Foire, en mode COVID, met à disposition des éditeurs des études (« White Papers ») gratuites. La dernière, produite par la firme de gestion Gould Finch s’intitule : The Future Impact of Artificial Intelligence on the Publishing Industry

Si vous croyez que le numérique a modifié/transformé/bouleversé votre travail d’éditeur ou d’auteur, nous ne saurions trop vous recommander de jeter un œil sur l’étude, et sur toutes celles qui sortent gratuitement. L’Intelligence artificielle (IA) promet de bien plus grands bouleversements.

Avec 27 ans de recul et après avoir participé ou assisté nous-mêmes à des tonnes de célébrations quasi mystiques à propos des effets bénéfiques extraordinaires pour les entreprises de telle ou telle technologie, permettez-nous de prendre le contrepied des propos de Gould Finch et de vous expliquer pourquoi éditeurs et auteurs doivent se méfier de l’Intelligence artificielle (IA).

D’abord parce que l’IA risque d’accentuer le clivage économique entre les grandes maisons d’édition et les petites et moyennes boites. Pour une maison de 5 ou 6 personnes, même la gratuité des réseaux sociaux sur le plan promotion représente un coût financier puisqu’il faut y dédier le temps de quelqu’un. L’IA? La majorité des maisons n’ont pas les moyens d’internaliser l’expertise nécessaire pour la manipuler et encore moins pour faire appel à des services extérieurs.

Corollaire à l’argument, les GAFAs, qui n’ont pas de problèmes financiers, vont en profiter pour accroitre leur contrôle sur la diffusion, la commercialisation, mais éventuellement aussi la création de livres.

L’un des problèmes les plus toxiques créés par les algorithmes des Google, Facebook et compagnie est de « proposer » aux utilisateurs des contenus en fonction des préférences que l’algorithme leur suppose, créant de facto une ségrégation parmi les contenus disponibles et pertinents.

Cette ségrégation, culturelle  ici, va s’accentuer, nuire à la visibilité des œuvres,  nuire à l’universalité de l’accès et favoriser indûment les «best-sellers » au détriment d’autres livres.

Avec ses formules « d’aide à l’écriture », proposant des structures narratives « à succès » l’IA risque d’uniformiser la création et en fait, de l’étouffer à petit feu.

Corollaire nauséabond, l’IA va en même temps « industrialiser » le travail d’auteur. Elle ne va pas le remplacer, mais va le forcer à se conformer à un système de production à la chaine.

Voilà donc autant de bonnes raisons non pas de fuir l’Intelligence artificielle, mais au contraire de s’y intéresser de très près afin de prévenir les dégâts parce que cette fois-ci, les gens de l’édition n’auront pas le temps de guérir avant de disparaitre ou de devenir invisible dans la conformité.

Facebook et Google contre… nous

Par Victor Hugo

Les nouvelles ont fait le tour de la planète : l’Australie est ciblée à la fois par Facebook qui menace d’empêcher là-bas le partage des nouvelles des médias et par Google qui demande à ses Youtubeurs de faire pression sur le gouvernement en place et qui prétend que la sécurité des données des internautes, serait menacée.

Dans ce dernier cas, Google qui commercialise les données privées des internautes et qui a été accusé moult fois, avec sérieux, de lire les courriels de ses utilisateurs, ne manque pas de culot. Dans un cas comme dans l’autre, ces deux éminents membres des GAFAs refusent que l’on touche à leurs privilèges d’entreprises supranationales au-dessus des lois des États. Ils s’en prennent à l’Australie comme à n’importe quel autre État.

Si un effort doit être fait afin de mettre les GAFAs au pas, ce doit être maintenant. Google et Facebook ont lourdement  investi dans les recherches en intelligence artificielle (IA), laquelle commence déjà à être utilisée à toutes les sauces dans nos sociétés. Les deux titans technologiques ont notamment investi dans le fameux projet MILA de l’Université de Montréal sur l’IA. Facebook y a mis 7 millions de dollars canadiens (4,52 millions d’euros) en 2017 et Google 4,5 millions de dollars (2,91 millions d’euros) en 2016.

L’intelligence artificielle contrôlée par les GAFAs constitue éventuellement une menace bien plus grande à nos démocraties et à nos cultures que le contrôle économique de la concurrence et des produits, la désinformation systématique et l’impunité face à l’impôt et aux lois des États.

Notre indolence face au numérique a laissé les GAFAs devenir un monstre. Il ne pourra pas être stoppé une fois en contrôle de l’IA.

Rapport sur l’état de la culture numérique au niveau mondial

IFACCA

Le Laboratoire de l’édition de Paris se rappelle à notre souvenir en signalant la sortie récente d’un rapport de l’IFACCA (International Federation of Arts Councils and Culture Agencies) sur l’état général de la culture numérique au niveau international et comment la supporter.

L’IFACCA explique sa démarche. Rédigé par Octavio Kulesz, éditeur numérique de textes académiques en Argentine, le rapport n’apprendra rien à ceux qui sont familiers avec le domaine SAUF sur un point essentiel. L’auteur a pris au sérieux le volet « mondial » et nous présente donc la perspective de la culture numérique à partir d’exemples venus du Brésil, de la Colombie, de la Chine, de l’Afrique du Sud, etc. Une rareté rafraichissante qui élargit notre champ de vision.

Wikipedia et son réseau social

WTSocial

En début d’année, Jimmy Wales, fondateur de Wikipedia, a annoncé le lancement d’une version bêta d’un réseau social produit et géré par la célèbre encyclopédie : WT.Social

Il s’agit de la réponse, longuement méditée, aux Twitter, Facebook et autres Instagram ou Pinterest de ce monde. Avec une différence majeure : WT.Social n’est pas une société à profit, mais un organisme à but non lucratif ce qui lui permet de mieux revendiquer le terme « social ».

Le réseau n’est pas encore ouvert à tout le monde, il faut recevoir une invitation, mais pour les auteurs, les éditeurs et les autres acteurs du monde culturel il pourrait s’avérer une réponse viable et durable aux problèmes posés par les « médias sociaux » corporatifs : moins de censure, une plus grande transparence, un plus grand contrôle sur l’évolution de la page et avec moins de risque qu’un Facebook par exemple, décide de la fermer ou réduise drastiquement sa capacité à rejoindre le réseau de fidèles patiemment construit.

Il ne le sera jamais assez dit : les réseaux sociaux ne sont pas gratuits : ils demandent du temps et ce temps reste un facteur très contraignant pour de petites maisons d’édition. Aussi lorsqu’après 3 ou 4 ans d’efforts soutenus, le réseau sur lequel une maison a beaucoup investi décide de réduire à seulement 5 ou 10% des fidèles le pourcentage de ceux qui verront une publication (« post »), l’investissement fait à grande peine perd autant de sa valeur. C’est le cas depuis quelques années sur Facebook et Instagram.

L’ouverture publique de WT.Social sera à surveiller. En attendant, vous pouvez voir plus haut, avant le début du texte, la configuration du fil de notre éditeur dans le réseau.

Utiliser les bactéries pour un Internet plus efficace

800px-Cell_to_Cell

« Cell to Cell » by microbiologists Mehmet Berkmen and Maria Peñil from Massachusetts won the « People’s Choice » award in the American Society of Microbiology’s 2015 Agar Art Contest. Wikimedia Commons

Le MIT Technology Review, magazine du MIT (Massachusetts Institute of Technology) a publié en novembre dernier un article intéressant sur les perspectives offertes par l’usage de bactéries, notamment la bactérie E-Coli, dans le but de parvenir à un nouvel Internet plus efficace.

Qu’est-ce qui rend les bactéries si intéressantes pour Internet selon la science? Deux des scientifiques qui se penchent sur le sujet, Raphael Kim qui s’identifie comme un artiste et Stefan Poslad soulignent comme facteurs-clés que les bactéries communiquent de manière efficace, possèdent une énorme capacité de stockage, une architecture de traitement (dans le sens de « processing ») et des capteurs (température, lumière, etc.).

Il pourrait être ajouté que les bactéries constituent un matériau renouvelable, abondant et très peu coûteux. En 2018 des scientifiques ont réussi à programmer une bactérie afin qu’elle porte un message (le fameux « Hello World ») d’un endroit à un autre.

Évidemment, si les études en cours sont fascinantes sur le plan de la prospective, la réalité d’un Internet bactériale n’est pas pour demain. Notamment parce qu’une bactérie est trop petite pour être suivie, qu’elle peut évoluer et muter, contrairement à un processus mécanique et qu’elle peut transporter l’information n’importe où, y compris dans un être vivant, et pas nécessairement là où on le souhaite.

L’an dernier nous avions publié un article sur la possibilité d’entreposer une bibliothèque dans une bactérie et l’étude suivie par le MIT s’inscrit dans cette même mouvance du bio-hacking et du bio-engineering.

D’ici quelques années les résultats en provenance de ce secteur pourraient être bouleversants.

Conférence Unesco sur l’édition et l’intelligence artificielle!

Unesco

Le 23 avril prochain à Paris, dans le cadre de la Journée mondiale du livre et du droit d’auteur, l’UNESCO organise une conférence sur les liens et les impacts entre l’intelligence artificielle et le monde de l’édition. Le programme peut être trouvé ici : https://tinyurl.com/tbmacaw

 C’est franchement une idée aussi originale qu’utile et qui souhaitons-le, ne souffrira pas d’annulation causée par le coronavirus.

Ateliers de poésie interactive au Centre Turbine

Essai 8 copie

À partir de septembre prochain, avec peut-être un galop d’essai avant l’été, notre éditeur Jean Paul Thomin, va donner des ateliers et des formations de poésie interactive avec le Centre Turbine à Montréal et dans la région pour commencer. Il va y avoir quelques trucs ébouriffants comme du happening poétique à plusieurs en temps réel, du storytelling topographique poétique, de la micropoésie bien sûr, et éventuellement quelques autres trucs aussi originaux qu’intéressants.

Pour participer, contacter Martin Bonnard ateliers-formations@centreturbine.org le responsable des ateliers au Centre.

Si vous souhaitez un peu plus d’information, il y a la page des ateliers du Centre ou la description plus détaillée sur Misfits Poetry.

 

 

Algorithmes : deux musiciens créent toutes les mélodies possibles

AllTheMusic

Le magazine Vice rapporte que la chose s’est accomplie au rythme hallucinant de 300 000 mélodies différentes par seconde. Chopin doit se retourner dans sa tombe. Où est passé le mythe romanesque de l’acte créatif?

Et pourquoi diable faire une chose pareille?

Noah Ruben et Damien Riehl sont les deux à la fois programmeurs et musiciens. Ulcérés par les poursuites, trop faciles à leurs yeux, de producteurs ou de créateurs qui réclament des montants exorbitants parce que deux ou trois notes d’une mélodie se ressemblent, ils ont entrepris de créer une séquence algorithmique leur permettant de générer toutes les mélodies possibles.

Ils ont enregistré leurs droits sur ces mélodies qui ont ensuite été remises dans le domaine public, c’est à dire que n’importe qui peut les utiliser gratuitement. Ils espèrent ainsi contribuer à de la sorte faciliter le travail des créateurs en détruisant à la source le florilège de poursuites à gogo qui empoisonnent le secteur musical aux États-Unis.

Voici le vidéo où Damien Rihel explique la démarche du duo

 

Toutes les mélodies sont disponibles sur GitHub. Les données sont disponibles sur Internet Archives et enfin voici la licence Creative Commons utilisée.

Le travail de Noah Rubin et Damien Riehl est absolument phénoménal, mais il donne un petit peu froid dans le dos.

Peut-on faire la même chose avec les romans? Plus concrètement, puisqu’il existe déjà des algorithmes capables d’écrire des textes, jusqu’où peut-on pousser vers la création de fictions suffisamment intéressantes pour qu’elles se vendent? À plusieurs dizaines voire centaines de milliers de lignes narratives éventuellement possibles à la seconde, il vaut la peine de poser la question.