jeudi 23 mai 2019

Sur les gros bouquins

Le Tenancier est un enfant de la science-fiction. Malgré un éloignement ostensible du genre, il lui arrive toutefois de relire quelques textes appréciés de lui, à moins que cela soit un auteur. Il achève en ce moment un roman en deux volumes qui représentent près de 700 pages. Le copyright, même si l’on peut émettre des doutes sur leur justesse, parfois, indique qu’il fût publié au début des années 1990 dans son pays d'origine. L’auteur est intéressant (forcément, puisque le Tenancier le relit !) Ce qu’en a fait le traducteur laisse dubitatif tant on reconnaît le style de celui-ci d’une traduction à l’autre, au point qu’un test à l’aveugle risquerait de dénoncer cette ingérence… Le plus ennuyeux dans cette lecture réside principalement dans sa longueur et, sous cet angle, cette production illustre une tendance extrêmement présente à la charnière des années 1990 et correspond à une innovation dans la création littéraire qui se remarque surtout dans la littérature populaire. Il s’agit de l’utilisation du traitement de texte. L’auteur en question avait, dix années plus tôt, publié un roman fondateur de son univers qui allait se décliner en plusieurs nouvelles que le lecteur français allait découvrir au long de la décennie suivante. Ce roman-là, court, condensé, portait en lui un train de novations qui allait devenir une rente pour cet univers. En effet, certains aspects de ces idées sont ensuite développés dans des nouvelles, processus habituel dans cette sphère littéraire, mais mené avec grande acuité par cet auteur. Seulement, celui-ci ne sembla pas avoir mis à profit les défauts inhérents à certaines novations(1). Ainsi l’arrivé de l’informatique et du traitement de texte supprimait certes quelques étapes de la rédaction, autorisant la révision à même le "manuscrit", éliminant la recopie au propre, etc. L’envers de la médaille aboutit à la facilité procurée par le traitement de texte, qui permettait de s’étendre plus que de raison dans des récits pachydermiques. Ainsi, ce roman de 700 pages, rédigé près de douze ans après le premier roman, devenait une sorte de catalogue ennuyeux doté d’épisodes et de digressions inutiles (aggravés par la traduction dont on a fait allusion plus haut). Pourtant, ces 700 pages se révèlent ridicules à côté de ce qui sortit à cette période. Une histoire qui aurait pu se raconter en 300 pages devenait un truc emmerdant parce que ni l’auteur ni son éditeur n’avaient su réfréner l’incontinence textuelle. Un bref coup d’œil dans la production littéraire de l’époque permet d’identifier à coup sûr le nouvel adepte du traitement de texte par la boursouflure subite des livres. Le phénomène était observable à cette fameuse charnière des années 1980 où quelques auteurs se sont perdu corps et bien. Les choses se sont tout de même calmées depuis, sans doute par quelques éditeurs inquiets de la baisse de qualité littéraire, consubstantielle à l’accroissement des pages. La lecture de ce roman, délaissé à l’époque par votre Tenancier, est venue comme un rappel du phénomène, discret auprès du public, mais qui s’est révélé un véritable problème pour le critique devant rendre compte des parutions et qui voyait débouler une dizaine de livres de plus de 1000 pages…
Il serait intéressant qu’une étude statistique soit établie sur la production littéraire à l’apparition du traitement de texte : un travail de longue haleine, effectué auprès des auteurs et des éditeurs. Un autre aspect de cette étude mènerait sans doute à un constat, celui de la disparition du manuscrit intermédiaire, témoin du processus créatif.
 
(1) : Sur la novation et toutes ces sortes de choses, se reporter à l’ancien et passionnant essai : « Pour une poétique de la science-fiction », de Darko Suvin (1977)

Aucun commentaire:

Enregistrer un commentaire