Accueil > Articles> > Internet rend-il bête ?

Article publié le mardi 11 février 2014 mis à jour le mardi 11 février 2014

Internet rend-il bête ?

Nicholas CARR est un auteur américain bien connu aux États-Unis où il a été éditeur de la célèbre Harvard Business Review. Ses centres d’intérêts se focalisent sur la technologie et la culture.

En 2008, il a publié un ouvrage intitulé "Is Google Making Us Stupid ?" où il explique en partant de la théorie de McLuhan sur les media que l’internet n’est pas un simple lieu passif de transmission d’information. Il fournit la matière des pensées, mais il en détermine aussi le processus.

Prologue

Marshall McLUHAN (1911-1980) avait prédit que chaque nouveau média rend le public prisonnier du contenu qu’il livre. Il en va de même pour l’internet. Sceptiques et enthousiastes s’affrontent sur la qualité de ce contenu, les premiers dénonçant la médiocrité et le narcissisme de la Toile, les seconds annonçant l’âge d’or de l’accès au savoir.

Mais le contenu est moins important que le média lui-même. Selon McLUHAN, l’idée que les technologies des médias sont neutres et que c’est l’usage qui compte est l’idée du crétin technologique. Les technologies ne sont pas neutres : elles nous changent dans notre façon de penser et d’agir.

1. Hal et moi

La surabondance d’information sur le Web rend la lecture de livre un peu démodée. Lire péniblement un livre, alors qu’il est extrêmement simple de copier un passage pertinent depuis Google Books, n’a plus de sens. Les jeunes bloguent, taguent, chattent, et twittent mais ne lisent plus.

Nous sommes à un tournant majeur de l’histoire intellectuelle : le vieux processus de pensée linéaire lié à la lecture profonde et silencieuse va laisser place à un processus de recherche et de traitement de données abondantes dans un laps de temps le plus réduit possible.

2. Les voies vitales

Lorsque sa vue commença à baisser, en 1881, Friedrich NIETZSCHE (1844-1900) dut apprendre à taper à la machine pour continuer à écrire. Mais ses proches et lui-même constatèrent que sa prose avait change avec cette technologie : elle était plus ramassée, plus télégraphique.

De son côté, Sigmund FREUD (1856-1939) avança l’hypothèse controversée de la plasticité du cerveau à une époque où la norme était de penser que "les voies nerveuses du cerveau sont une chose fixée". Mais les nouvelles recherches prouvaient peu à peu que les connexions cellulaires du cerveau ne sont pas immuables. Le cerveau apprend à tout âge.

Sont ainsi réconciliés les empiristes comme John LOCKE (1632-1704), qui estimaient que l’esprit est à la naissance une tabula rasa qui sera alimentée par notre expérience, et les rationalistes comme Emmanuel KANT (1724-1804), qui prétendaient au contraire que nous naissons avec des gabarits mentaux qui conditionnent ce nous apprenons.

La science moderne confirme que si la "nature", nos gènes, programment nos connexions synaptiques, l’expérience, l’éducation peuvent remodeler ces connexions,les voies vitales de notre cerveau.

3. Les outils de l’esprit

La cartographie fut l’un des premiers outils que l’esprit humain déploya pour appréhender la réalité du monde dans son espace. Mais la cartographie a à son tour développé l’évolution de la pensée abstraite.

Puis le besoin de la mesure du temps, pour des raisons originellement religieuses, a amené au développement de l’horloge qui changea la vie des gens, dont les activités furent réglées sur le son des cloches. Et l’horloge changea aussi notre façon de penser et étendit à de larges populations ces nouvelles façons de penser.

Ces technologies sont des outils intellectuels qui ont modelé la civilisation : elles ont permis l’apparition de la pensée scientifique, bien qu’elles n’aient pas été inventées dans ce but.

Ici aussi s’affrontent deux écoles de pensées : les partisans du déterminisme technologique comme Karl MARX (1818-1883) estiment que le progrès technologique est une évolution autonome qui échappe en partie à l’homme et détermine la société. Le déterminisme a fait germé cette idée de science-fiction, qu’à terme, les machines sophistiquées remplaceront l’être humain.

De l’autre côté les instrumentalistes comme David SARNOFF (1891-1971) considèrent au contraire que nos instruments technologiques ne sont que des moyens neutres d’aboutir à nos fins. C’est la pensée la plus couramment partagée car nous aimons croire que nous maîtrisons nos outils.

Certaines société humaines ont d’ailleurs refusé d’utiliser des technologies nouvelles, des nations ont décidé de ne pas utiliser certaines armes, ce qui tendrait à donner raison aux instrumentalistes. Mais les déterministes rétorquent que nous n’avons pas toujours le choix, que nous subissons aussi les effets néfastes du progrès technique sans pouvoir les circonscrire.

Mais le nouveau champ d’étude est celui qui cherche à déterminer l’influence qu’ont les technologies intellectuelles sur le cerveau humain.

4. La page qui s’appronfondit

Les premiers écrits sur codex ou parchemin étaient rédigés sans espace entre les mots car les scribes des cultures orales, depuis l’antiquité, écrivaient ce qu’ils entendaient.

La lecture de la sciptura continua n’était possible qu’à voix haute et au prix d’un effort cognitif important. Les lettrés engageaient donc des lecteurs pour se faire lire les textes à voix haute. Au haut Moyen-Âge, la lecture solitaire, silencieuse et profonde, est quasi inconnue ; Saint AUGUSTIN (354-430) s’étonnait de voir l’évêque Ambroise de Milan lire en silence :

« Quand il lisait, ses yeux parcouraient la page et son coeur en explorait le sens, mais il était silencieux et sa langue était immobile. »

Ce n’est qu’après l’an 1000 que la découpe des textes devient indispensable pour les lettrés (moines, universitaires, marchands, aristocrates) dont le nombre grossit et qui veulent un accès rapide et solitaire aux textes.

Ce petit espace entre les mots eut des conséquences gigantesques : les lecteurs devinrent non seulement plus nombreux, mais aussi plus efficaces et plus attentifs. La lecture silencieuse d’un long ouvrage demandait une capacité de concentration intense et prolongée non naturelle.

D’un autre côté, les scriptorium des monastères où les moins recopiaient les manuscrits, cessèrent de devenir les seuls centres de production des livres. Des auteurs professionnels séculiers ouvrirent des ateliers de production de livres. Et à la fin du Moyen-Âge, l’imprimerie démultiplia la productivité de ces ateliers.

5. Un média général

Le brillant mathématicien Alan TURING (1912-1954) avait imaginé l’ordinateur moderne comme une machine universelle et non seulement comme un calculateur programmable. Aujourd’hui la convergence prend forme ; l’ordinateur de bureau se fait tout à tour console de jeu, télévision, liseuse numérique, journal, chaîne HiFi, poste de radio, station de montage de films ou de retouche de photographies.

Et ce passage du papier à l’écran changerait notre façon de naviguer sur un écrit et réduirait le degré d’attention que nous lui portons. Les stimuli de l’écran, images, liens, vidéos nous demandent un effort cognitif plus important pour rester focalisé et nous entraineraient dans « le monde de la distraction permanente né de l’écologie des technologies d’interruption ».

Aujourd’hui, les bibliothèques tournées vers l’avenir se transforment pour répondre aux besoins des usagers : au centre trône l’écran de l’ordinateur connecté à l’internet ; les livres, l’imprimé, sont relégués au second rang. McLUHAN l’avait prédit :

« Un nouveau média n’est jamais un complément d’un ancien, pas plus qu’il ne laisse l’ancien en paix. Il ne cesse jamais d’opprimer les médias plus anciens jusqu’à ce qu’il leur trouve de nouvelles formes et de nouvelles fonctions. »

6. L’image même du livre

Si le livre imprimé résiste encore bien au numérique grâce à sa technologie robuste et simple, les avantages économiques de la production et de la diffusion numériques vont finir par l’emporter. Les liseuses, avec l’encre et le papier électroniques vont offrir une expérience utilisateur sans doute supérieure à celle du papier.

Mais pour Nicholas CARR, le portage d’un livre imprimé vers un livre électronique s’accompagne obligatoirement de son emballage de distractions médiatiques qui font voler en éclat l’attention paisible du lecteur de livre papier.

En allant plus loin, il est clair que la frontière entre lecture et écriture se fera plus perméable, que les auteurs s’adapteront à la demande de textes moins littéraires et plus accessibles, que les textes numériques seront plus éphémères ou en évolution permanente. Nos vieilles habitudes de lecture d’oeuvres trop longues et trop peu intéressantes, de TOLSTOÏ à PROUST, ne se comprenaient que parce que le monde offrait peu d’accès à autre chose.

Maintenant que l’internet nous a comblés d’un accès universel et instantané, nous pouvons découvrir un sens nouveau dans des contextes en perpétuel changement, selon Clay SHIRKY, spécialiste en médias numériques à l’université de New York. Et Nicholas CARR de conclure :

« Nous avons rejeté la tradition intellectuelle de la concentration intense et solitaire, l’éthique que le livre nous a transmise. Nous avons pris le parti du jongleur. »

7. Le cerveau du jongleur

L’internet serait ainsi la plus puissante technologie "recâblant" nos circuits neuronaux destinée à être utilisée partout, tout le temps.

Il nous envoie un flux continu de messages dans les aires visuelle, somato-sensorielle et auditive de notre cortex. Il nous offre des récompenses -des « renforcements positifs », en jargon de psychologie- qui nous poussent à réitérer les actions physiques aussi bien que mentales. Il accapare notre attention perpétuellement. En utilisant FaceBook ou Twitter, de manière compulsive, nous recevons notre dose quotidienne de renforcements positifs.

Citant le psychothérapeute Michael HAUSAUER, les adolescents et les jeunes adultes ressentent devenir invisibles s’ils s’arrêtent d’envoyer des messages :

« ils s’intéressent terriblement à savoir ce qui se passe dans la vie de leurs pairs et, en même temps, ils s’angoissent terriblement à l’idée de ne pas être au courant »

Si la déconcentration nous permet parfois de résoudre un problème en dormant dessus, c’est-à-dire en détournant notre attention d’un problème mental difficile et en laissant notre inconscient travailler dessus, les études prouveraient par ailleurs qu’il n’y a pas de réflexion inconsciente : trop de déconcentration tue la réflexion.

8. L’église de Google

En 1600, Barnaby RICHE (1540-1617) a écrit :

« Une des grandes maladies de notre temps est la multitude des livres qui surcharge le monde au point qu’il ne peut digérer l’abondance des futilités qui éclosent et viennent au monde tous les jours. »

En 1628 l’écrivain Robert BURTON (1577-1640) dénonçait le « le chaos et la confusion immenses des livres » que connaissait le lecteur du XVIIe siècle !

La surabondance de l’information ne serait-elle pas une sensation moderne ?

Ce qu’a fait Frederick TAYLOR (1856-1915) pour le travail de la main, Google le fait pour le travail de l’esprit : rationaliser le monde de l’information. La firme de Mountain View épouse, selon l’auteur, les idées de base du taylorisme :

« le but du travail et de la pensée est l’efficacité ; que le calcul technique est à tous égards supérieur au jugement humain et que les experts sont les mieux placés pour diriger et gérer les affaires des citoyens ».

Nicholas Carr dénonce la folie des grandeurs de Larry PAGE et Sergeï BRIN, les patrons de Google, et leur puéril et illusoire désir de bâtir une machine intelligente dont la capacité de réflexion dépassera un jour celle de l’homme. Mais le fonctionnement du cerveau ne ressemble pas autant que l’on pourrait le croire au fonctionnement d’un ordinateur.

Et si Google peut offrir à un esprit bien fait un accès rapide à une quantité phénoménale d’informations, il détruit notre aptitude à la lecture profonde par son système même de fonctionnement d’allers et retours rapides entre l’interface du moteurs et les pages visitées.

Notre cerveau a besoin de temps pour la maturation de nos réflexions, mais ce que veut Google est que nous passions plutôt notre temps devant notre écran d’ordinateur pour accroître ses profits.

9. Cherche, mémoire, cherche !

De SÉNÈQUE (ca.1-65) à Umberto ECO (1932-....) en passant par ERASME (ca 1466-1536) et SHAKESPEARE (1564-1616), l’auteur veut démontrer que la mémorisation n’est pas un bête exercice de conservation mais un processus de synthèse. Mais au 20e siècle, la mémorisation fut discrédité au profit de l’imagination.

Avec l’internet, notre mémoire n’est plus qu’un index qui pointe vers les ressources en ligne... La déesse grecque de la mémoie et mère des muses, Mnémosyne, s’est "incarnée" dans la machine.

Nous savons aujourd’hui que la mémoire se divise en deux grandes formes de souvenirs : ceux à court terme et ceux à long terme qui ont des processus neuronaux différents. Nous savons aussi que répétition favorise la consolidation d’un souvenir à court terme en souvenir à long terme. Et à chaque retour d’un souvenir de la mémoire explicite (long terme) à la mémoire de travail en renforce la consolidation.

Quand notre mémoire s’accroît, notre intelligence aussi. Nos connexions neuronales ne donnent pas que l’accès à un souvenir, elles sont le souvenir. Mais les connexions du réseau auquel nous sous-traitons notre mémoire ne sont pas les nôtres.

10. Une chose qui est comme moi

En 1950, à la question de savoir si une machine peut penser, Alan TURING (1912-1954) proposait une expérience restée célèbre sous le nom du « test de Turing » . Si une personne réelle engageait une conversation avec une machine en croyant s’adresser à une personne, alors nous pourrions déclarer qu’il s’agit là d’une machine intelligente.

En 1958, l’illustre linguiste Noam CHOMSKY (1928-....) avait écrit :

« la seule méthode possible pour décrire une grammaire est dans les termes d’un programme pour une machine de Turing universelle »

En 1966, dans l’enthousiasme des années 60 pour les « systèmes experts », l’informaticien Joseph WEIZENBAUM (1923-2008) écrivit le premier programme informatique d’« intelligence artificielle », nommé ELIZA d’après l’héroïne du roman "Pygmalion" de Georges Bernard SHAW (1856-1950). Ce programme simulait une discussion entre une personne réelle est un psychothérapeute virtuel.

Cette expérience a largement débordée de son univers informatique pour aborder celui des psychanalystes dont certains déclarèrent :

« On peut considérer le thérapeute humain comme une entité qui effectue du traitement de données et de la prise de décisions avec un ensemble de règles de décision étroitement liées à des objectifs à court terme et à long terme. »

Ce qui fit répondre à WEIZENBAUM :

« Qu’est-ce qui dans l’ordinateur a donné l’idée, plus plausible que jamais, que l’homme est une machine ? »

Mais parce que « nous façonnons nos outils, et ensuite, c’est eux qui nous façonnent. Nous programmons notre ordinateur, et ensuite, c’est lui qui nous programme. » comme le déclara le spécialiste des médias John CULKIN (1928-1993).

La simple utilisation du GPS tend à diminuer la matière grise de la région cérébrale de l’hippocampe où se concentre notre mémoire consacrée à la représentation spatiale.

Épilogue : les facteurs humains

WEIZENBAUM s’inquiétait que plus nous nous habituons à l’ordinateur, et plus nous dépendons de lui, plus nous serons tentés de lui confier « des tâches qui requièrent du discernement » et plus seulement les tâches qui libèrent notre mémoire de travail au profit de notre mémoire à long terme, comme le fait la calculette. Et alors, tout retour en arrière sera impossible, et nous vivrons la prophétie inquiétante de Stanley KUBRICK (1928-1990) dans "2001 Odyssée de l’espace" :

« ... quand nous en sommes au point de nous en remettre à l’ordinateur pour connaître le monde, c’est notre propre intelligence qui se nivelle en intelligence artificielle. »

Lien : Is Google Making Us Stupid ?


Écrire à l'auteur

Moteur de recherche

  

Mot-clef de l'article


Autres Articles

 

Ce site est mis à disposition sous un contrat Creative Commons : http://creativecommons.org

Plan du site | Se connecter