Révolution numérique

L'ordinateur constitue l'élément clé du phénomène « révolution numérique ». À la fin des années 1970, les premiers ordinateurs personnels sont fabriqués à grande échelle.
Crédit image:
Inria / Poppy-project.org / Photo H. Raguet.
licence CC BY-SA 4.0 🛈
Les développements de la robotique et de l'intelligence artificielle structurent le phénomène « révolution numérique ».
Crédit image:
World Economic Forum /Photo by Andy Mettler
licence CC BY-SA 2.0 🛈
La « révolution numérique », et plus spécialement le développement de l'intelligence artificielle, suscite craintes et questionnements, y compris au sein de la sphère high tech, chez Bill Gates, ex-PDG de Microsoft (photo) et Elon Musk, PDG de Tesla, qui déclare : « je pense que nous devrions être très prudents au sujet de l'intelligence artificielle. Si je devais miser sur ce qui constitue notre plus grande menace pour l'existence, ce serait ça »[1].

La « révolution numérique » (ou plus rarement « révolution technologique »[2], « révolution Internet »[3] ou « révolution digitale »[4]) est une expression controversée qui désigne le bouleversement des sociétés provoqué par l'essor des techniques numériques comme l'informatique, le développement du réseau Internet, et l’implantation de l’intelligence artificielle.

Cette mutation se traduit par la mise en réseau planétaire des individus grâce aux nouvelles formes de communication telles que le courriel, les réseaux sociaux, la messagerie instantanée, les blogs et autres sites web privés et publics, commerciaux ou non.

Sur le Web, la révolution numérique s'accompagne d'une diffusion accrue des idées[5]. En même temps, les géants du Web (GAFAM, BATX, etc.) usent de leurs capacités en matière de calculateurs, d'acquisition et de traitement des données (big data) pour centraliser une grande partie des flux d'information. Ils disposent ainsi d'avantages importants en matière de développement de l'intelligence artificielle.

La révolution numérique se caractérise aussi par le développement de l'intelligence artificielle et par l'essor du domaine de la robotique. Elle est perçue par certains intellectuels et militants comme un ensemble de faits et une construction idéologique contestable.

Éléments de définition

Le concept de révolution numérique est fondé sur l'idéal de progrès, qui a émergé en Europe à la fin du XVIIIe siècle avec les Lumières.
Couverture des Éléments de la philosophie de Newton, mis à la portée de tout le monde, par Voltaire, 1738.

En France, la plus ancienne occurrence connue de l'expression « révolution numérique » remonte au numéro spécial de la revue Sciences et avenir (no 95), du .

L'expression « révolution numérique » est entrée non seulement dans le langage usuel, mais aussi dans celui des sciences humaines[6], et l'abondante littérature reprenant cette expression[7] peut donner l'impression d'une conception non seulement consensuelle, mais unique du sujet : la « révolution numérique » serait un fait établi, institué, et rien d'autre.

Pour autant, les analyses de l'historien François Jarrige démontrent l'émergence discrète, car progressive (s'élaborant au fil du XIXe et du XXe siècle), d'un mouvement de pensée technocritique. L'association des mots « révolution » et « numérique » pose des questions d'ordre philosophique, dans un contexte qui dépasse largement l'avènement de l'informatique qui porte sur le progrès technique et plus largement encore sur le concept même de progrès[8],[note 1].

Selon la mouvance technocritique, « la révolution numérique » ne pourrait pas se définir uniquement comme un ensemble de faits (l'invention de l'ordinateur, l'apparition d'internet, etc.), mais aussi comme une construction idéologique, au même titre que « le progrès ».

C'est donc parce que l'attention se focalise sur les faits que l'expression « révolution numérique » est répandue, mais c'est aussi parce qu'elle n'est généralement pas (ou peu souvent) identifiée comme construction idéologique qu'elle est ambiguë.

Une expression répandue

Comme la «révolution industrielle», deux siècles plus tôt, la «révolution numérique» est provoquée par une évolution sensible, très marquée, des techniques. Elle est en effet directement associée à la naissance, puis au développement de l'informatique, c'est-à-dire au fait que toute information (caractère d'imprimerie, son, forme, couleur, puis mot, texte, photographie, film, musique, etc.) peut être numérisée et s'exprimer par une combinaison de chiffres (en l'occurrence des 0 et des 1), puis stockée, modifiée, éditée (sur des sites ou des blogs), ainsi que transmise (par mails, sur des forums, etc.) au moyen de toutes sortes d'appareils comme des ordinateurs, des tablettes ou des smartphones. Ces premiers étant, depuis les années 1960, équipés de circuits intégrés, qui sont de taille réduite et peu consommateurs en énergie, ils permettent à des millions d'individus d'effectuer de façon de plus en plus automatique des tâches sans cesse plus nombreuses et complexes dans des délais de plus en plus courts, avec l'aide d'algorithmes et parfois d'intelligence artificielle.

Selon Marcello Vitali-Rosati et Michaël E. Sinatra, la « révolution numérique» engage à une «réinterprétation des structures conceptuelles à travers lesquelles l’Homme se rapporte au monde et, surtout, structure et organise sa connaissance »[10]. Du fait qu'elle marque l'entrée dans un nouveau paradigme de la connaissance, la numérisation des informations est souvent comparée à l'invention de l'imprimerie.

Dans l'histoire de ce processus, trois tournants sont habituellement distingués:

Ces innovations permettant aux échanges de s'opérer sous une forme électronique, les barrières géographiques et culturelles cessent d'être aussi contraignantes que par le passé. Cette mutation bouleverse l'ensemble des règles géopolitiques mondiales (mondialisation), l'économie planétaire (avènement de la Nouvelle économie) et, plus radicalement, la façon dont les individus perçoivent le monde, se comportent avec autrui et se considèrent eux-mêmes.

Une expression ambiguë

Le sociologue Jacques Ellul, à la fois spécialiste de la révolution[12] et penseur technocritique[13], affirme que, dès lors que la technique prend une part croissante dans l'histoire de l'humanité, la révolution n'est plus qu'un mythe :

« Le mythe de la révolution dévale sur le monde moderne. (…) Nous assistons à un usage outrageux du terme "révolution", tout et n'importe quoi est aujourd'hui qualifié. Un premier abus avait consisté à utiliser ce terme pour désigner la transformation de l'industrie au XVIIIe siècle. (…) Pour bien mesurer l'abus de mots, il faut comprendre en profondeur que la technique produit une société essentiellement conservatrice, intégratrice, totalisante, en même temps qu'elle entraîne d'énormes changements. Mais ce sont les changements d'un rapport à soi toujours identique. La technique est antirévolutionnaire mais, par les "progrès" effectués, donne l'impression que tout change, alors que seules des formes et des moyens se modifient. Elle anéantit la pulsion révolutionnaire en accroissant tous les conformismes à sa propre structure intégrée »

Jacques Ellul, Autopsie de la révolution, 1969[14]

Crédit image:
Jean-Pierre Dalbéra from Paris, France
licence CC BY 2.0 🛈
Selon Xavier de La Porte, « parler de révolution numérique, c’est éteindre l’idée même de révolution ».

L'expression « révolution numérique » accole deux termes d'origines très différentes : le mot « révolution » définit l'idée d'une émancipation des individus au prix d'un bouleversement politique organisé et théorisé, mais se déroulant de façon rapide et mouvementée, voire violente ; le mot « numérique » renvoie quant à lui à une évolution de la technique (les informations se transmettent non plus par des signaux analogiques, mais précisément par des signaux numériques) mais cette mutation s'opère « progressivement », au fil des avancées scientifiques et techniques, et sans concertation préalable avec le milieu politique.

Or c'est au moment où l'on parle beaucoup de « révolution numérique » que l'économie mondiale est façonnée par les GAFAM (Google, Apple, Facebook, Amazon, Microsoft… mais aussi Twitter, LinkedIn, Netflix, Airbnb, Uber, etc.), les « géants du Web » dont les chiffres d'affaires dépassent les PIB de nombreuses nations[15],[16]. Cette prégnance de l'économie sur la sphère politique rend l'expression « révolution numérique » problématique, voire ambiguë. Le journaliste Xavier de La Porte ironise alors sur les personnalités politiques qui ne cessent d'utiliser l'expression :

« Si tous ces gens acceptent de parler de “révolution numérique”, c’est parce que quand vous accolez “numérique” à “révolution”, vous éteignez même l’idée de révolution. Faisons un exercice de méditation collective… Fermez les yeux… Je vous dis doucement à l’oreille “révolution numérique”. Vous voyez quoi ?… Des câbles, des ordinateurs, des écrans, des serveurs. Si vous voyez des humains, vous voyez des types barbus derrière un clavier en train d’aligner du code. Franchement, vous arrivez à voir là le ferment d’une révolution[17] ? »

Un fait et une idéologie

L'expression « révolution numérique » désigne donc à la fois un ensemble de faits réels et une idéologie.

D'une part, en effet « le numérique » désigne le processus de numérisation d'un nombre sans cesse croissant d'informations ; lequel processus se traduit par l'évolution de toutes sortes d'outils qui transforment les liens sociaux de façon spectaculaire : ces outils sont de plus en plus nombreux ; ils sont de plus en plus performants, la capacité de calcul d'un smartphone étant supérieure à celle d'un micro-ordinateur du début des années 1980. Ils semblent de plus en plus « intelligents » et ils sont capables d'assumer plusieurs fonctions logiques différentes (voir intelligence artificielle) ; ils sont de plus en plus petits et invisibles, pouvant être introduits sous la peau ou dans des corps (voir miniaturisation et nanotechnologies) et ont une bonne capacité d'intégration dans leur environnement (voir domotique) et dans des relations sociales (voir interaction homme-robot). Leur fonctionnement en réseau permet à leurs utilisateurs d'effectuer des recherches complexes (voir réseau informatique), leur conférant des capacités augmentées : filmer/enregistrer autrui à son insu ou le géolocaliser, percevoir le virtuel, via des écrans, comme on perçoit le réel (réalité augmentée). Ils sont de plus en plus autonomes, pouvant même communiquer entre eux (voir Internet des objets). Leurs capacités futures sont inconnues et suscitent autant d'espérances que de craintes (de l'apprentissage autonome, voir apprentissage profond, jusqu'au transhumanisme).

D'autre part, les analystes technocritiques estiment que qualifier cette évolution de « révolution », au seul motif qu'elle est très rapide, constitue un glissement sémantique injustifié : « le numérique » a beau modifier le lien social de façon spectaculaire, il ne « révolutionne » en rien l'ordre politique et économique ; il le renforce même au contraire et le stimule. Ces analystes considèrent que, faute d'une « révolution intellectuelle » — à savoir une expertise de ce que Jacques Ellul appelle le « système technicien » —, le système capitaliste ne peut que se renforcer et les « géants du web » continuer de grandir et influer sur les comportements[18].

Il est nécessaire de saisir, dans un premier temps, la genèse de l'expression « révolution numérique » : quels sont notamment les liens entre « la révolution industrielle » et « la révolution numérique », phénomènes fréquemment comparés ?

On analysera ensuite les raisons pour lesquelles cette expression s'est imposée dans le langage usuel et pourquoi elle est davantage interprétée comme un fait que comme une construction idéologique.

Histoire

Les premiers ordinateurs étaient de simples machines à calculer, recevant des informations à traiter qui étaient des nombres : c'est la naissance de l'automatisation du calcul. Comprendre l'histoire du numérique nécessite de saisir l'histoire du calcul.

Un boulier

Très tôt, les humains ont conçu et fabriqué des outils les aidant à calculer (abaque, boulier…). Mais c'est à partir du XVIIIe siècle qu'ils ne cessent de les perfectionner, quand s'amorce (en Angleterre puis en France) la révolution industrielle. Alors que la société s'était bâtie sur une économie à dominante agraire et artisanale, l'urbanisation accroît en devenant de plus en plus commerciale et industrielle. Dans le but de rendre la production toujours plus efficace, les machines sont conçues et fabriquées à un rythme exponentiel. Au fur et à mesure que la société se mécanise, naît l'idée selon laquelle la machine ne doit pas seulement aider les hommes, mais aussi, autant que possible, les remplacer. Le goût pour les automates se développe à cette époque, traduit par un désir plus ou moins conscient : que toutes les étapes d'un processus de production (conception, fabrication, maintenance, commercialisation, etc.) soient prises en charge par une « machinerie intelligente ». C'est-à-dire habilitée à traiter un maximum d'informations automatiquement et à la place de l'homme. Il est donc d'usage de considérer « la révolution numérique » comme le prolongement logique de la révolution industrielle[19].

Genèse

XVIIe siècle

Crédit image:
David.Monniaux
licence CC BY-SA 3.0 🛈
La pascaline, toute première machine à calculer (1642)

L'esprit des télécommunications s'institutionnalise. En 1603, en France, le roi Henri IV fait créer un corps de courriers (estafettes) chargé de transporter les correspondances aussi bien administratives que privées : c'est la naissance officielle de « la poste », administration détenant le monopole de ce service[20]. En 1612, un service de diligences est mis en place transportant à la fois du courrier, des paquets et des voyageurs.

Dans la deuxième moitié du siècle, deux philosophes, l'Allemand Gottfried Wilhelm Leibniz et l'Anglais Thomas Hobbes, émettent l'hypothèse que la pensée peut se formuler de façon systématique par le biais d'un langage mathématique. Le premier imagine un langage assimilant l'argumentation à un calcul, afin qu'« il n'y ait pas plus de besoin de se disputer entre deux philosophes qu'entre deux comptables ». Selon Hobbes, « la raison n'est rien d'autre que le fait de calculer » [21]. Mais c'est un autre philosophe, le Français Blaise Pascal, qui entreprend de concrétiser ces principes en inventant la pascaline dès 1642 : la toute première machine à calculer dont le fonctionnement permet de traiter un algorithme.

XVIIIe siècle

Les débuts de l'automation
Crédit image:
Nicolás Pérez
licence CC BY-SA 3.0 🛈
La « révolution numérique » peut être perçue comme l'équivalent actuel de la « révolution industrielle », l'image de la machine servant de lien. Machine à vapeur, James Watt, (1769)

Durant la première moitié du siècle, émergent des inventions qui relèvent de l'automation et qui annoncent ce qui deviendra plus tard l'informatique. En 1728, dans le but d'automatiser le fonctionnement des métiers à tisser, le français Jean-Baptiste Falcon invente le système de la carte perforée : morceau de papier rigide contenant des informations représentées par la présence ou l'absence de trou dans une position donnée. En 1735, pour les plaisirs de la Cour, Jacques Vaucanson construit son premier automate, le flûteur automate. Puis, en 1744, il en construit un autre plus sophistiqué et qui fait forte impression sur le public : le canard digérateur. Nommé inspecteur général des manufactures de soie et chargé de réorganiser cette industrie, il perfectionne le métier à tisser de Falcon en l'automatisant par hydraulique, la commande étant assurée par des cylindres analogues à ceux de ses automates.

Révolution industrielle et Lumières : capitalisation du savoir-faire technique et de la connaissance

Durant la seconde moitié du siècle, en Grande-Bretagne, la machine à vapeur, mise au point par l'ingénieur écossais James Watt, et le réseau ferré transforment peu à peu les structures économiques et sociales du pays[22]. Lewis Mumford voit dans la révolution industrielle la préfiguration de la « révolution numérique »[23].

En France, les principaux acteurs de cette mutation sont issus de la bourgeoisie, une nouvelle classe sociale qui « détrône » l'aristocratie. Pleinement conscients et désireux de fonder une civilisation moderne, « éclairée », ils consignent par écrit l'ensemble de toutes les innovations scientifiques et techniques. Éditée de 1751 à 1772, l'Encyclopédie de Diderot et d'Alembert (ou Dictionnaire raisonné des sciences, des arts et des métiers) promeut l'universalisme, lequel préfigure les notions de réseau et de village global aujourd'hui associées à l'idée de « révolution numérique »[24].

XIXe siècle

Révolution industrielle et machinisme

La Grande-Bretagne affirme sa suprématie sur le reste du monde : 500 pompes à vapeur y fonctionnent en 1800, la première locomotive y circulant en 1803. Dans le premier quart du siècle, l'électricité reste une curiosité de laboratoire (pile inventée en 1801) en regard du développement de l'énergie thermique. À partir de 1835, la fièvre du rail s'empare de l'Europe. Le réseau ferroviaire peut être considéré comme une préfiguration du réseau Internet.

Ces mutations engendrent de tout nouveaux rapports entre la science et la technique : le scientifique cesse d'être un amateur et devient un professionnel formé par des études supérieures, accédant au statut d'ingénieur. L'industrie et la recherche se stimulent mutuellement, la première devenant l'application de la seconde, dynamique qui s'accentuera plus tard avec la « révolution numérique ».

C'est dans ce contexte de perpétuelle innovation technique qu'émerge peu à peu une nouvelle vision du monde, le scientisme : non seulement la science supplante la religion dans sa vocation d'interpréter l'univers, mais certains estiment qu'elle doit s'arroger celle d'« organiser scientifiquement l'humanité » (la formule est du philosophe Ernest Renan). En France, les saint-simoniens considèrent que l'industrie doit prendre le pas dans la société et invitent les industriels à constituer un parti afin de prendre le pouvoir.

La machine : le moyen d'accroître la productivité. Ici, une machine à rouler les cigarettes (1880).

Les rapports à l'économie sont également bouleversés, car le progrès technique contraint les industriels à innover pour améliorer les taux de profit en abaissant les prix de revient. Par suite, l'économie devient de plus en plus productiviste et détermine le monde des idées, comme le démontre l'économiste allemand Karl Marx dans son étude sur les rapports entre superstructures et infrastructures.

« Est-il besoin d'une grande perspicacité pour comprendre que les idées, les conceptions et les notions des hommes, en un mot leur conscience change avec tout changement survenu dans leurs conditions de vie, leurs relations sociales, leur existence sociale ? Que démontre l'histoire des idées, si ce n'est que la production intellectuelle se transforme avec la production matérielle[25] ? »

Préfiguration de l'informatique
Crédit image:
Bruno Barral (ByB)
licence CC BY-SA 2.5 🛈
Une partie de la machine analytique de Charles Babbage

Comme au siècle précédent, les signes annonciateurs de l'informatique sont encore très limités :

En revanche, le siècle est marqué par des inventions décisives dans le domaine des télécommunications. En 1844, Samuel Morse effectue la première démonstration publique du télégraphe sur une longue distance en envoyant un message sur une distance de 60 km, entre Philadelphie et Washington. En 1858, le premier câble transatlantique est tiré entre les États-Unis et l'Europe pour interconnecter les systèmes de communications télégraphiques des deux continents[note 3]. En 1876, l'Américain Graham Bell invente le téléphone et fonde la compagnie Bell Telephone Company. Par ailleurs, l'énergie électrique est de mieux en mieux maîtrisée. En 1879, l'américain Thomas Edison invente la lampe à incandescence et en 1892, l'Allemand Karl Ferdinand Braun invente le tube cathodique qui servira aux premiers écrans de télévision puis d'ordinateurs.

Première moitié du XXe siècle

Expérience de radio en 1918 à l'Université de New York
La technique investit l'environnement et pénètre les foyers

Durant les cinquante premières années du siècle, un grand nombre d'inventions voient le jour et sont aussitôt mises en application par l'industrie. Toutes contribueront plus tard à la « révolution numérique ». Retenons principalement trois d'entre elles :

De l'électronique à l'informatique

En parallèle, les travaux préparant l'avènement de l'informatique se poursuivent. Dans les années 1930, Fredrik Bull crée en Suisse la première entreprise développant et commercialisant des équipements mécanographiques en utilisant le principe des cartes perforées. L'Allemagne nazie s'intéresse de près à ce procédé. En 1941, à Berlin, l'ingénieur Konrad Zuse met au point le Z3, calculateur électromécanique qui constitue la première machine programmable pleinement automatique[note 4]. À Londres en 1944, Colossus est le premier calculateur fondé sur le système binaire.

L'ENIAC, premier ordinateur mondial

Mais c'est aux États-Unis, plus précisément en Californie, à quelques kilomètres de San Francisco, très exactement à Palo Alto, que s'amorce véritablement la « révolution numérique ». C'est là qu'en 1939, William Hewlett et David Packard y fondent dans un simple garage l'entreprise qui deviendra plus tard une multinationale. Cette vallée, qui sera baptisée Silicon Valley en 1971, constitue la première technopole mondiale. La fin de la Seconde Guerre mondiale marque le début d'une hégémonie des États-Unis en matière de progrès technique. En 1945, l'ingénieur Vannevar Bush imagine une machine à mémoriser stockant des microfilms[26]. En 1946, à l'Université de Pennsylvanie, ENIAC devient le tout premier ordinateur mondial. Pesant 30 tonnes, occupant 167 m2, utilisant des tubes à vide et consommant 150 kilowatts, il effectue 5 000 additions par seconde. En 1948 est inventé le transistor, composant semi-conducteur de très petite taille et peu consommateur en énergie : il ouvre la voie à la miniaturisation des composants, ce qui fera par la suite de l'électronique l'un des principaux secteurs de l'économie.

Alors que l'informatique est encore balbutiante, la télévision symbolise le progrès dans l'imaginaire collectif. Aux États-Unis, le nombre de récepteurs s'accroît de façon fulgurante : 30 000 en 1947, 157 000 en 1948, 876 000 en 1949, 3,9 millions en 1952[27]. Témoin de l'American way of life, elle façonne les mentalités et crée la « société de consommation ». Les spots publicitaires qui y sont diffusés accentuent d'autant le phénomène de l'achat compulsif, lequel se porte en priorité sur les objets techniques.

Dès cette période, les avancées techniques donnent naissance aux premières réflexions relatives à leur impact et leur signification dans les mentalités. De 1942 à 1953 se déroulent à New York les conférences Macy, qui réunissent des mathématiciens, logiciens, anthropologues, psychologues et économistes se donnant pour objectif d'édifier une science générale du fonctionnement de l'esprit. Parmi les participants, deux courants s'opposent : d'un côté le cercle « personnalité et culture », qui établit une réciprocité entre les sciences mathématiques et physiques et les sciences psychologiques, psychologie du développement…) ; de l'autre, les « cybernéticiens », comme Norbert Wiener qui introduit en science la notion de feedback (rétroaction) qui aura des implications lourdes dans de nombreux domaines, notamment en ingénierie, en informatique et en biologie. Wiener expose ses théories dans deux livres[28]. Dans la seconde partie du second livre, « Cybernétique et société », il affirme que « de même qu'une révolution est en cours, permettant aux machines de remplacer les muscles de l'homme, une autre est en train de poindre qui leur permettra de se substituer à son cerveau »[29]. Les idées de Wiener contribueront à une adaptation au progrès technique.

En 1936, dans son film Les Temps modernes, le cinéaste anglo-américain Charles Chaplin décrit l'aliénation du travailleur par le machinisme. En 1949, l'écrivain anglais George Orwell dresse quant à lui un portrait très sombre de l'avenir. Son roman 1984 décrit un nouveau type de totalitarisme, caractérisé par la télésurveillance et le contrôle social.

Ère informatique

Années 1950

Les origines

Les innovations techniques successives ne sont pas sans inspirer les techniciens eux-mêmes. En 1950, dans son article « Computing Machinery and Intelligence »[30], le mathématicien et informaticien anglais Alan Turing jette les bases de l'intelligence artificielle et fait « le pari que d'ici cinquante ans, il n'y aura plus moyen de distinguer les réponses données par un homme ou un ordinateur, et ce sur n'importe quel sujet »[31]. Mesurant l'ampleur de cette mutation et de son impact sur les mentalités, Jacques Ellul publie, en 1954, La Technique ou l'Enjeu du siècle qui constitue la toute première approche anthropologique du phénomène technicien. Selon lui, le développement de l'automation conduit la technique à se développer de façon autonome : celle-ci échappe à tout contrôle des hommes dès lors qu'ils s'obstinent à croire qu'elle n'est qu'un moyen neutre à leur service.

Au milieu de la décennie, naît aux États-Unis l'activité radioamateur citizen-band (ou « CB », de l'anglais, « bande des citoyens »), première implication d'amateurs dans le domaine des télécommunications.

En 1957, les Soviétiques mettent sur orbite le premier satellite artificiel, Spoutnik 1. Cet événement ouvre une nouvelle étape dans l'ère des télécommunications : les satellites de télécommunications joueront plus tard un rôle indispensable dans la mise en place d'Internet[réf. nécessaire].

Crédit image:
licence CC BY-SA 4.0 🛈
Jack Kilby (au centre), inventeur du circuit intégré
Premières grandes avancées de l'informatique et de la télématique

L'année 1958 est marquée par deux événements majeurs :

En 1959, le physicien américain Richard Feynman anticipe l'exploration de l'infiniment petit et considère comme possible d'écrire de grandes quantités d'informations sur de très petites surfaces. Il déclare d'ailleurs : « Pourquoi ne pourrions-nous pas écrire l'intégralité de l'Encyclopædia Britannica sur une tête d'épingle ? »[32]. Il ouvre ainsi une réflexion qui conduira aux recherches en nanotechnologie.

Les scientifiques élaborant eux-mêmes des théories et des hypothèses pour le moins surprenantes, la science-fiction s'impose comme genre littéraire. Le terme « science-fiction » lui-même[33] a pour synonyme et concurrent direct le mot « anticipation ». Celle-ci met en scène des univers où se déroulent des faits impossibles ou non avérés en l’état actuel des techniques, mais qui correspondent à des découvertes pouvant advenir un jour[réf. nécessaire]. Le progrès technique devient alors un objet fantasmatique où s'expriment toutes sortes d'attentes et d'inquiétudes.

Années 1960

Crédit image:
licence CC BY-SA 3.0 🛈
Assemblage de composants électroniques

Le processus de miniaturisation des composants se poursuit, permettant la réduction des coûts de production, tandis que les langages de programmation sont de plus en plus élaborés, grâce à des algorithmes toujours plus sophistiqués. Le processus de commercialisation des ordinateurs s'amorce, mais ne concerne alors que le secteur de l'entreprise.

Émergence d'Internet

En 1961, démarrent les recherches qui aboutiront, vingt ans plus tard, à la naissance d'Internet. Leonard Kleinrock, étudiant au MIT, publie une théorie sur l'utilisation de la commutation de paquets pour transférer des données. En 1969, grâce à ses recherches, est conçu le projet ARPANET (Advanced Research Projects Agency Network), premier « réseau à transfert de paquets ». La connexion s'établit entre les laboratoires de quatre grandes universités américaines, pour le compte du Département américain de la Défense. La mise en place du dispositif ARPANET s'inscrit dans le contexte de la Guerre froide. L'objectif est de créer un réseau de télécommunications militaire à structure décentralisée capable de fonctionner malgré des coupures de lignes ou la destruction de certains systèmes[34]. L'utilisation civile du réseau ARPANET n'était nullement envisagée à l'époque où il a été conçu.

Une nouvelle vision du monde
Crédit image:
licence CC BY-SA 4.0 🛈
La citation de Marshall McLuhan, signifiant que l'espace médiatique est désormais intégré dans l'imaginaire collectif (1967)

En 1961, le cosmonaute soviétique Gagarine effectue le premier vol spatial, mais peu à peu, c'est l'homme du commun qui adopte une nouvelle vision du monde. En 1967, deux ans avant que les Américains ne marchent sur la Lune, le sociologue canadien Marshall McLuhan utilise l'expression « village planétaire » pour exprimer l'idée que tout un chacun va de plus en plus éprouver le sentiment que le monde entier lui est « accessible »[35] et que les médias ne constituent pas un moyen d'information « neutre », mais qu'ils exercent une sorte de fascination sur la conscience et modifient en profondeur le processus de la perception :

« L'enfant très jeune est comme le primitif : ses cinq sens sont utilisés et ont trouvé un équilibre. Mais les technologies changent cet équilibre ainsi que les sociétés. L'éducation développe un sens en particulier. Hier c'était la vue, par l'alphabet et l'imprimerie. Depuis plusieurs décennies, c'est l'ouïe. Et désormais, c'est notre système nerveux central. « Video-Boy » a été élevé par la télévision. Sa perception est programmée autrement, par un autre média[36] »

La même année, sur un autre registre, l'écrivain français Guy Debord affirme :

« Toute la vie des sociétés dans lesquelles règnent les conditions modernes de production s'annonce comme une immense accumulation de spectacles[37]. »

Son approche préfigure le concept de monde virtuel qui sera utilisé alors que des millions d'individus délaisseront de plus en plus le «monde réel» pour focaliser leur attention sur ses représentations.

Les ordinateurs ont été conçus pour jouer les auxiliaires de l'homme, mais l'importance de leurs capacités de mémoire et d'intelligence suscitent tour à tour fascination et inquiétude dans l'imaginaire collectif. Popularisé en 1960 par le neurophysiologiste Manfred Clynes et le chimiste Nathan Kline, le terme cyborg renvoie au concept d'humain « amélioré », mi-humain, mi-machine. En 1968, le film de Stanley Kubrick 2001, l'Odyssée de l'espace[note 5] met en scène deux astronautes en conflit avec un superordinateur qui cesse de leur obéir.

Années 1970

Le simulateur de vol a constitué le terrain d'expérimentation des premières images de synthèse en temps réel.

Le développement de l'informatique dans tous les domaines de la société (science, économie, armée, santé, finance, commerce…) se traduit par une augmentation sans cesse croissante de la demande en traitement des informations dans les foyers. Les jeux vidéo sont si popularisés que naît une nouvelle industrie : l'industrie vidéoludique. Or, c'est dans le domaine militaire[réf. nécessaire], avec les simulateurs de vol, qu'apparaissent les premières images de synthèse.

Les ordinateurs personnels se multiplient, un système les relie

En 1971, deux événements distincts se produisent et porteront, ensemble, la « révolution numérique » : l'invention du microprocesseur et la mise en réseau d'une vingtaine d'ordinateurs éloignés géographiquement, préfiguration d'Internet (qui ne deviendra opérationnel qu'en 1983).

  • La firme américaine Intel invente le microprocesseur, un processeur dont tous les composants ont été suffisamment miniaturisés pour être regroupés dans un unique boitier. Ce petit objet va bouleverser radicalement la conception des ordinateurs et surtout en réduire considérablement la taille, et, par extension, les coûts. Ainsi, l'accessibilité des produits informatiques est grandement améliorée (d'abord dans les entreprises, puis chez les particuliers). L'ère de la micro-informatique s'ouvre en 1977 avec l'Apple II, conçu par Steve Wozniak, qui est l'un des premiers ordinateurs personnels fabriqués à grande échelle. En 1979, la sortie du premier tableur, VisiCalc, le fait entrer dans le monde professionnel. Une augmentation spectaculaire de ses ventes fait en très peu de temps à la fois la richesse de la société Apple et la notoriété de la Silicon Valley où elle siège à l'instar d'Intel.
  • 1971 marque la genèse d'Internet. 23 ordinateurs sont reliés sur ARPANET et le premier courrier électronique (courriel) est envoyé. L'année suivante naît InterNetworking, un organisme chargé de la gestion d’Internet. Les protocoles TCP/IP seront définis plus tard et formaliseront les modalités de transfert des données.
Marque déposée 🛈
Logo de la Commission nationale de l'informatique et des libertés.

En France, EDF met en réseau des ordinateurs Mitra 15 pour mieux gérer un réseau électrique bouleversé par la montée en puissance du nucléaire, tandis que le réseau Cyclades relie une quinzaine d'ordinateurs IBM, Philips et CII à partir de la fin 1974.

Informatique et liberté

La fin de la décennie voit poindre les premières inquiétudes relatives à l'impact de la numérisation des fichiers administratifs sur les libertés. En 1978 naît en France la Commission nationale de l'informatique et des libertés (CNIL), chargée de veiller à ce que l’informatique reste au service du citoyen et qu’elle ne porte atteinte ni à l'identité humaine, ni aux droits de l’homme, ni à la vie privée.

Les sociologues commencent alors à s'inquiéter des conséquences du développement informatique et du progrès technique sur les libertés. En 1977, Jacques Ellul publie Le Système technicien, le second volet de son triptyque consacré à l'étude de la technique qui, selon lui, est désormais constituée en un « système » menaçant les libertés fondamentales puisqu'il « formate » l'ensemble des activités humaines :

« Un système, c'est un ensemble d'éléments en relation les uns avec les autres de telle façon que toute évolution de l'un provoque une évolution de l'ensemble, toute modification de l'ensemble se répercutant sur chaque élément. Cette interdépendance s'intensifie avec l'informatique : le système technicien est devenu à la société moderne ce que le cancer est à l'organisme : un nouveau milieu, qui pénètre l'ancien, l'utilise, le phagocyte et le désintègre[38]. »

Pour Ellul, l'informatique constitue le nœud de ce système. Elle ne constitue pas un « problème en soi », mais le fait que l'on ne considère pas qu'elle n'est qu'un ensemble de représentations du réel et non le réel lui-même crée une césure entre monde réel et monde virtuel qui, in fine, menace la liberté de l'humanité tout entière si celle-ci ne la repère pas :

« L'informatique n'est pas une technique comme une autre, elle porte l'ensemble technicien à sa perfection en mettant tous ses éléments en interconnexion. Ce faisant, elle transforme complètement le rapport au réel, en déréalisant tout, en transformant toute chose en signe à consommer, en rendant toute réalité « autre qu'elle-même » : abstraite, lointaine et sans contenu[38]. »

Années 1980

Écrans, consoles et baladeurs

En 1981, l'ordinateur personnel fait irruption dans les foyers. Premier concurrent de l'Apple II, l'IBM PC est produit à plusieurs millions d'exemplaires. En 1984, Sony sort le premier baladeur numérique, deux ans après que le disque compact (CD) ait été commercialisé et ait supplanté le disque vinyle. En 1985, la NES, de la société japonaise Nintendo, domine le marché vidéoludique.

Face au nombre croissant de personnes s'isolant du réel au profit des univers virtuels (ordinateur, console de jeux, baladeurs, etc.), certains philosophes et sociologues s'interrogent. Tandis que Gilles Lipovetsky voit dans les contacts rapprochés avec les écrans l'une des principales raisons de la montée en puissance de l'individualisme[39], d'autres (notamment au sein de la sociologie des usages[40]) y décèlent au contraire l'éclosion de nouvelles formes de sociabilité[41],[42].

Rapport aux images : entre fascination et banalisation

Le numérique transforme radicalement le rapport des hommes aux images :

  • le cinéma exploite de manière de moins en moins décomplexée les algorithmes informatiques, perfectionnés. En 1982, le film Tron est le premier à utiliser l'informatique de manière intensive afin de concevoir des effets spéciaux et un univers virtuel ;
  • la photographie numérique accentue la production et la consommation domestiques des images, ce qui, à terme, provoque leur banalisation. Après que l'entreprise Canon a commercialisé le premier appareil photo numérique en 1986, la définition des images, la façon de les stocker, de les télécharger ou de les émettre ne cessent de s'améliorer.
Internet : réseau des réseaux

1983 est une date historique : le protocole TCP/IP est officiellement adopté et le mot « Internet » fait son apparition. 562 ordinateurs sont connectés en août (on en comptera 1 000 en 1984, 10 000 en 1987 et 100 000 en 1989)[réf. nécessaire]. L'année suivante, la société Cisco Systems commence la conception et la commercialisation des premiers routeurs, permettant d'interconnecter divers réseaux entre eux.

Le téléphone mobile

L'année 1983 est marquée par un autre événement majeur : la commercialisation du premier téléphone mobile par la firme Motorola : le Motorola DynaTac 8000[43].

Informatique et liberté (suite) ?

En France, comme ailleurs, le fichage électronique n'est pas vécu comme une atteinte aux libertés fondamentales, mais comme une simple commodité. La carte à puce (qui avait été brevetée en France en 1974) est diffusée au grand public comme carte téléphonique : à la fin de la décennie, le GIE Carte bancaire en commande 16 millions d'exemplaires.

En 1982, dans son livre Changer de révolution, Jacques Ellul estime que le micro-ordinateur pourrait servir de vecteur à une véritable et profonde émancipation des hommes, car il favorise à la fois l'expression de leurs idées et leur coordination. Mais il faudrait selon lui agir « avant que la micro-informatique ne soit « prise » (au sens d’une banquise ou d’une mayonnaise) par le système technicien, car alors, il sera rigoureusement trop tard »[44]. Six ans plus tard, toutefois, dans Le Bluff technologique, il se ravise : « Actuellement, j’estime que la partie est perdue. Et que le système technicien, exalté par la puissance informatique, a échappé définitivement à la volonté directionnelle de l’homme »[45].

Science-fiction ou technique fiction ?

En 1984 est édité le roman Neuromancien (titre original : Neuromancer) de William Gibson, premier ouvrage de science-fiction. Il est généralement considéré comme le roman fondateur du mouvement cyberpunk ayant inspiré un très grand nombre d'œuvres[46]. La même année sort Terminator, film d’action d’anticipation américano-britannique de James Cameron, dont le personnage principal est un cyborg assassin venu du futur et où il est question d'un système doté d'une d'intelligence artificielle faisant la guerre à l'humanité afin de l'éradiquer et d'assurer la suprématie des machines. L'œuvre connaît un succès international : quatre autres épisodes suivront jusqu'en 2015.

Années 1990

Le smartphone : De zéro à plus de 300 millions d'ordinateurs connectés en dix ans
Crédit image:
licence CC BY-SA 3.0 🛈
Naissance du Web dans les années 1990.

En 1990, ARPANET disparaît tandis que le World Wide Web, système hypertexte public, fait son apparition. Il permet de consulter, avec un navigateur[note 6], des pages accessibles sur des sites. L’image de la toile d'araignée vient précisément des hyperliens qui lient les pages web entre elles. En 1991, l'application Gopher (aujourd'hui disparue) permet d'accéder en ligne à toutes sortes de documents et de les télécharger, ce qui constitue un événement majeur dans le domaine universitaire. En 1992, on dénombre un million d'ordinateurs connectés et 36 millions quatre ans plus tard. Le protocole HTTP devient la lingua franca d'un réseau qui ne compte alors que 130 sites, qui se positionnent souvent en contrepoint des médias traditionnels. Mais très rapidement, cet archipel devient un labyrinthe. En quatre ans à peine, le nombre de sites explose : on en recense rapidement plus d'un million. Dès lors, l'enjeu est de se repérer dans cette masse énorme de données. Amazon est fondé en 1995, Google en 1998 et bientôt s'ouvre la bataille autour des portails d'information[47].

Conçu par IBM en 1992 et commercialisé deux ans plus tard, le smartphone constitue l'objet qui fait le mieux voir l'ampleur des changements ayant cours à l'ère du numérique : tenant dans la main et pouvant être utilisé presque n'importe où, il concentre toutes sortes de fonctions : téléphone, appareil photo, ordinateur, poste de radio, etc.

Intelligence artificielle

Parallèlement aux avancées d'Internet se poursuivent les recherches en intelligence artificielle (IA), qui inspirent nombre de futurologues. Ainsi, en 1993, le penseur transhumaniste Vernor Vinge introduit-il le concept de « singularité technologique » pour formuler l'idée qu'un jour viendra où les capacités humaines seront dépassées par celles de l'IA[48]. Comme pour lui donner raison, en 1997, l'ordinateur Deep Blue (conçu par IBM) gagne une partie d'échecs contre Garry Kasparov, champion du monde en titre.

La même année, l'industrie vidéoludique génère pour la première fois un revenu plus important que le cinéma.

À mesure que les matériels se perfectionnent et se multiplient, quelques pathologies se développent ; en premier lieu, la dépendance.

Crédit image:
licence CC BY-SA 3.0 🛈
Les nouvelles technologies permettent de transmettre des ordres boursiers de plus en plus rapidement et en nombre croissant, ce qui provoque de nombreux dysfonctionnements dans le monde de la finance.
Diagramme montrant la toxicité des flux d'ordres lancés le .
Les technologies bouleversent l'économie

Le progrès technique façonne alors littéralement l'économie : la multiplication des outils et le fait qu'ils soient de plus en plus sophistiqués et réunis en réseaux stimulent la « nouvelle économie », dont les maîtres mots sont « innovation » et « croissance ». Solange Ghernaouti-Hélie et Arnaud Dufour décrivent le moment d'emportement de l'économie qui débouche, en , sur la bulle Internet : « Toute la seconde moitié des années 1990 est marquée par une agitation médiatique sans précédent autour de l'Internet, puis de ses dérivés, notamment le commerce électronique. Tour à tour crédité du meilleur comme du pire, l'Internet fascine, suscite toutes sortes de convoitises et inquiète en même temps. Dès lors, les milieux financiers investissent massivement dans les sociétés liées à l'informatique, en espérant réaliser des gains importants sur ce marché prometteur mais souvent mal compris ».

Les “start-up”

Les entreprises qui émergent entre 1996 et 2000 pour offrir des services sur l'Internet (fourniture de logiciels, moteurs de recherche, portails, sites d'information, magazines électroniques, commerce en ligne) sont vues comme des modèles originaux de création d'entreprise. Aux États-Unis, l'intégration du suffixe « .com » de leur adresse web dans leur nom d'entreprise fait naître l'expression « dotcom » pour les désigner. Les premiers succès de financement et d'introduction en bourse survalorisent certaines start-up et créent le mouvement de la nouvelle économie, souvent comparé à la ruée vers l'or. Ce phénomène, amplifié par un indéniable effet de mode, pousse alors certains investisseurs à spéculer sur la croissance rapide de l'Internet et sur la génération exponentielle de revenus. Cela permet à de nombreuses jeunes entreprises innovantes (start up) de trouver des financements. Ces prévisions de croissance se sont par la suite avérées surévaluées. Dès la fin 1999, certains analystes des domaines technologiques et financiers commencent à prendre leur distance par rapport à ce qu'ils perçoivent comme un excès spéculatif dans la nouvelle économie[49].

Science-fiction ou technique fiction ? (suite)

En 1999 sort Matrix, film australo-américain qui connaît un succès considérable et qui raconte l'histoire d'un jeune informaticien contacté, via son ordinateur, par ce qu’il pense être un groupe de hackers, lesquels lui font comprendre que le monde dans lequel il vit n’est qu’un monde virtuel dans lequel les êtres humains sont gardés sous contrôle. Le film le décrit comme un nouveau messie : « l’Élu » qui peut sauver l'ensemble des êtres humains du joug des robots. Deux autres épisodes suivront en 2003.

Années 2000

Crédit image:
licence CC BY-SA 3.0 🛈
Logo du label « zone d'activité très haut débit ».
Internet domestiqué ?

En 2000, alors qu'Internet passe au haut débit, 368 millions d'ordinateurs sont connectés[réf. nécessaire] dans le monde. Selon le sociologue Dominique Boullier, les années 2000 « voient émerger une activité quotidienne de publication de masse sur de nouveaux terminaux qui touche la grande majorité de la population et sort l'informatique et les réseaux de leur monde professionnel »[50]. Le réseau se démocratise, un grand nombre d'individus se l'approprient, ils ouvrent leurs propres sites, leurs blogs, y créent directement de nouveaux outils sans nécessairement posséder de compétences particulières en informatique. Ce nouvel essor est promu sous l'appellation web 2.0. On ne parle plus, comme dans la décennie précédente, d'autoroutes de l'information[note 7], mais d'une « société de communication »[51] ou d'un web participatif.

Le NBIC : couplage du numérique avec d'autres technologies

En 2000, l'application de l'informatique et d'un Microsystème opto-électro-mécanique (MOEMS)[52] à l'industrie du cinéma permet la réalisation par le français Philippe Binant de la première projection cinéma numérique européenne[53].

En 2001, dans un rapport qu'ils remettent à la National Science Foundation, les Américains William S. Bainbridge et Mihail Roco créent l'acronyme NBIC pour désigner ce qu'ils considèrent comme la « nécessaire convergence » entre les nanotechnologies, les biotechnologies, l'informatique et les sciences cognitives, c'est-à-dire l’interconnexion entre l'étude de l'infiniment petit, la fabrication du vivant, les recherches en intelligence artificielle et celles menées sur le cerveau humain. Cette convergence exigeant des mises de fonds considérables, des stratégies de développement sont conjointement élaborées par les États et le monde industriel. De même que, chez les individus, les NTIC tendent à briser les frontières traditionnelles entre vie publique et vie privée, dans la sphère économico-politique, elles contribuent à associer de plus en plus étroitement le secteur public et le secteur privé.

La bulle Internet
Crédit image:
Luis Villa del Campo from Madrid, Spain
licence CC BY 2.0 🛈
Salle du NASDAQ.

En 2000, la « révolution numérique » censée symboliser l'émancipation de l'humanité se montre sous le visage du chaos : la bulle Internet explose :

« Dès la fin mars, l'indicateur du Nasdaq s'effondre, perdant près de la moitié de sa valeur en quelques mois. En [France, l'indice du nouveau marché s'écroule lui aussi, avec à peine quelques mois de décalage. Cette rupture de la croissance des marchés, qualifiée par quelques-uns d'e-krach, affecte immédiatement l'ensemble des dotcoms, en différant et en réduisant leur possibilité de lever des capitaux. De nombreux projets sont stoppés ou réduits et les start-up les plus fragiles, souvent incapables de générer des profits suffisants, font faillite. Par effet domino, certaines entraînent dans leur chute leurs partenaires et leurs investisseurs. Dès lors, ce secteur connait une restructuration profonde, affectant par contagion l'économie dite traditionnelle et notamment les fournisseurs de matériel informatique, qui voient les commandes s'effondrer en même temps que réapparaissent sur le marché de l'occasion les machines récemment acquises par les start-up fermant leurs portes[55]. »

Alors que les entreprises réalisent de bonnes affaires, les investisseurs exagèrent l'importance du « très long terme » dans leurs estimations et négligent de prendre en compte le fait que la plupart d'entre elles consomment trop vite leur capital.

« L'hypervalorisation des acteurs de cette économie est souvent sans rapport avec la réalité des indicateurs fondamentaux qui constituent la valeur d'une entreprise. Dans bien des cas, les calculs de valorisation ne peuvent s'appuyer sur des bénéfices réels et doivent reposer sur des chiffres hypothétiques auxquels sont appliqués des taux de croissance qui ne le sont pas moins.[56] »

Logo de Facebook, l'un des premiers réseaux sociaux.

Si la bulle financière est fatale à bon nombre de dirigeants de start-ups, d'autres s'en sortent et vont même faire fortune. En 2001, Jimmy Wales et Larry Sanger fondent Wikipédia, première encyclopédie collaborative. Puis les premiers réseaux sociaux font leur apparition : en 2004, Mark Zuckerberg crée Facebook ; deux ans plus tard, Jack Dorsey met en place Twitter… après avoir irrigué la sphère professionnelle, Internet s'immisce dans tous les domaines de la vie.

Problèmes

Par delà les simples nuisances et désagréments spécifiques à Internet (ex. multiplication des courriels, nécessité des mises à jour…) ainsi que des dysfonctionnements à répétition (virus, spam) planent de réelles inquiétudes : les fondements traditionnels de l'éthique et de la liberté semblent menacés aussi bien par les institutions étatiques et les fournisseurs d'accès (par exemple dans le cas du déni de service) que par de simples particuliers, voire des robots.

Les réactions sur ces questions sont multiples. En 2008, en France, le projet de fichier de police informatisé Edvige soulève inquiétudes et colère dans une partie de l'opinion publique[57], de même que vis-à-vis de la radio-identification[58] et des TIC en général.

Crédit image:
Paweł Zdziarski
licence CC BY 2.5 🛈
Caméras de vidéosurveillance
  • La première source de crainte porte sur le pouvoir de l'État et des institutions publiques à mettre en place des dispositifs de surveillance globale : archivage des images de vidéosurveillance, fichage biométrique, capacité de localiser tout individu porteur d'un smartphone et d'activer secrètement celui-ci pour mettre son utilisateur sous écoute… Consécutifs aux attentats du 11 septembre 2001 puis des autres attaques terroristes islamistes, ces dispositifs sont justifiés par des arguments sécuritaires, mais n'en sont pas moins vécus par certains comme des instruments de contrôle social[59].
  • Les robots peuvent également semer le trouble comme on l'observe avec l'algotrading, forme de opérateur de marché nécessitant l'utilisation de plates-formes électroniques pour la saisie des ordres de bourse et qui permet à un algorithme de prendre différentes décisions (l'instant d'ouverture ou de clôture, le prix et le volume de l'ordre) sans la moindre intervention humaine, et ceci parfois en pleine période d'instabilité financière[60].
  • Des menaces émanent également d'individus isolés pratiquant le piratage de données numériques : profitant de connaissances en informatique, ils parviennent à détourner à leur profit des sommes d'argent par simples virements bancaires ou à déplacer des fonds vers des paradis fiscaux afin de se dérober à l'impôt,[62].
  • S'exprime une autre inquiétude que le système RFID (de l’anglais radio frequency identification) développé en 2007 pour pouvoir suivre à la trace des animaux de bétail puisse être appliqué un jour sur les humains à leur insu, que ces intrusions soient le fait d'États ou de particuliers, du fait que les puces permettant la géolocalisation sont minuscules et accessibles à n'importe qui[63]. De même, la commercialisation des drones permet à n'importe qui de surveiller aisément n'importe qui à son insu[64].
  • Exemple significatif de technophilie : un phénomène comme la radio-identification fascine certains esprits autant qu'il en inquiète d'autres. En 2005, un rapport du Groupe européen d’éthique des sciences et des nouvelles technologies révèle que des humains se font implanter délibérément des micropuces permettant de les localiser à tout moment[65].
Science-fiction ou technique fiction ? (suite)

En 2009 le film de science-fiction Avatar, l’un des plus coûteux de l’histoire du cinéma et aussi l'un de ses plus gros succès, raconte l'histoire d'un homme dont la conscience est téléchargée dans le clone d'un habitant d'une planète lointaine.

Années 2010

Les premières années de la décennie 2010 sont caractérisées d'une part par le fait que ne cesse de s'estomper la traditionnelle distinction entre vie privée et vie publique, d'autre part que, le flux des informations circulant sur Internet ne cessant de croître, les bases de données sont de plus en plus volumineuses et coûteuses en énergie : c'est le phénomène « big data » (mégadonnées en français).

Vie publique, vie privée

En 2010, Mark Zuckerberg, fondateur de Facebook, estime que les 350 millions d'utilisateurs de son site n'attachent plus autant d'importance à la protection de leurs données personnelles et considère que « la protection de la vie privée n'est plus la norme » :

« Les gens sont désormais à l'aise avec l'idée de partager plus d'informations différentes, de manière plus ouverte et avec plus d'internautes. (…) La norme sociale a évolué. (…) Les gamins se sont toujours préoccupés du respect de leur vie privée, c'est juste que ce qu'ils entendent par 'vie privée' est très différent de ce que cela représente pour les adultes. (…) En tant qu'adultes, nous pensons que notre maison est un espace privé. Or, pour les jeunes, ce n'est pas le cas : ils ne peuvent pas contrôler qui entre ou sort de leur chambre. Pour eux, le monde en ligne est davantage privé, parce qu'ils ont davantage de contrôle sur ce qui s'y passe[66]. »

Les big data : des masses phénoménales d'informations circulant à travers le monde.
Big data, Big Brother…

L'avènement des big data est lié au fait que l'ensemble des informations stockées et circulant dans le monde est devenu si volumineux qu'il exige de nouveaux outils. Le cloud computing exprime un basculement de tendance : au lieu d'obtenir de la puissance de calcul par acquisition de matériel et de logiciel, les consommateurs se servent de la puissance mise à disposition par les fournisseurs d'accès. Le symbole de ce virage est le centre de données, extraordinairement coûteux en énergie :

« L'inflation exponentielle des données de toute nature traitées par les entreprises est devenue aujourd'hui une vraie problématique. De l'infobésité galopante dont on parlait il y a à peine deux-trois ans, on est passé au déluge planétaire d'informations. Le phénomène big data s'amplifie si vite que l'on n'arrive plus à suivre l'évolution des nouvelles unités de mesure : les exaoctets (1018 octets), les zettaoctets (1021), les yottaoctets (1024)… Mais, si on a jusqu'à présent surtout cherché à quantifier le phénomène en termes de volumétrie, on ne s'était encore guère inquiété du coût que représente le traitement par les entreprises de cette masse d'informations[67]. »

La considérable avance prise par les États-Unis en matière technologique les met en situation de supériorité sur le reste de la planète, comme le montrent les nombreuses révélations d'Edward Snowden à partir de 2013, qui révèlent l’ampleur des programmes d’espionnage menés par l'Agence nationale de la sécurité américaine sur l'ensemble de la planète. Les responsables politiques ont de plus en plus de mal à exprimer leur impuissance face à la surveillance globale de la sphère numérique[68].

Poussières et objets intelligents

Les avancées dans les domaines de la robotique, de l'intelligence artificielle et des nanotechnologies ont pour effet de rendre l'environnement des hommes intelligent :

« (Elles) permettent de produire des entités informatiques communicantes si petites qu'elles sont dénommées poussières intelligentes. Elles autorisent une véritable intégration (fusion) du monde de l'informatique dans le monde du vivant. Déjà, l'Internet des objets émerge progressivement et fait référence au fait que des objets courants, comme des équipements électroménagers, comportent des composants capables de prendre des décisions en fonction de leur état et de leur environnement. Exemple : la voiture peut dialoguer avec le téléphone portable et couper le son de l'autoradio lors de la prise d'un appel[69]. »

Un rapport à la vérité brouillé ?

En 2016, Katharine Viner, rédactrice en chef du Guardian, énonce une théorie qui sera longuement commentée dans les semaines et les mois suivants. Elle affirme que si l'on est entré dans l'ère post-vérité, c'est en premier lieu parce que les blogs et surtout les réseaux sociaux ont ébranlé notre rapport aux faits :

« À l’heure du numérique, il n’a jamais été aussi facile de publier des informations mensongères qui sont immédiatement reprises et passent pour des vérités. (…) Au lieu de renforcer les liens sociaux, d’informer ou de cultiver l’idée qu’informer est un devoir civique et une nécessité démocratique, ce système crée des communautés clivées qui diffusent en un clic des mensonges les confortant dans leurs opinions et creusant le fossé avec ceux qui ne les partagent pas[70] »

La communication de cerveaux à cerveaux

En 2017, certains critiques imaginent « un monde où la communication verbale n’est plus requise » et considèrent que « la communication cerveau à cerveau chez les humains pourrait bientôt devenir une réalité »[71]. De fait, l'année suivante, une équipe de chercheurs américains crée le réseau BrainNet, première interface non invasive passant directement de cerveau en cerveau. Ayant anticipé BrainNet dès 2014, le futurologue américain Michio Kaku, estime que son enjeu est de "remplacer Internet"[72].

Science-fiction ou technique fiction ? (suite)

En 2014, dans le film anglo-américain Transcendance, un ingénieur qui vient de mourir se manifeste à travers un ordinateur qu'il a préalablement conçu et qui, capable de se connecter de lui-même à tous les réseaux numériques de la planète, se révèle peu à peu omniscient et omnipotent.

Réception

Le mot « révolution » étant fortement connoté, l'expression « révolution numérique » ne fait pas consensus. Certains voient dans le progrès technique le vecteur et la condition même du progrès social ; d'autres y décèlent au contraire l'expression d'une tendance prométhéenne et le signe d'une aliénation conduisant l'humanité à sa perte.

Entre ces deux positions extrêmes, différentes attitudes et grilles de lecture sont repérables qui, chacune à sa matière, invitent à repenser l'éthique et réévaluer les notions de modernité, de liberté, de croyance, de lucidité et de responsabilité.

Éloges

L'expression « révolution numérique » a été créée et est utilisée par des penseurs de sensibilité technophile et qui identifient le progrès technique au progrès de l'humanité : « Il n'est sans doute pas exagéré de comparer la révolution numérique d'aujourd'hui à la révolution industrielle d'hier. De nouvelles barrières aux échanges sautent. Les structures, les hiérarchies et les divisions habituelles se fragilisent. Un monde dans lequel communiquer à des milliers de kilomètres et avec des milliers d'interlocuteurs devient possible sans délai, et où cela ne coûte pratiquement rien, ne fonctionne certainement plus comme le monde auquel nous sommes habitués »[73].

Elle est également célébrée par les milieux libéraux qui voient en elle le moyen principal de stimuler le système capitaliste : « La révolution numérique de l'université constitue un formidable enjeu. Sur le plan économique, l'éducation est le principal levier pour dégager des gains de productivité dans un système de production dominé par la connaissance »[74].

Crédit image:
licence CC BY-SA 3.0 🛈
H+, le symbole du transhumanisme.

Toutefois, c'est chez les penseurs transhumanistes que s'exprime l'éloge le plus exalté de la « révolution numérique » (et du progrès technique, de façon plus générale) puisqu'ils attendent de la convergence NBIC qu'elle transforme radicalement l'espèce humaine : « Le transhumanisme est plus qu'une simple croyance abstraite que nous sommes sur le point de transcender nos limitations biologiques au travers de la technologie. C'est aussi une tentative pour réévaluer la définition entière de l'être humain comme on la conçoit habituellement »[75].

Les transhumanistes attendent en particulier des avancées en informatique que l'on puisse un jour télécharger intégralement le contenu d'un cerveau[76] : « Si nous pouvions scanner la matrice synaptique d’un cerveau humain et la simuler sur un ordinateur, il serait possible pour nous de migrer de notre enveloppe biologique vers un monde totalement digital. En s’assurant que nous ayons toujours des copies de remplacement, nous pourrions effectivement jouir d’une durée de vie illimitée »[75].

Aussi hallucinante que puisse paraître cette idée qui trouve son origine dans les livres de science-fiction, elle tend aujourd'hui à être appliquée. Ainsi, le « Projet du cerveau humain » (que l'Union européenne soutient financièrement depuis 2013 à hauteur d'un milliard d'euros[77]) vise à simuler le fonctionnement du cerveau grâce à un superordinateur. L'argument avancé est de développer de nouvelles thérapies sur les maladies neurologiques.

Les milieux religieux ne sont pas forcément les plus critiques envers la « révolution numérique ». En janvier 2014, appelant les catholiques à être des « citoyens du numérique », le pape François qualifie Internet de « don de Dieu »[78].

Adaptations

Crédit image:
licence CC BY-SA 3.0 🛈
Partout dans le monde, l'adaptation au numérique est considérée comme une chose nécessaire.
Écoliers du Rwanda

Les penseurs libéraux perçoivent la « révolution numérique » comme un fait accompli et allant de soi. Ils n'en sous-estiment pas les effets contre-productifs, voire pervers, mais ils considèrent que les hommes l'ayant « adoptée », ils doivent impérativement prendre le parti de s'y « adapter » pour en retirer le meilleur :

« Avant, nous allions sur Internet, maintenant, nous sommes dedans. Nous avons adopté les nouvelles technologies et elles ont tout bouleversé : les démocraties et les dictatures, la paix et la guerre, les États et les sociétés civiles. Elles servent à la fois d'outils de libération et d'oppression, de partage et d'exclusion. La révolution numérique apporte peut-être autant de changements que l'avènement de l'agriculture. Plus de deux milliards d'humains sont aujourd'hui connectés à Internet, faisant basculer dans le champ politique la question numérique, jusqu'ici cantonnée à la technique et à l'économie. La crise donne aux hommes de nouvelles occasions de se révolter, les réseaux leur offrent de nouveaux moyens de le faire. (…) L'avenir appartient à ceux qui s'en saisissent, non à ceux qui le refusent[79] »

Vue sous cet angle, « la révolution numérique » est un processus qui, étant déjà enclenché, agit sur les hommes comme une « main invisible » (au sens qu'Adam Smith donnait à cette expression pour définir le marché) : « elle ne se refuse pas » signifie qu'il n'y a pas lieu d'en critiquer les fondements. « S'en saisir », en revanche, c'est se montrer technophile non pas par idéalisme (technolâtrie), mais par pragmatisme, position que résume l'adage populaire « on n'arrête pas le progrès » et qui est aujourd'hui dominante[note 8].

De fait, l'économie planétaire étant elle-même tout entière soumise à la doctrine libérale, l'ensemble de la classe politique (de la droite institutionnelle à la social-démocratie) ainsi que les principaux acteurs économiques s'inscrivent dans cet état d'esprit. Les pouvoirs publics autant que les fournisseurs d'accès entendent réduire la fracture numérique et élargir indéfiniment l'accès à Internet : les premiers invoquent des motifs égalitaires, les seconds entendent gagner de nouvelles parts de marchés, mais les uns et les autres agissent de concert. La « révolution numérique » ne se développe donc plus comme elle s'était amorcée, de façon improvisée, mais sur la base d'une étroite collaboration entre l'État et le monde de l'industrie, non seulement dans le domaine de l'informatique, mais également dans le monde des nanotechnologies, des biotechnologies et des sciences cognitives. La convergence NBIC renforce l'esprit de consortium entre les secteurs public et privé, servant de base à des projets extrêmement ambitieux et coûteux[note 9].

Selon le sociologue Vincent Caradec, il serait faux de penser que les personnes âgées sont rétives au numérique[80]. Catherine Gucher souligne qu'elles y recourent au contraire volontiers[81]. Il existe de fait un véritable marché pour les personnes âgées. Quatre usages principaux ressortent : la compagnie (l’ordinateur s'apparente à une présence de substitution) ; la médiation de distance (accès à l’information, aide aux démarches administratives) ; l'affiliation (support de maintien dans la famille et, plus largement, au monde) ; le divertissement (moyen de lutter contre la routine et l’ennui).

Crédit image:
licence CC BY-SA 3.0 🛈
Auteur de Le jour où mon robot m'aimera, Serge Tisseron embrasse la tendance technophile en France

Un très grand nombre de penseurs en sciences humaines, que ce soit en sociologie, en psychologie ou en philosophie, s'adaptent également à la « révolution numérique ». Leur approche se résume à l'adage « la technique n'est ni bonne ni mauvaise, tout dépend de l'usage que l'on en fait ». En France, Serge Tisseron est le plus représentatif de cette « sociologie des usages ». Celle-ci s’est développée au début des années 1980 avec le besoin d’étudier les TIC dans le monde du travail puis dans le contexte de la vie privée[82]. Percevant l’avènement du numérique comme facteur de changements fondamentaux dans les domaines culturels, cognitif et psychologique[83], Tisseron propose l'expression culture de l’écran, en regard de celle de culture du livre. Selon lui, il n'y a pas lieu de dévaloriser la première par rapport à la seconde[note 10]. Il considère par exemple que le choix de pseudos et d’avatars[note 11] sur les forums et dans les jeux vidéo relève d'une quête expérimentale et constructive de son identité.

Plus explicite encore de cette adaptation à la « révolution numérique », le philosophe Michel Serres s'accommode non seulement des bouleversements intergénérationnels causés par la révolution numérique, mais il y voit le signe d'une avancée de l'humanité :

« La science, c'est ce que le père enseigne à son fils. La technologie, c'est ce que le fils enseigne à son papa[84] »

S'adapter à la « révolution numérique », selon ces penseurs, revient à s'adapter au progrès technique dans son ensemble : on ne peut critiquer celui-ci que depuis ses conséquences (lesquelles doivent être corrigées lorsqu'elles sont négatives et anticipées pour qu'elles ne le deviennent pas, selon le principe de précaution). En revanche, les causes ne sont pas critiquables : « on n'arrête pas le progrès » signifie que l'on part du principe que l'homme moderne est suffisamment adulte pour le contrôler, depuis une éthique qu'il se forge lui-même librement.

Or c'est précisément ce postulat que contestent les penseurs critiques (cf paragraphe suivant).

Critiques

En 1988, dans Le Bluff technologique, Jacques Ellul écrit :
« Le système technicien, exalté par la puissance informatique, a échappé définitivement à la volonté directionnelle de l’homme »[45]

Le phénomène « révolution numérique » participe du phénomène « progrès technique » qui, au XXe siècle, a provoqué différentes réactions, parmi lesquelles celle d'Herbert Marcuse, pour qui la « technoscience » est un processus n'ayant d'autre finalité que de servir le capitalisme, et celle de Jacques Ellul, qui voit dans l'adaptation à « la technique » précédemment décrite la marque d'un conformisme d'un nouveau type :

« L'homme est aujourd'hui tellement fasciné par le kaléidoscope des techniques qui envahissent son univers qu'il ne sait et ne peut vouloir rien d'autre que de s'y adapter complètement[85] »

Ellul est mort en 1994, au moment où commençait à se généraliser l'expression « révolution numérique », mais son œuvre est éclairante dans la mesure où elle comprend trois analyses détaillées du concept de révolution[86] et trois autres du phénomène technicien[87]. Il perçoit dans l'association des mots « révolution » et « technique » une contorsion du langage : « l'homme moderne » s'évertue à croire qu'il dirige et contrôle un processus qui, en définitive, le submerge et le contraint à se plier à ses exigences. Et s'il sacralise la technique[88], c'est parce qu'elle est porteuse d'une valeur qui surplombe toutes les anciennes valeurs (raison, liberté, égalité…) et se substitue peu à peu à elles. Tant qu'il ne l'a pas admis et compris, il ne peut prétendre contrôler le phénomène technique par les seules vertus de sa volonté[88].

« Aucun fait social humain, spirituel, n’a autant d’importance que le fait technique dans le monde moderne. (…) la Technique a progressivement gagné tous les éléments de la civilisation ». (…) Elle constitue la préoccupation de l'immense majorité des hommes de notre temps de rechercher en toutes choses la méthode absolument la plus efficace[89] »

Selon les membres de l'association Technologos, le fait que bon nombre de discours en faveur des « nouvelles technologies » fassent aujourd'hui état d'une obligation de s'y adapter accrédite la thèse ellulienne que ce qui est généralement présenté comme un progrès relève en définitive d'une aliénation[90]. Exemple : « L’introduction des NTIC (Nouvelles Technologies de l'Information et de la Communication) dans l’éducation oblige élèves, enseignants et parents à apprendre et à communiquer autrement »[91]. L'analyse ellulienne invite à repenser le phénomène numérique dans le cadre plus large du progrès technique et celui, plus étendu encore, de la modernité : quelles sont les motivations profondes de l'être humain lorsqu'il étend et perfectionne sans cesse le parc de ses équipements ? Sont-elles conscientes et assumées ou bien relèvent-elles de l'idéologie ?

Sur le plan industriel, la révolution numérique, aussi parfois qualifiée de 4e révolution industrielle, se heurte à des réserves quant à la capacité des machines à remplacer les Hommes. Alors qu'Erik Brynjolfosson et Andrew McAfee annoncent que les robots vont remplacer les Hommes[92], certains intellectuels et industriels pensent que l'Homme ne peut être remplacé. Le robot ne serait voué qu'à faire évoluer leur métier. C'est notamment l'avis de Bruno Bonnel et de Yann Le Galès, rédacteur en chef adjoint au service économie du Figaro : « Il y avait moins d’emplois dans l’Internet en 1996 quand j’ai créé Infonie, le premier fournisseur d’accès Internet que dans la robotique aujourd’hui »[93]. Ainsi, « Hier, comme aujourd’hui, ce sont les hommes qui dirigent les machines ; sur des marchés internationaux volatiles, il faut certes des cadences de production ajustables et donc des robots performants, mais aussi, mais surtout, des hommes pour prendre les bonnes décisions d’ajustement »[94].

Questionnements

Les analyses telles que celles de Jacques Ellul restent encore assez peu étudiées. Le politologue Patrick Troude-Chastenet explique cette faible réception par le fait que, bien qu'Ellul ait mené une carrière universitaire, son discours s'écarte sensiblement des codes traditionnels marqués par l'objectivisme caractéristique des sciences sociales[95].

Toujours est-il que l'essor du numérique est le vecteur d'un paradoxe : il génère autant de dysfonctionnements (aux plans écologique, politique, économique, juridique, psychosocial, etc.) qu'il est régulièrement présenté comme « révolutionnaire ». Ce qui pose différentes questions : que nous apporte réellement cette révolution ? De quoi nous prive-t-elle et de quoi nous menace-t-elle ?

Crédit image:
licence CC BY 3.0 🛈
Selon Dominique Wolton, spécialiste des rapports entre techniques et société, le numérique est tout sauf neutre.

En 1999, quelques mois avant que n'éclate la bulle Internet, Dominique Wolton (spécialiste des médias et des rapports entre sciences, techniques et société) émet des réserves quant à la « révolution numérique » :

« Internet est-il une révolution aussi importante que la radio dans les années 1920 et la télévision dans les années 1960 ? On peut en douter. Pour penser les nouveaux médias, il faut bousculer le discours dominant, qui leur est benoîtement favorable, et les replacer dans une théorie générale de la communication. Il est donc urgent d’ouvrir le débat en rappelant notamment certaines contradictions liées à la « révolution de la communication ». À quoi reconnaît-on l’idéologie technique ? Au fait de traiter de pessimiste ou de conservateur, en tout cas d’adversaire du « progrès », quiconque remet en cause le sens et l’utilité des nouveaux médias, et réclame une réflexion et des réglementations. Aucun système technique n’a jamais donné naissance à un modèle de société ; c’est même tout le contraire : plus il y a de systèmes d’information automatisés, plus il faut des lois pour éviter les abus de la cybercriminalité. La loi n’entrave pas la liberté de communication ; elle évite, au contraire, de confondre performance technique et contenu des activités. (…) Faudra-t-il demain un « Titanic de la cyberculture » pour que les États prennent conscience des risques que ces systèmes d'information font peser sur les libertés fondamentales ? (…) L'Occidental a mis des siècles à se libérer de toutes les tutelles : religieuses, politiques, sociales, militaires… Enfin libre de penser, de circuler et de s'exprimer, il décide aujourd'hui de s'enfermer dans les mille fils de la communication technique. Il est constamment rattaché à elle, joignable en permanence, par portable, fax, téléphone, e-mail (…) Après nous être « en-mailés » au nom de la liberté et du progrès, ne nous faudra-t-il pas, au nom de cette même liberté et de ce même progrès, apprendre à nous "dé-mailer"[96] ? »

Surveillance

Des phénomènes tels que la vidéosurveillance, le fichage biométrique et la géolocalisation suscitent l'inquiétude qu'émerge un nouveau type de totalitarisme, tel que l'écrivain George Orwell, en 1949, dans son roman d'anticipation 1984, en faisait la description. De fait, les révélations faites en 2013 par l'informaticien Edward Snowden, ancien employé de la CIA et de la NSA, confortent la théorie « Big Brother »[note 12]. Selon le romancier Marc Dugain et le journaliste Claude Labbé, « il existe un pacte secret scellé par les big data avec l'appareil le plus puissant de la planète »[97].

L'anthropologue Paul Jorion considère toutefois que le problème ne se pose pas de façon unilatérale : si l'État peut s'immiscer dans les communications des particuliers, l'inverse est vrai également[note 13]. Ce qui, selon lui, se profile par conséquent au XXIe siècle, c'est une « guerre civile numérique »[98].

Conséquences environnementales

L'industrie de la technologie numérique est considérée comme l'un des secteurs les moins durables et les plus dommageables pour l'environnement en raison de son lien inextricable avec l'industrie électronique et les déchets qu'elle produit[99],[100].

Crédit image:
Volker Thies (Asdrubal)
licence CC BY-SA 3.0 🛈
La révolution numérique passe également par l'extraction de terres rares, nécessaires à la fabrication des composants électroniques et la mise au rebut d'appareils de plus en plus rapidement obsolètes

Les effets négatifs de la « révolution numérique » sur l'écologie planétaire sont en effet assez rarement soulignés. Étant donné qu'elle « dématérialise » les activités humaines, elle est souvent considérée comme susceptible de réduire l’impact de la croissance sur la biosphère, voire à résoudre la crise environnementale. Ce pourrait toutefois être le contraire : « si le monde numérique semble virtuel, les nuisances qu'il provoque, elles, sont bien réelles : la consommation des centres de données dépasse celle du trafic aérien, une recherche sur Google produit autant de CO2 que de porter à ébullition de l’eau avec une bouilloire, la fabrication des équipements nécessite l’utilisation d’une quantité considérable de matières premières, l'obsolescence des produits ne cesse d'accroître la mise au rebut de composants électroniques extrêmement polluants »[101]. Selon Frédéric Bordage, expert en GreenIT et en sobriété numérique, le bilan environnemental du numérique est rarement meilleur que celui du papier[102].

La part des émissions dues au numérique est :

L'empreinte énergétique mondiale du numérique croît de 9 % par an[103].

Le numérique contribue à l'épuisement du stock de ressources abiotiques (minerais)[105].

Droits et contournements

La « révolution numérique » bouleverse complètement les cadres juridiques traditionnels. La mise en ligne d'œuvres artistiques (photos, films, livres, musique…), par exemple, oblige une révision complète de la notion de propriété intellectuelle. Internet, de façon générale, inaugure de nouveaux types de crimes et délits : les infractions aux cartes bancaires (piratage), le blanchiment d'argent et l'évasion fiscale (du fait qu'il est techniquement possible à un simple particulier de rendre opaques certaines transactions), et développe certains pans de la criminalité « classique : incitation à la haine raciale ou au terrorisme, pédophilie… Par voie de conséquence, les professionnels de la police et de la justice sont donc de plus en plus formés aux techniques informatiques, qui sont toujours plus nombreuses et complexes du fait que les cybercriminels eux-mêmes progressent en niveau d'expertise.

Risques sanitaires et psychologiques

La généralisation d'Internet et du téléphone portable, tant dans le monde du travail que dans celui de la vie quotidienne, fait apparaître des risques sanitaires (effets nocifs des ondes électromagnétiques sur le cerveau) et de nuisances[réf. souhaitée]. En particulier, certains penseurs considèrent la multiplication des messages comme étant chronophage, source de dépendances ou de stress, destructrice de liens sociaux et génératrice d'anxiété sociale, malgré le succès des réseaux sociaux et des forums électroniques et du fait d'une confusion généralisée entre le monde réel et ses représentations. La généralisation de l'usage de l'anonymat sur Internet invite à repenser la notion de responsabilité tandis que l'expansion des comportements addictifs oblige à reconsidérer celle de liberté, que la prolifération des informations (vérifiées ou non) rend toujours plus difficile l'exercice de l'esprit critique et que le libre accès aux sites pornographiques, malgré l'usage des filtres, bouleverse l'ensemble du champ éthique. À Nantes, en 2014 (pour la première fois en France), le milieu universitaire traite la question de l'accès au numérique en termes d'addiction[106], formation assurée sous la forme d'un cours en ligne.

Relâchement du sens éthique

Marc Dugain et Claude Labbé considèrent que les différents types de dysfonctionnements (juridiques, économiques, écologiques, sanitaires…) liés à ce qu'ils appellent la « dictature invisible du numérique » ont pour conséquence un relâchement lent et progressif du questionnement éthique : « Cette révolution numérique ne se contente pas de modeler notre mode de vie vers plus d'information, plus de vitesse de connexion, elle nous dirige vers un état de docilité, de servitude volontaire, de transparence, dont le résultat final est la disparition de la vie privée et un renoncement irréversible à notre liberté »[107]. Leur position rejoint celle de Jacques Ellul[note 14] tout en s'opposant pourtant diamétralement à elle : Ellul considérant que le relâchement éthique n'est pas tant une conséquence qu'une cause : « L’homme [moderne] n’est pas du tout passionné par la liberté, comme il le prétend. La liberté n’est pas un besoin inhérent à la personne. Beaucoup plus constants et profonds sont les besoins de sécurité, de conformité, d’adaptation, de bonheur, d’économie des efforts (…) et l’homme est prêt à sacrifier sa liberté pour satisfaire ces besoins »[108].

Engagements

Une grande majorité des partis politiques institutionnels — hantée par « le spectre du chômage » — voit dans les nouvelles technologies le principal levier de la croissance, le secteur le plus générateur d'emplois. De nombreux débats ont lieu sur les questions de bioéthique, de propriété intellectuelle et sur les moyens de gouverner Internet, notamment pour contrer le phénomène de la cybercriminalité. Toutefois, ils restent « internes », confidentiels, réservés aux experts et aux technocrates, ne donnant lieu à aucune consultation démocratique du fait que la majorité des individus concentrent leurs intérêts sur la politique spectacle.

Les associations militantes, notamment dans la mouvance altermondialiste, comme Attac, ne s'engagent pas davantage sur la question du numérique et des technologies en général. Tout au plus est dénoncée la bienveillance avec laquelle certains gouvernements, toutes sensibilités confondues, considèrent que les entreprises high-tech et la façon dont elles dirigent le secteur de la recherche (qui relève du service public) s'alignent sur leurs attentes, alors que celles-ci n'ont d'autre objectif que d'accumuler les profits. La fascination des individus devant les smartphones, tablettes, jeux vidéo et autres est reconnue, mais il semble que l'on cultive parfois le vœu qu'à force d'éducation populaire, les consommateurs deviennent « consom'acteurs » (sic) et citoyens[109][réf. incomplète].

Quelques sociologues s'efforcent d'analyser l'absence d'engagement critique de « la gauche » sur les questions relatives aux répercussions de la technique sur le quotidien : « Les intellectuels et les jeunes qui les écoutent (…) ne voient pas le danger d'une évolution qui fragilise notre vie quotidienne, en nous mettant à la merci des fluctuations de l'économie et de processus sociotechniques sur lesquels nous n'avons aucune prise »[110].

La question de l'omniprésence du numérique (et du progrès technique en général) ne suscite finalement que quelques prises de position de la part d'associations ou de groupements militants. En France, on peut repérer deux courants assez opposés, l'un plutôt favorable à la « révolution numérique » (notamment les milieux d'affaires[111],[112]), l'autre au contraire plutôt critique à son endroit[113].

Un courant libéral aborde la question des technologies sans remettre en cause les cadres idéologiques dans lesquels elles s'inscrivent, à savoir le libéralisme et le productivisme[114]. À l'intérieur de ce courant, on distingue deux tendances :

  • les « technolâtres » (du grec latreia, « adoration ») : malgré les risques qu'il soulève et les nuisances qu'il génère, le progrès technique est considéré comme une authentique émancipation de l'homme et est synonyme de progrès social. Ce point de vue est défendu par l'Association française transhumaniste, qui trouve ses origines dans le mouvement transhumaniste, apparu dans la Silicon Valley dans les années 1980 ;
  • les « technophiles » (du grec philein, « aimer ») : la technique est évaluée autant du point de vue de ses avantages que de celui des risques et dangers. Précisément pour pallier les premiers et éviter les seconds, il convient de lui porter un intérêt tout particulier. C'est la posture défendue entre autres par la Fondation internet nouvelle génération, association créée en 2000 et dont les objectifs affichés sont : « mobiliser autour des technologies à venir », « favoriser l'émergence d'idées et de projets innovants », « encourager l'appropriation de l'innovation et les partenariats ». Cette posture s'inscrit dans l'idée qu'il convient de « prendre part aux nouveaux débats éthiques et sociaux », mais sans qu'il soit clairement précisé qui serait à l'origine de ces débats, dans quel but et selon quels principes éthiques[note 15]. Créé en 2005, le think tank Renaissance numérique « défend l'Internet et le numérique citoyen pour permettre au plus grand nombre de foyers français d'avoir accès à Internet »[115].

Un courant critique, ou technocritique (du grec krinein : « trier »), traite au contraire des technologies en les contextualisant dans le champ de l'idéologie dominante, le libéralisme économique. Là également, on repère deux orientations :

  • les « technophobes » (du grec phobos, « peur ») : le progrès technique est intrinsèquement générateur d'aliénation, raison pour laquelle il y a tout lieu de le craindre[116]. Directement inspiré du luddisme, ce courant est porté par le collectif anonyme grenoblois Pièces et Main d'Œuvre[117] (fondé en 2000), le groupe Marcuse[118] (également un collectif anonyme) et le Journal La Décroissance. Le ton adopté est « provocateur » dans le but revendiqué de « provoquer un éveil des consciences ». Par exemple : La technologie est la continuation de la guerre[119]. Les « technologies » finissent par être présentées comme si elles étaient des objets agissant par eux-mêmes dont nul sujet ne serait à l'origine : « Si l'alphabétisation fut bien souvent la compagne de l'émancipation, les technologies contemporaines préparent et organisent un monde fondé sur la vitesse, l'immédiateté, la superficialité, le profit et la mort »[120] ;
  • les « technologues » (du grec logos, « discours ») : les nuisances et les dangers sont également repérés, mais l'approche s'apparente à la sociologie compréhensive. La critique ne portant pas tant sur les objets techniques que sur le regard porté sur eux, la « révolution numérique » est analysée à l'aune des motivations humaines profondes telles que la volonté de puissance, la propension au confort matériel maximal ou la tendance à sacraliser son environnement. L'association Technologos[121] (créée en 2012) rappelle cette phrase de Jacques Ellul : « Ce n'est pas la technique qui nous asservit, mais le sacré transféré à la technique »[122]. Y est cultivé le débat contradictoire de façon déconcentrée, depuis des groupes locaux qui, de façon autonome, organisent des séminaires, des débats et des conférences. En , l'association a tenu ses premières assises à l'université de la Sorbonne, à Paris, consacrées au concept d'autonomie de la technique[123].

Légèrement en marge de ces positionnements axés sur l'analyse de la technique et du phénomène numérique s'inscrivent des associations où l'on considère que l'évolution actuelle de nos sociétés est essentiellement déterminée par les cheminements de la science et des choix politiques qui en découlent. Cette approche est principalement défendue par l'association Vivagora[124] (créée en 2003), la Fondation Sciences citoyennes[125] (créée en 2006) et l'association Avicenn[126] (créée en 2010). Ces formations se donnent pour principaux objectifs de bâtir des expertises et de lancer des signaux d'alerte.

Arts et littérature

L'une des premières révolutions numériques est celle de 1971 à 1975, marqué par l'explosion de la quantité de données traitées par les ordinateurs et les prémices d'Internet, via les réseaux d'ordinateurs comme Arpanet et le Réseau Cyclades, dans un contexte technologique marqué par une très forte innovation, est évoquée sur le ton de l'humour et de l'enquête dans Comédies Françaises, un roman d’Eric Reinhardt, publié en 2020.

Le roman évoque l'arrêt du Réseau Cyclades, promu par le Plan Calcul français, basé sur une technologie de Datagramme, à la base des premiers développements d'Internet, en raison du lobbying réussi mené par Ambroise Roux, patron de la CGE, pour convaincre le président de la République français Valéry Giscard d'Estaing d'y mettre fin.

Bibliographie

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

  • 1995 : Solange Ghernaouti et Arnaud Dufour, Internet, PUF, coll. « Que sais-je ? », 2012 (11e édition) (1re éd. 1995). Ouvrage utilisé pour la rédaction de l'article
  • 1999 : Dominique Wolton. Internet et après ? Une théorie critique des nouveaux médias : suivi d’un glossaire. Paris : Flammarion.
  • 2005 : Révolution numérique et industries culturelles, Philippe Chantepie et Alain Le Diberder, La Découverte.
  • 2006 : Révolution numérique : Une nouvelle photographie, Jonathan Lipkin, traduction de Pierre-Richard Rouillon, éditions de la Martinière.
  • 2009 : La révolution numérique : Glossaire, Éric Scherer, Dalloz.
  • 2009 : La société et l'économie à l'aune de la révolution numérique : Enjeux et perspectives des prochaines décennies…, Alain Bravo, La documentation française.
  • 2010 : Les vrais révolutionnaires du numérique, Michel Berry et Christophe Deshayes, éditions Autrement.
  • 2010 : Le droit peut-il ignorer la révolution numérique ?, Marie-Charlotte Roques-Bonnet, éditions Michalon.
  • 2010 : Viva la Robolution ! Une nouvelle étape pour l'humanité, Bruno Bonnell, éditions Jean-Claude Lattès.
  • 2011 : La société numérique en question(s), Isabelle Compiègne, Éditions Sciences Humaines.
  • 2011 : Du boulier à la révolution numérique. Algorithmes et informatique, Vinceç Torra (traduction : Cédric Villani), RBA France.
  • 2011 : Révolution numérique dans les pays en développement - L'exemple africain, Jacques Bonjawo, Dunod.
  • 2011 : Pour en finir avec la fracture numérique, Mickaël Le Mentec, Marianne Trainoir et Pascal Plantard, FYP éditions.
  • 2011 : Pour un humanisme numérique, Milad Doueihi, Le Seuil.
  • 2011 : Les vieilles élites de la nouvelle économie - Un portrait collectif des dirigeants de la révolution numérique, Geoffrey Geuens, PUF, collection « La politique éclatée ».
  • 2012 : Paroles, échanges, conversations et révolution numérique, Anthologie, notes et dossier réalisés par Eddie Breuil, Folioplus classiques.
  • 2012 : Histoire de la révolution numérique : Jeux vidéo - Internet - Smartphones - Robots, Clive Gifford (traduction de Bruno Porlier).
  • 2012 : L'âge de la multitude: Entreprendre et gouverner après la révolution numérique, Henri Verdier et Nicolas Colin, Armand Colin. Réédité en 2015.
  • 2012 : La République des réseaux : Périls et promesses de la révolution numérique, Jean Rognetta, Frédéric Tardy et Julie Jammot, Fayard.
  • 2013 : Le numérique, locomotive de la 3e révolution industrielle ?, Aymeric Bourdin, éditions Ellipses.
  • 2013 : (en) Big Data: A Revolution That Will Transform How We Live, Work, and Think, Viktor Mayer-Schonberger et Kenneth Cukier, Eamon Dolan / Houghton Mifflin Harcourt.
  • 2013 : Anonymat sur l'Internet - Comprendre pour protéger sa vie privée, Martin Untersinger, Eyrolles.
  • 2013 : Le numérique : Une chance pour l'école, Joël Boissière, Simon Fau et Francesc Pedró, Armand Colin.
  • 2013 : La gratuité intellectuelle : Pour une véritable révolution numérique, Laurent Paillard, Parangon.
  • 2013 : La face cachée du numérique, L'impact environnemental des nouvelles technologies, Fabrice Flipo, Michelle Dobré et Marion Michot, L'Échappée.
  • 2013 : L'information fait sa révolution, Zair Bezghiche, Information Collaborative.
  • 2013 : Digital Citizen, manifeste pour une citoyenneté numérique, David Lacombled, Plon.
  • 2014 : Le livre numérique : une révolution juridique en marche ?, Charles-Henry Dubail, al., Legicom, no 51.
  • 2014 : L'ère numérique, un nouvel âge pour l'humanité, Gilles Babinet, éditions Le Passeur.
  • 2014 : Révolution numérique, révolution culturelle ?, Rémy Rieffel, éditions Gallimard.
  • 2014 : Odyssée 2.0 : La démocratie dans la civilisation numérique, Guillaume Cazeaux, Armand Colin.
  • 2015 : La Vie algorithmique. Critique de la raison numérique, Éric Sadin, L'Échappée.
  • 2015 : Dans la nuée. Réflexions sur le numérique, Byung-Chul Han, éditions Actes Sud.
  • 2015 : La Révolution numérique. Réinventons l'avenir, Jean-Michel Treille, éditions Ovadia.
  • 2015 : Le Deuxième Âge de la Machine, Erik Brynjolfosson et Andrew McAfee, éditions Odile Jacob.
  • 2015 : Révolution cyberindustrielle en France, Laurent Bloch, Éditions Economica.
  • 2015 : Un monde meilleur ? Survivre dans la société numérique, Thierry Venin, éditions Desclée de Brouwer.
  • 2016 : L'homme nu, la dictature invisible du numérique, Marc Dugain et Claude Labbé, Robert Laffont/Plon.
  • 2016 : Le désastre de l’école numérique, plaidoyer pour une école sans écrans, Philippe Bihouix et Karine Mauvilly, Seuil.
  • 2016 : L'incertaine révolution numérique, André Vitalis, Iste.
  • 2016 : Numérique : de la révolution au naufrage ?, Fabrice Lorvo, Fauves Eds
  • 2016 : Le Petit Livre Rouge de la révolution numérique, Philippe Bailly, Télémaque
  • 2016 : La révolution digitale et les start-ups, Julie-Anne Delcorde (dir.), Larcier
  • 2017 : Blockchain : la deuxième révolution numérique, Laurent Leloup, Eyrolles
  • 2017 : La révolution numérique de demain, Jean-Marie Huet, éditions du Panthéon
  • 2017 : Révolution digitale : transformer la menace en opportunités, Lydia Babaci-Victor et Christophe Victor, Eyrolles
  • 2017 : Les nouvelles frontières du digital : Quelles tendances pour la révolution digitale ? Jean-Michel Huet et Adeline Simon
  • 2018 : La révolution digitale de l’homme : vers une nouvelle espèce, Didier Raoult
  • 2018 : La Révolution numérique et les entreprises, Jean-Louis Beffa, Points

Notes et références

Notes

  1. « La « révolution numérique », pas plus que ne l’a été autrefois la « révolution industrielle », n’est l’œuvre des « citoyens ». Ceux-ci n’en sont pas les instigateurs mais seulement les participants. À nouveau, les mots sont subvertis afin que, dans tous les esprits, ce qui aliène passe pour ce qui émancipe » - Joël Decarsin, « Les technologies dispensent de se poser des questions », Usbek et Rica, 13 mai 2015 (propos recueillis par Blaise Mao)
  2. Par manque de crédits, Babbage ne pourra achever la fabrication du prototype, mais jusqu'à sa mort (en 1871), il ne cessera d'en rechercher le perfectionnement.
  3. Il cessera de fonctionner au bout de quelques jours mais un second câble sera tiré en 1866, qui restera en exploitation pendant plusieurs décennies.
  4. Détruit en 1943 par des bombardements aériens, une réplique opérationnelle en sera construite dans les années 1960, actuellement exposée au Deutsches Museum à Munich.
  5. Film inspiré de deux nouvelles de l'écrivain Arthur C. Clarke.
  6. Nés en 1993, Netscape Navigator et Mosaic sont les premiers navigateurs Web grand public.
  7. La notion d’autoroute de l’information a surtout été employée dans les rapports français, américains, et européens des années 1990 relatifs aux réseaux à venir et sur leur impact politique, notamment en matière d’emploi, de nouveaux marchés, et de dérégulation. Exemple : Les autoroutes de l’information, rapport au Premier ministre français publié par La Documentation française, janvier 1994.
  8. Cette déférence à la technique et la croyance qu'elle constitue un outil « neutre » est particulièrement marquée dans le domaine de l'Éducation. Exemple, cet article de la presse locale : « L’école doit s’adapter aux nouvelles technologies pour mieux poursuivre sa mission pédagogique ».
  9. En janvier 2000, au Caltech, l'une des universités américaines les plus importantes, le président Bill Clinton annonce la création d'un fonds de recherche doté de 2,8 milliards de dollars[réf. nécessaire].
  10. En 2001, pour rendre compte de l'attitude des candidats de la première émission de téléréalité Loft Story, il dénonce l'usage à ses yeux abusifs du mot "exhibitionnisme" et propose à la place un nouveau mot : "extimité"
  11. Dans le domaine de l'internet et des jeux vidéo, un avatar est un personnage fictif par lequel se représente un utilisateur.
  12. Avec l'aide de différents médias, notamment le Guardian et le Washington Post, Snowden a rendu publiques des informations secrètes obtenues par le programme de surveillance électronique de la NSA, concernant la captation des métadonnées des appels téléphoniques aux États-Unis, les systèmes d'écoute sur Internet des programmes PRISM et XKeyscore du gouvernement américain, ainsi que le programme de surveillance Tempora du gouvernement britannique.
  13. Principaux exemples : en 2007, l'informaticien Julian Assange publie sur son site WikiLeaks des milliers d'informations très secrètes du gouvernement américain. En 2010, les Anonymous piratent les sites des sociétés PayPal, MasterCard et Visa, après qu'elles ont tenté, via une attaque par déni de service, d'empêcher l'envoi de dons sur l'association WikiLeaks.
  14. Les auteurs citent Ellul à deux reprises, pages 140 et 181.
  15. Cette sensibilité s'inscrit dans la tendance décrite plus haut dans le paragraphe "Adaptations".

Références

  1. Intelligence artificielle : pourquoi Musk, Hawking et Gates s'inquiètent ?, Les Échos, 30 janvier 2015.
  2. André Strauss, L'individu face à la révolution technologique, Paris, (SUDOC 134682793)
  3. Xavier Niel et Dominique Roux, Les 100 mots de l'internet, PUF, collection « Que sais-je ? ». Introduction [« La révolution internet »].
  4. Thomas Chardin, « La révolution digitale », RH infos], 3 décembre 2014.
  5. « Sorbier Laurent, « Quand la révolution numérique n'est plus virtuelle… » », Esprit, nos 2006/5,‎ , p. 121-127 (DOI 10.3917/espri.0605.0121, lire en ligne).
  6. « La structure de la révolution numérique : philosophie de la technologie », sur Observatoire des Mondes Numériques en Sciences Humaines (consulté le ).
  7. Philippe Chantepie et Alain Le Diberder, Révolution numérique et industries culturelles, La Découverte, 2005 ; Jonathan Lipkin, Révolution numérique : Une nouvelle photographie, éditions de la Martinière, 2006 ; Eric Scherer, La révolution numérique : Glossaire, Dalloz, 2009 ; Alain Bravo, La société et l'économie à l'aune de la révolution numérique : Enjeux et perspectives des prochaines décennies, La Documentation française, 2009 ; Marie-Charlotte Roques-Bonnet, Le droit peut-il ignorer la révolution numérique ?, éditions Michalon, 2010 ; Vinceç Torra , Du boulier à la révolution numérique. Algorithmes et informatique, RBA , 2011 ; Jacques Bonjawo, Révolution numérique dans les pays en développement - L'exemple africain, Dunod, 2011 ; Eddie Breuil, Paroles, échanges, conversations et révolution numérique, Anthologie, notes et dossier, Folioplus classiques, 2012 ; Clive Gifford, Histoire de la révolution numérique : Jeux vidéo - Internet - Smartphones - Robots, 2012 ; Henri Verdier et Nicolas Colin, L’âge de la multitude: Entreprendre et gouverner après la révolution numérique, Armand Colin. 2012, Réédité en 2015 ; Rémy Rieffel, Révolution numérique, révolution culturelle ?, éditions Gallimard 2014 ; Jean-Michel Treille, La Révolution numérique. Réinventons l'avenir, éditions Ovadia, 2015.
  8. François Jarrige, Techno-critiques. Du refus des machines à la contestation des technosciences, La Découverte, 2014.
  9. Pour une distinction simple entre « analogique » et « numérique », on peut consulter le site « comment ça marche ? » : L'analogique et le numérique.
  10. Marcello Vitali-Rosati et Michaël E. Sinatra, Pratiques de l’édition numérique [PDF] (ISBN 978-2-7606-3202-8)
  11. Dico info :http://dictionnaire.phpmyvisites.net/definition-Reseau-des-Reseaux-9504.htm
  12. Autopsie de la révolution, 1969 ; De la révolution aux révoltes, 1972 ; Changer de révolution, 1982.
  13. La Technique ou l'Enjeu du siècle, 1952 ; Le Système technicien, 1977 ; Le Bluff technologique, 1988.
  14. Jacques Ellul, Autopsie de la révolution, 1969 ; réed. La Table ronde, coll. La petite vermillon, 2008, p. 102, 208 et 209
  15. Christophe Alix, « Les géants du Web gardent toujours une longueur d’avance », Libération, 26 novembre 2014.
  16. La puissance économique des cinq géants du net a encore crû en 2017, RTS info, 3 février 2018.
  17. Xavier de La Porte, « Hé, les politiques, arrêtez de parler de "révolution numérique" ! », France Culture, 19 janvier 2017.
  18. Joël Decarsin, « Définanciariser l'économie ? La véritable révolution intellectuelle », Le Monde, 19 décembre 2011.
  19. Aymeric Bourdin, Le numérique, locomotive de la 3e révolution industrielle, Ellipses, 2013.
  20. Eugène Vaillé, Histoire des postes françaises, PUF, 1946, p. 113.
  21. Thomas Hobbes, Le Léviathan, ou Traité de la matière, de la forme et du pouvoir d'une république ecclésiastique et civile, 1651.
  22. Georges Friedmann, « Les conséquences sociales du progrès technique », Bulletin international des Sciences sociales, vol. 4, no 2, été 1952 (p. 251 sq)
  23. Lewis Mumford, Le Mythe de la machine, 2 volumes, (1967-1970), Fayard, 1974.
  24. (en-CA) « Commonly Asked Questions about McLuhan – The Estate of Marshall McLuhan », sur marshallmcluhan.com (consulté le ).
  25. Karl Marx et Friedrich Engels, Manifeste du parti communiste, 1847
  26. Jean-Claude Guédon, Internet, le monde en réseau, Gallimard, coll. « Découvertes », 1996, p. 98-101.
  27. Pierre Albert et André-Jean Tudesq, Histoire de la radio-télévision, PUF, 1981, p. 67.
  28. (en + fr) Norbert Wiener, Cybernetics or Control and Communication in the Animal and the Machine, 1948 ; et The Human Use of Human Beings, 1950, traduit en français en 1952 aux éditions des Deux rives sous le titre Cybernétique et société, réédité depuis.
  29. Jacques Ellul, « Norbert Wiener - Cybernétique et société », Revue française de science politique, vol. 5, no 1,‎ (lire en ligne, consulté le ).
  30. « Computing Machinery and Intelligence », Mind, octobre 1950.
  31. « Alan Turing : la pensée informatique », Docsciences, no 14, juin 2012, p. 5.
  32. (en) « Feynman's Talk », sur zyvex.com (consulté le ).
  33. Le nouveau petit Robert, dictionnaire alphabétique et analogique de la langue française, Éditions du Dictionnaire Le Robert, 1993.
  34. GhernaoutiDufour 2012.
  35. (en) Marshall McLuhan, The Medium is the Message, 1967.
  36. Douglas Coupland, Marshall McLuhan, Montréal, Boréal, 2010
  37. Guy Debord, La Société du Spectacle, 1967.
    Cette phrase est la toute première du livre.
  38. a et b Jacques Ellul, Le Système technicien, 1977, 3e édition : Le Cherche midi, 2012
  39. Gilles Lipovetsky, L'ère du vide. Essais sur l'individualisme contemporain, Gallimard, 1983.
  40. sociologie des usages
  41. Jean-Marie Charon, Teletel, de l'interactivité homme-machine à la communication médiatisée.
  42. Josiane Jouet, L'écran apprivoisé, 1987.
  43. Nicolas Aguila, « Il était une fois, le téléphone portable », sur Tom's Guide, (consulté le ).
  44. Jacques Ellul, Changer de révolution. L'inéluctable prolétariat, Seuil, 1982, p. 267-268, réed. La Table ronde, coll. La petite vermillon, 2015, p. 389.
  45. a et b Jacques Ellul, Le Bluff technologique, 1988 ; rééd. Hachette, collection « Pluriel », 2004, p. 203
  46. Larry McCaffery, « An Interview with William Gibson », sur project.cyberpunk.ru (consulté le ).
  47. Fabrice Flipo, Michelle Dobré et Marion Michot, La face cachée du numérique, L'impact environnemental des nouvelles technologies, Éditions l'Échappée, 2013, p. 5.
  48. « Wikiwix's cache », sur archive.wikiwix.com (consulté le ).
  49. GhernaoutiDufour 2012, p. 10-11.
  50. Dominique Boullier, Sociologie du numérique, Paris, Armand Colin, , 350 p. (ISBN 978-2-200-29165-5 et 2200291655, OCLC 948661198, présentation en ligne), p. 9.
  51. Erik Neveu, Une société de communication ?, éditions Montchrestien, 1997, 4e édition 2006.
  52. Patrick Louguet, Fabien Maheu (coordonné par), Cinéma(s) et nouvelles technologies, L'Harmattan, Paris, 2011, p. 75.
  53. Laurent Creton, Kira Kitsopanidou (editor), Les salles de cinéma. Enjeux, défis et perspectives, Armand Colin / Recherches, Paris, 2013, p. 116.
  54. GhernaoutiDufour 2012, p. 11.
  55. GhernaoutiDufour 2012, p. 12.
  56. Eric Mandonnet et Eric Pelletier, Edvige, le fichier qui fâche, L'Express, 9 septembre 2008
  57. Nathalie Mitton et David Simplot-Ryl, La RFID, c’est dangereux ?, Interstices, 19 mai 2011
  58. Rachel Knaebel, Surveillance de masse, atteintes aux libertés : ce qui inquiète dans le projet de loi Renseignement, Basta !, 4 mai 2015
  59. Elvis Picardo, Four Big Risks of Algorithmic High-Frequency Trading, Investopedia, 27 janvier 2015
  60. Piratage, vol de données : les nouveaux dangers d'internet, Capital, 8 février 2016.
  61. Pièces et main d’œuvre, RFID : la police totale
  62. CNIL, Drones : quelle vision prospective, quels enjeux pour les libertés ? 6 décembre 2013
  63. Groupe européen d’éthique des sciences et des nouvelles technologies (2005), Aspects éthiques des implants TIC dans le corps humain, Avis du groupe européen d’éthique des sciences et des nouvelles technologies, 39 pages [PDF]
  64. « Pour le fondateur de Facebook, la protection de la vie privée n'est plus la norme », interview de Mark Zuckerberg, Le Monde des technologies, 11 janvier 2010.
  65. Claire Leroy, Mille milliards de dollars pour traiter les données numériques, le LXP,
  66. Fleur Pellerin, "Big data peut devenir Big Brother, et nous essayons de résister à cela". Propos recueillis par Jacques Follorou et Franck Johannès, Le Monde, 4 décembre 2013
  67. GhernaoutiDufour 2012, p. 18-19.
  68. « Médias. Comment le numérique a ébranlé notre rapport à la vérité », Courrier international,‎ (lire en ligne, consulté le )
  69. La communication cerveau à cerveau chez les humains pourrait bientôt devenir une réalité, iatranshumanisme.com, 5 février 2017
  70. Kaku : "Childlike wonder" of the Future, CNN, 23 décembre 2014
  71. Daniel Kaplan, « S'approprier la révolution numérique », Alternatives Économiques, n° 137, mai 1996.
  72. Nicolas Baverez, La contre-révolution numérique, Le Point, 10 octobre 2013
  73. a et b Nick Bostrom, Qu’est ce que le transhumanisme ?
  74. Marvin Minsky, Conscious Machines, in 'Machinery of Consciousness', Proceedings, National Research Council of Canada, 75th Anniversary Symposium on Science in Society, June 1991.
  75. « Wikiwix's cache », sur archive.wikiwix.com (consulté le )
  76. « Pour le pape François, Internet est un don de Dieu », Le Monde, 24 janvier 2014
  77. Jean Rognetta, Julie Jammot, Frédéric Tardy, La république des réseaux. Périls et promesses d'une révolution numérique, Fayard, 2012. 4e page de couverture
  78. Houssein Charmarkeh, « Les personnes âgées et la fracture numérique de « second degré » : l’apport de la perspective critique en communication », Revue française des sciences de l’information et de la communication, no 6,‎ (ISSN 2263-0856, DOI 10.4000/rfsic.1294, lire en ligne, consulté le )
  79. Catherine Gucher, « Technologies du « bien vieillir et du lien social » : questions d'acceptabilité, enjeux de sens et de continuité de l'existence - la canne et le brise-vitre », Gérontologie et société, vol. 35 / n° 141, no 2,‎ , p. 27–39 (ISSN 0151-0193, lire en ligne, consulté le )
  80. Domicalis, article "sociologie des usages"
  81. Entretien radiophonique avec Serge Tisseron : De la culture narrative à l’éternel présent, oufipo.org, 2012 [MP3]
  82. Michel Alberganti, « Le virtuel est la chair même de l’homme », interview de Michel Serres, Le Monde, 18 juin 2001
  83. Jacques Ellul, Le bluff technologique, Hachette, 1988 ; 2e édition, 2004
  84. Autopsie de la révolution (1969), De la révolution aux révoltes (1972) et Changer de révolution (1982).
  85. La Technique ou l'Enjeu du siècle (1952), Le Système technicien (1977) et Le Bluff technologique (1988).
  86. a et b Jacques Ellul, Les nouveaux possédés, 1973, deuxième édition, Le cherche-midi, 2003
  87. Jacques Ellul, La technique ou l'enjeu du siècle, 1954 ; 3e édition, Economica, 2008
  88. Jacques Ellul, Technologos.
  89. Comment s’adapter aux nouvelles technologies dans les smart classes ?, Econocom, 20 juin 2013.
  90. Erik Brynjolfosson et Andrew McAfee, Le Deuxième Âge de la Machine.
  91. « Robotisation : « Les métiers ne vont pas disparaître, ils vont se transformer » », sur Manpower (consulté le )
  92. « Viva la robolution ? », L'Usine Nouvelle, (consulté le ).
  93. Patrick Troude-Chastenet, Ellul l'inclassable, Association Internationale Jacques Ellul, 2005.
  94. Dominique Wolton, « Sortir de la communication médiatisée », Le Monde diplomatique, juin 1999.
  95. Marc Dugain et Claude Labbé, L'homme nu, la dictature invisible du numérique, Robert Laffont/Plon, 2016, 4e de couverture.
  96. Paul Jorion, La guerre civile numérique, Textuel, 2011.
  97. (en) Raynold Wonder Alorse, « The digital economy's environmental footprint is threatening the planet », sur The Conversation (consulté le )
  98. (en-US) Guest Writer, « Digital Technologies Are Part of the Climate Change Problem - ICTworks », ICTworks,‎ (lire en ligne, consulté le )
  99. Fabrice Flipo, Michelle Dobré et Marion Michot, La face cachée du numérique. L’impact environnemental des nouvelles technologies, L'Échappée, 2013.
  100. Frédéric Bordage, Sobriété numérique, les clés pour agir, Buchet Chastel, p. 62
  101. a et b « « Pour une sobriété numérique », le nouveau rapport du Shift sur l'impact environnemental du numérique » (consulté le ).
  102. Frédéric Bordage, « Empreinte environnementale du numérique mondial », GreenIT.fr, lire en ligne
  103. Frédéric Bordage, Sobriété numérique, les clés pour agir, Buchet Chastel, p. 92
  104. Université de Nantes, « @ddict ? Un MOOC collaboratif sur nos usages du numérique. », sur France université numérique.
  105. Marc Dugain et Claude Labbé, L'homme nu, la dictature invisible du numérique, Robert Laffont/Plon, 2016, p. 7.
  106. Jacques Ellul, Éthique de la liberté, Labor et Fides, 1973, p. 36
  107. Daniel Hoffnung et Bernard Kervella, « Science, technologies et marché », texte présenté à l'université d'Attac, 2009.
  108. Matthieu Amiech et Julien Mattern, Le cauchemar de Don Quichotte : Sur l'impuissance de la jeunesse d'aujourd'hui, éditions Climats, 2004, 2013.
  109. Romain Dion, « Comment gagner en bourse avec la révolution numérique », Le revenu, 25 octobre 2017
  110. Anselme Akko, « Tous les espoirs sont placés dans la révolution numérique », CioMag, 27 octobre 2017.
  111. François Jarrige, Technocratiques : Du refus des machines à la contestation des technosciences, La Découverte/Poche, 2014.
    Le livre recense les principales critiques à l'encontre de la « révolution numérique ».
  112. Christophe Bys, « La révolution digitale est-elle intrinsèquement libérale ? », L'Usine digitale, 11 février 2016
  113. Renaissance numérique
  114. La Tyrannie technologique : Critique de la société numérique, éd; L'Échappée, 2017. (ISBN 9782915830064)
  115. Pièces et Main d'Œuvre.
  116. « Groupe Marcuse », France Culture.
  117. Pièces et Main d'Œuvre, Le secret, c'est de tout dire
  118. Cédric Biagini, Guillaume Carnino, Celia Izoard et Pièces et main d'œuvre, La Tyrannie technologique, Critique de la société numérique, éditions L'échappée, 2007.
  119. Technologos.
  120. Jacques Ellul, Les nouveaux possédés, 1973.
  121. Technologos, « La question de l’autonomie de la technique ».
  122. Vivagora
  123. Fondation Sciences citoyennes
  124. Association de Veille et d'Information Civique sur les Enjeux des Nanosciences et des Nanotechnologies (Avicenn)

Voir aussi

Articles connexes

A

B

C

D

E

F

G

H

I

J

L

M

N

O

P

Q

R

S

T

U

V

W

Liens externes