Commit 20ec32d6 authored by FARHI Laurence's avatar FARHI Laurence
Browse files

2 fiches FC1.2.1.1-CEstQuoiLeNumerique et FC1.2.1.2-HistoireDuNumerique

parent bd2db3e1
Pipeline #274723 passed with stage
in 48 seconds
---
title: 1.2.1.1. C'est quoi le numérique ?
description: Une définition des différents sens du mot numérique pour ne plus se poser toujours la même question.
---
# C’est quoi le numérique ?
??? info "Auteurs et date"
* Date de production de la fiche : 28/07/2021
* Auteurs source : Gilles Dowek ; Inria et ENS Chachan
* Éditeur : Thierry Viéville ; Inria
## Le numérique, histoire d'un mot
L’adjectif, et parfois le nom, « numérique » a de multiples significations. On tente ci-dessous d’essayer d’en distinguer cinq. Ces significations sont reliées les unes aux autres par des glissements sémantiques relativement simples.
### Qui a rapport aux nombres.
L’adjectif «numérique» qualifie, en premier lieu, une chose qui a rapport aux nombres. Par exemple, en physique, une «application numérique» consiste à substituer des nombres aux variables d’une expression : par exemple substituer m par 2 kg et a par 9.81 m s-2 dans l’expression m a donne la valeur 19.62 kg m s-2.
On retrouve cet usage du mot «numérique» dans l’expression «analyse numérique» qui est la partie de l’informatique et des mathématiques appliquées consacrée à la résolution de problèmes, en donnant leurs solutions sous forme numérique.
### Qui contient une quantité finie d’information.
L’adjectif «numérique» qualifie ensuite un objet qui, comme un nombre entier, contient une quantité finie d’information. Si une photo argentique permet en théorie une variété infinie de couleurs, une photo numérique n’en permet qu’un nombre fini et prédéterminé. Cette propriété, ajoutée au fait que la photo contient un nombre fini de pixels, fait que l’information contenue dans la photo numérique est finie : c’est le produit du nombre de pixels par le logarithme du nombre de couleurs. Par métonymie, on peut qualifier d’ «appareil photo numérique», un appareil qui prend des photos numériques.
### Un synonyme de l’adjectif «informatique».
En informatique, les algorithmes, exprimés dans des langages et exécutés par des machines, transforment des données. Ces données, objets de la transformation, sont la «cause matérielle» de la transformation, alors que les machines en sont la «cause efficiente». Ces données contiennent une quantité finie d’information, ce sont donc des objets numériques.
Comme les algorithmes et les ordinateurs transforment des objets numériques, on utilise parfois l’adjectif «numérique», comme synonyme de l’adjectif «informatique». Par exemple, un espace de travail peut-être qualifié de «numérique», alors que, pour dire la même chose, un «courrier» est qualifié d’«électronique» et un virus d’«informatique». Mais l’usage aurait pu aussi figer les expressions «espace électronique de travail», «courrier informatique» et «virus numérique». La multiplication des synonymes de l’adjectif et du nom «informatique» peut s’expliquer par une usure rapide des mots, dans un domaine où l’innovation est sacralisée, qu’elle soit réelle ou factice.
Il y a un certain nombre de situations où la substitution, à l’adjectif «informatique», de l’adjectif «numérique» qui en qualifie la cause matérielle est naturelle. Par exemple, on définit souvent les révolutions industrielles par leur cause matérielle (la vapeur, le pétrole, les objets numériques) ou par leur cause efficiente (la machine à vapeur, le moteur à explosion, l’ordinateur et le réseau), plutôt que par le nom des sciences et des techniques qui étudient et produisent ces objets (la thermodynamique, la pétrochimie, l’informatique). Ainsi, même si les deux expressions sont employées, on parle plus volontiers de «révolution numérique» que de «révolution informatique». De même on parle plus souvent de «société industrielle» ou de «société numérique» que de «société physico-chimique» ou de «société informatique».
### Hybride avec une part d’informatique.
Comme beaucoup de sciences et de techniques, l’informatique est utilisée dans de multiples domaines de la connaissance et de l’action qu’elle transforme en profondeur. Par exemple la révolution qu’apporte l’informatique en archéologie a mené à l’émergence d’un nouveau champ de la connaissance : «l’archéologie numérique».
Ici aussi, d’autres qualificatifs sont parfois employés pour exprimer la même chose : «conception assistée par ordinateur», «bio-informatique», …
L’émergence de la conception numérique (conception assistée par ordinateur), d’usines numériques (robotisées) et de la distribution numérique (vente en ligne), permet de parler d’une «économie numérique», une économie dont tous les secteurs (conception, production, diffusion) sont devenus numériques.
Le fait de ne pas employer le mot «application», qui est trompeur, est plutôt une bonne chose. L’expression «archéologie numérique» est préférable à «informatique appliquée à l’archéologie», car la première expression insiste sur la transformation de l’archéologie elle-même et non uniquement sur le fait que certaines méthodes issues de l’informatique s’appliquent en archéologie.
On peut, de même, qualifier le monde de «numérique» pour exprimer le fait qu’il contient de nombreux champs de la connaissance et de l’action qui sont devenus numériques.
### Ensemble des domaines de la connaissance et de l’action qui peuvent être qualifiés de «numériques».
Comme beaucoup d’adjectifs, l’adjectif numérique peut se substantiver, et on emploie alors l’expression «le numérique» pour désigner l’ensemble des domaines de la connaissance et de l’action qui peuvent être qualifiés de «numériques». Ainsi, «le numérique» contient à la fois l’archéologie numérique, la conception assistée par ordinateur, la vente en ligne, …
Un effet paradoxal du succès de l’informatique est que beaucoup de choses peuvent être qualifiées par l’adjectif «numérique» et que le nom commun «le numérique» a de ce fait une extension très vaste. Ainsi, la phrase «Le numérique fait une entrée fracassante à l’École» est-elle susceptible de multiples interprétations.
Ce flou créé par l’ampleur de l’extension du nom commun «le numérique» est exploité par certains locuteurs qui désignent ainsi un vaste ensemble de manière syncrétique, ce syncrétisme les dispensant d’une analyse précise de l’objet qu’ils cherchent à désigner.
## En conclusion
Si l'informatique est à la fois une science et une technologie, le numérique est aussi une culture.
Repris de : https://pixees.fr/sur-la-definition-du-mot-numerique
---
title: 1.2.1.2 Histoire du numérique
description: Une courte promenade au sein de l'histoire du numérique.
---
# Histoire du numérique
??? info "Auteurs et date"
* Date de production de la fiche : 28/07/2021
* Auteurs source : Pierre-Éric Mounier Kuhn ; CNRS & Université Paris-Sorbonne
* Éditeur : Thierry Viéville ; Inria
## Le numérique, histoire de sa naissance
Il y a 70 ans, à l’université de Manchester, un ordinateur fonctionnait pour la première fois dans l’histoire. Un historien, Pierre Mounier-Kuhn, nous raconte brièvement cette histoire …
![Manchester Small-Scale Experimental Machine](https://www.lemonde.fr/blog/binaire/wp-content/uploads/sites/38/2018/07/fig1-768x576.png Manchester Small-Scale Experimental Machine, ou Baby pour ses pères.
 La machine originale, testée en 1948, a été rapidement cannibalisée pour assembler un ordinateur opérationnel. Le Musée des sciences et de l’industrie de Manchester a réuni en 1998 les pionniers survivants pour en construire une réplique fidèle, en état de fonctionner.
 Photo Lorette & Musée des sciences et de l’industrie, Manchester.)
### Du concept à l’ordinosaure
En 1945, tirant les leçons des réalisations électroniques secrètes menées pendant la guerre, deux documents ont défini une structure de machine radicalement nouvelle : le calculateur numérique à programme enregistré en mémoire — auquel les Français donneront plus tard le nom bien pratique d’ordinateur.
Le premier, le rapport Von Neumann, publié dès juin 1945, aura un large impact en raison même de sa disponibilité (on peut l’acheter à Washington pour une poignée de dollars) et de la notoriété de son auteur : John von Neumann, l’un des esprits les plus brillants et les plus universels du xxe siècle, est bien connu dans le monde scientifique et a ses entrées chez les dirigeants civils et militaires.
Le deuxième, élaboré quelques mois plus tard à Londres, est un plan beaucoup plus détaillé d’ordinateur, conçu par le mathématicien Alan Turing pour le National Physical Laboratory. Il cite d’ailleurs le rapport Von Neumann comme référence principale.
La dématérialisation complète du programme, passant de cartes perforées ou de bandes de papier à des impulsions électroniques, permet d’accélérer énormément le traitement des instructions et ouvre de nouvelles possibilités algorithmiques : il est beaucoup plus facile, dans une machine, d’accéder à n’importe quelle adresse mémoire électronique que de dérouler et rembobiner en permanence une bande de papier !
Si l’architecture définie par Von Neumann constitue potentiellement une solution élégante et prometteuse, elle commence par poser un problème technique ardu : comment réaliser les mémoires ? Cet organe essentiel pour stocker les instructions et les données est en principe au cœur de la nouvelle machine. Mais il n’existe rien de tel dans les technologies matérielles disponibles à l’époque, pour mémoriser des impulsions binaires.
Au cours des années qui suivent, une dizaine d’équipes à travers le monde se lancent dans le développement d’ordinateurs, surtout en Angleterre et aux États-Unis. Elles expérimentent divers procédés de mémorisation, empruntés souvent au radar et aux télécommunications.
L’une de ces équipes se rassemble à l’université de Manchester. Elle est issue en partie de Blechtley Park et du laboratoire des Télécommunications britanniques, qui a participé au développement de machines secrètes pendant la guerre. Les responsables du département de génie électrique, Williams et Kilburn, parient sur la possibilité d’enregistrer des données sur l’écran d’un tube cathodique – d’un écran de télévision. En simplifiant beaucoup, disons que chaque bit d’information serait représenté sur l’écran par un pixel, inscrit, renouvelé ou lu à chaque balayage de l’écran par le faisceau cathodique. Un peu comme, pendant la bataille d’Angleterre, les opératrices radar voyaient sur leur écran s’afficher des points lumineux représentant les avions ennemis, et qui bougeaient à chaque balayage du radar.
Pour tester cette idée, ils construisent une maquette de laboratoire : un « tube de Williams » avec ses circuits de commande, connecté à un calculateur électronique minimal. Chaque tube cathodique peut mémoriser entre 512 et 2048 bits, régénérés chaque milliseconde. Le processeur ne sait faire qu’une opération : la soustraction ! Nous avons tous appris à l’école qu’en combinant deux soustractions on obtient une addition (« moins par moins fait plus »), qu’en combinant des additions on obtient une multiplication et qu’en soustrayant plusieurs fois on effectue une division… Un processeur arithmétique réduit au minimum permet donc de calculer ce que l’on veut en économisant le matériel, si l’on accepte une certaine lenteur d’opération. C’est suffisant pour vérifier la faisabilité pratique de la mémorisation dans des tubes cathodiques, but de cette Manchester Small-Scale Experimental Machine, surnommée Baby par ses développeurs.
Le 21 juin 1948, pour la première fois dans l’histoire, un programme enregistré servant de test effectue un calcul dans cette machine. Tom Kilburn a écrit et codé en binaire un algorithme, une simple recherche du plus grand facteur propre de 218. L’intérêt de ce calcul banal n’est pas mathématique, mais technique : nécessitant beaucoup d’opérations, il prend beaucoup de temps… donc permettra de vérifier si la machine est fiable. Après 52 minutes et 3,5 millions d’instructions exécutées, le système produit la réponse correcte (131 072). On peut dater de ce jour la naissance de l’ordinateur, en considérant que l’enregistrement d’un programme dans une mémoire directement accessible par le processeur est l’innovation qui va permettre les développements algorithmiques ultérieurs.
![Le premier programme enregistré de l’histoire](https://www.lemonde.fr/blog/binaire/wp-content/uploads/sites/38/2018/07/fig2-768x847.png Le premier programme enregistré de l’histoire : 17 instructions (ici, la version modifiée en juillet 1948). Photo School of Computer Science, The University of Manchester.)
### De l’expérience de laboratoire à l’ordinateur commercial
La Baby Machine sera la base d’un grand ordinateur, Manchester Mark I, construit l’année suivante et industrialisé ensuite par une grande entreprise locale de matériels électriques, Ferranti.
Le mathématicien qui a initié et supervisé tout le projet, Max Newman, n’est autre que le professeur de Cambridge qui avaient enseigné la logique au jeune Turing en 1936, puis l’avait rejoint au service de cryptanalyse. À la rentrée 1948, il invite Alan Turing à Manchester pour prendre en charge la programmation du nouvel ordinateur. Turing ne se contentera pas de développer des méthodes de codage et de vérification de programmes : il y testera ses modèles mathématiques de morphogenèse et spéculera sur les possibilités de simuler la pensée. Dès octobre 1949, le département de philosophie de l’université accueille un colloque de cogitations cybernéticiennes sur « The Mind and the Computing Machines ».
En 1950, une dizaine d’ordinateurs sont en construction, certains même déjà en service, en Angleterre, aux États-Unis et en Union Soviétique. Le caractère extrêmement risqué de ces projets justifie qu’ils soient menés généralement dans les laboratoires de recherche publics : ceux-ci, financés par des agences gouvernementales ou des académies, peuvent explorer librement des voies absolument nouvelles susceptibles d’être des impasses, prendre plus de temps que prévu pour surmonter des difficultés inédites, échanger ouvertement informations et leçons de l’expérience, là où des laboratoires privés seraient contraints par le secret industriel.
Rapidement, toutefois, d’assez nombreuses entreprises de toutes tailles organisent les transferts de technologies (généralement par des transferts d’hommes), mettent au point et industrialisent les nouvelles machines. En les mettant à la disposition d’utilisateurs de plus en plus nombreux, elles favorisent la multiplication des expériences et l’acquisition de savoir-faire, donc de nouveaux progrès qui ne s’arrêteront plus.
Comme toujours au stade initial du développement d’une technologie, les pionniers de l’ordinateur ont expérimenté des voies très diverses, avant de resserrer l’éventail des possibles sur quelques techniques devenues des standards. La plupart des dispositifs de mémoire essayés à la fin des années 1940 étaient trop fragiles et trop limités en taille et en vitesse. Ils furent rapidement rejetés au profit de procédés d’enregistrement magnétique, qui allaient dominer pendant 25 ans dans les mémoires vives et existent toujours dans nos disques durs.
Les fondateurs de l’informatique ont eu une vision assez claire de l’évolution future du matériel, mais ont largement sous-estimé l’importance et la difficulté de la programmation. Bien qu’universels en principe, les premiers ordinateurs étaient conçus en vue de la résolution d’une certaine classe de problèmes — souvent pour produire des tables numériques. Ils étaient utilisés par des ingénieurs, physiciens et mathématiciens qui indiquaient à la machine la suite des opérations à effectuer et récupéraient les résultats ; sans être triviale, l’écriture de programmes ne représentait pas une difficulté majeure. Avec le développement des premiers systèmes commerciaux dans les années 1950, les possibilités et domaines d’utilisation exploseront et la programmation deviendra le facteur critique de la réussite d’un projet — elle l’est encore de nos jours.
![Alan Turing (à gauche) et la console du Ferranti Mark I.](https://www.lemonde.fr/blog/binaire/wp-content/uploads/sites/38/2018/07/fig3-300x227.png Alan Turing (à gauche) et la console du Ferranti Mark I.
 Photo Ferranti / School of Computer Science, The University of Manchester.)
Repris de : https://www.lemonde.fr/blog/binaire/2018/07/16/la-naissance-du-numerique/
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment