Une histoire de l’informatique Le mot informatique a été créé en 1962 par Phili
Une histoire de l’informatique Le mot informatique a été créé en 1962 par Philippe Dreyfus. Il s’agit d’un néologisme de la langue française fait de la contraction des deux mots “automatique” et “information”. Pour parler du traitement automatique de l’information, les anglo-saxons utilisent les termes de “computer science” ou de “data-processing”. L’informatique, comme discipline scientifique et technique, s’est déployée sur deux siècles environs : 19ème et 20ème siècle. Elle est liée à l’apparition des premiers automates et à la mécanisation : un processus de développement et de généralisation des machines qui a commencé au 18ème siècle en Europe avec l’industrialisation. Nous devons la première programmation binaire (carton/trou) à Joseph-Marie Jacquard en 1801. Il s’agissait d’un procédé industriel visant à accroître la productivité des métiers à tisser. En 1834, Charles Babbage, considéré comme l’authentique grand- père des ordinateurs modernes, invente la machine analytique en s’inspirant des cartons perforés de Jacquard. La machine analytique n’a jamais vu le jour de son vivant, car la Couronne britannique lassée de la longueur des recherches de Babbage a décidé de lui retirer son soutien financier. L’un de ses fils en construisit l’unité centrale (le moulin) et l’imprimante en 1888 et fit une démonstration réussie de calcul de table à l’Académie royale d’astronomie en 1908. Le développement de l’informatique est lié à la recherche fondamentale en mathématiques et plus précisément à la logique et aux algorithmes mathématiques, apparus au début du 9ème siècle avec les travaux du mathématicien arabe Abu Jaffar Al Khawarizmi. L’informatique a bénéficié en outre de l’introduction du calcul binaire en Europe vers 1697, grâce aux travaux Gottfried Wilhelm Leibniz , à la formalisation du principe des machines à calculer par Ada Lovelace en 1840 et à la théorisation de la logique binaire par George Boole en 1854. Alan Turing, le père spirituel En 1936, Alan Turing infirme la théorie de Kurt Gödel et démontre qu’on ne peut pas tout calculer de manière automatique. Il imagine pour sa démonstration un outil qui inspire encore le fonctionnement de nos ordinateurs. Une machine universelle qui manipule des informations – des lettres ou des chiffres – suivant des règles définies dans une table. On peut la représenter comme un appareil qui comporte un ruban de papier de longueur infinie avec une succession de cases et un registre mémorisant l’état de la machine. L’opérateur (une tête de lecture/écriture) peut lire ou écrire le contenu d’une case et se déplacer vers la case de gauche ou de droite. A partir d’un mot d’entrée noté sur le ruban, la machine va exécuter une instruction. Pour établir un parallèle avec nos ordinateurs actuels, la taille de la mémoire est représentée par la longueur du ruban et le temps de calcul par le nombre d’opérations à accomplir sur le ruban. Les premières machines à architecture de von Neumann La Seconde guerre mondiale qui était une guerre d’action et de mouvement a été déterminante dans l’avènement de l’informatique. Jusqu’à la fin de la guerre, le principe général d’organisation est booléen et copié sur la Pascaline conçue en 1641, réalisée en 1645. Les améliorations apportées concernent la vitesse de calcul. Si l’histoire de l’informatique retient l’ENIAC comme étant le premier ordinateur fabriqué, l’historien des sciences George Dyson parle pour sa part de L’IAS, appelée aussi la machine de von Neumann et dont il est question dans son article fondateur décrivant l’architecture de l’ordinateur. John von Neumann en supervisa la construction de la fin de 1945 jusqu’en 1951 au sein de l’Institut for Advanced Study. Julian Bigelow fût l’ingénieur chargé de construire cette machine destinée à un usage balistique. Les ingénieurs n’étaient pas des physiciens théoriciens, ils travaillaient au fer à souder et ce sont des femmes qui assuraient le plus gros de la programmation. La machine de von Neumann n’a jamais été brevetée contrairement à l’ENIAC qui a servi au même usage balistique. Alors que l’ENIAC faisait ses calculs en système décimal, la machine de von Neumann utilisait le système binaire. Tous les ordinateurs qui suivront seront calqués sur cette machine. Les générations d’ordinateurs Certains considèrent que la notion de “générations” est un concept marketing, lancé en 1964 par IBM, et n’a aucun intérêt historique. Il est cependant intéressant d’observer comment les ordinateurs se sont transformés au fil du temps, devenant toujours plus petits, plus puissants et plus conviviaux. Chapitre 4 L'histoire de l'informatique Préhistoire Ancêtres et précurseurs Histoire contemporaine Nous avons choisi de n'aborder l'histoire de l'informatique qu'à la fin de notre présentation, car il nous semble inutile de faire l'archéologie d'une discipline dont on ne connaît pas les principes. Faire l'histoire de l'informatique, c'est suivre en parallèle l'évolution de 3 domaines : (a) les méthodes de codage (données) ; (b) le calcul automatique (traitements) ; (c) la conception d'être artificiels (simulation). Ces 3 domaines serviront à baliser chacune des avancées ayant contribué d'une façon ou d'une autre à l'émergence de l'informatique. 1 Préhistoire Quelques méthodes de calcul dans l'antiquité (b) : les premiers "algorithmes" connus datent des babyloniens (1 800 av. J.C.) ; abaques : planches de bois avec des rainures sur lesquelles on faisait glisser des cailloux (calculi), en respectant la numérotation de position ; utilisation de bouliers avérée depuis très longtemps en Russie et en Asie. Quelques mythes faisant intervenir des êtres artificiels (c) : il est question de "servantes d'or" dans l'Iliade d'Homère ; légende antique de Pygmalion (sculpteur) et de Galatée (une de ses oeuvres devenue vivante) ; légende juive du Golem (être d'argile créé par le rabbin Loew et évoluant dans le ghetto de Prague vers 1580). 2 Ancêtres et précurseurs XIIIe : fabrication de l'Ars Magna, par Raymond Lulle (b) : il s'agit d'une "machine logique" faite de cercles concentriques contenant des mots qui, disposés dans un certain ordre, forment des questions tandis que d'autres mots y répondent XVIe : invention du codage binaire par Francis Bacon (a) et du logarithme (à l'origine créé pour simplifier des calculs compliqués) par Napier (b) 1624 : Wilhem Schickard construit une "horloge automatique calculante" à Heidelberg 1642 : Blaise Pascal, à 19 ans, crée la "Pascaline", machine à calculer mécanique à base de roues dentées, capable de faire des additions et des soustractions (b) ; le langage informatique PASCAL sera plus tard ainsi nommé en son honneur 1673 : Leibniz, grand mathématicien, améliore la Pascaline en y ajoutant la multiplication et la division ; par ailleurs, il s'intéresse beaucoup à la numérotation binaire avec laquelle il essaie de concevoir une "caractéristique universelle" dont l'objectif est de réduire toutes les opérations logiques à un calcul (b) XVIIIe : La Mettrie, philosophe disciple de Descartes, radicalise la philosophie de ce dernier et écrit L'homme machine, où il argumente en faveur d'une vision mécaniste du vivant (c) (Descartes lui-même aurait construit un automate à visage humain). Les automates sont très à la mode à cette époque. L'horloger suisse Vaucansson en construit de très célèbres parmi lesquels un joueur de flûte et un canard pourvu de fonctions locomotrices et digestives, exposés à paris en 1738 : leur fonctionnement utilise un "arbre à came" (comme dans les boîtes à musique), codage binaire du mouvement (a). Un célèbre "joueur d'échec artificiel" parcours aussi les cours européennes à la fin du siècle (il aurait notamment battu Napoléon) avant qu'on ne démasque la supercherie : un nain caché sous la table actionnait en fait le mécanisme (c). 1805 : Jacquart crée les métiers à tisser automatiques, qui utilisent des "programmes" sous forme de cartes perforées, également utilisées dans les pianos mécaniques (a) 1818 : Mary Shelley publie "Frankenstein", où l'électricité donne l'étincelle de vie à un être composé à partir de morceaux de cadavres (c) 1822 : l'ingénieur anglais Babbage fait les premiers plans de sa "machine à différences", sorte de machine à calculer mécanique utilisant les logarithmes (b) : trop complexe pour la technologie de l'époque, elle ne sera construite d'après ces plans qu'au XXième siècle. 1832 : invention du langage Morse, pour coder les caractères de l'alphabet (c'est un code binaire, composé uniquement des deux symboles : un trait court et un trait long) (a) 1833 : Babbage conçoit sa "analytical engine", encore plus performante (et compliquée) que la "machine à différence", utilisant des cartes perforées pour enchaîner l'exécution d'instructions élémentaires sur un calculateur universel (mécanique) : il passera sa vie et se ruinera à essayer en vain de construire sa machine (a, b). Il sera aidé par Lady Ada Lovelace, fille du poète Lord Byron, qui écrira les premiers "programmes" qu'aurait pu exécuter la machine (le langage de programmation ADA sera ainsi nommé pour lui rendre hommage). Cette machine aurait pourtant répondu aux besoins croissants en calcul dans la société anglaise, notamment pour l'astronomie et la navigation. 1854 : Le logicien anglais Georges Boole publie son livre The Mathematical Analysis of Logic, où il définit les opérateurs logiques dits "booléens", fondés sur deux valeurs 0/1 pour coder Vrai/Faux (a) 1876 : uploads/Industriel/ une-histoire-de-l.pdf
Documents similaires










-
30
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Jul 21, 2022
- Catégorie Industry / Industr...
- Langue French
- Taille du fichier 0.0592MB