Ordinateur Un ordinateur est une machine électronique qui fonctionne par la lec

Ordinateur Un ordinateur est une machine électronique qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques sur des chiffres binaires. Dès sa mise sous tension, un ordinateur exécute, l'une après l'autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données. Des tests et des sauts conditionnels permettent de changer d'instruction suivante, et donc d'agir différemment en fonction des données ou des nécessités du moment. Les données à manipuler sont obtenues, soit par la lecture de mémoires, soit par la lecture de composants d'interface (périphériques) qui représentent des données physiques extérieures en valeurs binaires (déplacement d'une souris, touche appuyée sur un clavier, température, vitesse, compression…). Une fois utilisées, ou manipulées, les données sont réécrites, soit dans des mémoires, soit dans des composants qui peuvent transformer une valeur binaire en une action physique (écriture sur une imprimante ou sur un moniteur, accélération ou freinage d'un véhicule, changement de température d'un four…). L'ordinateur peut aussi répondre à des interruptions qui lui permettent d’exécuter des programmes de réponses spécifiques à chacune, puis de reprendre l’exécution séquentielle du programme interrompu. Éclaté d'un ordinateur personnel : 1 : Écran ; 2 : Carte mère ; 3 : Processeur ; 4 : Parallèle ATA ; 5 : Mémoire vive (RAM) ; 6 : Cartes d'extension ; 7 : Alimentation électrique ; 8 : Lecteur de disque optique ; 9 : Disque dur, disque électronique ; 10 : Clavier ; 11 : Souris. Étymologie Le mot « ordinateur » fut introduit par IBM France en 1955 après que François Girard, alors responsable du service publicité de l'entreprise, eut l'idée de consulter son ancien professeur de lettres à Paris, Jacques Perret, lui demandant de proposer un « nom français pour sa nouvelle machine électronique destinée au traitement de l'information (IBM 650), en évitant d'utiliser la traduction littérale du mot anglais "computer" ("calculateur" ou "calculatrice"), qui était à cette époque plutôt réservé aux machines scientifiques »6. Histoire L'histoire de l'ordinateur nous provient du fait que l'homme, par nature paresseux, a toujours cherché à améliorer sa façon de calculer, afin de limiter ses erreurs et pour économiser de son temps. A l'origine : le boulier Le boulier, appelé aussi « abaque », a été inventé en l'an 700 ; il fut longtemps utilisé et l'est encore aujourd'hui dans certains pays. Puis vint le logarithme On attribue généralement l'invention du logarithme à l'écossais John NEPER (1550-1617, parfois orthographié NAPIER). En effet en 1614 celui-ci démontra que la multiplication et la division pouvaient se ramener à une série d'additions. Ceci permit dès 1620 l'utilisation de la règle à calcul. Pour autant le vrai père de la théorie des logarithmes est « Mohamed Ybn Moussa Al- KHAWAREZMI », un savant arabe issu de la ville persane appelée « Khawarezm ». Ce savant développa par ailleurs l'Algèbre, terme provenant de l'arabe « Al-Jabr », qui signifie compensation, sous-entendu « la compensation par la recherche de la variable inconnue X afin d'équilibrer les résultats des calculs ». Les premières machines à calculer En 1623, William Schickard inventa la première machine à calculer mécanique. En 1642, Blaise Pascal créa la machine d'arithmétique (baptisée Pascaline), une machine capable d'effectuer des additions et soustractions, destinée à aider son père, un percepteur de taxes. En 1673, Gottfried Wilhelm Von Leibniz ajouta à la Pascaline la multiplication et la division. En 1834, Charles Babbage invente la machine à différence, qui permet d'évaluer des fonctions. Cependant il apprend qu'une machine à tisser (métier à tisser Jacquard) est programmée à l'aide de cartes perforées, il se lance donc dans la construction d'une machine à calculer exploitant cette idée révolutionnaire. C'est en 1820 qu'apparaissent les premiers calculateurs mécaniques à quatre fonctions :  addition  soustraction  multiplication  division Ceux-ci sont rapidement (1885) agrémentés de clavier pour saisir les données. Des moteurs électriques viennent rapidement supplanter les manivelles. Les ordinateurs programmables En 1938, Konrad Zuse invente un ordinateur qui fonctionne grâce à des relais électromécaniques : le Z3. Cet ordinateur est le premier à utiliser le binaire au lieu du décimal. En 1937, Howard Aiken met au point un ordinateur programmable mesurant 17 m de long et 2.5 mètres de hauteur, permettant de calculer 5 fois plus vite que l'homme : C'est le Mark I d'IBM. Il est alors constitué de 3300 engrenages, 1400 commutateurs reliés par 800 km de fil électrique. En 1947, le Mark II voit le jour, ses engrenages sont remplacés par des composants électroniques. Les ordinateurs à lampes En 1942, l'ABC (Atanasoff Berry Computer) du nom de ses concepteurs J.V. Atanasoff et C.Berry voit le jour. En 1943, le premier ordinateur ne comportant plus de pièces mécaniques est créé grâce à J.Mauchly et J.Presper Eckert : l'ENIAC (Electronic Numerical Integrator And Computer). Il est composé de 18000 lampes à vide, et occupe une place de 1500 m2. Il fut utilisé pour des calculs ayant servi à mettre au point la bombe H. Son principal inconvénient était sa programmation : l'ENIAC était en effet uniquement programmable manuellement avec des commutateurs ou des câbles à enficher. La première erreur informatique est due à un insecte qui, attiré par la chaleur, était venu se loger dans les lampes et avait créé un court-circuit. Ainsi le terme anglais pour « insecte » étant « bug », le nom est resté pour désigner une erreur informatique. Le terme bug a été francisé par la suite en bogue, terme désignant également le nom de l'enveloppe épineuse et piquante de la châtaigne. En effet, les tubes étant de médiocres conducteurs, ils nécessitaient une grande quantité d'énergie électrique qu'ils dissipaient en chaleur. Cette lacune est palliée en 1946 avec la mise au point de l'EDVAC (Electronic Discrete Variable Computer) permettant de stocker les programmes en mémoire (1024 mots en mémoire centrale et 20000 mots en mémoire magnétique). Le transistor En 1948, le transistor est créé par la firme Bell Labs (grâce aux ingénieurs John Bardeen, Walter Brattain et William Shockley). Il permet dans les années 50 de rendre les ordinateurs moins encombrants, moins gourmands en énergie électrique donc moins coûteux : c'est la révolution dans l'histoire de l'ordinateur ! Le circuit intégré Le circuit intégré est mis au point en 1958 par Texas Instruments, il permet de réduire encore la taille et le coût des ordinateurs en intégrant sur un même circuit électronique plusieurs transistors sans utiliser de fil électrique. Les premiers ordinateurs à base de transistors En 1960, l'IBM 7000 est le premier ordinateur à base de transistor. En 1964, l'IBM 360 fait son apparition, avec également l'arrivée remarquée du DEC PDP-8. Les micro-ordinateurs C'est en 1971 qu'apparaît le premier micro-ordinateur : le Kenback 1, avec une mémoire de 256 octets. Les microprocesseurs En 1971, le premier microprocesseur, l'Intel 4004, fait son apparition. Il permet d'effectuer des opérations sur 4 bits simultanément. A la même époque Hewlett Packard commercialise la calculatrice HP-35. Le processeur 8008 d'Intel (permettant de traiter 8 bits simultanément) apparaît en 1972. En 1973, le processeur 8080 d'Intel garnit les premiers micro-ordinateurs : le Micral et le Altair 8800, avec 256 octets de mémoire. A la fin de l'année 1973, Intel commercialisait déjà des processeurs 10 fois plus rapides que le précédent (le Intel 8080) et comportant 64 ko de mémoire. En 1976, Steve Wozniak et Steve Jobs créent le Apple I dans un garage. Cet ordinateur possède un clavier, un microprocesseur à 1 MHz, 4 ko de RAM et 1 ko de mémoire vidéo. La petite histoire dit que les 2 compères ne savaient pas comment nommer l'ordinateur ; Steve Jobs voyant un pommier dans le jardin décida d'appeler l'ordinateur pomme (en anglais apple) s'il ne trouvait pas de nom pour celui-ci dans les 5 minutes suivantes... En 1981 IBM commercialise le premier « PC » composé d'un processeur 8088 cadencé à 4.77 MHz. Les ordinateurs d'aujourd'hui Il est très difficile de nos jours de suivre l'évolution de l'ordinateur. En effet cette évolution suit la loi de Moore (Intel©) : « on peut placer 4 fois plus de transistor sur une puce tous les 3 ans ». On devrait ainsi arriver à 3 milliard de transistors sur une puce aux alentours de 2020. L'image la plus célèbre du début de l'histoire de l'informatique11 Ce portrait de Jacquard, tissé en soie sur un métier Jacquard, demandait la lecture de 24 000 cartes de plus de 1 000 trous chacune (1839). Il n'était produit que sur demande. Charles Babbage l'utilisa souvent pour expliquer ses idées sur ce que fut la première esquisse d'un ordinateur, sa machine analytique, qui utilisait des cartes Jacquard pour ses commandes et ses données12. Première invention Selon Bernard Cohen, auteur de l'ouvrage intitulé Howard Aiken: Portrait of a computer pioneer - Qui a inventé l'ordinateur, est-ce-que le Mark I était un ordinateur, « les historiens des technologies et les informaticiens intéressés en histoire, ont adopté un certain nombre de caractéristiques qui définissent un ordinateur. C'est ainsi que la question de savoir si le Mark uploads/Industriel/ ordinateur.pdf

  • 13
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager