Les métiers de l’automatique et de l’informatique industrielle 1. Histoire de l

Les métiers de l’automatique et de l’informatique industrielle 1. Histoire de l’automatique et de l’informatique industrielle Définition de l’automatique L’automatique est l’ensemble des méthodes scientifiques et des moyens technologiques utilisés pour la conception de systèmes pouvant fonctionner sans intervention humaine lors de leur phase de fonctionnement normal Histoire de l'automatique L’histoire des systèmes automatisés peut être divisée en trois grandes périodes. Première période (L’aube de l’automatique) : de l’antiquité au milieu du XIX e siècle Cette période est marquée par : La clepsydre (une horloge à eau) qui fut inventée par un mécanicien grec appelé Ctésibios à Alexandrie (en Égypte) au III e siècle avant J.-C. A la fin du III e siècle avant J.-C., l’ingénieur grec Philon de Byzance utilise un principe similaire que celui de la clepsydre pour concevoir une lampe à huile à niveau constant. Le premier siècle après J.-C a été marqué par l’invention du système de porte automatique par l’ingénieur grec Héron d’Alexandrie. Plusieurs siècles plus tard, en 1642 le physicien français Blaise Pascal invente la première machine à calculer « Pascaline », En 1788, l’ingénieur écossais James Watt invente un régulateur à boules qui a pour but de maintenir, constante, la vitesse de rotation d’une turbine à vapeur. En 1801, le français Joseph-Marie Jacquard invente son métier à tisser à cartes perforées. Deuxième période (du XIX e siècle au XX e siècle) La deuxième période de l’automatique, à partir du XIX e siècle, est caractérisée par la théorie du bouclage et par les applications de l’algèbre de Boole. Les premiers travaux sur le bouclage sont dus au physicien écossais Maxwell (en 1868), au mathématicien anglais Routh (en 1872) et au mathématicien allemand Hurwitz (en 1890), qui ont tous deux donné leur nom à un critère algébrique de stabilité. L’étude analytique de la stabilité du régulateur de Watt fut initiée par Maxwell en 1868 et complétée en 1876 par Wichnegradsky. L’étude des systèmes bouclés doit beaucoup à l’approche fréquentielle de Nyquist, Bode, Black, Nichols, Hall et Evans, qui ont donné leur nom à des représentations et ont publié la plupart de leurs résultats à la fin de la seconde guerre mondiale. Troisième période La troisième période de l’automatique débute avec les années 50. L’apparition des ordinateurs et des calculateurs numériques révolutionne le monde de l’automatique. La puissance de calcul disponible fait naître les méthodes dites de l’automatique « moderne ». Aujourd’hui, l’automatisation permet de remplacer l’homme, aussi bien dans les tâches opérationnelles qu’informationnelles, car les systèmes automatisés permettent d’améliorer : • la sécurité : ils réalisent des opérations trop complexes ou trop dangereuses qui ne peuvent pas être confiées à l’homme (par exemple: le contrôle des centrales nucléaires), • le confort : ils remplacent l’homme pour réaliser des opérations répétitives ou pénibles à son travail, ou dans sa vie quotidienne (électroménager, boîtes de vitesse automatiques, etc.), • la qualité : ils accroissent la précision et limitent les erreurs (gestion électronique de moteur thermique, ABS, applications militaires, etc.), • la productivité : ils permettent d’augmenter les cadences (chaîne de montage, atelier automatisé, etc.). L’homme demeure indispensable pour le pilotage des opérations du système : il assure les tâches informationnelles, bien qu’il soit soulagé des tâches opérationnelles. Définition de l’informatique L’informatique est un domaine d’activité scientifique, technique et technologique concernant le traitement automatique de l’information, via un programme, par des machines: ordinateurs; systèmes embarqués, robots, automates, etc. Définition de l’informatique industrielle L’informatique industrielle est une branche de l’informatique appliquée qui couvre l'ensemble des techniques de conception et de programmation de systèmes informatisés à vocation industrielle qui ne sont pas des ordinateurs. Histoire de l’informatique Le terme « informatique» date de 1962. Il vient de la contraction des mots «information» et «automatique». L’histoire de l’informatique est justement marquée par la volonté des hommes d’automatiser certaines tâches longtemps réalisées à la main, en particulier le calcul. Le boulier est la plus ancienne machine à calculer inventée en chine au cours du premier millénaire avant J.-C. 1642-1644 Blaise Pascal invente une machine à calculer (« la Pascaline ») capable d'additionner et de soustraire des nombres de huit chiffres. 1673 Gottfried Wilhelm von Leibniz s'inspire de la Pascaline et invente une machine capable de multiplier et diviser sans utiliser les additions successives. Elle ne sera construite qu'en 1694, faute de trouver un artisan assez habile 1801 Joseph Marie Jacquard invente des cartes pour commander le tissage de motifs sur les métiers à tisser. On peut considérer cette invention comme le début de la programmation. Un peu plus tard, en 1833, Charles Babbage, inspiré par le métier à tisser de Jacquard, construit une machine encore plus élaborée que les machines à calculer de l’époque : la sienne est capable d’exécuter toutes les opérations et de stocker les résultats. C’est à son associée, la mathématicienne Ada Byron (Ada Lovelace), que l’on doit un peu plus tard les principes de base de la programmation. Elle l'aide à concevoir les « diagrammes » pour faire fonctionner la machine. Il semblerait que c'est Ada Byron qui conçoit le premier langage informatique pour la machine à différences de Babbage (elle donnera d'ailleurs son nom au langage de programmation Ada), mais d'autres biographes pensent qu'elle a seulement corrigé une erreur de Babbage. En 1890, l’Américain Hermann Hollerith utilise un appareil similaire pour dépouiller les résultats du recensement américain. Sa société, Tabulating Machine Company, deviendra plus tard IBM. 1936 Alan Mathison Turing publie un ouvrage qui définit les limites théoriques de l'ordinateur. Il présente le modèle des machines de Turing et construit (mathématiquement) la première machine universelle. Il prouve également l'absence de méthodes algorithmiques (indécidabilité algorithmique) pour résoudre certains problèmes comme le problème de l'arrêt ou le problème de la décision. Alan Turing se suicidera en 1954, en mangeant une pomme imbibée de cyanure. Une légende souvent rapportée dit que cet épisode est à l'origine du logo d'Apple. 1937 Le premier ordinateur, nommé ABC pour Atanasoff-Berry Computer est conçu par John Vincent Atanasoff avec son étudiant Clifford Berry .Il a été testé avec succès en 1942. Les idées d'Atanasoff furent reprises dans l'ENIAC, souvent considéré ainsi à tort comme le premier ordinateur. En effet, Eckert et Mauchly, concepteurs de l'ENIAC, brevètent leur invention comme le premier ordinateur (« first digital computer »), mais un procès dans les années 1970, juge qu'ils n'ont fait que reprendre les idées de l'ordinateur ABC, et consacre ainsi Atanasoff comme l'inventeur du premier ordinateur électronique. 1940 Pour décrypter les messages de l'armée Allemande, les Anglais mettent au point sur le site de Bletchley Park les calculateurs Robinson et Colossus sous la direction du mathématicien Alan Turing. Ce sont les premières machines qui intègrent les concepts d'arithmétique binaire, d'horloge interne, de mémoire tampon, de lecteurs de bande, d'opérateurs booléens, de sous-programmes et d'imprimantes. Tout ceci sera classé « Secret défense » jusqu'en 1975. 1941 Konrad Zuse fait fonctionner le premier ordinateur du monde, le Z3 (ou Zuse 3). Encore largement méconnu, il est l'un des pères de l'informatique en ayant développé le premier calculateur électromécanique Z1 en 1938. Le Z3 fut détruit en 1944 par les bombardements alliés et servait à produire des calculs pour une usine aéronautique allemande. Il concevra aussi et réalisera entre 1942 et 1946 le premier langage de haut niveau nommé Plankalkül. Ce langage est extrêmement innovant, mais en dehors du courant principal du développement de l'informatique. Il demeure donc très largement inconnu. 1943 Création du ASCC Mark I (Automatic Sequence-Controlled Calculator Mark I) à Harvard par Howard Aiken et son équipe, avec le soutien d'IBM. C'est un énorme calculateur électromécanique (3000 relais, 800 km de câbles) qui permet de faire 3 opérations sur 23 chiffres par seconde. Cette machine est très proche dans son principe de fonctionnement des plans de la machine analytique de Babbage. Le programme est lu depuis une bande de papier ; les données à traiter peuvent être lues depuis une autre bande de papier ou un lecteur de cartes. 1943 L'ENIAC (Electronic Numerical Integrator And Computer) est créé par John W. Mauchly et John Presper Eckert . Il sera opérationnel en 1946. Son poids est de 30 tonnes pour des dimensions de 2,4x 0,9 x 30,5 mètres occupant une surface de 67 mètres carrés. Il fut utilisé pour des calculs ayant servi à mettre au point la bombe H. Son principal inconvénient était sa programmation : l'ENIAC était en effet uniquement programmable manuellement avec des commutateurs et des câbles à enficher. 1944 John Von Neumann a donné son nom à « l'architecture de von Neumann » utilisée dans la quasi- totalité des ordinateurs modernes. Cela est dû au fait qu'il est, en 1944, le rapporteur des travaux pionniers en la matière (First Draft of a Report on the EDVAC 1). Le modèle de calculateur à programme auquel son nom reste attaché et qu'il attribuait lui-même à Alan Turing, possède une unique mémoire qui sert à conserver les logiciels et les données. Ce modèle, extrêmement innovant pour l'époque, est à la base de la conception de nombre d'ordinateurs. EDVAC (Electronic Discrete Variable Automatic Computer) est l'un des uploads/Industriel/ cours-03-mst1.pdf

  • 13
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager