INFORMATIQUEPROJECT L'informatique est un domaine d'activité scientifique, tech

INFORMATIQUEPROJECT L'informatique est un domaine d'activité scientifique, technique, et industriel concernant le traitement automatique de l'information numérique par l'exécution de programmes informatiques par des machines : des systèmes embarqués, des ordinateurs, des robots, des automates, etc. DEFINITION L'informatique est un domaine d'activité scientifique, technique, et industriel concernant le traitement automatique de l'information numérique par l'exécution de programmes informatiques par des machines : des systèmes embarqués, des ordinateurs, des robots, des automates, etc. Ces champs d'application peuvent être séparés en deux branches : • théorique : concerne la définition de concepts et modèles ; • pratique : s'intéresse auxx techniques concrètes de mise en œuvre. Certains domaines de l'informatique peuvent être très abstraits, comme la complexité algorithmique, et d'autres peuvent être plus proches d'un public profane. Ainsi, la théorie des langages demeure un domaine davantage accessible aux professionnels formés (description des ordinateurs et méthodes de programmation), tandis que les métiers liés auxx interfaces homme-machine sont accessibles à un plus large public. Étymologie En 1957, l'ingénieur allemand Karl Steinbuch crée le terme « Informatik » pour son essai intitulé Informatik: Automatische Informationsverarbeitung, pouvant être rendu en français par « Informatique : traitement automatique de l'information »1. En mars 1962, Philippe Dreyfus, ancien directeur du Centre national de calcul électronique de Bull, utilise pour la première fois en France le terme « Informatique »2 pour son entreprise « Société d'informatique appliquée » (SIA). Selon certains, ce néologisme est un mot-valise qui agglomère « information » et « automatique », pour désigner le traitement automatique des données4,5. Le même mois, Walter Bauer inaugure la société américaine « Informatics Inc. » qui dépose son nom et poursuit toutes les universités qui utilisent ce mot pour décrire la nouvelle discipline, les forçant à se rabattre sur computer science, bien que les diplômés qu'elles forment soient pour la plupart des praticiens de l'informatique plutôt que des scientifiques au sens propre [réf. nécessaire].L’Association for Computing Machineryy, la plus grande association d'informaticiens au monde, approche même Informatics Inc. afin de pouvoir utiliser le mot informatics en remplacement de l'expression computer machineryy, mais l'entreprise décline la proposition[réf. nécessaire]6. En 1985 Sterling Software rachète la société Informatics Inc. qui cesse ses activités en 1986[réf. souhaitée]. Pour Donald Knuth, cependant, les Américains ont délibérément écarté le mot informatique, non pour un problème de marque mais pour des raisons sémantiques ; les ordinateurs ne traitent pas de l'information, mais des données, dont le sens informatif est parfaitement indifférent[réf. nécessaire]. En 1966, l'Académie française consacre l'usage officiel du mot pour désigner la « science du traitement de l'information ». La presse, l'industrie et le milieu universitaire l'adoptent dès cette époque. En juillet 1968, le ministre fédéral de la Recherche scientifique d'Allemagne de l'Ouest, Gerhard Stoltenberg, prononce le mot « Informatik » lors d'un discours officiel sur la nécessité d'enseigner cette nouvelle discipline dans les universités de son pays ; on emploie ce même terme pour nommer certains cours dans les universités allemandes7. Le mot informaticafait alors son apparition en Italie et en Espagne, de même qu’informatics auRoyaume-Uni. Les fondateurs de la Compagnie Générale d'Informatique (CGI) reprennent le mot « informatique » en 19698. Évolution sémantique Dans l'usage contemporain, le substantif « informatique » devient un mot polysémique qui désigne autant le domaine industriel en rapport avec l'ordinateur (au sens de calculateur fonctionnant avec des algorithmes), que la science du traitement des informations par des algorithmes. Les expressions « science informatique », « informatique fondamentale » ou « informatique théorique » désignent sans ambiguïté la science, tandis que « technologies de l'information » ou « technologies de l'information et de la communication » désignent le secteur industriel et ses produits. Des institutions assimilent parfois la compétence des utilisateurs dans la manipulation des appareils à l'alphabétisation ou à la conduite automobile, comme veut le faire entendre l'expression European Computer Driving License (traduction littérale : « permis de conduire un ordinateur ») Équivalents en anglais Plusieurs termes en anglaisdésignent l'informatique : • informatics (en): surtout en tant que domaine scientifique (se rencontre en Europe de l'Ouest)11 ; • computer science : l'informatique fondamentale ou science des calculateurs, une branche de la science en rapport avec le traitement automatique d'informations12 ; • computing : qui qualifie les activités nécessitant une masse d'opérations mathématiques et logiques (par exemple, dans cloud computing ou decision support computing)13 ; • electronic data processing : traitement des données à l'aide de l'électronique ; • Information technologyy : souvent utilisé pour désigner le secteur industriel des technologies de l'information14,15. Dans le monde du travail, on parle volontiers d’I.T., le département informatique étant the I.T. department16 (les autres termes ne sont quasiment jamais HISTOIRE Depuis des millénaires, l'Homme a créé et utilisé des outils l'aidant à calculer (abaque, boulier, etc.), exigeant, comme les opérations manuelles, des algorithmes de calcul, dont des tables datant de l'époque d'Hammourabi (environ 1750 av. J.-C.) figurent parmi les exemples les plus anciens. Si les machines à calculer évoluent constamment depuis l'Antiquité, elles n'exécutent pas elles-mêmes l'algorithme : c'est l'homme qui doit apprendre et exécuter la suite des opérations, comme pour réaliser les différentes étapes d'une division euclidienne. En 1642, Blaise Pascal imagine une machine à calculer17 ,18, la Pascaline, qui fut commercialisée. Sept exemplaires subsistent dans des musées comme celui des Arts et Métiers19 à Paris, et deux sont dans des collections privées (IBM en possède une)20. Joseph Marie Jacquard avec ses métiers à tisser à cartes perforées illustre en premier le concept de programmation, comme enchaînement automatique d'opérations élémentaires. George Boole et Ada Lovelace esquissent une théorie de la programmation des opérations mathématiques. L'évolution des langages de programmation Chaque machine a un langage propre correspondant à son jeu d'instructions. Les langages d'assemblage sont d'abord apparus pour écrire des prog rammes moins dépendants des machines en nommant les opérations et les registres. Dès la seconde moitié des années 1950, la création de lan gages de programmation évolués : COBOL pour la gestion des entreprises, Fortran pour les ingénieurs et les scientifiques, permet de s'affranchir du jeu d'instructions et de registres d'une machine particulière. Les programmes peuvent être réutilisés d'une machine à l'autre en écrivant des compilateurs appropriés. En 1960, deux langages très différents, Lisp et Algol sont créés à partir de bases mathématiques plus solides. Lisp est créé pour la manipulation récursive de listes et il sera le langage de prédilection de l'intelligence artificielle. Les listes représentant des expressions mathématiques peuvent être manipulées formellement ou évaluées. Les fonctions sont des objets manipulables. Algol est créé pour exprimer des algorithmes. Il utilise aussi la récursivité et définit des blocs pour limiter la portée des variables. Le langage C a été développé vers 1970 pour la programmation du système Unix. C'est un langage impératif, orienté par les fonctionnalités des machines plus que par les facilités d'expression des programmeurs. C'est le langage de référence pour les applications de bas niveau et beaucoup de bibliothèques de programmes en C sont utilisées par les autres langages pour implanter les fonctions répétitives à cause de son efficacité. Parmi tous les langages de programmation qui ont été inventés dans les vingt années suivantes, citons Simula en 1967, extension d'Algol pour la simulation par événements discrets, Prolog en 1980, basé sur la logique et l'algorithme d'unification, et Smalltalk en 1976 qui a introduit les notions d'objets et d'interaction. La programmation par objets11 est née avec Smalltalk-80, mais elle hérite aussi des concepts d'événement et de processus de Simula. Elle a été popularisée par CLOS (Common Lisp Object System) en 1994 puis par Java en 1997. Elle a été développée au départ pour programmer facilement les interfaces hommes machines avec des fenêtres, des menus et des boutons. Elle va peu à peu amener une transformation profonde des habitudes des informaticiens dans tous les domaines. Au lieu de penser les programmes à partir des fonctions, ils vont les penser à partir des classes d’objets, regroupant une structure de donnée et des procédures (constructeurs, opérations, actions). Les classes d’objets sont beaucoup plus stables que les procédures car les besoins fonctionnels des utilisateurs varient beaucoup plus vite que les objets sur lesquels ils portent. On peut constituer des bibliothèques de classes et d’objets plus faciles à retrouver et à réutiliser que les procédures des bibliothèques de programmes. Avec le Web, les langages de scripts ont trouvé un terrain de développement imprévu. Au départ, les langages de scripts sont inclus dans les systèmes d'exploitation et servent à décrire des enchaînements de tâches du système. C'est le cas par exemple du Shell d'Unix. Un nouveau langage de scripts, Perl est créé en 1987 pour ajouter des services dynamiques aux pages Web, par exemple pour compter le nombre de visites sur une page. Puis PHP est créé en 1994 avec une bibliothèque de fonctions écrites en langage C pour l'efficacité. Il est aussi utilisé pour développer des applications client-serveur. De très nombreux langages de programmation ont été conçus, beaucoup n'ayant eu qu'une existence éphémère. Ceux qui ont été cités ici ont été choisis parce qu'ils L'évolution des méthodes de conception du logiciel La complexité croissante uploads/Science et Technologie/ presentation-2.pdf

  • 15
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager