sophiasapiens.chez.comsophiasapiens.chez.com/communication/informatisation …  · web viewi need...

26

Click here to load reader

Upload: doannguyet

Post on 11-Sep-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

Informatisation des métiers de la communicationLes prémices de la machine à calculer

Révolution industrielle

La révolution industrielle entamée au 18 ème siècle débouche sur la création d'un nouveau type de société, basé sur les principes de l'usinage massif, de l'approche scientifique de la nature et de la gestion pragmatique et économique du temps et de l'espace. La civilisation occidentale est devenue un model prépondérant pour les nations de l'Europe et de l'Amérique du Nord, et s'exporte par la voie de colonisation sur l'ensemble de la Planète. Ses grandes entreprises de production, de transport et de communication sont des grandes consommatrices de calculs. L'automatisation et le perfectionnement de ce domaine devient pour elles un enjeu vital. Le traitement scientifique de la matière, de l'espace et du temps a ouvert le chemin vers le traitement scientifique de l'information qui apparaîtra au milieu du 20 ème siècle et sera appelé par Norbert Wiener la seconde révolution industrielle. Mais les conditions de l'émergence de l'informatique sont déjà réunies dès 19 ème...

Quelques inventions précédant l'invention de la calculatrice automatique de Charles Babbage : - Blaise Pascal invente la calculatrice de l'adition et de la soustraction en 1642. - Leibniz en 1670 étudie Pascal et invente l'automatisation de la multiplication et de la division. - L'orgue de Barbarie fonctionnant avec la carte perforée encodant les sons et les intervalles de musique est connu depuis la fin de 17ème entre l'Italie, Suisse et l'Allemagne. - 1804 J. M. Jacquard invente le métier à tisser à carte perforée et en 15 ans elle est connue mondialement. - George Boole, 1815-1864, en Angleterre, accomplie l'algébrisation de la logique et invente la logique binaire

Le ferment intellectuel du XIXème – autour de Goethe…

- Faust I – 1808 – le programme de l'informatique en tant que discipline scientifique et l'objet de la pédagogie " MEPHISTOPHELES. Employez le temps, il nous échappe si vite ! Cependant l'ordre vous apprendra à en gagner. Mon bon ami, je vous conseille avant tout le cours de logique. Là, on vous dressera bien l'esprit, on vous l'affublera de bonnes bottes espagnoles, pour qu'il trotte prudemment dans le chemin de la routine, et n'aille pas se promener en zigzag comme un feu follet. Ensuite, on vous apprendra tout le long du jour que, pour ce que vous faites en un clin d'œil, comme boire et manger, un, deux, trois, est indispensable. Il est de fait que la fabrique des pensées est comme un métier de tisserand, où un mouvement du pied agite des milliers de fils, où la navette monte et descend sans cesse, où les fils glissent invisibles, où mille nœuds se forment d'un seul coup ; le philosophe entre ensuite, et vous démontre qu'il doit en être ainsi : le premier est cela, le second, cela ; donc, le troisième et le quatrième, cela ; et que, si le premier et le second n'existaient pas, le troisième et le quatrième n'existeraient pas davantage. Les étudiants de tous les pays prisent fort ce raisonnement, et aucun d'eux pourtant n'est devenu tisserand. Qui veut reconnaître et détruire un être vivant commence par en chasser l'âme ; alors, il a entre les mains toutes les parties ; mais, hélas ! rien que le lien intellectuel. La chimie nomme cela ( encheiresin naturae ), elle se moque ainsi d'elle-même et l'ignore. "

Résumé des conseils donnés par Méphistophélès à un étudiant déambulant   :

économie du temps - gestion objective (emploi) et manipulation subjective (ordre) du temps

logicisation de la pensée (l' ortho-normalisation )routine (terme informatique désignant les boucles d'un programme) – mécanisation des activités intellectuelles (Babbage)

quantification et algébrisation des processus naturels

Page 2: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

production - artificialisation de la penséemétier à tisser – la massification des processus recourrant et identiques :

une énergie à l'échelle mécanique (« pied ») entraîne une multitude de processus à l'échelle sub-mécaniquenouvelle philosophie – celle qui justifie le progrès advenu,

la philosophie de l'entérinement du progrès et de la causalité logiciste des processus sociauxinternationalisation et virtualisation des études

agencement rationnel d'un être vivant – la clé qui l'anime (le « programme » de Golem)

- Faust II – 1828 – le projet de l'homme artificiel - Vagner – assistant de Faust, invente Homonculus , l'home artificiel conçu in vitro - Friedrich Wöhler, Ière synthèse organique de l'urée, en 1828. - Mais, dans le contexte goethéen, c'est Charles Babbage (1791-1871), Anglais du Devonshire, qui devrait nous intéresser le plus. - Deux professeurs de mathématique et de physique de Babbage : - William Herschel (1738-1822), découvre en 1802 la radiation infrarouge et confirme la gravitation universelle. Il discute le terme d'élective attraction (Goethe écrit " Les affinités électives " en 1809). - Whewell s'est donné le luxe de publier aussi une traduction en anglais du " Hermann und Dorothea " ("Hermann et Dorotea ") de Goethe, en 1839. - Babbage écrit contre lui " The Ninth Bridgewater Treatise ", 1837, où il discute les thèmes du Dieu et de la machine , le thème repris dans les années 1950 par le fondateur de la cybernétique Norbert Wiener. - Dès 1812 Babbage présente une véritable obsession de quantification : " l'on découvrira nécessairement un jour une méthode générale dans le cadre de laquelle il sera possible de réduire toute donnée rationnelle a une sorte de calcul ". - Babbage au poète Tennyson : " Every minute dies a man, Every minute one is born “I need hardly point out to you that this calculation would tend to keep the sum total of the world's population in a state of perpetual equipoise , whereas it is a well-known fact that the said sum total is constantly on the increase . I would therefore take the liberty of suggesting that in the next edition of your excellent poem the erroneous calculation to which I refer should be corrected as follows : Every minute dies a man, And one and a sixteenth is born I may add that the exact figures are 1.167, but something must, of course, be conceded to the laws of metre ." Babbage écrit deux ouvrages " ON THE ECONOMY OF MACHINERY AND MANUFACTURES " et " REFLECTIONS ON THE DECLINE OF SCIENCE IN ENGLAND ".

Difference Engine " En 1834, les travaux sur la machine différentielle se sont arrêtés, suite à un différent entre Babbage et Clément. En 1855, le Swisse George Schuetz construit le modèle de la Machine Différentielle. On la réalise réellement en 1992.

Analytical Engine Entre1833 et 1842, Babbage travaille sur un nouveau concept d'un Analytical Engine basée sur les cartes perforées de Joseph Marie Jacquard, utilisées en tant que schèmes des opérations et en tant que la mémoire des résultats partiels. L'idée de cette programmation à été réalisée

Page 3: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

mathématiquement par la confidente de Babbage, après la dispute avec Clément, Lady Ada Lovelace née Byron en 1815 (comtesse Ada Lovelace, Augusta Adélaïde, la fille de Lord Byron, mathématicienne considérée comme la première informaticienne, elle a inventé le branchement conditionnel). Babbage sera le premier lauréat de la médaille d'or de la Royal Astronomical Society en 1824 . En 1890, l 'Américain Herman Hollerith refait la machine analytique de Babbage (en 1924 sa compagnie devient The International Business Machine Corporation - I.B.M.)

Informatique Le mot « informatique » a été proposé en 1962 par Philippe Dreyfus pour caractériser le traitement automatique de l'information. Ce terme a été accepté par l'Académie française en avril 1966, avec la définition suivante : « Science du traitement rationnel, notamment par machines automatiques, de l'information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux. » En fait, cette définition peut correspondre à deux groupes de disciplines sensiblement distinctes : l'ensemble des techniques mises en œuvre pour l'utilisation des ordinateurs ( electronic data processing , en anglais) ; une science nouvelle, qui n'est pas fondamentalement liée à l'utilisation des ordinateurs, ces derniers en constituant cependant un outil majeur ( computer science , en anglais). Alan Mathison Turing et «   Enigma   »

Automatisation du calcul et premiers ordinateurs

Les machines à calculer – le calcul automatique La cryptographieL'histoire d'EnigmaL' ordinateur programmable sur la base binaire : en 1938, Konrad Zuse invente un ordinateur qui fonctionne grâce à des relais électromécaniques: le Z3 . Cet ordinateur est le premier à utiliser le binaire au lieu du décimal. Présentation du binaire  

Les précurseurs des ordinateurs à composante électroniques :

Mark I d'IBM : En 1937, Howard Aiken met au point un ordinateur programmable mesurant 17m de long et 2.5 mètres de hauteur, permettant de calculer 5 fois plus vite que l'homme : c'est le Mark I d'IBM. Il est alors constitué de 3300 engrenages, 1400 commutateurs reliés par 800km de fil électrique. Mark II  : En 1947, le Mark II voit le jour, ses engrenages sont remplacés par des composants électroniques. Les ordinateurs à lampes : en 1942, l ' ABC ( Atanasoff Berry Computer ) du nom de ses concepteurs: J.V. Atanasoff et C.Berry voit le jour.

Le premier ordinateur

En 1943, le premier ordinateur ne comportant plus de pièces mécaniques est créé grâce à J.Mauchly et J.Presper Eckert : l' ENIAC ( Electronic Numerical Integrator And Computer ). Il est composé de 18000 lampes à vide, et occupe une place de 1500 m 2 . Il fut utilisé pour des calculs ayant servi à mettre au point la bombe H.

Page 4: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

Son principal inconvénient était sa programmation : l'ENIAC était en effet uniquement programmable manuellement avec des commutateurs ou des câbles à enficher. La première erreur informatique est dûe à un insecte qui, attiré par la chaleur, était venu se loger dans les lampes et avait créé un court-circuit. Ainsi le terme anglais pour " insecte " étant " bug ", le nom est resté pour désigner une erreur informatique. Le terme bug a été francisé par la suite en bogue , terme désignant également le nom de l'enveloppe épineuse et piquante de la châtaigne. En effet, les tubes étant de médiocres conducteurs, ils nécessitaient une grande quantité d'énergie électrique qu'ils dissipaient en chaleur. Cette lacune est palliée en 1946 avec la mise au point de l' EDVAC ( Electronic Discrete Variable Computer ) permettant de stocker les programmes en mémoire (1024 mots en mémoire centrale et 20000 mots en mémoire magnétique).

Les progrès : Le transistor En 1948, le transistor est créé par la firme Bell Labs (grâce aux ingénieurs John Bardeen , Walter Brattain et William Shockley ). Il permet dans les années 50 de rendre les ordinateurs moins encombrants, moins gourmands en énergie électrique donc moins coûteux: c'est la révolution dans l'histoire de l'ordinateur! Le circuit integré Le circuit intégré est mis au point en 1958 par Texas Instruments , il permet de réduire encore la taille et le coût des ordinateurs en intégrant sur un même circuit électronique plusieurs transistors sans utiliser de fil électrique. Les premiers ordinateurs à base de transistors En 1960, l ' IBM 7000 est le premier ordinateur à base de transistor. En 1964, l ' IBM 360 fait son apparition, avec également l'arrivée remarquée du DEC PDP-8 . Les micro-ordinateurs C'est en 1971 qu'apparaît le premier micro-ordinateur: Le Kenback 1 , avec une mémoire de 256 octets. Les microprocesseurs En 1971, le premier microprocesseur, l' Intel 4004 , fait son apparition. Il permet d'effectuer des opérations sur 4 bits simultanément. A la même époque Hewlett Packard commercialise la calculatrice HP-35 . Le processeur 8008 d'Intel (permettant de traiter 8 bits simultanément) apparaît en 1972. En 1973, le processeur 8080 d'Intel garnit les premiers micro-ordinateurs : le Micral et le Altair 8800 , avec 256 octets de mémoire. A la fin de l'année 1973, Intel commercialisait déjà des processeurs 10 fois plus rapides que le précédent (le Intel 8080) et comportant 64 ko de mémoire. En 1976, Steve Wozniak et Steve Jobs créent le Apple I dans un garage. Cet ordinateur possède un clavier, un microprocesseur à 1 MHz, 4 ko de RAM et 1 ko de mémoire vidéo. La petite histoire dit que les 2 compères ne savaient pas comment nommer l'ordinateur; Steve Jobs voyant un pommier dans le jardin décida d'appeler l'ordinateur pomme (en anglais apple) s'il ne trouvait pas de nom pour celui-ci dans les 5 minutes suivantes ... En 1981 IBM commercialise le premier " PC " composé d'un processeur 8088 cadencé à 4.77 MHz. Les ordinateurs d'aujourd'hui

Page 5: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

Il est très difficile de nos jours de suivre l'évolution de l'ordinateur. En effet cette évolution suit la loi de Moore (Intel©): "on peut placer 4 fois plus de transistor sur une puce tous les 3 ans" On devrait ainsi arriver à 1 milliard de transistors sur une puce aux alentours de 2010.

Suite des inventions dans le domaine de l'informatique   :

La liste des ordinateurs historiquesKonrad Zuse, Z1, Z2, Z3, en 1938Mark I d'IBM, Howard Aiken, en 1937Mark II, en 1947ABC , Atanasoff Berry Computer (à lampes) , en 1942ENIAC, Electronic Numerical Integrator And Computer , J.Mauchly , J.Presper EckertLe premier transistor , la firme Bell Labs, John Bardeen , Walter Brattain et William Shockley, en 1948Le circuit intégré est mis au point par Texas Instruments, en 1958Le premier microprocesseur,l' Intel 4004, en 1971le Apple I , Steve Wozniak, Steve Jobs, microprocesseur à 1 MHz, 4 ko de RAM et 1 ko de mémoire vidéo, en 1976Le premier PC, IBM, processeur 8088 cadencé à 4.77 MHz., en 1981

 architecture Von Neuman

un organe de calcul, susceptible d'exécuter les opérations arithmétiques et logiques, l' unité arithmétique et logique    ;

  une mémoire   , ou mémoire centrale   , servant à la fois à contenir les programmes décrivant la façon d'arriver aux résultats et les données à traiter   ;

des organes d'entrée-sortie   , ou périphériques   , servant d'organes de communication avec l'environnement et avec l'homme   ;

  une unité de commande   ( control unit   ) permettant d'assurer un fonctionnement cohérent des éléments précédents.

L'ensemble formé par l'unité arithmétique et logique, d'une part, et l'organe de commande, d'autre part, constitue l' unité centrale   (ou processeur central   ). L'ensemble des composants physiques, appelé matériel   ( hardware   ), est commandé par un logiciel

( software   ).

1945 : John Von Neuman , ayant rejoint l'équipe travaillant sur l' ENIAC , publie le premier rapport décrivant ce que devrait être un ordinateur à programme enregistré qu'il appelle l' EDVAC (Electronic Discrete Variable Automatic Computer). C'est à ce document très complet qu'on fait référence en parlant d'ordinateur à architecture Von Neuman . John von Neumann a proposé une structure universelle de machine à calculer et en a défini les constituants de base. La machine est composée des éléments suivants : – un organe de calcul, susceptible d'exécuter les opérations arithmétiques et logiques, l' unité arithmétique et logique ; – une mémoire , ou mémoire centrale , servant à la fois à contenir les programmes décrivant la façon d'arriver aux résultats et les données à traiter ; – des organes d'entrée-sortie , ou périphériques , servant d'organes de communication avec l'environnement et avec l'homme ; – une unité de commande ( control unit ) permettant d'assurer un fonctionnement cohérent des éléments précédents.

Page 6: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

L'ensemble formé par l'unité arithmétique et logique, d'une part, et l'organe de commande, d'autre part, constitue l' unité centrale (ou processeur central ). L'ensemble des composants physiques, appelé matériel ( hardware ), est commandé par un logiciel ( software ).

Les étapes de l'évolution des ordinateurs [selon Encyclopædia Universalis]   :  La première génération (1950-1959) Les premières machines construites industriellement au tout début des années   1950 constituent bien évidemment la première génération d'ordinateurs. Ceux-ci se caractérisent par une technologie à base de tubes à vide miniaturisés, plus fiables et consommant moins d'énergie que ceux qui étaient utilisés dans les premiers prototypes. Une fois résolus les problèmes de fiabilité des constituants de l'unité centrale, on chercha rapidement à disposer de mémoires centrales fiables, rapides et de capacités suffisantes. Les mémoires des premiers ordinateurs furent des lignes à retard offrant, à volume égal, une capacité de stockage très supérieure aux tubes à vide. Mais, en quelques années, les mémoires à tores de ferrite supplantèrent les autres technologies de mémoires centrales. Parallèlement aux travaux visant à l'amélioration des mémoires centrales, des recherches furent entreprises sur les organes d'entrée-sortie, notamment pour mettre au point des supports d'information moins coûteux que les mémoires à tores. Ces mémoires secondaires   (on parle également de mémoires externes   , de mémoires auxiliaires   , de mémoires de masse   ) devaient permettre le stockage d'une quantité d'informations toujours plus grande, pour des traitements de plus en plus complexes. C'est ainsi qu'apparurent tambours magnétiques, bandes magnétiques, disques... Ces supports d'information, encore utilisés (sauf les tambours magnétiques), ont été constamment améliorés depuis leur création. Pendant cette décennie, les logiciels évoluèrent de façon significative   : on améliora les langages de programmation disponibles, ainsi que les techniques de gestion des différents types de mémoires utilisées dans un ordinateur.

La deuxième génération (1959-1963) De nos jours, il est admis que l'apparition de la deuxième génération coïncide avec l'utilisation des transistors dans les unités centrales. L'utilisation de cette technologie entraîna une amélioration des vitesses de traitement et des débits des ordinateurs. Une conséquence importante en fut l'aggravation des écarts de vitesses entre le traitement proprement dit et les entrées-sorties. Depuis cette époque, cet écart n'a cessé de croître, et il demeure un facteur de limitation des performances des machines. L'utilisation des transistors provoqua également la miniaturisation des unités centrales et une diminution importante de l'énergie consommée par les machines. La deuxième génération peut également être considérée comme l'époque de progrès très importants dans le domaine des logiciels, puisque la plupart des concepts développés alors restent valables sur les ordinateurs actuels.

La troisième génération Les progrès constatés dans la troisième génération ont été rendus possibles par un accroissement de la puissance de traitement et une augmentation spectaculaire des capacités des mémoires (centrales et secondaires). Ces progrès dépendent eux-mêmes de ceux qui sont réalisés dans l'intégration des composants électroniques. L'ensemble des composants électroniques implantés sur un même morceau de silicium est appelé circuit intégré   . La densité d'intégration   correspond au rapport entre le nombre de composants et la surface de silicium occupée, pour une technologie de fabrication donnée.

Page 7: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

L'utilisation des techniques de microprogrammation   (cf. infra   , Principes de fonctionnement d'un processeur classique   ) dans le matériel des ordinateurs de troisième génération a facilité l'implantation d'un même jeu d'instructions sur des machines de puissances différentes, pour constituer des gammes de machines compatibles entre elles d'un point de vue logiciel. Les systèmes d'exploitation ont continué à se compliquer et les applications à proliférer. Désormais, les utilisateurs non informaticiens peuvent accéder à des données et utiliser des services par l'intermédiaire d'applications spécifiques (par exemple, pour réserver une place d'avion, consulter la position du compte bancaire d'un client, etc.). En fait, la troisième génération se caractérise plus par une évolution continue, une amélioration incessante des matériels et des logiciels, que par une remise en cause des architectures des générations précédentes. À mesure que l'utilisation des ordinateurs et des services qu'ils peuvent offrir est de plus en plus intensive, les systèmes d'exploitation et les applications sont devenus de plus en plus complexes et volumineux. Les systèmes des années 1970 ont permis aux utilisateurs d'accéder aux machines à distance   : par l'intermédiaire de terminaux reliés à ces machines par des liaisons téléphoniques, l'utilisateur éloigné pouvait soumettre des lots de travaux ou encore utiliser le temps partagé. Les systèmes d'exploitation présentaient de profondes différences d'un constructeur à l'autre, voire d'une machine à l'autre chez un même constructeur.

La quatrième génération   ? Vers la fin des années 1970, les coûts des logiciels occupent désormais une part prépondérante dans le prix de revient des systèmes informatiques, alors que jusqu'ici les matériels représentaient la majeure partie des investissements. Les utilisateurs ont de plus en plus le souci de protéger leurs investissements logiciels et redoutent les changements de machines entraînant une réécriture des programmes. La compatibilité des machines vis-à-vis des programmes existants devient un impératif majeur des utilisateurs et s'oppose aux changements radicaux de matériels, tels qu'on les avait connus aux débuts de l'informatique. Les constructeurs ont dû se plier à cette exigence. Les progrès technologiques impressionnants, commencés dans les années   1970 (doublement tous les deux ans environ de la densité d'intégration), ont rendu possible la mise en œuvre de concepts architecturaux déjà connus mais qui n'avaient pu être implantés, à cause des difficultés techniques et du coût exorbitant de telles réalisations. L'accroissement de la densité d'intégration à partir des circuits MSI (Medium Scale Integration), puis LSI (Large Scale Integration) et enfin VLSI (Very Large Scale Integration) a conditionné le développement des architectures de machines scientifiques extrêmement puissantes (cf. infra   , Les améliorations possibles de l'architecture de von Neumann   ), l'émergence des premiers microprocesseurs   (processeurs dont les organes furent intégrés dans un ou plusieurs circuits), ainsi que l'apparition de mémoires centrales de fortes capacités à faibles coûts. Parallèlement, les périphériques ont également bénéficié de ces progrès et se font de plus en plus rapides et de plus en plus compacts, tout en devenant moins onéreux. L'apparition des microprocesseurs et des mémoires à faibles coûts marque l'avènement des ordinateurs personnels   , ou micro-ordinateurs   , et des stations de travail   , qui ont rendu l'informatique omniprésente dans tous les secteurs d'activité. Les micro-ordinateurs ont assez rapidement atteint la puissance des gros ordinateurs du début des années   1970, pour un encombrement très faible et un coût dérisoire, comparé au prix des machines de cette époque. Les stations de travail, à usage professionnel, sont des machines puissantes sous un faible volume, orientées vers les applications graphiques.

Page 8: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

L'existence d'une quatrième génération peut donc être considérée comme problématique pour qualifier les ordinateurs à partir des années   1980, puisqu'il y a continuité dans les architectures de machines. Les améliorations auxquelles on assiste depuis lors sont essentiellement dues aux progrès continus réalisés dans l'intégration des composants. Toutefois, s'il subsiste toujours de profondes différences entre les divers systèmes d'exploitation, les tendances actuelles de l'informatique concourent à gommer les incompatibilités entre les différents systèmes.

Discussion de 3 positions   :   ►Charles Babbage (1791-1871) est hanté par l'obsession de quantification : " l'on découvrira nécessairement un jour une méthode générale dans le cadre de laquelle il sera possible de réduire toute donnée rationnelle a une sorte de calcul ".►L'assistante de Babbage, Ada Lovelace , fille de Lord Byron , a écrit au sujet de l'ancêtre de l'ordinateur : «  La machine analytique n'a nullement la prétention de créer quelque chose par elle-même. Elle peut exécuter tout ce que nous saurons lui ordonner d'exécuter [...] Son rôle est de nous aider à effectuer ce que nous savons déjà dominer.  » ►Alan Turing. De 1945 à 1948 il travaille au laboratoire national de physique de Teddington au Royaume-Uni , sur la conception de l' ACE ( Automatic Computing Engine - Calculateur Automatique). En 1949 il devient directeur délégué du laboratoire d'informatique de l'université de Manchester , et travaille sur la programmation de l'un des tous premiers véritables ordinateurs : Manchester Mark I . Pendant ce temps il continue à produire un travail plus abstrait, et dans l'article « Computing Machinery and Intelligence » (Mind, Octobre 1950 ), Turing explore le problème de l' intelligence artificielle et propose une expérience maintenant connue sous le nom de test de Turing dans une tentative de définition d'un standard permettant de qualifier une machine de « consciente ». Quand Turing parle de l'intelligence, il est clair qu'il espère que le fonctionnement de l'ordinateur fera émerger une nouvelle qualité des opérations, il pense que le programme conjugué au réel dans lequel il s'appliquera fera naître les entités d'une vraie intelligence. Encyclopædia Universalis dit : «  Les premières machines ont eu effectivement pour mission de suppléer aux insuffisances humaines en matière de performance : on pouvait alors résoudre de complexes équations différentielles, calculer les paramètres de la première bombe atomique, procéder au recensement des citoyens américains, en manipulant d'énormes masses de données et dans un temps relativement bref. Mais, très vite, ces machines, qui n'étaient alors que des calculatrices électroniques, ont été détournées de leur but primitif et sollicitées pour accroître la performance de l'homme dans le domaine plus vaste de l'organisation et du traitement de l'information en général. Il fallait une autre désignation : la calculatrice est devenue ordinateur. »   Ici on entre dans le domaine des applications de l'informatique et de l'émergence de l'intelligence (artificielle et distribuée) !

Les domaines d' application de l' informatique

Traditionnellement on divise l'informatique d'application en : L'informatique scientifique, L'informatique de gestion,

Page 9: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

La téléinformatique, L'informatique industrielle ou productique L'informatique pédagogique La domotique informatisée. Ici nous intéressent particulièrement : L'informatique de gestion, La téléinformatique,  L'informatisation des métiers a commencé dés années 60 avec l'apparition des grandes machines et par une succession de progrès technologiques, logiciels et méthodologiques qui ont tous contribué à une réduction des coûts d'exploitation. •  L'invention du compilateur et de la compatibilité des séries d'IBM dans les années 60 a permis aux grands comptes de s'équiper. •  Le microprocesseur et les bases de données dans les années 70 ont rendu l'informatisation accessible aux moyennes et grandes entreprises. •  Les bases de données relationnelles, les progiciels de gestion, ainsi que les premiers micro-ordinateurs des années 80 ont largement contribué à l'équipement des petites et moyennes entreprises, commerces, administrations. Jusque là, la plus grande partie des applications était dédiée au traitement des données directement liées à l'activité quotidienne des organisations : paie, comptabilité, commandes, facturation, ...Ces applications que l'on regroupe sous le terme d' informatique de production ou Informatique Opérationnelle . L'architecture générale était l'architecture maître-esclave , avec le maître, un puissant ordinateur (mini, ou gros système) en site central et les esclaves, terminaux passifs en mode texte. L'organisation de l'entreprise était très hiérarchisée dans sa structure informatique et sa structure de pilotage. Si des techniques d'aide à la décision ont été mises en place (essentiellement basées sur des outils de simulation et d'optimisation, parfois aussi de systèmes experts), elles nécessitaient l'intervention d'équipes d'informaticiens pour le développement de produits spécifiques. Ces outils étaient mal intégrés dans le système d'information.

Avec l'apparition des ordinateurs personnels et des réseaux locaux, une autre activité a émergé, tout à fait distincte de l'informatique de production. Dans les secrétariats, les cabinets, on utilise des tableurs et des logiciels de traitements de texte, des petites bases de données sur des machines aux interfaces graphiques plus agréables. Jusqu'aux années 90, ces deux mondes (<<bureautique vs informatique>>) se sont ignorés, mais avec la montée en puissance des micro ordinateurs et l'avènement de l'architecture client-serveur, on observe aujourd'hui un décloisonnement remarquable. Le mot d'ordre principal est : fournir à tout utilisateur reconnu et autorisé, les informations nécessaires à son travail. Ce slogan fait naître une nouvelle informatique, intégrante, orientée vers les utilisateurs et les centres de décision des organisations. C'est l'ère du client-serveur qui prend vraiment tout son essor à la fin des années 90 avec le développement des technologies Intranet.

L' histoire de l'Internet

L'interconnexion des ordinateurs est lancée au milieu des années 60 par le Département de la Défense aux USA , pour protéger les données informatiques de l'attaque soviétique. Le programme a été confié à des universités . Un autre objectif : partager la puissance informatique entre les laboratoires collaborateurs de l'agence ARPA du Dép. de la Défense. ARPANET

Page 10: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

démarre au tournant des 60-70, dans le milieu universitaire (au profit de la défense, mais rapidement avec ses propres objectifs universitaires). Le réseau est devenu le canal naturel des échanges entre les informaticiens universitaires . Les entreprises prennent ce train en marche en offrant gratuitement aux universitaires leurs développements logiciels. Le laboratoire de Berkeley (l'acteur universitaire majeurs du réseau) bénéficie du système d'exploitation UNIX d'ATT et en fabrique des nouvelles versions. ARPANET est à l'articulation entre la recherche militaire, l'universitaire et de l'informatique industrielle . Le premier réseau est ainsi imprégné du mode d'organisation de l'université :   1. l'accès libre au savoir, aux résultas des recherches – donc la circulation gratuite de l'information (avec la reconnaissance des pairs), 2. l'autonomie des sous-réseaux – le protocole TCP/IP – structuration de l'information en paquets standard minis d'une adresse qui permet d'expédier l'information à des machines dites « hôtes » qui coordonnent ensuite le réseau de l'université ou du laboratoire dont l'organisation locale est autonome : le fonctionnement souple et décentralisé, sans un protocole complexe qui interconnecterait directement tous les terminaux.   En 80 les secteurs universitaires non informatiques commencent à se connecter. National Science Fondation (NSF) organise un réseau destiné à l'ensemble de disciplines.Le Centre Européen de recherche nucléaire (CERN) propose nouveau mode de recherche d'information s'appuyant sur les liens hypertextuels – c'est l'utilisateur qui cherche l'information qui l'intéresse, l'éditeur qui la distribue pas, il la publie pour qui veuille la prendre. Le World Wide Web (toile d'araignée mondiale) a nécessité la construction d'un logiciel spécialisé – un navigateur (browser). Cette étape européenne de Web complète l'histoire de l'internet.   D'autres concepts sont élaborés durant les 90 et au tournant des 90-00 : intra-net, extra-net, barrière d'accès et codage, moteur, meta-moteur, registre, serveur/client, plate-forme de collaboration, plate-forme d'enseignement, base de données, agent intelligent de recherche, système multi-agents.     Les facteurs déterminants de l'informatisation des métiers les plus divers ce sont : - La compression du temps de traitement - La compression du temps : la connexion des machines distantes - La compression de l'espace de stockage d'information - La flexibilité des usagesCours 5

Rappel :trois périodes d’Internet :1) Historiquement - un « objet définissable » :

a) 70-80 le réseau du monde scientifique (et militaire)b) 90 la « toile d’araignée » mondiale, d’institutions, d’entreprises et de particulières où les acteurs construisent un cadre sociotechnique de leurs visions et de leurs intérêts (« objet frontière »), l’apparition des vitrines d’information des institutions d’état, la croissance simultanée et parallèle des services centralisés (Bibliothèque du Congrès de USA, la BNF, le SUDOC, etc) et des services locaux (des « portails », des sites particuliers, des sites privés).2) Actuellement - « objet valise », Sans frontières et en devenir où se côtoient deux tendances :

Page 11: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

a) la mise en place des administrations virtuelles d’état viables, sécurisées et juridiquement efficientes, l’institutionnalisation des services de recherche et de répertoires (px. : « Pages blanches », « pages jaunes »),les stratégies des monopolisation de prestations de la part des grands opérateurs (AOL, Wanadoo), la mercantilisation des moteurs de recherche (les liens sponsorisés de Google, les moteurs orientés commerce), la monopolisation des browsers (Internet Explorer, Netscape, Mozila) et leur préformatage commercial,b) la multiplication des stratégies de partage individuel (peer to peer ), la mutualisation contractuelle de ressources institutionnelles (par le système d’abonnements gratuit), la renégociation actuelle de la gratuité et du commercial, l’apparition des plateformes collaboratives, l’importance grandissante de l’information alternative et privée (blogosphère)

  Les aspects techniques de l’Internet

(d’après « Comment ça marche », encyclopédie informatique) :

Qu'est-ce qu'Internet? Aux débuts de l'informatique des ordinateurs ont été mis au point, dès qu'ils furent aptes à fonctionner seuls, des personnes eurent l'idée de les relier entre eux afin qu'ils puissent échanger des données, c'est le concept de réseau. Il a donc fallu mettre au point des liaisons physiques entre les ordinateurs pour que l'information puisse circuler, mais aussi un langage de communication pour qu'il puisse y avoir un réel échange, on a décidé de nommer ce langage: protocole. Sur Internet, de nombreux protocoles sont utilisés, ils font partie d'une suite de protocoles qui s'appelle TCP/IP. TCP/IP est basé sur le repérage de chaque ordinateur par une adresse appelée adresse IP qui permet d'acheminer les données à la bonne adresse. Puis on a associé à ces adresses des noms de domaine pour permettre de s'en souvenir plus facilement. Des réseaux hétérogènes (de natures différentes) se sont développés aux quatre coins du globe; des personnes décidèrent donc de relier ces réseaux entre eux (des universités par exemple, ou l'armée). Les protocoles ont donc évolué pour permettre la communication de tous ces réseaux pour former le réseau des réseaux, formant petit à petit une gigantesque toile d'araignée (en anglais "web") formant le réseau le plus vaste, puisque contenant tous les réseaux, que l'on appelle Internet! Sur Internet il existe différents protocoles (langages entre les ordinateurs) qui permettent de faire différentes choses: • IRC: discuter en direct • http: regarder des pages web • ftp: transférer des fichiers Se connecter à Internet La carte réseau est l'élément de l'ordinateur qui permet de se connecter à un réseau par des lignes spécialement prévues pour faire transiter des informations numériques. Le modem permet, lui, de se connecter à un réseau par l'intermédiaire des lignes téléphoniques ... qui ne sont pas prévues à cet effet à l'origine (mais qui reste le moyen de communication le plus répandu). Une carte réseau possède une adresse IP qui la caractérise (c'est comme ça que l'on peut distinguer les différents ordinateurs sur Internet ... difficile sinon de mettre en place une communication). La connexion par l'intermédiaire d'un modem est totalement différente. En effet, un modem permet d'établir une communication entre deux ordinateurs par l'intermédiaire d'une ligne téléphonique. Vous pouvez toutefois avoir accès à un réseau (donc par extension à Internet) en contactant un ordinateur relié ("d'un côté") à une ou plusieurs lignes téléphonique (pour recevoir votre appel) et ("de l'autre côté") à un réseau par l'intermédiaire d'une carte réseau.

Page 12: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

Cet ordinateur appartient généralement à votre fournisseur d'accès internet (FAI). Lorsqu'il vous connecte par son intermédiaire, il vous prête une adresse IP que vous garderez le temps de la connexion. A chaque connexion de votre part il vous attribuera arbitrairement une des adresses IP libres qu'il possède, celle-ci n'est donc pas une adresse IP "fixe".    Principaux concepts liés au réseau informatique (réseau mondial – internet, LAN (Local Area Network), intranet, extranet, groupe distribué)

Intranet / Extranet : les concepts clés d’Internet(d’après « Comment ça marche », encyclopédie informatique) :

Le paradigme de l'intranet Un intranet est un ensemble de services internet (par exemple un serveur web) internes à un réseau local, c'est-à-dire accessibles uniquement à partir des postes d'un réseau local, ou bien d'un ensemble de réseaux bien définis, et invisible de l'extérieur. Il consiste à utiliser les standards client-serveur de l'internet (en utilisant les protocoles TCP/IP), comme par exemple l'utilisation de navigateurs internet (client basé sur le protocoles HTTP) et des serveurs web (protocole HTTP), pour réaliser un système d'information interne à une organisation ou une entreprise.

Un intranet repose généralement sur une architecture à trois niveaux, composée: • de clients (navigateur internet généralement) ; • d'un ou plusieurs serveurs d'application (middleware): un serveur web permettant d'interpréter des scripts CGI, PHP, ASP ou autres, et les traduire en requêtes SQL afin d'interroger une base de données ; • d'un serveur de bases de données. Le concept d'extranet Un extranet est une extension du système d'information de l'entreprise à des partenaires situés au-delà du réseau. L'accès à l'extranet doit être sécurisé dans la mesure où cela offre un accès au système

Page 13: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

d'information à des personnes situées en dehors de l'entreprise. Il peut s'agir soit d'une authentification simple (authentification par nom d'utilisateur et mot de passe) ou d'une authentification forte (authentification à l'aide d'un certificat). Il est conseillé d'utiliser HTTPS pour toutes les pages web consultées depuis l'extérieur afin de sécuriser le transport des requêtes et des réponses HTTP et d'éviter notamment la circulation du mot de passe en clair sur le réseau. De cette façon, un extranet n'est ni un intranet, ni un site internet, il s'agit d'un système supplémentaire offrant par exemple aux clients d'une entreprise, à ses partenaires ou à des filiales, un accès privilégié à certaines ressources informatiques de l'entreprise par l'intermédiaire d'une interface Web.

Les grandes époques des ordinateurs

Les grandes époques

Dates Matériels Progrès techniques

Caractéristiques données par

Encyclopædia Universalis

LangagesPersonnalités

marquantes

1945-1951

1 ère génération ( MARK 1 , UNIVAC ...)

Triode

une technologie à base de tubes à vide miniaturisés, plus fiables et consommant moins d'énergie que ceux qui étaient utilisés dans les premiers prototypes. Une fois résolus les problèmes de fiabilité des constituants de l'unité centrale, on chercha rapidement à disposer de mémoires centrales fiables, rapides et de capacités suffisantes. Les mémoires des premiers ordinateurs furent des lignes à retard offrant, à volume égal, une capacité de stockage très supérieure aux tubes à vide. Mais, en quelques années, les mémoires à tores de ferrite supplantèrent les autres technologies de mémoires centrales.

Code particulier à la machine

A. TURING , J. NEUMANN

1951-1956

Mémoire à tore de ferrite

Parallèlement aux travaux visant à l'amélioration des mémoires centrales, des recherches furent entreprises sur les

Premiers traducteurs automatiques

G. HOPPER

Page 14: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

organes d'entrée-sortie, notamment pour mettre au point des supports d'information moins coûteux que les mémoires à tores. Ces mémoires secondaires (on parle également de mémoires externes , de mémoires auxiliaires , de mémoires de masse ) devaient permettre le stockage d'une quantité d'informations toujours plus grande, pour des traitements de plus en plus complexes. C'est ainsi qu'apparurent tambours magnétiques, bandes magnétiques, disques...

1956-1963

2 ème génération

Transistor De nos jours, il est admis que l'apparition de la deuxième génération coïncide avec l'utilisation des transistors dans les unités centrales. L'utilisation de cette technologie entraîna une amélioration des vitesses de traitement et des débits des ordinateurs. Une conséquence importante en fut l'aggravation des écarts de vitesses entre le traitement proprement dit et les entrées-sorties. Depuis cette époque, cet écart n'a cessé de croître, et il demeure un facteur de limitation des performances des machines. L'utilisation des transistors provoqua également la miniaturisation des unités centrales et une diminution importante de l'énergie consommée par les machines. La deuxième génération peut

Fortran , Cobol , Lisp

Page 15: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

également être considérée comme l'époque de progrès très importants dans le domaine des logiciels, puisque la plupart des concepts développés alors restent valables sur les ordinateurs actuels.

1963-1974

3 ème génération

Circuit Intégré , RAM et ROM

Les progrès constatés dans la troisième génération ont été rendus possibles par un accroissement de la puissance de traitement et une augmentation spectaculaire des capacités des mémoires (centrales et secondaires). Ces progrès dépendent eux-mêmes de ceux qui sont réalisés dans l'intégration des composants électroniques. L'ensemble des composants électroniques implantés sur un même morceau de silicium est appelé circuit intégré . La densité d'intégration correspond au rapport entre le nombre de composants et la surface de silicium occupée, pour une technologie de fabrication donnée.

L'utilisation des techniques de microprogrammation (cf. infra , Principes de fonctionnement d'un processeur classique ) dans le matériel des ordinateurs de troisième génération a facilité l'implantation d'un même jeu d'instructions sur des machines de puissances différentes, pour

Pascal , C

Page 16: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

constituer des gammes de machines compatibles entre elles d'un point de vue logiciel.

1974-1984

4 ème génération ( APPLE II , IBM-PC ...)

Microprocesseur , puce silicium

L'émergence des premiers microprocesseurs (processeurs dont les organes furent intégrés dans un ou plusieurs circuits), ainsi que l'apparition de mémoires centrales de fortes capacités à faibles coûts. Parallèlement, les périphériques ont également bénéficié de ces progrès et se font de plus en plus rapides et de plus en plus compacts, tout en devenant moins onéreux. L'apparition des microprocesseurs et des mémoires à faibles coûts marque l'avènement des ordinateurs personnels , ou micro-ordinateurs , et des stations de travail , qui ont rendu l'informatique omniprésente dans tous les secteurs d'activité. Les micro-ordinateurs ont assez rapidement atteint la puissance des gros ordinateurs du début des années 1970, pour un encombrement très faible et un coût dérisoire, comparé au prix des machines de cette époque. Les stations de travail, à usage professionnel, sont des machines puissantes sous un faible volume, orientées vers les applications graphiques.

Basic , Prolog , Ada

S. JOBS , S. WOZNIAK

1984- 5 ème Architectures Simula, B. GATES

Page 17: sophiasapiens.chez.comsophiasapiens.chez.com/communication/Informatisation …  · Web viewI need hardly point out to you that this calculation would tend to keep the sum total of

199?

génération ( MACINTOSH , stations graphiques, CRAY X-MP ...)

parallèles, arséniure de gallium

langages orientés "objet"