L'évolution De L'informatique
Dissertation : L'évolution De L'informatique. Recherche parmi 300 000+ dissertationsPar olivier49 • 25 Mars 2014 • 7 172 Mots (29 Pages) • 5 544 Vues
INTRODUCTION
En 1966, l’informatique a été définie par l'Académie française comme la « science du traitement rationnel, notamment par machines automatiques, de l'information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux ».
Si les ordinateurs ont été conçus au départ pour exécuter des calculs numériques trop longs ou trop compliqués pour être effectués à la main, on s’est assez vite aperçu que de telles machines pouvaient également traiter des informations non numériques (par exemple, reconnaître une chaîne de caractères dans un texte). Les calculateurs devenaient des machines universelles de traitement de l’information, d’où le mot ordinateur, retenu en 1956 pour trouver un équivalent français à l’expression anglaise data processing machine. Ce terme a progressivement remplacé celui de calculateur, au sens trop restreint. L'informatique est ainsi, une nouvelle technologie intellectuelle, comme l'ont été en leur temps l'écriture et l'imprimerie, un moyen de représenter, de structurer et d'exploiter des informations qui en retour structure la pensée de l'homme. Ce fut le début de l’évolution de l’informatique, une évolution qui ne cesse de croitre. Dans notre travail, il s’agira de montrer l’historique de l’informatique par les fondements et ensuite l’évolution par les différents apports a l’informatique tel que le système d’exploitation.
I-Fondements du logiciel
On appelle logiciels les composants logiques et symboliques qui permettent de traiter l’information dans les machines informatiques. Le mot information a un sens très large. On appelle ici information tout ce qui peut être codé sous forme numérique pour être mémorisé, transporté et traité par des machines informatiques : des signes (chiffres, lettres, monnaie, textes), des images, des signaux numérisés (musique, parole, relevés de capteurs sur des instruments). Les fondements du logiciel sont le codage, le calcul et l'interaction.
1/Le codage
Les procédés physiques de codage de l’information sont analogiques ou numériques.
Les premiers enregistrements du son étaient analogiques, sur disques ou bandes magnétiques. La télévision a longtemps utilisé la modulation des ondes, donc un phénomène physique continu, pour transporter les images et les sons. Le transport, le codage et le décodage, utilisent alors les caractéristiques continues des machines physiques. Ces codages sont sensibles aux déformations par l’usure et le bruit.
Avec le codage numérique, qui supplante peu à peu le codage analogique dans tous les domaines, les machines physiques sont seulement le support d’une information qui est traitée, transformée, codée, décodée par des machines logicielles. Il y a « dématérialisation » de l’information, qui n’est plus liée à son support, qui peut être recopiée facilement et à très faible coût sans perte d’information.Vers 1930, Gödel invente pour faire des démonstrations d’indécidabilité un codage numérique des expressions logiques qui préfigure le codage informatique : code ASCII (7 bits), ISO (8 bits), UNICODE (16 bits). Tous les caractères ont un équivalent numérique qui permet de passer d’une représentation interne sous forme de 0 et de 1 sur laquelle on calcule, à leur présentation sur un écran ou une feuille de papier.
Avec ces codes, on transforme des textes en nombres. On peut aussi numériser des images, du son, par discrétisation du signal. Le son est continu, mais un signal sonore peut être découpé en éléments très petits, inférieurs à la sensibilité de l'oreille humaine. Les images numérisées sont découpées en points (pixels) et chaque point est codé en fonction de ses propriétés. Si le pouvoir discriminant de l’œil est inférieur à l’approximation faite, on ne fait pas de différence entre l’image analogique et l’image numérique. C’est la même chose au cinéma pour la reconstruction du mouvement par l’œil à partir des 24 images fixes par seconde. Une fois toutes ces informations codées sous forme numérique, on va pouvoir calculer sur elles, comme sur les nombres. Non seulement le codage numérique est plus fiable, mais il est transportable et copiable avec un coût négligeable.
2/Le calcul
Le calcul mécanique s’est développé au XVIIe siècle, donc bien avant l’informatique, avec la machine de Pascal, l'horloge astronomique de Strasbourg, les machines à tisser avec des programmes sur bandes perforées. Avec le codage numérique de toutes les informations, le calcul s'est beaucoup étendu par rapport à son origine. On calcule d'abord sur des nombres, qui ont une représentation binaire exacte ou approchée. On peut décrire des phénomènes par des systèmes d’équations pour la simulation informatique.
On peut aussi calculer sur des symboles, par exemple, concaténer des chaînes de caractères :
riche + lieu = richelieu
ou leur appliquer des fonctions :
inverser (abcd) = dcba
Lorsque les images sont codées numériquement, on peut les redimensionner, les restaurer, les transformer par des calculs.
Le raisonnement a été défini comme un calcul avec la définition en 1965 de l’algorithme d’unification de Robinson. C’est la base du calcul formel, des systèmes experts, qui se développent à partir de 1975 et vont donner le coup d’envoi à l’intelligence artificielle.
L’utilisation des ordinateurs repose sur le principe que tout calcul compliqué peut être décomposé en une suite d’opérations plus simples, susceptibles d’être exécutées automatiquement. C’est la notion d’algorithme de calcul. Plusieurs inventions ont permis le développement de l'algorithmique. Vers 1930 la machine de Turing définit abstraitement la notion de calcul et permet de définir ce qui est calculable ou non. C’est une machine abstraite qui définit les calculs comme des opérations qu’on peut enchaîner mécaniquement sans réflexion. Donald Knuth (né en 1938), est l'auteur du traité (en)The Art of Computer Programming, paru en plusieurs volumes à partir de 1968. Il décrit de très nombreux algorithmes et pose des fondements mathématiques rigoureux pour leur analyse.
Vers
...