SAIDABIÎDA Forum
Salut cher ami(e). Nous sommes heureux de vous accueillir parmi nous au sein de notre grande famille de Saidabiida. Pour cela, nous vous invitons à vous inscrire tout en postant un premier message de présentation de votre personne, sur la rubrique "présentation" en donnant par ex : votre lien avec Saida et comment vous avez découvert le forum. Votre compte ne sera activé qu'après votre premier message de présentation. Merci et bienvenue parmi vos siens.

Rejoignez le forum, c’est rapide et facile

SAIDABIÎDA Forum
Salut cher ami(e). Nous sommes heureux de vous accueillir parmi nous au sein de notre grande famille de Saidabiida. Pour cela, nous vous invitons à vous inscrire tout en postant un premier message de présentation de votre personne, sur la rubrique "présentation" en donnant par ex : votre lien avec Saida et comment vous avez découvert le forum. Votre compte ne sera activé qu'après votre premier message de présentation. Merci et bienvenue parmi vos siens.
SAIDABIÎDA Forum
Vous souhaitez réagir à ce message ? Créez un compte en quelques clics ou connectez-vous pour continuer.
Le deal à ne pas rater :
Display Star Wars Unlimited Ombres de la Galaxie : où l’acheter ?
Voir le deal

COURS D'INFORMATIQUE

2 participants

Aller en bas

COURS D'INFORMATIQUE Empty COURS D'INFORMATIQUE

Message par admin Jeu 11 Sep 2008 - 16:02

SALAM

comme promis, je vais entamer des cours d'informatique sur ce forum.

Ces cours sont préparés suite à un travail de recherche à partir de l'internet.

La première leçon sera consacrée à la définition et l'histoire de l'informatique.

admin
membre super actif
membre super actif

Masculin
Localisation : Saida, Algérie
Nombre de messages : 703
Date d'inscription : 02/02/2008

http://www.saidabiida.com

Revenir en haut Aller en bas

COURS D'INFORMATIQUE Empty Re: COURS D'INFORMATIQUE

Message par admin Jeu 11 Sep 2008 - 16:30

c'est en 1962 qu'est apparu le mot informatique; il fut employé par Philipe Dreyfus un éminent specialiste dans le traitement electronique de l'information

Le mot "informatique" : il est composé des deux mots information et électronique. L'Académie française en a donné la définition suivante en 1967 : " Science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information, considérée comme le support de connaissances dans les domaines scientifique, économique et social. ".
On peut donc affirmer que l'informatique est une discipline carrefour, dont les ordinateurs actuels, les structures intellectuelles ( algorithmes de calcul ) et institutionnelles ( organisation comptable, organisation industrielle ) déterminent en majeure partie le contenu.

Le mot "ordinateur" : c'est en 1955 qu'il fut proposé par un professeur de lettres qui devait traduire l'expression " electronic data processing machine " ( qui veut dire " machine électronique de traitement des données " ).C'est aussi en 1967 que l'Académie française définit l'ordinateur par " Une machine automatique qui permet d'effectuer, dans le cadre de programmes de structure pré-établis, des ensembles d'opérations arithmétiques et logiques à des fins scientifiques, administratives ou comptables. "

Le mot "information" : d'un point de vue étymologique, il veut dire qu'un sujet, qui reçoit des données émises par un objet, traite ces dernières pour obtenir une certaine " mise en forme " de l'objet. Le sujet a pour cela cinq sens : la vue, l'ouïe, le toucher, l'odorat et le goût.

D'un point de vue plus général, il n'est plus à démontrer que l'informatique envahit progressivement, sous beaucoup de formes, notre vie quotidienne, tant est puissant son développement. L'informatique aujourd'hui, c'est à la fois les calculettes de poche et les ordinateurs portables, les consoles et jeux vidéo, mais aussi l'aventure spatiale, les robots industriels, les applications médicales telles que le scanner, les cartes à puce et bien d'autres applications. L'informatique à travers l'ordinateur modifie, et modifiera plus encore, l'organisation du travail et les rapports entre les individus.

L'histoire du traitement de l'information couvre une période de 12000 ans avec les fondations de l'informatique qui sont : la saisie, le codage, le calcul, l'écriture, la logique, le zéro.

C'est durant la période de 10000 à 3000 avant J.C. que naquit le traitement rationnel de l'information.
L'homme changea son mode de vie en passant du stade de chasseur à celui d'agriculteur. Dans ce nouveau mode de vie, l'homme doit disposer de semences, d'outils, d'animaux de ferme. C'est pourquoi il lui est nécessaire de mettre en place un système de troc et de ce fait, l'homme doit apprendre à s'organiser, compter, écrire : c'est l'apparition du traitement de l'information.

On découvrit alors en Mésopotamie l'utilisation de de boules, de jetons d'argile et de tablettes par les Summériens qui servait dans ce système d'échange. Cette civilisation sumérienne avait élaboré un système de numération de type additif : voici quelques chiffres gravés sur des tablettes.

En 3000 avant J.C. on utilisa en Chine le binaire à travers le principe du Ying et du Yang pour fabriquer des hexagrammes. Ils ne seront déchiffrés que quelques millénaires plus tard.

En Mésopotamie, 1300 ans plus tard, l'empereur Hammourabi introduit la notion de normes dans le traitement de l'information grâce à sa loi du talion " pour telle donnée émise par un objet, telle mise en forme de ces données sera faite ".C'est le principe de l'objectivité de l'information. Cette loi est plus connue sous la forme " oeil pour oeil, dent pour dent ". Hammourabi mit aussi en place la notion d'algorithme, qui est une notion de procédure détaillée de calcul.

Les horloges égyptiennes, qui furent les premiers systèmes de traitement de l'information, apparurent en 1550 avant J.C. sous la forme de clepsydres.
Les Chinois arrivèrent à mesurer la durée d'une année en utilisant un observatoire astronomique en 1200 avant J.C., ils sont aussi à l'origine de nombreuses inventions : le sismographe, quoiqu'un peu sommaire, en 132 avant J.C., le papier qui fut un support d'informations révolutionnaire en 105 après J.C..

Cependant au Moyen-Orient, les Arabes fabriquèrent les premiers abaques et bouliers en 500 avant J.C., et en 751 après J.C. ils ramenèrent de Chine le principe de fabrication du papier qui sera un élément fondamental du développement de la civilisation occidentale.

Le grand philosophe grec Aristote définit la logique en -330 avant J.C. Son oeuvre sera un axe principal dans la mise en place de la civilisation occidentale, sur le plan mathématique et philosophique.

Vers 820 après J.C., un mathématicien arabe apporta de nouvelles connaissances sur les algorithmes ( élimination et réduction ).
Ce n'est qu'en l'an 1000 après J.C. que la numération arabe est admise en Europe, en particulier l'existence du zéro.
Durant cette même période, les systèmes d'information horlogers se contruisent en Europe, on peut en voire un à Strasbourg, c'est l'"Horloge des Trois Rois", surtout célèbre pour son coq qui chante et s'anime.
La plus grande invention de la fin du XVième siècle est l'imprimerie découverte par Gutenberg en Allemagne en 1454, ce procédé sera un véritable catalyseur pour le développement de la civilisation occidentale.
Trente ans plus tard le Français Chuquet contruit la première table de multiplications décimales.

De 1614 à 1679, plusieurs découvertes se succèdent. Tout d'abord les logarithmes traités par l'Ecossais Neper, ainsi la multiplication et la division se ramènent à deux opérations simples qui sont l'addition et la soustraction. Puis le philosophe Anglais Bacon invente un code, le code bilitière qui permet de coder les lettres de l'alphabet à partir de combinaisons de caractères non utilisés. Cette invention introduit le code binaire qui fut découvert par le philosophe Allemand Leibnitz. Il réalise plusieurs travaux dont un sur les hexagrammes chinois et présente un rapport à l'Académie française en 1702. Ce nouveau concept se propagera ainsi dans toute l'Europe.

Le XVIIième siècle fut le temps des machines à calculer : en 1624 l'Allemand Schickard présenta sa machine mais elle fut détruite la même année. En 1642, la Pascaline du Français Pascal fut la première à réellement fonctionner, beaucoup de personnes s'appuieront sur cette découverte. Enfin Leibnitz construisit sa propre machine en 1694 ( division et multiplication ) en suivant le modèle de Pascal.

Les cartes perforées furent utilisées en 1728 par le Français Falcon et en 1800 par un autre Français, Jacquard. Ces cartes servèrent dans des machines à tisser.

En 1820, l'arithmomètre du Français Thomas connut un énorme succès, 1500 exemplaires vendus dans plusieurs pays. Quelques années plus tard, en 1833, la machine analytique de l'Anglais Babbage ne fut qu'un échec. Pourtant elle est toujours considérée comme le premier ordinateur car elle intègre beaucoup de concepts de l'ordinateur contemporain : mémoire, registre, unité de calcul.

Le code morse fut inventé en 1838 et le premier télégraphe fonctionna en 1844.

La mathématicienne Anglaise Lovelace, qui est considérée comme la première programmeuse de l'histoire informatique, instaura en 1840 l'itération d'un programme ( la boucle ). Collaboratrice de Babbage, elle appela " algorithme " le processus logique permettant l'exécution d'un programme.
Georges Boole est à l'origine en 1854 de l'algèbre binaire. Il affirma que l'on peut coder les démarches de la pensée par trois propositions : ET, OU, NON. Ses travaux seront très utiles au développement de l'électronique et des portes logiques.

En 1867, deux Américains mettaient au point la machine à écrire et neuf ans après un autre Américain Bell déposa le brevet du téléphone, trois ans plus tard 25000 postes fonctionnaient aux Etats-Unis. Toujours sur le sol américain, l'inventeur aux 2000 brevets, Edison, inventa le phonographe en 1877. En 1878, un anglais décrivit l'état radiant d'un gaz, base du phénomène de l'effet cathodique. C'est une grande ouverture vers les écrans cathodiques.


Dernière édition par Admin le Jeu 11 Sep 2008 - 16:31, édité 1 fois

admin
membre super actif
membre super actif

Masculin
Localisation : Saida, Algérie
Nombre de messages : 703
Date d'inscription : 02/02/2008

http://www.saidabiida.com

Revenir en haut Aller en bas

COURS D'INFORMATIQUE Empty Re: COURS D'INFORMATIQUE

Message par admin Jeu 11 Sep 2008 - 16:31

la suite ...

Pour faire face aux problèmes de transfert de données concernant la démographie, l'Américain Hollerith inventa en 1884 la mécanographie qui sera utilisée en 1890 par le gouvernement des Etats-Unis pour recencer la population. Hollerith créa alors la "Tabulating Machine Company" qui donnera naissance au grand groupe IBM "International Business Machine".
Entre 1887 et 1907, les découvertes furent surtout dans le domaine physique électrique. L'effet photoélectrique, qui est produit en illuminant un circuit par des ultraviolets, est un phénomène majeur dans la
progression vers les écrans de visualisation. C'est l'Allemand Hertz qui découvrit cet effet. La diode, qui permet de filtrer le courant en fonction des alternances, a été invent&eacutée; par l'Anglais Fleming. A partir de cette invention, l'Américain Lee De Forest construisit la triode, qui amplifie l'intensité du courant. C'est un pas conséquent vers la radiophonie.

En 1910, deux logiciens Anglais, Whitehead et Russel, définirent la logique symbolique, support indispensable de l'informatique et de l'intelligence artificielle. En 1914, une définition des besoins et moyens utiles au fonctionnement des automates fut conduite par l'Espagnol Torres y Quevedo.

En 1919 émergea le premier circuit bistable ( flip-flop ) composé de deux triodes. C'est un circuit de base de l'utilisation de l'algèbre booléenne. Il fut réalisé par deux Anglais Eccles et Jordan.

Notre chère télévision n'apparût qu'en 1925, elle étonna les membres de l'Institut Royal de Londres lors d'une démonstration. Bien plus tard en 1935, la firme allemande AEG mit au point le magnétophone. Son principe de fonctionnement sera adapté aux ordinateurs.

C'est le mathématicien Turing qui instaura en premier les grands concepts du fonctionnement algorithmique des futurs ordinateurs. En 1937, il publia un rapport sur une machine conceptuelle capable d'exécuter des opérations en vue de résoudre un problème.
La même année fut inventé le premier circuit binaire par l'Américain Stibitz. Il appela ce calculateur K car il le conçut dans sa cuisine.
Un an plus tard en Allemagne, l'ordinateur "Verschmodell 1" fut le précurseur du fameux ENIAC.

Durant cette année 1938 nacquit le " BIT " ( BInary digiT ). L'américain Shannon étudia l'algèbre booléenne et les circuits électriques. Il se rendit vite compte qu'il existait un rapport entre les deux sujet étudiés et publia
une thèse sur ce parallèle. Cela aura un effet de catalyseur sur les télécommunications.
Pour relever le défi posé par l'Enigma, qui fut une chiffreuse allemande permettant d'obtenir plus de 22 millions de combinaisons, le Royaume-Uni lança le Bletchley Park en 1940. Ici seront mis au point des calculateurs utilisant les concepts d'arithmétique binaire, d'horloge, de mémoire-tampon, de contrôle des lecteurs de bandes, de sous-programmes et bien d'autres.

En 1943, la collaboration de la firme IBM avec un professeur d'Harvard engendra la conception et la réalisation d'un gigantesque calculateur électromagnétique, le MARK I. Ce calculateur était l'assemblage de 800 kms de câblages, de 750 000 pièces, de 3000 relais, etc..., il pouvait effectuer des calculs en trois dixième de seconde.
L'histoire de l'informatique a connu aussi quelques anecdotes. En voici une : c'est en découvrant que la cause d'une panne sur un ordinateur ( le MARK I ) n'était qu'un simple insecte attiré par la chaleur des composants, la mathématicienne américaine Murray Hopper proclama en 1945 "A partir de ce jour nous appellerons BUG tout ce qui empêchera un programme de marcher.".

L'ENIAC ( Electronic Numerical Integrator Computer )marqua à tout jamais l'année 1946 car ce fut le premier véritable ordinateur. Cette machine pèse 30 tonnes, mesure 24 mètres de long, est haute de 5.4 mètres, utilise 18000 tubes à vide. Elle réussit à traiter à son premier essai un million de cartes perforées, ce qui réjouit ses inventeurs Américains Eckert et Mauchly.
A la suite de ce travail, Von Neumman écrivit un rapport sur un ordinateur qui devait succéder àl'ENIAC : L'EDVAC ( Electronic Discret VAriable Computer ). Un conflit entre les différents inventeurs mit court à sa réalisation.

Une des découvertes les plus importantes de l'histoire humaine est le transistor. Inventé en 1947 par trois Américains de la compagnie Bell, il sera l'élément de base des microprocesseurs.
Un an après, c'est un rapport révolutionnaire sur l'asservissement qui fut publié par le mathématicien Américain Wiener. Cette oeuvre reste la base de la robotique actuelle.
Shannon rendit sa publication sur la théorie mathématique de la communication, ouvrage clef pour le développement des télécommunications.

De 1949 à 1952. Confronté á l'énorme complexité des codes binaires qui sont utilisés pour la programmation, l'Américain Mauchly conçoit un code court, ce sera le premier langage évolué. Avec son collaborateur Eckert, il invente des bandes plastiques effaçables et réécrivables à volonté.
Un autre Américain, Hopper, réalise un compilateur qui établit pour la première fois un interface entre le langage utilisé par l'informaticien et le langage binaire machine.
Le premier ordinateur en temps réel est construit à la demande de l'US Navy. Cette machine constituera un banc d'essai pour le progrès des connaissances.

En 1954 sortit la première grande série d'ordinateurs : l'IBM 650, de taille moyenne et à un prix accessible, il sera vendu à 1500 unités. L'UNIPRINTER fut la première imprimante ligne à ligne, elle imprimait 120 caractères sur une ligne à la vitesse de 600 lignes par minute. Durant la même année 1954, l'Américain Pierce démontrait la possibilité de mettre un objet en orbite géostationnaire autour de la terre.
Huit à neuf ans après la découverte du transistor, on l'utilisa dans la conception d'une nouvelle génération d'ordinateurs ( UNIVAC ). L'efficacité du nouvel ordinateur fit un bon spectaculaire.

En 1956, après trois années de recherche, IBM commercialise le premier disque dur magnétique. Cela apporte une révolution dans le stockage des données à la fois au plan des volumes, et des possibilités d'accès indexées.

1968-1977 constitue la période la plus faste pour le développement de l'informatique. Elle commence avec l'arrivée du mini-ordinateur qui va secouer les conceptions que l'on croyait pourtant bien assises des centres informatiques aux immenses salles à air conditionné. Elle va se terminer en 1977 avec un autre boulversement,aux conséquences considérables, l'arrivée du micro-ordinateur banalisé ( l'Apple II ) qui va devenir rapidement un produit grand public, accessible à tous sur les étagères des grandes surfaces. Entre ces deux dates, la télématique acquerra les bases de connaissances nécessaires pour son épanouissement.

Cette apparition des micro-ordinateurs aura pu être réalisée grâce à la découverte fondamentale en 1971 du micro-processeur ( l'INTEL 4004 ). En une période très courte, cette nouvelle puce va réussir à envahir tous les domaines de la société. Si le micro-processeur doit être considéré auprès de l'ENIAC et du transistor comme l'une des trois inventions clefs de l'informatique.

Il y a lieu de retenir plus particulièrement sur cette période les inventions suivantes :

* La souris en 1978. Notion d'interactivité homme-machine.
* Le développement des différents réseaux : ARPANET, TELENET et ETHERNET.
* La définition des principes de la programmation structurée : PASCAL, LANGAGE C.
* L'arrivée de langage utilisés par l'intelligence artificielle.
* L'évolution des imprimantes : aiguille en 1971, laser en 1975.
* Le disque souple : une nouvelle forme de mémoire.

Le géant IBM domine la marché de sa puissance écrasante. Néanmois, ce géant peut désormais pressentir que son avenir s'assombrit. Il ne peut pas contenir des puissances informatiques comme la CRAY, et il ne se préoccupe pas des petits fabricants qui bricolent dans des garages on ne sait trop quoi.

Commençant avec le premier micro-ordinateur, l'Apple II, la période 1977-1990 présente une double face : d'un côté c'est une récolte prodigieuses de découvertes qui déclenche un fascinant dialogue homme-machine ; de l'autre côté c'est l'interrogation sur l'avenir face à cette convivialité d'un nouveau type qui attaque toutes les conditions de fonctionnement de la société.

Le nombre impressionnant de découvertes implique un développement incontrôlé qui ne s'effectuera pas sans dommages. La fraude informatique va se développer et les virusvont se propager.

Conclusions

L'informatique n'est pas née d'hier, les premiers grands concepts datent de plus de 10000 ans. Cependant cette science ne s'est développée que depuis un demi siècle et le nombre de découvertes est phénomènal sur ces dernières dix années : il y a environ une découverte par jour!

La spécificité interdisciplinaire de l'informatique fait de son étude historique une source inépuisable d'enrichissements. Pour l'épistémologue informatique, Mathématiques, Physique, Economie, Guerre, Sociologie et tant d'autres constituent autant de domaines qu'il est nécessaire d'explorer. Il doit s'intéresser tout aussi bien :au PDG d'une multinationale "hi-tech" qu'au casseur ( hacker ) isolé d'un réseau ; à l'Europe, l'Amérique, l'Asie qu'à l'Afrique ; à la théorie comme à la pratique....

A l'heure de la société de l'information, cettetâche, difficile mais passionnante est indispensable pour la compréhension du nouvel ordre mondial de la communication qui s'instaure.

La guerre a été le facteur clef de développement de l'informatique avec trois épisodes essentielles : la deuxième guerre mondiale, la guerre froide et la guerre des étoiles. ( Ce n'est pas une blague! )

Au niveau des puissances informatiques dans le monde, les Etats-Unis sont largement dominants. En effet 95% des inventions répertoriées depuis 1946 ont été faites sur le sol américain.
Le Japon contrebalance sa très grande faiblesse au plan des brevets d'inventions par sa capacité extraordinaire à produire des brevets d'applications. C'est pour l'instant le seul grand compétiteur des USA.

Le futur de l'informatique sera celui de la convivialité complète auditive, visuelle et tactile.

prochaine leçon : Configuration d'un ordinateur

admin
membre super actif
membre super actif

Masculin
Localisation : Saida, Algérie
Nombre de messages : 703
Date d'inscription : 02/02/2008

http://www.saidabiida.com

Revenir en haut Aller en bas

COURS D'INFORMATIQUE Empty Configuration de l'Ordinateur

Message par admin Mar 23 Sep 2008 - 0:02

Structure générale de l'ordinateur

A la fin de ce cours ; Tu dois devenir capable de Savoir :

1. expliquer la notion de périphérique ;
2. expliquer la différence entre un périphérique d'entrée et un périphérique de sortie.

Savoir faire

1. dessiner un schéma symbolique de l'ordinateur et des ses périphériques ;
2. représenter le sens de circulation des informations entre l'ordinateur et ses périphériques ;
3. distinguer un périphérique d'entrée, un périphérique de sortie et un périphérique d'entrée-sortie.
4. transférer les notions de périphériques d'entrée et de sortie à d'autres cas: chaîne Hi-Fi, station de jeux, "home cinema", automobile,...

1 Représentation de l'ordinateur.

On te demande de réaliser une représentation schématique de l'ordinateur devant lequel tu te
trouves actuellement. Pour cela, tu vas examiner attentivement le matériel avant de dessiner.
Examine éventuellement un ordinateur voisin du tien.
Consignes Sur une page de ton cahier, dessine, sans trop de détails, un ordinateur avec tous les appareils qui le composent.
Indique les connexions entre les différents appareils.
Ajoute une légende à ce schéma.
Sur ton dessin, on trouvera au moins les cinq premiers éléments de la série suivante:
l’unité centrale
l'écran
le clavier
la souris
l'imprimante
les haut-parleurs
Le modem

2 Schéma

COURS D'INFORMATIQUE 080923010655400154

3 Etudier et Réaliser un schéma symbolique de l'ordinateur

Chaque élément y est représenté selon une forme simple, plutôt que de dessiner une représentation fidèle. Les flèches indiquent dans quel sens circulent les informations entre les différents composants.
La flèche entre l’unité centrale et l’écran indique que l’unité centrale envoie des images vers l’écran.
Que signifie, à ton avis, la flèche double entre l’unité centrale et la manette vibrante ?
Peux-tu interpréter la forme des autres flèches dans ce schéma ?

Les câbles entres les différents appareils sont représentés par des lignes droites.
Indique, avec des flèches orientées, le sens dans lequel circulent les informations.
Indique le "centre nerveux" de l'ordinateur ? Comment le distingues-tu ?

4 Notion de périphérique

Dans un système informatique, tous les accessoires sont disposés "autour" de la console. (l’unité centrale) C'est la même disposition que celle d'un boulevard périphérique autour d'une ville.

5 Les périphériques informatiques

Dans un système informatique, les périphériques sont tous les appareils qui sont reliés à la Console (l’unité centrale). Ils peuvent lui fournir des informations ou en recevoir.
Il existe deux grandes sortes de périphériques :
1 les périphériques d'entrée : ils permettent à l'utilisateur de fournir des informations au " centre nerveux " ;
2 les périphériques de sortie : ils permettent à l'utilisateur de recevoir des informations venant du " centre nerveux " ; ·
3 les périphériques d'entrée-sortie : certains périphériques sont capables de recevoir des informations venant du " centre nerveux " mais aussi de lui envoyer des informations ; on parle alors de périphériques d'entrée/sortie.

6 Les périphériques informatiques

Parmi les exemples suivants, coche convenablement les cases pour indiquer ceux qui correspondent à des périphériques d'entrée, des périphériques de sortie et des périphériques d'entrée/sortie.

Périphériques Entrée Sortie
Clavier x
Écran x
Souris x
Imprimante x
Lecteur de codes à barres x
Modem x x
Caméra ou appareil photo digital x
Joystick x
Scanner x
Lecteur de CD-ROM externe x
Crayon optique x
Graveur de CD-ROM x x
Sonde de température x
Lecteur de DVD x

7 Conclusion

Sur ton schéma symbolique de l'ordinateur réalisé à la page précédente, indique clairement l'ensemble des périphériques pour chacun d'eux, note son type (entrée, sortie, entrée/sortie).

8 Entraîne-toi

Afin d’être prêt(e) pour l’évaluation, tu dois t’assurer que tu es à l’aise avec tous les « savoir faire» indiqués à la première page.
Tu trouveras ci-dessous quelques questions qui pourraient être posées lors de l’évaluation :

8.1 Questions ouvertes

1. Définis la notion de périphérique informatique. A cette définition, ajoute quelques exemples.
2. Explique la différence entre un périphérique d’entrée et un périphérique de sortie. A ton explication, ajoute des exemples en justifiant pourquoi tu les classes dans l’une ou l’autre catégorie.
3. Réalise un schéma symbolique de l’ordinateur et de ses périphériques. Sur ce schéma, indique le sens de circulation des informations par des flèches orientées.
4. Réalise un schéma symbolique d’une chaîne Hi-Fi et montre qu’elle est structurée comme un ordinateur : centre et périphériques.
5. Pour chacun des périphériques cités, indique s’il appartient à la catégorie « périphérique d’entrée », « périphérique de sortie », « périphérique d’entrée/sortie »
a. clavier
Spoiler:
b. écran
Spoiler:
c. souris
Spoiler:

d. imprimante
Spoiler:
e. lecteur de codes à barres
Spoiler:
f. modem
Spoiler:
g. caméra digitale
Spoiler:
h. appareil photo digital
Spoiler:
i. joystick
Spoiler:
j. scanner
Spoiler:
k. lecteur de CD-ROM externe
Spoiler:

l. crayon optique
Spoiler:

m. graveur de CD-ROM
Spoiler:
n. sonde de température
Spoiler:
o. lecteur de DVD
Spoiler:

8.2 Questions à choix multiples

1. Un périphérique d’entrée permet :
a. D’envoyer des informations au « centre nerveux »
b. De recevoir des informations du « centre nerveux »
c. D’envoyer et de recevoir des informations du « centre nerveux »
Spoiler:

2. Un périphérique de sortie permet :
a. D’envoyer des informations au « centre nerveux »
b. De recevoir des informations du « centre nerveux »
c. D’envoyer et de recevoir des informations du « centre nerveux »
Spoiler:

3. Un périphérique de E/S permet :
a. D’envoyer des informations au « centre nerveux »
b. De recevoir des informations du « centre nerveux »
c. D’envoyer et de recevoir des informations du « centre nerveux »
Spoiler:


4. Un schéma symbolique est un schéma dans lequel :
a. Tous les composants sont présentés dans une représentation fidèle
b. Tous les composants sont présentés dans une représentation schématique
c. Les composants principaux sont présentés dans une représentation fidèle, les
autres dans une représentation schématique
Spoiler:

Prochaine leçon : L'Unité centrale

admin
membre super actif
membre super actif

Masculin
Localisation : Saida, Algérie
Nombre de messages : 703
Date d'inscription : 02/02/2008

http://www.saidabiida.com

Revenir en haut Aller en bas

COURS D'INFORMATIQUE Empty Re: COURS D'INFORMATIQUE

Message par BERRIAH Ven 4 Déc 2009 - 11:21

DRAM
Dynamic Random Access Memory
Mémoire de l'Accès Aléatoire dynamique
Dynamic RAM. mémoire vive (i.e. qui oublie tout quand on coupe le courant), qui constitue l'essentiel de la mémoire d'un ordinateur. Cette mémoire est dynamique, ce qui veut dire qu'il faut la rafraîchir périodiquement, i.e. lui envoyer un peu de courant, car elle est constituée de transistors et de condensateurs, et ces derniers se déchargent petit à petit. La mémoire n'est plus accessible pendant ce temps, de sorte que les mémoires statiques sont nettement plus rapide. Voir RAM, ROM, SRAM.
Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles sont principalement utilisées pour la mémoire centrale de l'ordinateur ;
Fonctionnement de la mémoire vive
La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0, ce qui signifie que chaque condensateur représente un bit de la mémoire.
Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15 nanosecondes (ns).
Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne.
VRAM
Video Random Access Memory
Vidéo Mémoire de l'Accès Aléatoire
mémoire vive pour la vidéo fonctionnant à double entrée, donc plus rapidement que les autres types de mémoire, puisqu'on peut y écrire et y lire en même temps. Voir RAM. En ce moment, chaque constructeur de cartes graphiques développe ses propres mémoires (grâce aux bus locaux), et on trouve aussi des RDRAM, des SGRAM (Synchronous Graphic RAM) et des WRAM (Window RAM).
Volatile RAM, c'est-à-dire mémoire vive volatile. En général, on n'utilise jamais ce sens, une RAM étant considérée par défaut comme volatile. Voir NVM.
Mémoire spécialisée dans le stockage de données vidéo. La Vram peut être lue et écrite simultanément.
SD.RAM
Synchronous Dynamic Random Access Memory.
Mémoire de l'Accès Aléatoire Dynamique synchrone.
D'après ©️ SVM, mémoire 5 fois plus rapide que la DRAM. Elle se trouve sur des barrettes à 168 broches en 64 bits, qui s'installent à l'unité (contrairement à d'autres types de mémoire qui vont par paire de barrettes).
La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM (qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des temps d'accès d'environ 10 ns.
DR-SDRAM (Rambus DRAM)
La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie propriétaire, ce qui signifie que toute entreprise désirant construire des barrettes de RAM selon cette technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel.
DDR-SDRAM
La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM, permettant de doubler le taux de transfert de la SDRAM à fréquence égale.
La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une donnée à chaque front montant. C.DRAM

Cache Dynamic Random Access Memory
Cachette Mémoire de l'Accès Aléatoire Dynamique

Capacité exprimée en octets : Cdram = 230 / 23 = 227 = 27 220 = 128 Mo. Capacité exprimée en mots à 8 bits : Cdram = 128 Mmots à 8 bits ...

[mémoire] Du français « cache », récupéré par les anglophones puis revenu chez nous. mémoire s'intercalant entre le processeur et la mémoire principale afin d'accélérer le fonctionnement de l'ensemble, car le cache est une mémoire statique, bien plus rapide (mais bien plus chère), que la mémoire principale. Le cache est utilisé maintenant un peu partout ailleurs dans les machines. Voir aussi cache-hit, cache-miss, RAM, WBS, write-back, write-thru.

Le cache est beaucoup plus compliqué qu'une mémoire standard, car il faut s'assurer de la validité des informations qu'il contient, i. e. qu'il est bien une image de la mémoire effective. Il faut aussi y trouver rapidement les données, sans avoir une adresse précise. Il existe des Caches à écriture directe ou retardée.

L'architecture « Harvard » signifie que l'on a deux caches, l'un pour les données, l'autre pour les instructions.
CD.ROM
Compact Disc Read Only Memory
Le Disque compact a Lu Seulement Mémoire

[CD] Compact Disc Read Only Memory. Disque compact pouvant être lu par un ordinateur, sur lequel sont stockés jusqu'à 640 Mo de données. Ces donnnées sont de toutes sortes, et non pas seulement de la musique ou de la vidéo, comme sur les CD plus classiques. Voir mémoire morte, ROM. Par extension, le lecteur de CD lui-même. Les CD-ROM ont été normalisés en plusieurs fois, successivement par le Red Book (1981 - CD audio), le Yellow Book (1985 - CD-ROM, données brutes), l'ISO 9660 (Fichiers sur CD), le Green Book (1988), l'ADPCM en 1989 et le White Book (CD Vidéo). Voir aussi nX pour une entrée sur la vitesse de rotation des disques.
Cette catégorie correspond aux types de matériels suivants.
Lecteurs de CD-ROM internes, lecteurs de CD-ROM IDE, lecteurs de CD-ROM Parallel ATA (PATA), lecteurs de CD-ROM Serial ATA (SATA), lecteurs de CD-ROM SCSI, lecteurs de CD-ROM externes, lecteurs de CD-ROM USB, lecteurs de CD-ROM FireWire (IEEE 1394, iLink), lecteurs de CD-ROM Parallel (LPT), lecteurs de CD-R (CD-RW)...
La vitesse de lecture du lecteur de CD-ROM correspondait à l'origine à la ... Pour pouvoir lire ce type de CD-ROM un lecteur doit être compatible[img][/img]

BERRIAH
membre super actif
membre super actif

Masculin
Localisation : SAIDA
Nombre de messages : 275
Age : 71
Date d'inscription : 23/09/2009

http://www.sidikhelifa.user.fr

Revenir en haut Aller en bas

COURS D'INFORMATIQUE Empty Re: COURS D'INFORMATIQUE

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum