SYLLABUS LICENCE Mention Informatique L3 informatique, r ...
informatique
-
Upload
sadrac-filsaint -
Category
Documents
-
view
557 -
download
0
Transcript of informatique
Ordinateur
Ordinateur (PC)
Typologies
Types d'ordinateurs
Ordinateur portable
PDA (organiseur)
Au cœur de l'ordinateur
Processeur
Carte mère
Boîtier
Mémoire
Mémoire
Mémoire vive (RAM)
Mémoire morte (ROM)
Carte mémoire flash
Cartes mémoire
Compact Flash (CF)
Memory stick (MS)
Multimedia Card (MMC)
Secure Digital (SD)
Smartmedia (SM)
xD Picture card
Les bus
Bus
ISA, MCA, VLB
PCI
AGP
PCI Express
Interfaces d'entrée-sortie
Port série/parallèle
USB
FireWire
IDE / ATA
Serial ATA
SCSI
PC Card (PCMCIA)
Périphériques
Périphérique
Interruption (IRQ/DMA)
Périphériques d'affichage
Ecran/moniteur
Tube cathodique
Ecran LCD/Plasma
Périphériques de stockage
Disque dur
Disque dur SSD
Lecteur CD-ROM
Lecteur DVD-ROM
Blu ray
Clé USB
Autres périphériques
Clavier
Souris
Imprimante
Scanner
Modem
Cartes d'extension
Carte graphique
Carte son
Carte réseau
BIOS
BIOS
Voir aussi :
FAQ matériel
PC (ordinateur personnel)
Introduction à la notion d'ordinateur
La compréhension du vocabulaire informatique représente généralement la principale difficulté à laquelle
se heurtent les acheteurs potentiels d'ordinateurs personnels. En effet, contrairement à un téléviseur,
pour lequel les critères de choix sont assez limités, le choix d'un ordinateur revient à choisir chaque
élément qui le compose et à en connaître les caractéristiques. Ce dossier n'a pas pour but de donner un
sens à toutes les abréviations informatiques (dans la mesure où de nombreux constructeurs ont leurs
propres terminologies), mais il cherche à aider à mieux comprendre les principaux composants d'un
ordinateur, d'en expliquer le fonctionnement et d'en donner les principales caractéristiques.
Présentation de l'ordinateur
Un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous
forme binaire, c'est-à-dire sous forme de bits. Le mot « ordinateur » provient de la société IBM France.
François Girard, alors responsable du service promotion générale publicité de l'entreprise IBM France,
eut l'idée de consulter son ancien professeur de lettres à Paris, afin de lui demander de proposer un mot
caractérisant le mieux possible ce que l'on appelait vulgairement un « calculateur » (traduction littérale
du mot anglais « computer »).
Ainsi, Jaques Perret, agrégé de lettres, alors professeur de philologie latine à la Sorbonne, proposa le 16
avril 1955 le mot « Ordinateur » en précisant que le mot « Ordinateur » était un adjectif provenant
duLittré signifiant « Dieux mettant de l'ordre dans le monde ». Ainsi, il expliqua que le concept de « mise
en ordre » était tout à fait adapté.
Types d'ordinateurs
Toute machine capable de manipuler des informations binaires peut être qualifiée d'ordinateur, toutefois
le terme « ordinateur » est parfois confondu avec la notion d'ordinateur personnel (PC, abréviation
depersonal computer), le type d'ordinateur le plus présent sur le marché. Or il existe beaucoup d'autres
types d'ordinateurs (la liste suivante est non exhaustive) :
Amiga
Atari
Apple Macintosh
stations Alpha
stations SUN
stations Silicon Graphics
La suite de ce dossier, aussi générique soit-elle, s'applique ainsi plus particulièrement aux ordinateurs de
type PC, appelés aussi ordinateurs compatibles IBM, car IBM est la firme qui a créé les premiers
ordinateurs de ce type et a longtemps (jusqu'en 1987) été le leader dans ce domaine, à tel point qu'elle
contrôlait les standards, copiés par les autres fabricants.
Constitution de l'ordinateur
Un ordinateur est un ensemble de composants électroniques modulaires, c'est-à-dire des composants
pouvant être remplacés par d'autres composants ayant éventuellement des caractéristiques différentes,
capables de faire fonctionner des programmes informatiques. On parle ainsi de « hardware » pour
désigner l'ensemble des éléments matériels de l'ordinateur et de « software » pour désigner la partie
logicielle.
Les composants matériels de l'ordinateur sont architecturés autour d'une carte principale comportant
quelques circuits intégrés et beaucoup de composants électroniques tels que condensateurs,
résistances, etc. Tous ces composants sont soudés sur la carte et sont reliés par les connexions du
circuit imprimé et par un grand nombre de connecteurs : cette carte est appelée carte mère.
La carte mère est logée dans un boîtier (ou châssis), comportant des emplacements pour les
périphériques de stockage sur la face avant, ainsi que des boutons permettant de contrôler la mise sous
tension de l'ordinateur et un certain nombre de voyants permettant de vérifier l'état de marche de
l'appareil et l'activité des disques durs. Sur la face arrière, le boîtier présente des ouvertures en vis-à-vis
des cartes d'extension et des interfaces d'entrée-sortie connectées sur la carte mère.
Enfin, le boîtier héberge un bloc d'alimentation électrique (appelé communément alimentation), chargé
de fournir un courant électrique stable et continu à l'ensemble des éléments constitutifs de l'ordinateur.
L'alimentation sert donc à convertir le courant alternatif du réseau électrique (220 ou 110 Volts) en une
tension continue de 5 Volts pour les composants de l'ordinateur et de 12 volts pour certains périphériques
internes (disques, lecteurs de CD-ROM, ...). Le bloc d'alimentation est caractérisé par sa puissance, qui
conditionne le nombre de périphériques que l'ordinateur est capable d'alimenter. La puissance du bloc
d'alimentation est généralement comprise entre 200 et 450 Watts.
On appelle « unité centrale », l'ensemble composé du boîtier et des éléments qu'il contient. Les
éléments externes à l'unité centrale sont appelés périphériques.
L'unité centrale doit être connectée à un ensemble de périphériques externes. Un ordinateur est
généralement composé au minimum d'une unité centrale, d'un écran (moniteur), d'un clavier et
d'unesouris, mais il est possible de connecter une grande diversité de périphériques sur les interfaces
d'entrée-sortie (ports séries, port parallèle, port USB, port firewire, etc.) :
imprimante ,
scanner ,
carte son externe ,
disque dur externe ,
périphérique de stockage externe ,
appareil photo ou caméra numérique,
assistant personnel (PDA),
etc.
Les familles d'ordinateurs
Familles d'ordinateurs
On distingue généralement plusieurs familles d'ordinateurs selon leur format :
Les mainframes (en français ordinateurs centraux), ordinateurs possédant une grande
puissance de calcul, des capacités d'entrée-sortie gigantesques et un haut niveau de fiabilité. Les
mainframes sont utilisés dans de grandes entreprises pour effectuer des opérations lourdes de calcul
ou de traitement de données volumineuses. Les mainframes sont généralement utilisés dans des
architectures centralisées, dont ils sont le coeur.
Les ordinateurs personnels, parmi lesquels on distingue :
Les ordinateurs de bureau (en anglais desktop computers), composés d'un boîtier
renfermant une carte mère et permettant de raccorder les différents périphériques tels que
l'écran .
Les ordinateurs portables (en anglais laptop ou notebooks), composé d'un boîtier
intégrant un écran dépliable, un clavier et un grand nombre de périphériques incorporés.
Les tablettes PC (en anglais tablet PC, également appelées ardoises électroniques), composées
d'un boîtier intégrant un écran tactile ainsi qu'un certain nombre de périphériques incorporés.
Les centres multimédia (Media Center), représentant une plate-forme matérielle, destinée à une
utilisation dans le salon pour le pilotage des éléments hifi (chaîne hifi, téléviseur, platine DVD, etc.).
Les assistants personnels (appelés PDA, pour Personal digital Assistant, ou encore handheld,
littéralement «tenu dans la main»), parfois encore qualifiés d'organiseur (en anglais organizer) ou
d'agenda électronique, sont des ordinateurs de poche proposant des fonctionnalités liées à
l'organisation personnelle. Ils peuvent être dotés des fonctions d’un téléphone portable. On parle alors
souvent dans ce cas de smartphone.
Enfin, les netbooks sont des ordinateurs portables dotés d’un écran de petite dimension
(généralement 12") et dont on a remplacé le disque dur par de la mémoire flash, afin de réduire la
consommation électrique (et le coût).
Ordinateur portable (ou laptop)
Lecture de DVD, jeu vidéo, traitement d'images 3D... L'ordinateur portable possède des fonctions
multimédia et des capacités qui rivalisent sans problème avec celles d'un ordinateur de bureau. En outre,
du fait de sa mobilité, son usage s'en retrouve multiple et varié. Transportable, portable, ultra
portableou mini portable, il existe autant de formats que d'usages. Avec l'apparition du mini portable
ou netbook, c'est l'avènement de la portabilité informatique.
1. 1. Présentation 2. 2. Usages 3. 3. L'écran
4. 4. Le processeur 5. 5. Le disque dur 6. 6. La carte graphique 7. 7. Lecteur graveur 8. 8. Souris et clavier 9. A voir aussi 10. Ressources sur le même sujet
1. Présentation
- Du tout en un
Un ordinateur portable (en anglais laptop ou notebook) est un ordinateur personnel dont la caractéristique
essentielle réside dans la portabilité. A la différence d'un ordinateur fixe, il ne dispose pas d'unité
centrale. Un ordinateur portable est composé de plusieurs éléments permettant son fonctionnement : le
processeur, la carte mère, le disque dur... d'un clavier, d'un écran et d'une souris.
- Des prix variables
Tous ces éléments sont compactés à l'intérieur d'un boitier de faible dimension, d'où le prix généralement
plus élevé d'un ordinateur portable par rapport à un ordinateur fixe. Exception faite pour les minis
portables dont les capacités de base permettent un coût moindre.
- La légèreté : un atout de poids
La taille moyenne d'un portable est de 35 cm de large sur 27cm de profondeur, et de 25 cm sur 17 cm
pour un mini portable. Il existe des ordinateurs portables de grandes dimensions : 40 cm de largeur sur
30 cm de profondeur. Il s'agit en fait de PC transportables dont le poids avoisine souvent les 4kg. La taille
allant de paire avec le poids, plus un ordinateur est petit, plus il est léger et facile à transporter.
- Des pièces intégrées
Comme la plupart des pièces sont intégrées, elles ne peuvent être changées. Il est donc nécessaire de
bien connaître les caractéristiques techniques d'un portable et l'usage que l'on souhaite en faire avant de
l'acquérir. En outre, l'intégration de toutes les pièces par le constructeur permet de minimiser les risques
d'incompatibilités matérielles.
- Autonomie
L'intérêt d'un ordinateur portable est d'être autonome le plus longtemps possible sans avoir besoin d'être
branché sur secteur. Il fonctionne avec une batterie rechargeable sur secteur.
2. Usages
La mobilité et l'encombrement réduit de l'ordinateur portable présentent des intérêts certains au niveau de
son utilisation. Limité au départ à un strict usage bureautique et professionnel, l'ordinateur portable a
évolué vers un usage multimédia complet et extrêmement varié proche du PC fixe : retouche photo, jeux
vidéo, lecture de DVD... Avec le netbook, le portable est revenu à un usage simplifié, mettant l'accent sur
la connexion et la mobilité.
Avec l'émergence des réseaux sans fil, les pros de la communication peuvent se connecter avec
leur portable depuis presque n'importe quelle zone, du moment qu'elle soit couverte par le WiFi ou la
3G. Petits et légers, les ultraportables et les miniportables / netbook permettent aux nomades de se
connecter au net pour dialoguer sur leur messagerie instantanée, consulter leurs mails, effectuer des
tâches bureautiques simples depuis un café, un train, une salle d'attente équipés Wifi. En se glissant
aisément dans un sac à main, le netbook a su en outre conquérir un large public féminin.
Joueurs et cinéphiles peuvent s'adonner à leurs passions, où qu'ils soient, sur un portable doté
d'un écran confortable (15" pour un portable, jusqu'à 20" pour un transportable), d'une carte graphique
performante et d'un processeur puissant.
Mémoire, puissance de calcul... Avec un ordinateur portable pourvu d'un disque dur et d'un
processeur puissants, les professionnels en déplacement peuvent utiliser les mêmes fonctions que
leur ordinateur de bureau et gérer plusieurs logiciels.
Montage vidéo, traitement photo, mixage de sons... toutes ces applications multimédias sont
également rendues possibles en dehors de chez soi avec des portables qui conjuguent capacité de
stockage importante et vitesse d'exécution. Le nombre d'entrées et de sorties permettent par ailleurs
une grande interactivité avec les accessoires high-tech : les ports USB 2 pour un téléphone mobile,
une clé USB, un appareil photo numérique, un disque dur externe... Le port Firewire (ou IEEE 1394)
pour un caméscope numérique (dont le débit est plus important qu'un port USB), une sortie VGA pour
un moniteur externe, un connecteur S-Vidéo pour la télé...
3. L'écran
La taille
La taille d'un écran fait partie des critères déterminants dans le choix d'un ordinateur portable. Elle est
souvent corrélée au poids et à la taille de la machine.
Si vous souhaitez vous limiter à un usage bureautique simple, l'achat d'un portable à écran large n'est
peut-être pas justifié.
En revanche si vous voulez un portable pour visionner des films, choisissez un portable à écran
confortable pour vos yeux.
De 10" pour un mini portable / netbook jusqu'à 20" pour un transportable, la taille moyenne d'un écran
d'ordinateur portable est de 15" (1 pouce = 2,54 cm).
Le format
Le format d'affichage le plus courant est en 4/3 (format télé normal) mais il existe des formats d'écrans
d'ordinateurs portables exotiques, proches du 16:9, tel que le format 15:10, plus adapté à la visualisation
de séquences vidéo (lecture de DVD par exemple).
Le temps de réponse
D'un point de vue technologique, la plupart des écrans d'ordinateurs portables sont plats et TFT (Thin
Film Transistor) utilisant un affichage LCD (à cristaux liquides). La qualité d'un écran TFT dépend de son
temps de réponse ou latence, c'est-à-dire le temps nécessaire pour descendre et remonter des
informations. Plus le temps de réponse indiqué est bas (en dessous de 20 ms), meilleur il est, plus fluides
sont les images animées. Les écrans à faible de temps de réponse sont plutôt indiqués pour les joueurs
et les écrans dont le temps de réponse est supérieur à 20 ms convient plus à un usage basique.
4. Le processeur
La fréquence
Le processeur est le cerveau de l'ordinateur, c'est lui qui traite les instructions. Sa vitesse d'exécution est
conditionnée par sa fréquence (en MHz), mais deux processeurs de marques différentes peuvent avoir
des performances tout à fait équivalentes avec des fréquences très différentes.
Pour un usage gourmand en logiciels et en applications multimédias, un ordinateur avec un processeur
puissant (avec une fréquence > 2,4Ghz) est recommandé.
Pour une utilisation plus basique, un processeur de gamme moyenne (=2Ghz) suffit.
Mais aujourd'hui, il vaut mieux considérer la qualité de l'ensemble des composants (carte graphique,
mémoire) que s'en tenir à la seule valeur de la fréquence du processeur.
La mémoire vive
La quantité de mémoire vive peut avoir une importance considérable sur les performances, notamment
pour des usages multimédias. Elle sert uniquement de zone de transit d'informations (lorsque vous
allumez ou téléchargez un programme par exemple).
La fréquence de fonctionnement
Outre la quantité de mémoire, il est également important d'être attentif également à sa fréquence de
fonctionnement, correspondant à la fréquence à laquelle vont tourner la plupart des périphériques.
5. Le disque dur
Capacité
C'est la mémoire de l'ordinateur, le lieu où sont stockés les données et les programmes de l'ordinateur.
On s'intéresse à sa capacité : à partir de 160Go on évite les risques de saturation, à partir de 320Go, on
rejoint l'utilisation d'un PC fixe.
Vous pouvez étendre autant que besoin la capacité de stockage de votre ordinateur portable grâce à un
disque dur externe ou une clé USB (certaines montent jusqu'à 64Go).
Des marques de miniportables ont fait le choix de fonctionner avec un disque dur à mémoire flash (SSD),
ce qui les rend plus résistant aux chocs, plus légers aussi. Leur usage - limité à de la bureautique légère
et à la connexion - peut être enrichi avec des applications multimédias stockées sur une clé USB ou un
disque dur externe.
Vitesse d'exécution
Pour un confort d'utilisation, on recommande une vitesse de rotation de 5 400 tours/minute minimum
(jusqu'à 7 200 tours/minute).
6. La carte graphique
Le choix de la carte graphique est important, surtout pour faire tourner des jeux vidéo aux graphismes
élaborés, regarder des films, faire de la PAO ou gérer des images en 3D. Comme elle est intégrée à la
carte mère, il vaut mieux vérifier au préalable sa puissance. Les joueurs ont tout intérêt à choisir un
portable avec une carte graphique de marque, compatible avec des programmes indispensables aux
animations comme DirectX 9.
7. Lecteur graveur
Devenus standard, les graveurs DVD double couche ont remplacé peu à peu les combos lecteurs CD et
DVD et graveurs CD. Ils permettent de conserver sur un seul et même support plusieurs Go de données.
Certains portables intègrent même des lecteurs ou lecteur/graveur HD/DVD ou Blu-ray avec des
capacités de stockage allant de 30 Go à 50 Go et plus.
8. Souris et clavier
Si l'ordinateur portable intègre un clavier et un touchpad (pavé tactile), rien n'empêche l'ajout de
périphériques plus confortables. Il existe des « souris de poche » adaptées au format des portables et
miniportables avec un enrouleur de fil intégré et des claviers ergonomiques plus spacieux permettant une
meilleure frappe sur les touches.
A voir aussi
Lors de l'achat d'un ordinateur portable, outre le choix des éléments matériels, il est notamment important
de veiller aux caractéristiques suivantes :
La température de fonctionnement : Le fonctionnement des différents éléments de l'ordinateur portable (notamment le processeur) induit une augmentation de la température de l'ordinateur portable pouvant parfois être gênante (en particulier lorsque la température du clavier devient trop importante).
Il peut exister un danger dû à la surchauffe, accentué notamment lorsque l'ordinateur portable fonctionne avec l'écran fermé, car celui-ci peut empêcher une bonne dissipation thermique.
Le bruit : Afin de dissiper la chaleur due au fonctionnement des différents éléments de
l'ordinateur portable (notamment le processeur), les ordinateurs portables sont parfois équipés de
dispositifs d'évacuation de la chaleur tels que des ventilateurs, pouvant créer une gêne auditive
importante. Il en est de même pour les moteurs entraînant la rotation des disques durs ou du
lecteur/graveur de CD/DVD. Il convient donc de se renseigner sur le niveau de bruit de l'ordinateur en
fonctionnement.
Garantie : L'achat d'un ordinateur portable est un investissement important, il est donc essentiel
de se prémunir des risques liés à un dysfonctionnement en souscrivant à une garantie. La garantie
est d'autant plus essentielle sur un ordinateur portable qu'il n'est pas possible d'interchanger des
éléments (carte graphique, carte son, etc.) comme cela peut être le cas sur des ordinateurs de
bureau. La plupart des offres incluent de facto une garantie de quelques mois à un an, mais il peut
être avisé de prendre une extension de garantie de quelques années afin de couvrir le maximum de
risques.
Veillez à vous renseigner sur le type de dommages couverts par la garantie. Les batteries sont notamment rarement couvertes.
L'offre logicielle : Les ordinateurs portables sont presque systématiquement équipés
d'un système d'exploitation à l'achat mais certaines offres incluent également un bouquet de logiciels
tels que des outils de bureautique, une encyclopédie ou encore un antivirus qui peuvent s'avérer
utiles. Il peut donc être intéressant de prendre en compte cet aspect lors de l'achat d'un micro
portable.
La housse de protection : Lorsque l'ordinateur portable est destiné à un usage nomade, une
mallette de transport est nécessaire afin de le protéger et de le transporter ainsi que l'ensemble de
ses accessoires.
Par ailleurs il est vivement conseillé d'investir dans un câble de sécurité (Kensington ComboSaver)
permettant d'attacher l'ordinateur portable à un élément de mobilier fixe grâce à l'encoche standard
présente sur la quasi-totalité des appareils du marché.
PDA
Introduction aux PDA
Un PDA (Personal Digital Assistant, littéralement assistant numérique personnel, aussi appeléorganiseur)
est un ordinateur de poche composé d'un processeur, de mémoire vive, d'un écran tactile et de
fonctionnalités réseau dans un boîtier compact d'extrêmement petite taille.
Utilité du PDA
Le PDA est un ordinateur de poche dont l'usage est prévu originalement dans un but d'organisation.
Un assistant personnel fournit donc généralement en standard les application suivantes :
Un agenda, pour l'organisation de l'emploi du temps, avec des mécanismes de rappel visuels ou
auditifs. Les rendez-vous et événements planifiés dans l'agenda peuvent être contextualisés, afin de
répondre à des besoins tant professionnels que personnels, grâce à une classification adaptable
(bureau, privé, etc.)
Un gestionnaire de tâches faisant office d'aide-mémoire pour les tâches à effectuer. Une
priorité, des dates limites ou des mécanismes de rappel peuvent être affectées à chaque tâche.
Un carnet d'adresses (gestionnaires de contacts), permettant d'avoir à tout moment sous la
mains les coordonnées de ses contacts (numéro de téléphone, adresse postale, adresse de
messagerie, etc.).
Un logiciel de messagerie, rendant possible la consultation de ses méls ainsi que la rédaction de
nouveaux messages.
Les assistants personnels proposent des outils de bureautique allégés tels qu'un traitement de texte, un
tableur, une calculatrice, des visualiseurs pour un grand nombre de formats de fichiers (fichiers PDF,
images, etc.).
En plus de ces fonctions de base, de plus en plus de PDA proposent des outils multimédias avancés
permettant de lire des vidéos (dans les différents formats, y compris le format DivX), des musiques
(notamment au format mp3) ou des animations Flash.
Les PDA sont également de plus en plus utilisés pour des usages de géolocalisation, de cartographie et
de navigation routière lorsqu'ils sont couplés à un dispositif de géolocalisation (GPS, Global Positionning
System). En effet, pour un faible coût il est possible de disposer d'un système GPS embarqué très
performant permettant une navigation routière à l'aide d'une carte indiquant en permanence sa position,
la vitesse et une représentation visuelle de la route (éventuellement en 3D) avec des instructions à
l'écran et dictées par une voix de synthèse.
Système d'exploitation
Les PDA possèdent des systèmes d'exploitation dont la définition est adaptée à la résolution d'affichage
de l'écran et dont les fonctionnalités correspondent aux caractéristiques de ce type d'appareil.
Il existe plusieurs systèmes d'exploitation pour PDA, correspondant la plupart du temps à des types de
PDA différents et portés par des constructeurs différents, au même titre qu'il existe des ordinateurs Mac
et PC. Les deux principaux systèmes sont :
PalmOS, promu par la société Palm.
Windows Mobile ou Pocket PC (anciennement Windows CE), promu par la société Microsoft.
Ces deux systèmes possèdent à peu près les mêmes caractéristiques et les mêmes fonctionnalités avec
une prise en main différentes mais surtout des applications incompatibles entre les deux systèmes.
Il est à noter qu'il existe des systèmes d'exploitation Linux développés spécifiquement pour les deux
types de machines.
Caractéristiques techniques
Lors de l'achat d'un PDA il est notamment important de veiller aux caractéristiques suivantes :
poids et dimensions : Le PDA est destiné à être emporté partout et doit donc tenir dans la main
ou la poche. Ses dimensions et son poids doivent donc être choisis les plus petits possible, en
gardant à l'esprit le besoin d'ergonomie et de surface d'affichage.
autonomie : L'autonomie du PDA est fonction des caractéristiques de la batterie.
Ni-Cad (Nickel / Cadmium) : type de batterie rechargeable devenu obsolète car
souffrant de l'effet mémoire, c'est-à-dire une baisse progressive de la charge maximale lorsque
celle-ci est rechargée alors qu'elle n'est pas complétement "à plat".
Ni-Mh (Nickel / Métal Hybride): type de batterie rechargeable plus performant que les
batteries Nickel-Cadmium.
Li-Ion (Lithium / Ion): type de batterie rechargeable équipant la majorité des
ordinateurs portables. Les batteries Li-Ion offrent d'excellentes performances pour un coût
modeste. D'autre part les batteries Li-Ion ne souffrent pas de l'effet mémoire, ce qui signifie qu'il
n'est pas nécessaire de vider complétement la batterie avant de recharger l'appareil.
Li-Polymer (Lithium / Polymère) : type de batterie rechargeable ayant des
performances équivalentes aux batteries Li-Ion mais beaucoup plus légères dans la mesure où
le liquide électrolytique et le séparateur microporeux des batteries Li-Ion sont remplacés par un
polymère solide, beaucoup plus léger. En contrepartie le temps de charge est plus important et
leur durée de vie est plus faible.
Attention aux pertes de données lorsque la batterie est totalement vidée !
Processeur
1. Présentation 2. Fonctionnement 3. Instruction 4. Registres 5. Mémoire cache 6. Signaux de commande 7. Unités fonctionnelles 8. Transistor 9. Circuits intégrés 10. Familles 11. Jeu d'instruction 12. Architecture CISC 13. Architecture RISC 14. Améliorations technologiques 15. Le parallélisme 16. Le pipeline 17. Technologie superscalaire 18. HyperThreading 19. Multi-coeur 20. Ressources sur le même sujet
Présentation
Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement) est le cerveau de
l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-dire des informations codées
sous forme binaire, et d'exécuter les instructions stockées en mémoire.
Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s'agissait d'une unité de calcul de 4
bits, cadencé à 108 kHz. Depuis, la puissance des microprocesseurs augmente exponentiellement. Quels
sont donc ces petits morceaux de silicium qui dirigent nos ordinateurs?
Fonctionnement
Le processeur (noté CPU, pour Central Processing Unit) est un circuit électronique cadencé au rythme
d'une horloge interne, grâce à un cristal de quartz qui, soumis à un courant électrique, envoie des
impulsions, appelées « top ». La fréquence d'horloge (appelée également cycle, correspondant au
nombre d'impulsions par seconde, s'exprime en Hertz (Hz). Ainsi, un ordinateur à 200 MHz possède une
horloge envoyant 200 000 000 de battements par seconde. La fréquence d'horloge est généralement un
multiple de la fréquence du système (FSB, Front-Side Bus), c'est-à-dire un multiple de la fréquence de
lacarte mère
A chaque top d'horloge le processeur exécute une action, correspondant à une instruction ou une partie
d'instruction. L'indicateur appelé CPI (Cycles Par Instruction) permet de représenter le nombre moyen de
cycles d'horloge nécessaire à l'exécution d'une instruction sur un microprocesseur. La puissance du
processeur peut ainsi être caractérisée par le nombre d'instructions qu'il est capable de traiter par
seconde. L'unité utilisée est le MIPS (Millions d'Instructions Par Seconde) correspondant à la fréquence
du processeur que divise le CPI.
Instruction
Une instruction est l'opération élémentaire que le processeur peut accomplir. Les instructions sont
stockées dans la mémoire principale, en vue d'être traitée par le processeur. Une instruction est
composée de deux champs :
le code opération, représentant l'action que le processeur doit accomplir ;
le code opérande, définissant les paramètres de l'action. Le code opérande dépend de
l'opération. Il peut s'agir d'une donnée ou bien d'une adresse mémoire.
Code opération Champ opérande
Le nombre d'octets d'une instruction est variable selon le type de donnée (l'ordre de grandeur est de 1 à
4 octets).
Les instructions peuvent être classées en catégories dont les principales sont :
Accès à la mémoire : des accès à la mémoire ou transferts de données entre registres.
Opérations arithmétiques : opérations telles que les additions, soustractions, divisions ou
multiplication.
Opérations logiques : opérations ET, OU, NON, NON exclusif, etc.
Contrôle : contrôles de séquence, branchements conditionnels, etc.
Registres
Lorsque le processeur exécute des instructions, les données sont temporairement stockées dans de
petites mémoires rapides de 8, 16, 32 ou 64 bits que l'on appelle registres. Suivant le type de
processeur le nombre global de registres peut varier d'une dizaine à plusieurs centaines.
Les registres principaux sont :
le registre accumulateur (ACC), stockant les résultats des opérations arithmétiques et
logiques ;
le registre d'état (PSW, Processor Status Word), permettant de stocker des indicateurs sur l'état
du système (retenue, dépassement, etc.) ;
le registre instruction (RI), contenant l'instruction en cours de traitement ;
le compteur ordinal (CO ou PC pour Program Counter), contenant l'adresse de la prochaine
instruction à traiter ;
le registre tampon, stockant temporairement une donnée provenant de la mémoire.
Mémoire cache
La mémoire cache (également appelée antémémoire ou mémoire tampon) est une mémoire rapide
permettant de réduire les délais d'attente des informations stockées en mémoire vive. En effet,
la mémoire centrale de l'ordinateur possède une vitesse bien moins importante que le processeur. Il
existe néanmoins des mémoires beaucoup plus rapides, mais dont le coût est très élevé. La solution
consiste donc à inclure ce type de mémoire rapide à proximité du processeur et d'y stocker
temporairement les principales données devant être traitées par le processeur. Les ordinateurs récents
possèdent plusieurs niveaux de mémoire cache :
La mémoire cache de premier niveau (appelée L1 Cache, pour Level 1 Cache) est
directement intégrée dans le processeur. Elle se subdivise en 2 parties :
La première est le cache d'instructions, qui contient les instructions issues de la
mémoire vive décodées lors de passage dans les pipelines.
La seconde est le cache de données, qui contient des données issues de la mémoire
vive et les données récement utilisées lors des opérations du processeur.
Les caches du premier niveau sont très rapides d'accés. Leur délai d'accès tend à s'approcher de celui
des registres internes aux processeurs.
La mémoire cache de second niveau (appelée L2 Cache, pour Level 2 Cache) est située au
niveau du boîtier contenant le processeur (dans la puce). Le cache de second niveau vient s'intercaler
entre le processeur avec son cache interne et la mémoire vive. Il est plus rapide d'accès que cette
dernière mais moins rapide que le cache de premier niveau.
La mémoire cache de troisième niveau (appelée L3 Cache, pour Level 3 Cache) est située au
niveau de la carte mère.
Tous ces niveaux de cache permettent de réduire les temps de latence des différentes mémoires lors du
traitement et du transfert des informations. Pendant que le processeur travaille, le contrôleur de cache de
premier niveau peut s'interfacer avec celui de second niveau pour faire des transferts d'informations sans
bloquer le processeur. De même, le cache de second niveau est interfacé avec celui de la mémoire
vive(cache de troisième niveau), pour permettre des transferts sans bloquer le fonctionnement normal du
processeur.
Signaux de commande
Les signaux de commande sont des signaux électriques permettant d'orchestrer les différentes unités
du processeur participant à l'exécution d'une instruction. Les signaux de commandes sont distribués
grâce à un élément appelé séquenceur. Le signal Read / Write, en français lecture / écriture, permet par
exemple de signaler à la mémoire que le processeur désire lire ou écrire une information.
Unités fonctionnelles
Le processeur est constitué d'un ensemble d'unités fonctionnelles reliées entre elles. L'architecture d'un
microprocesseur est très variable d'une architecture à une autre, cependant les principaux éléments d'un
microprocesseur sont les suivants :
Une unité d'instruction (ou unité de commande, en anglais control unit) qui lit les données
arrivant, les décode puis les envoie à l'unité d'exécution ;L'unité d'instruction est notamment
constituée des éléments suivants :
séquenceur (ou bloc logique de commande) chargé de synchroniser l'exécution des
instructions au rythme d'une horloge. Il est ainsi chargé de l'envoi des signaux de commande ;
compteur ordinal contenant l'adresse de l'instruction en cours ;
registre d'instruction contenant l'instruction suivante.
Une unité d'exécution (ou unité de traitement), qui accomplit les tâches que lui a données l'unité
d'instruction. L'unité d'exécution est notamment composée des éléments suivants :
L'unité arithmétique et logique (notée UAL ou en anglais ALU pour Arithmetical and
Logical Unit). L'UAL assure les fonctions basiques de calcul arithmétique et les opérations
logiques (ET, OU, Ou exclusif, etc.) ;
L'unité de virgule flottante (notée FPU, pour Floating Point Unit), qui accomplit les
calculs complexes non entiers que ne peut réaliser l'unité arithmétique et logique.
Le registre d'état ;
Le registre accumulateur.
Une unité de gestion des bus (ou unité d'entrées-sorties), qui gère les flux d'informations
entrant et sortant, en interface avec la mémoire vive du système ;
Le schéma ci-dessous donne une représentation simplifiée des éléments constituant le processeur
(l'organisation physique des éléments ne correspond pas à la réalité) :
Transistor
Pour effectuer le traitement de l'information, le microprocesseur possède un ensemble d'instructions,
appelé « jeu d'instructions », réalisées grâce à des circuits électroniques. Plus exactement, le jeu
d'instructions est réalisé à l'aide de semiconducteurs, « petits interrupteurs » utilisant l'effet transistor,
découvert en 1947 par John Barden, Walter H. Brattain et William Shockley qui reçurent le prix Nobel en
1956 pour cette découverte.
Un transistor (contraction de transfer resistor, en français résistance de transfert) est un composant
électronique semi-conducteur, possédant trois électrodes, capable de modifier le courant qui le traverse à
l'aide d'une de ses électrodes (appelée électrode de commande). On parle ainsi de «composant actif»,
par opposition aux « composants passifs », tels que la résistance ou le condensateur, ne possédant que
deux électrodes (on parle de « bipolaire »).
Le transistor MOS (métal, oxyde, silicium) est le type de transistor majoritairement utilisé pour la
conception de circuits intégrés. Le transistor MOS est composé de deux zones chargées négativement,
appelées respectivement source (possédant un potentiel quasi-nul) et drain (possédant un potentiel de
5V), séparées par une région chargée positivement, appelée substrat (en anglais substrate). Le substrat
est surmonté d'une électrode de commande, appelée porte (en anglais gate, parfois également
appeléegrille), permettant d'appliquer une tension sur le substrat.
Lorsqu'aucune tension n'est appliquée à l'électrode de commande, le substrat chargé positivement agit
telle une barrière et empêche les électrons d'aller de la source vers le drain. En revanche, lorsqu'une
tension est appliquée à la porte, les charges positives du substrat sont repoussées et il s'établit un canal
de communication, chargé négativement, reliant la source au drain.
Le transistor agit donc globalement comme un interrupteur programmable grâce à l'électrode de
commande. Lorsqu'une tension est appliquée à l'électrode de commande, il agit comme un interrupteur
fermé, dans le cas contraire comme un interrupteur ouvert.
Circuits intégrés
Assemblés, les transistors peuvent constituer des circuits logiques, qui, assemblés à leur tour, constituent
des processeurs. Le premier circuit intégré date de 1958 et a été mis au point par la sociétéTexas
Instruments.
Les transistors MOS sont ainsi réalisés dans des tranches de silicium (appelées wafer, traduisezgaufres),
obtenues après des traitements successifs. Ces tranches de silicium sont alors découpées en éléments
rectangulaires, constituant ce que l'on appelle un « circuit ». Les circuits sont ensuite placés dans des
boîtiers comportant des connecteurs d'entrée-sortie, le tout constituant un « circuit intégré ». La finesse
de la gravure, exprimée en microns (micromètres, notés µm), définit le nombre de transistors par unité de
surface. Il peut ainsi exister jusqu'à plusieurs millions de transistors sur un seul processeur.
La loi de Moore, édictée en 1965 par Gordon E. Moore, cofondateur de la société Intel, prévoyait que les
performances des processeurs (par extension le nombre de transistors intégrés sur silicium) doubleraient
tous les 12 mois. Cette loi a été révisée en 1975, portant le nombre de mois à 18. La loi de Moore se
vérifie encore aujourd'hui.
Dans la mesure où le boîtier rectangulaire possède des broches d'entrée-sortie ressemblant à des pattes,
le terme de « puce électronique » est couramment employé pour désigner les circuits intégrés.
Familles
Chaque type de processeur possède son propre jeu d'instruction. On distingue ainsi les familles de
processeurs suivants, possédant chacun un jeu d'instruction qui leur est propre :
80x86 : le « x » représente la famille. On parle ainsi de 386, 486, 586, 686, etc.
ARM
IA-64
MIPS
Motorola 6800
PowerPC
SPARC
...
Cela explique qu'un programme réalisé pour un type de processeur ne puisse fonctionner directement sur
un système possédant un autre type de processeur, à moins d'une traduction des instructions,
appeléeémulation. Le terme « émulateur » est utilisé pour désigner le programme réalisant cette
traduction.
Jeu d'instruction
On appelle jeu d'instructions l'ensemble des opérations élémentaires qu'un processeur peut accomplir.
Le jeu d'instruction d'un processeur détermine ainsi son architecture, sachant qu'une même architecture
peut aboutir à des implémentations différentes selon les constructeurs.
Le processeur travaille effectivement grâce à un nombre limité de fonctions, directement câblées sur les
circuits électroniques. La plupart des opérations peuvent être réalisé à l'aide de fonctions basiques.
Certaines architectures incluent néanmoins des fonctions évoluées courante dans le processeur.
Architecture CISC
L'architecture CISC (Complex Instruction Set Computer, soit « ordinateur à jeu d'instruction complexe »)
consiste à câbler dans le processeur des instructions complexes, difficiles à créer à partir des instructions
de base.
L'architecture CISC est utilisée en particulier par les processeurs de type 80x86. Ce type d'architecture
possède un coût élevé dû aux fonctions évoluées imprimées sur le silicium.
D'autre part, les instructions sont de longueurs variables et peuvent parfois nécessiter plus d'un cycle
d'horloge. Or, un processeur basé sur l'architecture CISC ne peut traîter qu'une instruction à la fois, d'où
un temps d'exécution conséquent.
Architecture RISC
Un processeur utilisant la technologie RISC (Reduced Instruction Set Computer, soit « ordinateur à jeu
d'instructions réduit ») n'a pas de fonctions évoluées câblées.
Les programmes doivent ainsi être traduits en instructions simples, ce qui entraîne un développement
plus difficile et/ou un compilateur plus puissant. Une telle architecture possède un coût de fabrication
réduit par rapport aux processeurs CISC. De plus, les instructions, simples par nature, sont exécutées en
un seul cycle d'horloge, ce qui rend l'exécution des programmes plus rapide qu'avec des processeurs
basés sur une architecture CISC. Enfin, de tels processeurs sont capables de traîter plusieurs
instructions simultanément en les traitant en parallèle.
Améliorations technologiques
Au cours des années, les constructeurs de microprocesseurs (appelés fondeurs), ont mis au point un
certain nombre d'améliorations permettant d'optimiser le fonctionnement du processeur.
Le parallélisme
Le parallélisme consiste à exécuter simultanément, sur des processeurs différents, des instructions
relatives à un même programme. Cela se traduit par le découpage d'un programme en plusieurs
processus traités en parallèle afin de gagner en temps d'exécution.
Ce type de technologie nécessite toutefois une synchronisation et une communication entre les différents
processus, à la manière du découpage des tâches dans une entreprise : le travail est divisé en petits
processus distincts, traités par des services différents. Le fonctionnement d'une telle entreprise peut être
très perturbé lorsque la communication entre les services ne fonctionne pas correctement.
Le pipeline
Le pipeline (ou pipelining) est une technologie visant à permettre une plus grande vitesse d'exécution
des instructions en parallélisant des étapes.
Pour comprendre le mécanisme du pipeline, il est nécessaire au préalable de comprendre les phases
d'exécution d'une instruction. Les phases d'exécution d'une instruction pour un processeur contenant un
pipeline « classique » à 5 étages sont les suivantes :
LI : (Lecture de l'Instruction (en anglais FETCH instruction) depuis le cache ;
DI : Décodage de l'Instruction (DECODe instruction) et recherche des opérandes (Registre ou
valeurs immédiate);
EX : Exécution de l'Instruction (EXECute instruction) (si ADD, on fait la somme, si SUB, on fait la
soustraction, etc.);
MEM : Accès mémoire (MEMory access), écriture dans la mémoire si nécéssaire ou chargement
depuis la mémoire ;
ER : Ecriture (Write instruction) de la valeur calculée dans les registres.
Les instructions sont organisées en file d'attente dans la mémoire, et sont chargées les unes après les
autres.
Grâce au pipeline, le traitement des instructions nécessite au maximum les cinq étapes précédentes.
Dans la mesure où l'ordre de ces étapes est invariable (LI, DI, EX, MEM et ER), il est possible de créer
dans le processeur un certain nombre de circuits spécialisés pour chacune de ces phases.
L'objectif du pipeline est d'être capable de réaliser chaque étape en parallèle avec les étapes amont et
aval, c'est-à-dire de pouvoir lire une instruction (LI) lorsque la précédente est en cours de décodage (DI),
que celle d'avant est en cours d'exécution (EX), que celle située encore précédemment accède à la
mémoire (MEM) et enfin que la première de la série est déjè en cours d'écriture dans les registres (ER).
Il faut compter en général 1 à 2 cycles d'horloge (rarement plus) pour chaque phase du pipeline, soit 10
cycles d'horloge maximum par instruction. Pour deux instructions, 12 cycles d'horloge maximum seront
nécessaires (10+2=12 au lieu de 10*2=20), car la précédente instruction était déjà dans le pipeline. Les
deux instructions sont donc en traitement dans le processeur, avec un décalage d'un ou deux cycles
d'horloge). Pour 3 instructions, 14 cycles d'horloge seront ainsi nécessaires, etc.
Le principe du pipeline est ainsi comparable avec une chaîne de production de voitures. La voiture passe
d'un poste de travail à un autre en suivant la chaîne de montage et sort complètement assemblée à la
sortie du bâtiment. Pour bien comprendre le principe, il est nécessaire de regarder la chaîne dans son
ensemble, et non pas véhicule par véhicule. Il faut ainsi 3 heures pour faire une voiture, mais pourtant
une voiture est produite toute les minutes !
Il faut noter toutefois qu'il existe différents types de pipelines, de 2 à 40 étages, mais le principe reste le
même.
Technologie superscalaire
La technologie superscalaire (en anglais superscaling) consiste à disposer plusieurs unités de traitement
en parallèle afin de pouvoir traiter plusieurs instructions par cycle.
HyperThreading
La technologie HyperThreading (ou Hyper-Threading, noté HT, traduisez HyperFlots ou HyperFlux)
consiste à définir deux processeurs logiques au sein d'un processeur physique. Ainsi, le système
reconnaît deux processeurs physiques et se comporte en système multitâche en envoyant deux thréads
simultanés, on parle alors de SMT (Simultaneous Multi Threading). Cette « supercherie » permet d'utiliser
au mieux les ressources du processeur en garantissant que des données lui sont envoyées en masse.
Multi-coeur
Un processeur multi-coeur est tout simplement un processeur composé non pas de 1 mais de 2 (ou 4
ou 8) unités de calcul. Ainsi, pour un processeur bi-coeur (ou DualCore) le processeur dispose à
fréquence d'horloge égale d'une puissance de calcul deux fois plus importante. Pour autant, le gain n'est
pas systématiquement visible. En effet, il faut que les logiciels et les systèmes d'exploitation sachent
gérer correctement ces processeurs afin qu'un gain significatif soit perceptible. Ainsi, sous Windows, seul
Vista et Sept exploitent correctement ces processeurs. Dans ce cas, la version 64 bits est conseillée.
Carte mère1. Présentation de la carte mère 2. Caractéristiques 3. Facteur d'encombrement d'une carte mère 4. Composants intégrés 5. Le chipset 6. L'horloge et la pile du CMOS 7. Le BIOS 8. Le support de processeur 9. Les connecteurs de mémoire vive 10. Les connecteurs d'extension 11. Les connecteurs d'entrée-sortie 12. Ressources sur le même sujet
Présentation de la carte mère
L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou
«motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de
l'ensemble des éléments essentiels de l'ordinateur.
Comme son nom l'indique, la carte mère est une carte maîtresse, prenant la forme d'un grand circuit
imprimé possédant notamment des connecteurs pour les cartes d'extension, les barrettes de mémoires,
le processeur, etc.
Caractéristiques
Il existe plusieurs façons de caractériser une carte mère, notamment selon les caractéristiques
suivantes :
le facteur d'encombrement,
le chipset,
le type de support de processeur,
les connecteurs d'entrée-sortie.
Facteur d'encombrement d'une carte mère
On désigne généralement par le terme « facteur d'encombrement » (ou facteur de forme, en
anglaisform factor), la géométrie, les dimensions, l'agencement et les caractéristiques électriques de la
carte mère. Afin de fournir des cartes mères pouvant s'adapter dans différents boîtiers de marques
différentes, des standards ont été mis au point :
AT baby / AT full format est un format utilisé sur les premiers ordinateurs PC du type 386 ou
486. Ce format a été remplacé par le format ATX possédant une forme plus propice à la circulation de
l'air et rendant l'accès aux composants plus pratique ;
ATX : Le format ATX est une évolution du format Baby-AT. Il s'agit d'un format étudié pour
améliorer l'ergonomie. Ainsi la disposition des connecteurs sur une carte mère ATX est prévue de
manière à optimiser le branchement des périphériques (les connecteurs IDE sont par exemple situés
du côté des disques). D'autre part, les composants de la carte mère sont orientés parallèlement, de
manière à permettre une meilleure évacuation de la chaleur ;
ATX standard : Le format ATX standard présente des dimensions classiques de
305x244 mm. Il propose un connecteur AGP et 6 connecteurs PCI.
micro-ATX : Le format microATX est une évolution du format ATX, permettant d'en
garder les principaux avantages tout en proposant un format de plus petite dimension (244x244
mm), avec un coût réduit. Le format micro-ATX propose un connecteur AGP et 3
connecteurs PCI.
Flex-ATX : Le format FlexATX est une extension du format microATX afin d'offrir une
certaine flexibilité aux constructeurs pour le design de leurs ordinateurs. Il propose un
connecteur AGP et 2 connecteurs PCI.
mini-ATX : Le format miniATX est un format compact alternatif au format microATX
(284x208 mm), proposant un connecteur AGP et 4 connecteurs PCI au lieu des 3 du format
microATX. Il est principalement destiné aux ordinateurs de type mini-PC (barebone).
BTX : Le format BTX (Balanced Technology eXtended), porté par la société Intel, est un format
prévu pour apporter quelques améliorations de l'agencement des composants afin d'optimiser la
circulation de l'air et de permettre une optimisation acoustique et thermique. Les différents
connecteurs (connecteurs de mémoire, connecteurs d'extension) sont ainsi alignés parallèlement,
dans le sens de circulation de l'air. Par ailleurs le microprocesseur est situé à l'avant du boîtier au
niveau des entrées d'aération, où l'air est le plus frais. Le connecteur d'alimentation BTX est le même
que celui des alimentations ATX. Le standard BTX définit trois formats :
BTX standard, présentant des dimensions standard de 325x267 mm ;
micro-BTX, de dimensions réduites (264x267 mm) ;
pico-BTX, de dimensions extrêmement réduites (203x267 mm).
ITX : Le format ITX (Information Technology eXtended), porté par la société Via, est un format
extrêmement compact prévu pour des configurations exigûes telles que les mini-PC. Il existe deux
principaux formats ITX :
mini-ITX, avec des dimensions minuscules (170x170 mm) est un emplacement PCI ;
nano-ITX, avec des dimensions extrêmement minuscules (120x120 mm) et un
emplacement miniPCI.
Ainsi, du choix d'une carte mère (et de son facteur de forme) dépend le choix du boîtier. Le tableau ci-
dessous récapitule les caractéristiques des différents facteurs de forme :
Facteur de forme Dimensions Emplacements
ATX 305 mm x 244 mm AGP / 6 PCI
microATX 244 mm x 244 mm AGP / 3 PCI
FlexATX 229 mm x 191 mm AGP / 2 PCI
Mini ATX 284 mm x 208 mm AGP / 4 PCI
Mini ITX 170 mm x 170 mm 1 PCI
Nano ITX 120 mm x 120 mm 1 MiniPCI
BTX 325 mm x 267 mm 7
microBTX 264 mm x 267 mm 4
picoBTX 203 mm x 267 mm 1
Composants intégrés
La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés sur son circuit
imprimé :
Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du processeur,
mémoire cache et mémoire vive, slots d'extension,...),
L'horloge et la pile du CMOS,
Le BIOS,
Le bus système et les bus d'extension.
En outre, les cartes mères récentes embarquent généralement un certain nombre de périphériques
multimédia et réseau pouvant être désactivés :
carte réseau intégrée ;
carte graphique intégrée ;
carte son intégrée ;
contrôleurs de disques durs évolués.
Le chipset
Le chipset (traduisez jeu de composants ou jeu de circuits) est un circuit électronique chargé de
coordonner les échanges de données entre les divers composants de l'ordinateur (processeur,
mémoire...). Dans la mesure où le chipset est intégré à la carte mère, il est important de choisir une carte
mère intégrant un chipset récent afin de maximiser les possibilités d'évolutivité de l'ordinateur.
Certains chipsets intègrent parfois une puce graphique ou une puce audio, ce qui signifie qu'il n'est pas
nécessaire d'installer une carte graphique ou une carte son. Il est toutefois parfois conseillé de les
désactiver (lorsque cela est possible) dans le setup du BIOS et d'installer des cartes d'extension de
qualité dans les emplacements prévus à cet effet.
L'horloge et la pile du CMOS
L'horloge temps réel (notée RTC, pour Real Time Clock) est un circuit chargé de la synchronisation des
signaux du système. Elle est constituée d'un cristal qui, en vibrant, donne des impulsions (appelés tops
d'horloge) afin de cadencer le système. On appelle fréquence de l'horloge (exprimée en MHz) le nombre
de vibrations du cristal par seconde, c'est-à-dire le nombre de tops d'horloge émis par seconde. Plus la
fréquence est élevée, plus le système peut traiter d'informations.
Lorsque l'ordinateur est mis hors tension, l'alimentation cesse de fournir du courant à la carte mère. Or,
lorsque l'ordinateur est rebranché, le système est toujours à l'heure. Un circuit électronique,
appelé CMOS(Complementary Metal-Oxyde Semiconductor, parfois appelé BIOS CMOS), conserve en
effet certaines informations sur le système, telles que l'heure, la date système et quelques paramètres
essentiels du système.
Le CMOS est continuellement alimenté par une pile (au format pile bouton) ou une batterie située sur la
carte mère. Ainsi, les informations sur le matériel installé dans l'ordinateur (comme par exemple le
nombre de pistes, de secteurs de chaque disque dur) sont conservées dans le CMOS. Dans la mesure
où le CMOS est une mémoire lente, certains systèmes recopient parfois le contenu du CMOS dans la
RAM (mémoire rapide), le terme de « memory shadow » est employé pour décrire ce processus de copie
en mémoire vive.
Le « complémentary metal-oxyde semiconductor », est une technologie de fabrication de transistors,
précédée de bien d'autres, telles que la TTL (« Transistor-transistor-logique »), la TTLS (TTL Schottky)
(plus rapide), ou encore le NMOS (canal négatif) et le PMOS (canal positif).
Le CMOS a permis de mettre des canaux complémentaires sur une même puce. Par rapport à la TTL ou
TTLS, le CMOS est beaucoup moins rapide, mais a consomme en revanche infiniment moins d'énergie,
d'où son emploi dans les horloges d'ordinateurs, qui sont alimentées par des piles. Le terme de CMOS
est parfois utilisé à tort pour désigner l'horloge des ordinateurs.
Lorsque l'heure du système est régulièrement réinitialisée, ou que l'horloge prend du retard, il suffit
généralement d'en changer la pile !
Le BIOS
Le BIOS (Basic Input/Output System) est le programme basique servant d'interface entre le système
d'exploitation et la carte mère. Le BIOS est stocké dans une ROM (mémoire morte, c'est-à-dire une
mémoire en lecture seule), ainsi il utilise les données contenues dans le CMOS pour connaître la
configuration matérielle du système.
Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup, traduisez configuration
du BIOS) accessible au démarrage de l'ordinateur par simple pression d'une touche (généralement la
touche Suppr. En réalité le setup du BIOS sert uniquement d'interface pour la configuration, les données
sont stockées dans le CMOS. Pour plus d'informations n'hésitez pas à vous reporter au manuel de votre
carte mère).
Le support de processeur
Le processeur (aussi appelé microprocesseur) est le cerveau de l'ordinateur. Il exécute les instructions
des programmes grâce à un jeu d'instructions. Le processeur est caractérisé par sa fréquence, c'est-à-
dire la cadence à laquelle il exécute les instructions. Ainsi, un processeur cadencé à 800 MHz effectuera
grossièrement 800 millions d'opérations par seconde.
La carte mère possède un emplacement (parfois plusieurs dans le cas de cartes mères multi-
processeurs) pour accueillir le processeur, appelé support de processeur. On distingue deux catégories
de supports :
Slot (en français fente) : il s'agit d'un connecteur rectangulaire dans lequel on enfiche le
processeur verticalement
Socket (en français embase) : il s'agit d'un connecteur carré possédant un grand nombre de
petits connecteurs sur lequel le processeur vient directement s'enficher
Au sein de ces deux grandes familles, il existe des version différentes du support, selon le type de
processeur. Il est essentiel, quel que soit le support, de brancher délicatement le processeur afin de ne
tordre aucune de ses broches (il en compte plusieurs centaines). Afin de faciliter son insertion, un support
appelé
ZIF (Zero Insertion Force, traduisez force d'insertion nulle) a été créé. Les supports ZIF possèdent une
petite manette, qui, lorsqu'elle est levée, permet l'insertion du processeur sans aucune pression et,
lorsqu'elle est rabaissée, maintient le processeur sur son support.
Le processeur possède généralement un détrompeur, matérialisé par un coin tronqué ou une marque de
couleur, devant être aligné avec la marque correspondante sur le support.
Dans la mesure où le processeur rayonne thermiquement, il est nécessaire d'en dissiper la chaleur pour
éviter que ses circuits ne fondent. C'est la raison pour laquelle il est généralement surmonté
d'undissipateur thermique (appelé parfois refroidisseur ou radiateur), composé d'un métal ayant une
bonne conduction thermique (cuivre ou aluminium), chargé d'augmenter la surface d'échange thermique
du microprocesseur. Le dissipateur thermique comporte une base en contact avec le processeur et des
ailettes afin d'augmenter la surface d'échange thermique. Un ventilateur accompagne généralement le
dissipateur pour améliorer la circulation de l'air autour du dissipateur et améliorer l'échange de chaleur.
Le terme « ventirad » est ainsi parfois utilisé pour désigner l'ensemble Ventilateur + Radiateur. C'est le
ventilateur du boîtier qui est chargé d'extraire l'air chaud du boîtier et permettre à l'air frais provenant de
l'extérieur d'y entrer. Pour éviter les bruits liés au ventilateur et améliorer la dissipation de chaleur, il est
également possible d'utiliser un système de refroidissement à eau (dit watercooling).
Les connecteurs de mémoire vive
La mémoire vive (RAM pour Random Access Memory) permet de stocker des informations pendant tout
le temps de fonctionnement de l'ordinateur, son contenu est par contre détruit dès lors que l'ordinateur
est éteint ou redémarré, contrairement à une mémoire de masse telle que le disque dur, capable de
garder les informations même lorsqu'il est hors tension. On parle de « volatilité » pour désigner ce
phénomène.
Pourquoi alors utiliser de la mémoire vive alors que les disques durs reviennent moins chers à capacité
égale ? La réponse est que la mémoire vive est extrêmement rapide par comparaison aux périphériques
de stockage de masse tels que le disque dur. Elle possède en effet un temps de réponse de l'ordre de
quelques dizaines de nanosecondes (environ 70 pour la DRAM, 60 pour la RAM EDO, et 10 pour la
SDRAM voire 6 ns sur les SDRam DDR) contre quelques millisecondes pour le disque dur.
La mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs de la carte
mère.
Les connecteurs d'extension
Les connecteurs d'extension (en anglais slots) sont des réceptacles dans lesquels il est possible
d'insérer des cartes d'extension, c'est-à-dire des cartes offrant de nouvelles fonctionnalités ou de
meilleures performances à l'ordinateur. Il existe plusieurs sortes de connecteurs :
Connecteur ISA (Industry Standard Architecture) : permettant de connecter des cartes ISA, les
plus lentes fonctionnant en 16-bit
Connecteur VLB (Vesa Local Bus): Bus servant autrefois à connecter des cartes graphiques
Connecteur PCI (Peripheral Component InterConnect) : permettant de connecter des cartes PCI,
beaucoup plus rapides que les cartes ISA et fonctionnant en 32-bit
Connecteur AGP (Accelerated Graphic Port): un connecteur rapide pour carte graphique.
Connecteur PCI Express (Peripheral Component InterConnect Exress) : architecture de bus plus
rapide que les bus AGP et PCI.
Connecteur AMR (Audio Modem Riser): ce type de connecteur permet de brancher des mini-
cartes sur les PC en étant équipés
Les connecteurs d'entrée-sortie
La carte mère possède un certain nombre de connecteurs d'entrées-sorties regroupés sur le « panneau
arrière ».
La plupart des cartes mères proposent les connecteurs suivants :
Port série , permettant de connecter de vieux périphériques ;
Port parallèle , permettant notamment de connecter de vieilles imprimantes ;
Ports USB (1.1, bas débit, ou 2.0, haut débit), permettant de connecter des périphériques plus
récents ;
Connecteur RJ45 (appelés LAN ou port ethernet) permettant de connecter l'ordinateur à un
réseau. Il correspond à une reseau.php3 carte réseau intégrée à la carte mère ;
Connecteur VGA (appelé SUB-D15), permettant de connecter un écran. Ce connecteur
correspond à la graphique.php3 carte graphique intégrée ;
Prises audio (entrée Line-In, sortie Line-Out et microphone), permettant de connecter des
enceintes acoustiques ou une chaîne hi fi, ainsi qu'un microphone. Ce connecteur correspond à
la son.php3 carte son intégrée.
Boîtier PC1.
Le boîtier2. Bloc d'alimentation 3. Facteur de forme 4. Taille 5. Aération 6. Connectique 7. Ressources sur le même sujet
Le boîtier
Le boîtier (ou châssis) de l'ordinateur est le squelette métallique abritant ses différents composants
internes. Les boîtiers ont par ailleurs d'autres utilités telles que l'isolement phonique ou la protection
contre les rayonnements électromagnétiques. Ainsi des normes existent afin de garantir un niveau de
protection conforme à la réglementation en vigueur.
Les éléments de choix principaux d'un boîtier sont son facteur de forme, ses dimensions, le nombre
d'emplacements pour des lecteurs, son alimentation, la connectique en façade et enfin son design et ses
couleurs. Ainsi, si les boîtiers se ressemblaient tous aux débuts du PC, il existe aujourd'hui des boîtiers
de toutes les formes, parfois même transparents afin de permettre aux utilisateurs de faire du tuning à
l'aide par exemple de néons.
Bloc d'alimentation
La plupart des boîtiers sont fournis avec un bloc d'alimentation (en anglais power supply).
L'alimentation permet de fournir du courant électrique à l'ensemble des composants de l'ordinateur. Aux
Etats-Unis les blocs d'alimentation délivrent un courant à 110V et à 60 Hz, tandis qu'en Europe la norme
est 220V à une fréquence de 50 Hz, c'est la raison pour laquelle les blocs d'alimentation possèdent la
plupart du temps un commutateur permettant de choisir le type de tension à délivrer.
Il est essentiel de s'assurer que le commutateur est bien positionné sur le bon voltage afin de ne pas
risquer de détériorer des éléments de l'unité centrale.
Le bloc d'alimentation doit posséder une puissance suffisante pour alimenter les périphériques de
l'ordinateur.
Une attention particulière devra également être portée sur le niveau sonore de l'alimentation.
Facteur de forme
Le facteur de forme (en anglais form factor) désigne le format de l'emplacement prévu pour la carte
mère, les types de connecteurs et leur agencement. Il conditionne ainsi le type de carte mère que le
boîtier peut accueillir.
Taille
La taille du boîtier conditionne le nombre d'emplacements pour les lecteurs en façade, ainsi que le
nombre d'emplacements pour des disques durs en interne. On distingue généralement les catégories
suivantes :
Grand tour : il s'agit de boîtiers de grande taille (60 à 70 cm de hauteur), possédant 4 à 6
emplacements 5"1/4 et 2 ou 3 emplacements 3"1/2 en façade, ainsi que deux ou trois emplacements
3"1/2 en interne.
Moyen tour : il s'agit de boîtiers de taille moyenne (40 à 50 cm de hauteur), possédant 3 à 4
emplacements 5"1/4 en façade et deux emplacements 3"1/2.
Mini tour : il s'agit de boîtiers de petite dimension (35 à 40 cm de hauteur), possédant
généralement 3 emplacements 5"1/4 et deux emplacements 3"1/2 en façade, ainsi que deux
emplacement 3"1/2 en interne.
Barebone (littéralement « os nu ») ou mini-PC : il s'agit du plus petit format de boîtier (10 à 20
cm de hauteur). La plupart du temps les barebone sont des ordinateurs pré assemblés embarquant
une carte mère ayant un facteur de forme réduit (SFF, pour Small Form Factor). Ils possèdent
généralement un ou deux emplacements 5"1/4 et un emplacement 3"1/2 en façade, ainsi qu'un
emplacement 3"1/2 en interne.
Aération
Un boîtier renferme l'ensemble de l'électronique interne de l'ordinateur. Or, les éléments de l'ordinateur
sont amenés à atteindre des températures élevées. Il est donc impératif de choisir un boîtier possédant
une bonne ventilation, c'est-à-dire un maximum de ventilateurs, ainsi que des aérations. Il est ainsi
conseillé de choisir un boîtier comportant a minima une entrée d'air à l'avant, munie d'un filtre à air
amovible, ainsi que d'une sortie d'air à l'arrière.
Connectique
Pour des raisons évidentes d'ergonomie, de plus en plus de boîtiers proposent un panneau de
connecteurs en façade. Ces connecteurs doivent, pour être fonctionnels, être raccordés en interne à la
carte mère.
Ordinateur - Introduction à la notion de mémoire
Rôle de la mémoire
On appelle « mémoire » tout composant électronique capable de stocker temporairement des données.
On distingue ainsi deux grandes catégories de mémoires :
la mémoire centrale (appelée également mémoire interne) permettant de mémoriser
temporairement les données lors de l'exécution des programmes. La mémoire centrale est réalisée à
l'aide de micro-conducteurs, c'est-à-dire des circuits électroniques spécialisés rapides. La mémoire
centrale correspond à ce que l'on appelle la mémoire vive.
la mémoire de masse (appelée également mémoire physique ou mémoire externe) permettant
de stocker des informations à long terme, y compris lors de l'arrêt de l'ordinateur. La mémoire de
masse correspond aux dispositifs de stockage magnétiques, tels que le disque dur, aux dispositifs de
stockage optique, correspondant par exemple aux CD-ROM ou aux DVD-ROM, ainsi
qu'aux mémoires mortes.
Caractéristiques techniques
Les principales caractéristiques d'une mémoire sont les suivantes :
La capacité, représentant le volume global d'informations (en bits) que la mémoire peut stocker ;
Le temps d'accès, correspondant à l'intervalle de temps entre la demande de lecture/écriture et
la disponibilité de la donnée ;
Le temps de cycle, représentant l'intervalle de temps minimum entre deux accès successifs ;
Le débit, définissant le volume d'information échangé par unité de temps, exprimé en bits par
seconde ;
La non volatilité caractérisant l'aptitude d'une mémoire à conserver les données lorsqu'elle n'est
plus alimentée électriquement.
Ainsi, la mémoire idéale possède une grande capacité avec des temps d'accès et temps de cycle très
restreints, un débit élevé et est non volatile.
Néanmoins les mémoires rapides sont également les plus onéreuses. C'est la raison pour laquelle des
mémoire utilisant différentes technologiques sont utilisées dans un ordinateur, interfacées les unes avec
les autres et organisées de façon hiérarchique.
Les mémoires les plus rapides sont situées en faible quantité à proximité du processeur et les mémoires
de masse, moins rapides, servent à stocker les informations de manière permanente.
Types de mémoires
Mémoire vive
La mémoire vive, généralement appelée RAM (Random Access Memory, traduisez mémoire à accès
direct), est la mémoire principale du système, c'est-à-dire qu'il s'agit d'un espace permettant de stocker
de manière temporaire des données lors de l'exécution d'un programme.
En effet, contrairement au stockage de données sur une mémoire de masse telle que le disque dur, la
mémoire vive est volatile, c'est-à-dire qu'elle permet uniquement de stocker des données tant qu'elle est
alimentée électriquement. Ainsi, à chaque fois que l'ordinateur est éteint, toutes les données présentes
en mémoire sont irrémédiablement effacées.
Mémoire morte
La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture seule) est un
type de mémoire permettant de conserver les informations qui y sont contenues même lorsque la
mémoire n'est plus alimentée électriquement. A la base ce type de mémoire ne peut être accédée qu'en
lecture. Toutefois il est désormais possible d'enregistrer des informations dans certaines mémoires de
type ROM.
Mémoire flash
La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes. En effet,
la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant facilement être
accessible en lecture ou en écriture. En contrepartie les temps d'accès des mémoires flash sont plus
importants que ceux de la mémoire vive.
La mémoire vive (RAM ou mémoire PC)1.
Types de mémoires vives2. Fonctionnement de la mémoire vive 3. Formats de barrettes de mémoire vive
1. DRAM PM 2. DRAM FPM 3. DRAM EDO 4. SDRAM 5. DR-SDRAM (Rambus DRAM) 6. DDR-SDRAM 7. DDR2-SDRAM
8. DDR3-SDRAM 9. Tableau récapitulatif
4. Synchronisation (timings) 5. La correction d'erreurs
1. Bit de parité 2. Barrettes ECC 3. Barrettes avec registre ou tampon (registered ou buffered)
6. Dual Channel 7. Ressources sur le même sujet
Types de mémoires vives
On distingue généralement deux grandes catégories de mémoires vives :
Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles
sont principalement utilisées pour la mémoire centrale de l'ordinateur ;
Les mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses. Les
SRAM sont notamment utilisées pour les mémoires cache du processeur ;
Fonctionnement de la mémoire vive
La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des
charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0,
ce qui signifie que chaque condensateur représente un bit de la mémoire.
Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact
estrafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les
mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15
nanosecondes (ns).
Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de
modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire
que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne.
Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de ligne (en
anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas instantané et s'effectue
pendant un délai appelé temps de latence. Par conséquent l'accès à une donnée en mémoire dure un
temps égal au temps de cycle auquel il faut ajouter le temps de latence.
Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de délai de
cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à l'inverse de la
fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le temps de cycle est de 5
ns (1/(200*106)).
Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le temps
d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des cycles
d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur cadencé à 200
MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de 60ns), il y a 11 cycles d'attente
pour un cycle de transfert. Les performances de l'ordinateur sont d'autant diminuées qu'il y a de cycles
d'attentes, il est donc conseillé d'utiliser des mémoires plus rapides.
Formats de barrettes de mémoire vive
Il existe de nombreux types de mémoires vives. Celles-ci se présentent toutes sous la forme de barrettes
de mémoire enfichables sur la carte-mère.
Les premières mémoires se présentaient sous la forme de puces appelées DIP (Dual Inline Package).
Désormais les mémoires se trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes
enfichables dans des connecteurs prévus à cet effet. On distingue habituellement trois types de barrettes
de RAM :
les barrettes au format SIMM (Single Inline Memory Module) : il s'agit de circuits imprimés dont
une des faces possède des puces de mémoire. Il existe deux types de barrettes SIMM, selon le
nombre de connecteurs :
Les barrettes SIMM à 30 connecteurs (dont les dimensions sont 89x13mm) sont des
mémoires 8 bits qui équipaient les premières générations de PC (286, 386).
Les barrettes SIMM à 72 connecteurs (dont les dimensions sont 108x25mm) sont des
mémoires capables de gérer 32 bits de données simultanément. Ces mémoires équipent des PC
allant du 386DX aux premiers Pentium. Sur ces derniers le processeur travaille avec un bus de
données d'une largeur de 64 bits, c'est la raison pour laquelle il faut absolument équiper ces
ordinateurs de deux barrettes SIMM. Il n'est pas possible d'installer des barrettes 30 broches sur
des emplacements à 72 connecteurs dans la mesure où un détrompeur (encoche au centre des
connecteurs) en empêche l'enfichage.
les barrettes au format DIMM (Dual Inline Memory Module) sont des mémoires 64 bits, ce qui
explique pourquoi il n'est pas nécessaire de les apparier. Les barrettes DIMM possèdent des puces
de mémoire de part et d'autre du circuit imprimé et ont également 84 connecteurs de chaque côté, ce
qui les dote d'un total de 168 broches. En plus de leurs dimensions plus grandes que les barrettes
SIMM (130x25mm) ces barrettes possèdent un second détrompeur pour éviter la confusion.
Il peut être intéressant de noter que les connecteurs DIMM ont été améliorés afin de faciliter leur insertion
grâce à des leviers situés de part et d'autre du connecteur. Il existe en outre des modules de plus petite
taille, appelés SO DIMM (Small Outline DIMM), destinés aux ordinateurs portables. Les barrettes SO
DIMM comportent uniquement 144 broches pour les mémoires 64 bits et 77 pour les mémoires 32 bits.
les barrettes au format RIMM (Rambus Inline Memory Module, appelées également RD-
RAM ou DRD-RAM) sont des mémoires 64 bits développée par la société Rambus. Elles possèdent
184 broches. Ces barrettes possèdent deux encoches de repérage (détrompeurs), évitant tout risque
de confusion avec les modules précédents.
Compte tenu de leur vitesse de transfert élevée, les barrettes RIMM possèdent un film thermique chargé
d'améliorer la dissipation de la chaleur.
Comme dans le cas des DIMM, il existe des modules de plus petite taille, appelés SO RIMM (Small
Outline RIMM), destinés aux ordinateurs portables. Les barrettes SO RIMM comportent uniquement 160
broches.
DRAM PM
La DRAM (Dynamic RAM, RAM dynamique) est le type de mémoire le plus répandu au début du
millénaire. Il s'agit d'une mémoire dont les transistors sont rangés dans une matrice selon des lignes et
des colonnes. Un transistor, couplé à un condensateur donne l'information d'un bit. 1 octet comprenant 8
bits, une barrette de mémoire DRAM de 256 Mo contiendra donc 256 * 2^10 * 2^10 = 256 * 1024 * 1024 =
268 435 456 octets = 268 435 456 * 8 = 2 147 483 648 bits = 2 147 483 648 transistors. Une barrette de
256 Mo possède ainsi en réalité une capacité de 268 435 456 octets, soit 268 Mo ! Ce sont des mémoires
dont le temps d'accès est de 60 ns.
D'autre part, les accès mémoire se font généralement sur des données rangées consécutivement en
mémoire. Ainsi le mode d'accès en rafale (burst mode) permet d'accéder aux trois données
consécutives à la première sans temps de latence supplémentaire. Dans ce mode en rafale, le temps
d'accès à la première donnée est égal au temps de cycle auquel il faut ajouter le temps de latence, et le
temps d'accès aux trois autres données est uniquement égal aux temps de cycle, on note donc sous la
forme X-Y-Y-Y les quatre temps d'accès, par exemple la notation 5-3-3-3 indique une mémoire pour
laquelle 5 cycles d'horloge sont nécessaires pour accéder à la première donnée et 3 pour les suivantes.
DRAM FPM
Pour accélérer les accès à la DRAM, il existe une technique, appelée pagination consistant à accéder à
des données situées sur une même colonne en modifiant uniquement l'adresse de la ligne, ce qui permet
d'éviter la répétition du numéro de colonne entre la lecture de chacune des lignes. On parle alors
deDRAM FPM (Fast Page Mode). La FPM permet d'obtenir des temps d'accès de l'ordre de 70 à 80
nanosecondes pour une fréquence de fonctionnement pouvant aller de 25 à 33 Mhz.
DRAM EDO
La DRAM EDO (Extended Data Out, soit Sortie des données améliorée parfois également appelé "hyper-
page") est apparue en 1995. La technique utilisée avec ce type de mémoire consiste à adresser la
colonne suivante pendant la lecture des données d'une colonne. Cela crée un chevauchement des accès
permettant de gagner du temps sur chaque cycle. Le temps d'accès à la mémoire EDO est donc
d'environ 50 à 60 nanosecondes pour une fréquence de fonctionnement allant de 33 à 66 Mhz.
Ainsi, la RAM EDO, lorsqu'elle est utilisée en mode rafale permet d'obtenir des cycles de la forme 5-2-2-
2, soit un gain de 4 cycles sur l'accès à 4 données. Dans la mesure où la mémoire EDO n'acceptait pas
des fréquences supérieures à 66 Mhz, elle a disparu au bénéfice de la SDRAM.
SDRAM
La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des
données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM
(qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des
temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode
rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la
SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des
temps d'accès d'environ 10 ns.
DR-SDRAM (Rambus DRAM)
La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de
transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une
bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du
bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie
propriétaire, ce qui signifie que toute entreprise désirant construire des barrettes de RAM selon cette
technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel.
DDR-SDRAM
La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM,
permettant de doubler le taux de transfert de la SDRAM à fréquence égale.
La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires
DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une
donnée à chaque front montant.
La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la même
fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front descendant.
Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX où «XXXX»
représente le débit en Mo/s.
DDR2-SDRAM
La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la DDR à
fréquence externe égale.
On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de lecture et
d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la lecture et pour
l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de données que la DDR.
La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique (240 pour la
DDR2 contre 184 pour la DDR).
DDR3-SDRAM
Le DDR3 SDRAM améliore les performances par rapport au DDR2, mais surtout diminue la
consommation électrique. En effet, celle-ci est de 40 % inférieure, en particulier grâce à une baisse du
voltage utilisé, une finesse de gravure accrue. Si le débit théorique de ces barrettes peut dépasser les 10
Go/s, les temps de latence sont restés dans les mêmes ordres de grandeur que ceux des DDR2.
Les barrettes DDR3 ont 240 connecteurs comme les DDR2 mais ne sont absolument pas compatibles
(des détrompeurs empêchent l'insertion).
Tableau récapitulatif
Le tableau ci-dessous donne la correspondance entre la fréquence de la carte-mère (FSB), celle de la
mémoire (RAM) et son débit :
Mémoire Appellation Fréquence E/S Fréquence mémoire Débit
DDR200 PC1600 100 MHz 100 MHz 1,6 Go/s
DDR266 PC2100 133 MHz 133 MHz 2,1 Go/s
DDR333 PC2700 166 MHz 166 MHz 2,7 Go/s
DDR400 PC3200 200 MHz 200 MHz 3,2 Go/s
DDR433 PC3500 217 MHz 217 MHz 3,5 Go/s
DDR466 PC3700 233 MHz 233 MHz 3,7 Go/s
DDR500 PC4000 250 MHz 250 MHz 4 Go/s
DDR533 PC4200 266 MHz 266 MHz 4,2 Go/s
DDR538 PC4300 269 MHz 269 MHz 4,3 Go/s
DDR550 PC4400 275 MHz 275 MHz 4,4 Go/s
DDR2-400 PC2-3200 200 MHz 100 MHz 3,2 Go/s
DDR2-533 PC2-4300 266 MHz 133 MHz 4,3 Go/s
DDR2-667 PC2-5300 333 MHz 166 MHz 5,3 Go/s
DDR2-675 PC2-5400 337 MHz 168 MHz 5,4 Go/s
DDR2-800 PC2-6400 400 MHz 200 MHz 6,4 Go/s
DDR2-1066 PC2-8500 533 MHz 266 MHz 8,5 Go/s
DDR2-1100 PC2-8800 560 MHz 280 MHz 8,8 Go/s
DDR2-1200 PC2-9600 600 MHz 300 MHz 9,6 Go/s
DDR3-800 PC3-6400 400 MHz 100 MHz 6,4 Go/s
DDR3-1066 PC3-8500 533 MHz 133 MHz 8,5 Go/s
DDR3-1333 PC3-10600 666 MHz 166 MHz 10,7 Go/s
DDR3-1600 PC3-12800 800 MHz 200 MHz 12,8 Go/s
Synchronisation (timings)
Il n'est pas rare de voir des notations du type 3-2-2-2 ou 2-3-3-2 pour décrire le paramétrage de la
mémoire vive. Cette suite de quatre chiffres décrit la synchronisation de la mémoire (en anglais timing),
c'est-à-dire la succession de cycles d'horloge nécessaires pour accéder à une donnée stockée en
mémoire vive. Ces quatre chiffres correspondent généralement, dans l'ordre, aux valeurs suivantes :
CAS delay ou CAS latency (CAS signifiant Column Address Strobe) : il s'agit du nombre de
cycles d'horloge s'écoulant entre l'envoi de la commande de lecture et l'arrivée effective de la donnée.
Autrement dit, il s'agit du temps d'accès à une colonne.
RAS Precharge Time (noté tRP, RAS signifiant Row Address Strobe) : il s'agit du nombre de
cycles d'horloge entre deux instructions RAS, c'est-à-dire entre deux accès à une ligne. opération.
RAS to CAS delay (noté parfois tRCD) : il s'agit du nombre de cycles d'horloge correspondant
au temps d'accés d'une ligne à une colonne.
RAS active time (noté parfois tRAS) : il s'agit du nombre de cycles d'horloge correspondant au
temps d'accés à une ligne.
Les cartes mémoires sont équipées d'un dispositif appelé SPD (Serial Presence Detect), permettant
auBIOS de connaître les valeurs nominales de réglage définies par le fabricant. Il s'agit
d'une EEPROM dont les données seront chargées par le BIOS si l'utilisateur choisi le réglage « auto ».
La correction d'erreurs
Certaines mémoires possèdent des mécanismes permettant de pallier les erreurs afin de garantir
l'intégrité des données qu'elles contiennent. Ce type de mémoire est généralement utilisé sur des
systèmes travaillant sur des données critiques, c'est la raison pour laquelle on trouve ce type de mémoire
dans les serveurs.
Bit de parité
Les barrettes avec bit de parité permettent de s'assurer que les données contenues dans la mémoire
sont bien celles que l'on désire. Pour ce faire, un des bits de chaque octet stocké en mémoire sert à
conserver la somme des bits de données.
Le bit de parité vaut 1 lorsque la somme des bits de données est impaire et 0 dans le cas contraire.
De cette façon les barrettes avec bit de parité permettent de vérifier l'intégrité des données mais ne
permettent pas de corriger les erreurs. De plus pour 9 Mo de mémoire, seulement 8 serviront à stocker
des données, dans la mesure où le dernier mégaoctet conservera les bits de parité.
Barrettes ECC
Les barrettes de mémoire ECC (Error Correction Coding) sont des mémoires possédant plusieurs bits
dédiés à la correction d'erreur (on les appelle ainsi bits de contrôle). Ces barrettes, utilisées
principalement dans les serveurs, permettent de détecter les erreurs et de les corriger.
Barrettes avec registre ou tampon (registered ou buffered)
Ces barrettes ont un registre entre les puces de DRAM et le contrôleur mémoire du système (dans le
chipset ou dans le processeur). Ce registre retient les données pendant un cycle d'horloge avant qu'elles
ne soient envoyées vers le contrôleur mémoire. Ce processus augmente la fiabilité du transfert de
données, au détriment du temps de traitement, en retard d'un cycle d'horloge par rapport à de la mémoire
sans registre. Ces modules de mémoire avec registre ne sont généralement utilisés que dans les
serveurs.
Dual Channel
Certains contrôleurs mémoire proposent un double canal (en anglais Dual Channel) pour la mémoire. Il
s'agit d'exploiter les modules de mémoire par paire afin de cumuler la bande passante et ainsi exploiter
au maximum les capacités du système. Il est essentiel, lors de l'utilisation du Dual Channel, d'utiliser des
barrettes identiques par paire (fréquence, capacité et préférentiellement de même marque).
La mémoire morte (ROM)
La mémoire morte (ROM)
Il existe un type de mémoire permettant de stocker des données en l'absence de courant électrique, il
s'agit de la ROM (Read Only Memory, dont la traduction littérale est mémoire en lecture seule)
appeléemémoire morte, parfois mémoire non volatile car elle ne s'efface pas lors de la mise hors tension
du système.
Ce type de mémoire permet notamment de conserver les données nécessaires au démarrage de
l'ordinateur. En effet, ces informations ne peuvent être stockées sur le disque dur étant donné que les
paramètres du disque (essentiels à son initialisation) font partie de ces données vitales à l'amorçage.
Différentes mémoires de type ROM contiennent des données indispensables au démarrage, c'est-à-dire :
Le BIOS est un programme permettant de piloter les interfaces d'entrée-sortie principales du
système, d'où le nom de BIOS ROM donné parfois à la puce de mémoire morte de la carte-mère qui
l'héberge.
Le chargeur d'amorce: un programme permettant de charger le système d'exploitation en
mémoire (vive) et de le lancer. Celui-ci cherche généralement le système d'exploitation sur le lecteur
de disquette, puis sur le disque dur, ce qui permet de pouvoir lancer le système d'exploitation à partir
d'une disquette système en cas de dysfonctionnement du système installé sur le disque dur.
Le Setup CMOS, c'est l'écran disponible à l'allumage de l'ordinateur permettant de modifier les
paramètres du système (souvent appelé BIOS à tort...).
Le Power-On Self Test (POST), programme exécuté automatiquement à l'amorçage du système
permettant de faire un test du système (c'est pour cela par exemple que vous voyez le système
"compter" la RAM au démarrage).
Etant donné que les ROM sont beaucoup plus lentes que les mémoires de types RAM (une ROM a un
temps d'accès de l'ordre de 150 ns tandis qu'une mémoire de type SDRAM a un temps d'accès d'environ
10 ns), les instructions contenues dans la ROM sont parfois copiées en RAM au démarrage, on parle
alors de shadowing (en français cela pourrait se traduire par ombrage, mais on parle généralement
demémoire fantôme).
Les types de ROM
Les ROM ont petit à petit évolué de mémoires mortes figées à des mémoires programmables, puis
reprogrammables.
ROM
Les premières ROM étaient fabriquées à l'aide d'un procédé inscrivant directement les
données binairesdans une plaque de silicium grâce à un masque. Ce procédé est maintenant obsolète.
PROM
Les PROM (Programmable Read Only Memory) ont été mises au point à la fin des années 70 par la
firmeTexas Instruments. Ces mémoires sont des puces constituées de milliers de fusibles (ou bien de
diodes) pouvant être "grillés" grâce à un appareil appelé « programmateur de ROM », appliquant une
forte tension (12V) aux cases mémoire devant être marquées. Les fusibles ainsi grillés correspondent à
des 0, les autres à des 1.
EPROM
Les EPROM (Erasable Programmable Read Only Memory) sont des PROM pouvant être effacées. Ces
puces possèdent une vitre permettant de laisser passer des rayons ultra-violets. Lorsque la puce est en
présence de rayons ultra-violets d'une certaine longueur d'onde, les fusibles sont reconstitués, c'est-à-
dire que tous les bits de la mémoire sont à nouveau à 1. C'est pour cette raison que l'on qualifie ce type
de PROM d'effaçable.
EEPROM
Les EEPROM (Electrically Erasable Read Only Memory) sont aussi des PROM effaçables, mais
contrairement aux EPROM, celles-ci peuvent être effacées par un simple courant électrique, c'est-à-dire
qu'elles peuvent être effacées même lorsqu'elles sont en position dans l'ordinateur.
Il existe une variante de ces mémoires appelée mémoires flash (également ROM Flash ou Flash
EPROM). Contrairement aux EEPROM classiques, utilisant 2 à 3 transistors par bit à mémoriser, la Flash
EPROM utilise un seul transistor. D'autre part l'EEPROM peut-être écrite et lue mot par mot, alors que la
Flash ne peut être effacée que par pages (la taille des pages étant en constante diminution).
Enfin la densité de la mémoire Flash est plus importante, ce qui permet la réalisation de puces contenant
plusieurs centaines de Mégaoctets. Des EEPROM sont ainsi préférentiellement utilisées pour la
mémorisation de données de configuration et la mémoire Flash pour du code programmable
(programmes informatiques).
On qualifie de flashage l'action consistant à reprogrammer une EEPROM.
Carte mémoire (mémoire Flash)
Introduction à la mémoire Flash
La mémoire flash est une mémoire à semi-conducteurs, non volatile et réinscriptible, c'est-à-dire une
mémoire possédant les caractéristiques d'une mémoire vive mais dont les données ne se volatilisent pas
lors d'une mise hors tension. Ainsi la mémoire flash stocke les bits de données dans des cellules de
mémoire, mais les données sont conservées en mémoire lorsque l'alimentation électrique est coupée.
En raison de sa vitesse élevée, de sa durabilité et de sa faible consommation, la mémoire flash est idéale
pour de nombreuses applications - comme les appareils photos numériques, les téléphones cellulaires,
les imprimantes, les assistants personnels (PDA), les ordinateurs portables, ou les dispositifs de lecture
ou d'enregistrement sonore tels que les baladeurs mp3. De plus ce type de mémoire ne possède pas
d'éléments mécaniques, ce qui leur confère une grande résistance aux chocs.
Les types de cartes mémoire
Il existe un grand nombre de formats de cartes mémoires non compatibles entre-eux, portés par presque
autant de constructeurs. Parmi ces formats de cartes mémoire les plus courants sont :
Les cartes Compact Flash
Les cartes Secure Digital (appelées SD Card)
Les cartes Memory Stick
Les cartes SmartMedia
Les cartes MMC (MultimediaCard)
Les cartes xD picture card
Tableau comparatif
CarteDimensions (mm)
Volume (mm3)
Masse (g)
BrochesTaux de transfert max.
Taille max. théorique
Taille max. actuelle
Compact Flash type I
43 x 36 x 3,3 5 108 3,3 50 20 Mo/s 137 Go 128 Go
Compact Flash type II
43 x 36 x 5 7 740 4 50 20 Mo/s 137 Go 12 Go
SmartMedia 37 x 45 x 0,8 1 265 2 22 2 Mo/s 128 Mo 128 Mo
MMC 24 x 32 x 1,4 1 075 1,3 7 20 Mo/s 128 Go 8 Go
MMC Plus 24 x 32 x 1,4 1 075 1,3 7 52 Mo/s 128 Go 4 Go
RS-MMC MMC Mobile
24 x 16 x 1,4 538 1,3 13 8 Mo/s 128 Go 2 Go
MMC Micro 14 x 12 x 1,1 185 < 1 13 128 Go 2 Go
Memory Stick Standard, Pro
21,5 x 50 x 2,8 3 010 4 10 2 Mo/s 128 Mo 128 Mo
Memory Stick Duo, Pro Duo
20 x 31 x 1,6 992 2 10 20 Mo/s 32 Go 16 Go
Memory Stick Pro-HG
20 x 31 x 1,6 992 2 10 60 Mo/s 32 Go 32 Go
Memory Stick Micro M2
12,5 x 15 x 1,2 225 2 10 20 Mo/s 32 Go 8 Go
SD 24 x 32 x 2,1 1 613 2 9 20 Mo/s 32 Go 32 Go
mini SD 20 x 21,5 x 1,4 602 1 11 12 Mo/s 32 Go 4 Go
micro SD 15 x 11 x 1 165 0,3 8 10 Mo/s 32 Go 12 Go
xD 25 x 20 x 1,8 890 2,8 18 9 Mo/s 8 Go 2 Go
Lecteurs de cartes mémoire
Il est à noter l'existence de lecteurs de cartes mémoire multi-formats pouvant être connectés la plupart du
temps sur un port USB.
Carte mémoire Compact Flash
Compact Flash
La mémoire Compact Flash (notée parfois CF) est un type de carte mémoire créé en 1994 par la
firmeSanDisk. La mémoire Compact Flash est constituée d'un contrôleur mémoire et de mémoire flash
contenues dans un boîtier de faible dimension (42.8mm de largeur et 36.4mm de hauteur), de taille
inférieure à une petite boite d'allumettes, et pesant 11.4 grammes.
Il existe deux types de cartes Compact Flash de dimensions différentes :
Les cartes Compact Flash type I, possédant une épaisseur de 3.3mm ;
Les cartes Compact Flash type II, possédant une épaisseur de 5mm.
Les cartes CompactFlash sont conformes à la norme PCMCIA/ATA si ce n'est que le connecteur
possède 50 broches au lieu des 68 broches des cartes PCMCIA. Ainsi il est possible d'enficher une carte
CompactFlash dans un emplacement PCMCIA passif de type II.
La version CF+ permet un débit de 16 Mo/s (voire 66 Mo/s) et une capacité de 137 Go.
Memory Stick (MS Card)
Memory stick
La mémoire Memory Stick (notée MS ou MS Card) est un type de carte mémoire créé conjointement par
Sony et SanDisk en janvier 2000.
L'architecture des cartes Memory Stick est basée sur des circuits de mémoire flash (EEPROM) de type
NAND.
La mémoire Memory stick possède de petites dimensions (21.5mm x 50.0mm x 2.8mm), équivalentes à
celles d'une petite boîte d'allumettes, et pèse à peine 4 grammes.
L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 10 broches,
permettant d'atteindre un taux de transfert de 14.4 Mb/s et jusqu'à 19.6 Mb/s en pointe.
Il existe deux types de cartes Memory Stick, la mémoire Memory Stick dite «normale» et la mémoire
«Magic Gate» permettant la protection des fichiers protégés par droit d'auteur.
Ce format a été remplacé par le Memory Stick Duo de dimensions plus petites (31 x 20 x 1,6 mm).
Cartes MMC (Multimedia Card)
MMC - Multimedia Card
La mémoire Multimedia Card (notée MMC) est un type de carte mémoire créé conjointement
parSanDisk et Siemens en novembre 1997.
Son architecture est basée sur une combinaison de mémoire morte (ROM) pour les applications en
lecture seule et de mémoire flash pour les besoins en lecture/écriture.
La mémoire MMC possède de très petites dimensions (24.0mm x 32.0mm x 1.4mm), équivalentes à
celles d'un timbre poste, et pèse à peine 2.2 grammes.
Il existe deux types de cartes MMC possédant des voltages différents :
Les cartes MMC 3.3V, possédant une encoche à gauche
Les cartes MMC 5V, possédant une encoche à droite
L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 7 broches,
permettant d'atteindre un taux de transfert de 2 Mb/s, et potentiellement jusqu’à 2.5 MB/s.
Carte SD / SD Card (Secure Digital)
Secure Digital
La mémoire Secure Digital (notée SD ou SD Card) est un type de carte mémoire créé par Matsushita
Electronic, SanDisk et Toshiba en janvier 2000. La mémoire Secure Digital est une mémoire
spécifiquement développée pour répondre aux exigences de sécurité nouvellement apparues dans les
domaines des dispositifs électroniques audio et vidéo. Elle inclut ainsi un mécanisme de protection
dudroit d'auteur qui répond au standard SDMI (Secure Digital Music Initiative).
L'architecture des cartes SD est basée sur des circuits de mémoire flash (EEPROM) de type NAND.
La mémoire Secure Digital possède de très petites dimensions (24.0mm x 32.0mm x 2.1mm),
équivalentes à celles d'un timbre poste, et pèse à peine 2 grammes.
L’accès aux données est réalisé par l’intermédiaire d’un connecteur latéral possédant 9 broches,
permettant d’atteindre un taux de transfert maximal de 10 Mo/s pour la norme 1.01, et de 22,5 Mo/s pour
la norme 1.1.
Le temps d’accès à la mémoire SD est d’environ 25 µs pour le premier accès et de cycles de 50 ns pour
les suivants.
La norme SDHC (High Capacity) ou SD 2.0 permet de construire des cartes de plus de 4 Go. De mêmes
dimensions que les SD classiques, les SDHC utilisent un mode d’adressage différent, ce qui empêche
leur utilisation sur du matériel non compatible HC.
Carte SmartMedia
SmartMedia
La mémoire SmartMedia est un type de carte mémoire créé par Toshiba et Samsung.
Son architecture est basée sur des circuits de mémoire flash (EEPROM) de type NAND
La mémoire SmartMedia possède de très petites dimensions (45.0mm x 37.0mm x 0.76mm),
équivalentes à celles d'un timbre poste, et pèse à peine 2 grammes.
Il existe deux types de cartes SmartMedia possédant des voltages différents :
Les cartes SmartMedia 3.3V possèdent une encoche à droite
Les cartes SmartMedia 5V possèdent une encoche à gauche
L'accès aux données est réalisé par l'intermédiaire d'une puce possédant 22 broches. Quelle que soit la
capacité de la carte Smartmedia, les dimensions et l'emplacement de la puce sont les mêmes.
Le temps d'accès à la mémoire est d'environ 25µs pour le premier accès et de cycles de 50 ns pour les
suivants.
Compatibilité
Il existe des adaptateurs permettant d'insérer une carte SmartMedia dans un emplacement PCMCIA, afin
de permettre le transfert des données directement d'une carte SmartMedia vers un ordinateur portable.
Ce format n’est plus fabriqué et est désormais remplacé par le SD ou le xD.
Carte xD Picture Card
xD Picture card
La mémoire xD Picture (pour eXtreme Digital) est un type de carte mémoire créé par Fuji et Olympus en
août 2002.
L'architecture des cartes xD est basée sur des circuits de mémoire flash (EEPROM) de type NAND.
La mémoire xD picture card possède de très petites dimensions (20.0mm x 25.0mm x 1.7mm), plus
petites que celles d'un timbre poste, et pèse à peine 2 grammes.
L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 18 broches,
permettant d'atteindre un taux de transfert de 1.3 Mb/s et potentiellement jusqu’à 3 MB/s en écriture et
d'environ 5 Mb/s en lecture.
Les cartes xD Picture sont prévues pour atteindre, à terme, une capacité de 8 Go.
Qu'est-ce qu'un bus informatique ?
Introduction à la notion de bus
On appelle bus, en informatique, un ensemble de liaisons physiques (câbles, pistes de circuits imprimés,
etc.) pouvant être exploitées en commun par plusieurs éléments matériels afin de communiquer.
Les bus ont pour but de réduire le nombre de « voies » nécessaires à la communication des différents
composants, en mutualisant les communications sur une seule voie de données. C'est la raison pour
laquelle la métaphore d'« autoroute de données » est parfois utilisée.
Dans le cas où la ligne sert uniquement à la communication de deux composants matériels, on parle
deport matériel (port série, port parallèle, etc.).
Caractéristiques d'un bus
Un bus est caractérisé par le volume d'informations transmises simultanément. Ce volume, exprimé
enbits, correspond au nombre de lignes physiques sur lesquelles les données sont envoyées de manière
simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de
«largeur » pour désigner le nombre de bits qu'un bus peut transmettre simultanément.
D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz), c'est-à-dire le
nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle pour désigner chaque
envoi ou réception de données.
De cette façon, il est possible de connaître le débit maximal du bus (ou taux de transfert maximal), c'est-
à-dire la quantité de données qu'il peut transporter par unité de temps, en multipliant sa largeur par sa
fréquence. Un bus d'une largeur de 16 bits, cadencé à une fréquence de 133 MHz possède donc un débit
égal à :
16 * 133.106 = 2128*106 bit/s,
soit 2128*106/8 = 266*106 octets/s
soit 266*106 /1000 = 266*103 Ko/s
soit 259.7*103 /1000 = 266 Mo/s
Sous-ensembles de bus
En réalité chaque bus est généralement constitué de 50 à 100 lignes physiques distinctes, classées en
trois sous-ensembles fonctionnels :
Le bus d'adresses (appelé parfois bus d'adressage ou bus mémoire) transporte les adresses
mémoire auxquelles le processeur souhaite accéder pour lire ou écrire une donnée. Il s'agit d'un bus
unidirectionnel.
Le bus de données véhicule les instructions en provenance ou à destination du processeur. Il
s'agit d'un bus bidirectionnel.
Le bus de contrôle (parfois bus de commandes) transporte les ordres et les signaux de
synchronisation en provenance de l’unité de commande et à destination de l'ensemble des
composants matériels. Il s'agit d'un bus directionnel dans la mesure où il transmet également les
signaux de réponse des éléments matériels.
Les principaux bus
On distingue généralement sur un ordinateur deux principaux bus :
le bus système (appelé aussi bus interne, en anglais internal bus ou front-side bus, noté FSB).
Le bus système permet au processeur de communiquer avec la mémoire centrale du système
(mémoire vive ou RAM).
le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants de la
carte-mère (USB, série, parallèle, cartes branchées sur les connecteurs PCI, disques durs, lecteurs et
graveurs de CD-ROM, etc.) de communiquer entre eux mais il permet surtout l'ajout de nouveaux
périphériques grâce aux connecteurs d'extension (appelés slots) connectés sur le bus d'entrées-
sorties.
Le chipset
On appelle chipset (en français jeu de composants) l'élément chargé d'aiguiller les informations entre les
différents bus de l'ordinateur afin de permettre à tous les éléments constitutifs de l'ordinateur de
communiquer entre eux. Le chipset était originalement composé d'un grand nombre de composants
électroniques, ce qui explique son nom. Il est généralement composé de deux éléments :
Le NorthBridge (Pont Nord ou Northern Bridge, appelé également contrôleur mémoire) est
chargé de contrôler les échanges entre le processeur et la mémoire vive, c'est la raison pour laquelle
il est situé géographiquement proche du processeur. Il est parfois appelé GMCH, pour Graphic and
Memory Controller Hub.
Le SouthBridge (Pont Sud ou Southern Bridge, appelé également contrôleur d'entrée-
sortie oucontrôleur d'extension) gère les communications avec les périphériques d'entrée-sortie. Le
pont sud est également appelé ICH (I/O Controller Hub).
On parle généralement de bridge (en français pont) pour désigner un élément d'interconnexion entre
deux bus.
Il est intéressant de noter que, pour communiquer, deux bus ont besoin d'avoir la même largeur. Cela
explique pourquoi les barrettes de mémoire vive doivent parfois être appariées sur certains systèmes (par
exemple sur les premiers Pentium, dont la largeur du bus processeur était de 64 bits, il était nécessaire
d'installer des barrettes mémoire d'une largeur de 32 bits par paire).
Voici un tableau récapitulant les caractéristiques des principaux bus :
Norme Largeur du bus (bits) Vitesse du bus (MHz) Bande passante (Mo/sec)
ISA 8-bit 8 8.3 7.9
ISA 16-bit 16 8.3 15.9
EISA 32 8.3 31.8
VLB 32 33 127.2
PCI 32-bit 32 33 127.2
PCI 64-bit 2.1 64 66 508.6
AGP 32 66 254.3
AGP(x2 Mode) 32 66x2 528
AGP(x4 Mode) 32 66x4 1056
AGP(x8 Mode) 32 66x8 2112
ATA33 16 33 33
ATA100 16 50 100
ATA133 16 66 133
Serial ATA (S-ATA) 1 180
Serial ATA II (S-ATA2) 2 380
USB 1 1.5
USB 2.0 1 60
Firewire 1 100
Firewire 2 1 200
SCSI-1 8 4.77 5
SCSI-2 - Fast 8 10 10
SCSI-2 - Wide 16 10 20
SCSI-2 - Fast Wide 32 bits 32 10 40
SCSI-3 - Ultra 8 20 20
SCSI-3 - Ultra Wide 16 20 40
SCSI-3 - Ultra 2 8 40 40
SCSI-3 - Ultra 2 Wide 16 40 80
SCSI-3 - Ultra 160 (Ultra 3) 16 80 160
SCSI-3 - Ultra 320 (Ultra 4) 16 80 DDR 320
SCSI-3 - Ultra 640 (Ultra 5) 16 80 QDR 640
Les bus ISA, MCA et VLB
Bus d'extension
On appelle bus d'extension (parfois Bus de périphérique ou en anglais expansion bus) les bus possédant
des connecteurs permettant d'ajouter des cartes d'extension (périphériques) à l'ordinateur. Il existe
différents types de bus internes normalisés caractérisés par :
leur forme,
le nombre de broches de connexion,
le type de signaux (fréquence, données, etc).
Le bus ISA
La version originale du bus ISA (Industry Standard Architecture), apparue en 1981 avec le PC XT, était
un bus d'une largeur de 8 bits cadencé à une fréquence de 4,77 MHz.
En 1984, avec l'apparition du PC AT (processeur Intel 286), la largeur du bus est passée à 16 bits et la
fréquence successivement de 6 à 8 MHz, puis finalement 8,33 MHz, offrant ainsi un débit théorique
maximal de 16 Mo/s (en pratique seulement 8 Mo/s dans la mesure où un cycle sur deux servait à
l'adressage).
Le bus ISA permettait le bus mastering, c'est-à-dire qu'il permettait de communiquer directement avec
les autres périphériques sans passer par le processeur. Une des conséquences du bus mastering est
l'accès direct à la mémoire (DMA, pour Direct Memory Access). Toutefois le bus ISA ne permettait
d'adresser que les 16 premiers mégaoctets de la mémoire vive.
Jusqu'à la fin des années 1990 le bus ISA équipait la quasi-totalité des ordinateurs de type PC, puis il a
été progressivement remplacé par le bus PCI, offrant de meilleures performances.
Connecteur ISA 8 bits :
Connecteur ISA 16 bits :
Le bus MCA
Le bus MCA (Micro Channel Architecture) est un bus propriétaire amélioré conçu par IBM en 1987 afin
d'équiper leur gamme d'ordinateurs PS/2. Ce bus, d'une largeur de 16 et 32 bits, était incompatible avec
le bus ISA et permettait d'obtenir un taux de transfert de 20 Mo/s.
Le bus EISA
Le bus EISA (Extended Industry Standard Architecture), a été mis au point en 1988 par un consortium de
sociétés (AST, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, Wyse and Zenith), afin de
concurrencer le bus propriétaire MCA lancé par IBM l'année précédente. Le bus EISA utilisait des
connecteurs de même dimension que le connecteur ISA, mais avec 4 rangées de contacts au lieu de 2,
permettant ainsi un adressage sur 32 bits.
Les connecteurs EISA étaient plus profonds et les rangées de contacts supplémentaires étaient placées
en dessous des rangées de contacts ISA. Il était ainsi possible d'enficher une carte ISA dans un
connecteur EISA. Elle rentrait cependant moins profondément dans le connecteur (grâce à des ergots) et
n'utilisait ainsi que les rangées de contacts supérieures (ISA).
Notion de bus local
Les bus d'entrée-sortie traditionnels, tels que le bus ISA, MCA ou EISA, sont directement reliés au bus
principal et sont donc forcés de fonctionner à la même fréquence, or certains périphériques d'entrée-
sortie nécessitent une faible bande passante tandis que d'autres ont besoin de débits plus élevés : il
existe donc des goulots d'étranglement sur le bus (en anglais le terme « bottleneck », littéralement
« goulot de bouteille » est couramment utilisé). Afin de remédier à ce problème l'architecture dite de
« bus local » (en anglais local bus) propose de tirer partie de la vitesse du bus processeur (FSB) en
s'interfaçant directement sur ce dernier.
Le bus VLB
En 1992 le bus local VESA (VLB pour VESA Local Bus) a été mis au point par l'association VESA(Video
Electronics Standard Association sous l'égide de la société NEC) afin de proposer un bus local dédié aux
systèmes graphiques. Il s'agit d'un connecteur ISA 16-bits auquel vient s'ajouter un connecteur
supplémentaire de 16 bits :
Le bus VLB est ainsi un bus 32-bit prévu initialement pour fonctionner à une fréquence de 33 MHz
(fréquence des premiers PC 486 de l'époque). Le bus local VESA a été utilisé sur les modèles suivants
de 486 (respectivement 40 et 50 MHz) ainsi que sur les tout premiers Pentium, mais il a rapidement été
remplacé par le bus PCI.
Bus PCI
Le bus PCI
Le bus PCI (Peripheral Component Interconnect) a été mis au point par Intel le 22 juin 1992.
Contrairement au bus VLB il ne s'agit pas à proprement parler d'un bus local mais d'un bus intermédiaire
situé entre le bus processeur (NorthBridge) et le bus d'entrées-sorties (SouthBridge).
Connecteurs PCI
Les connecteurs PCI sont généralement présents sur les cartes mères au nombre de 3 ou 4 au minimum
et sont en général reconnaissables par leur couleur blanche (normalisée).
L'interface PCI existe en 32 bits, avec un connecteur de 124 broches, ou en 64 bits, avec un connecteur
de 188 broches. Il existe également deux niveaux de signalisation :
3.3V, destiné aux ordinateurs portables ;
5V, destiné aux ordinateurs de bureau.
La tension de signalisation ne correspond pas à la tension d'alimentation de la carte mais aux seuils de
tension pour le codage numérique de l'information.
Il existe 2 types de connecteurs 32 bits :
Connecteur PCI 32 bits, 5 V :
Connecteur PCI 32 bits, 3.3 V :
Les connecteurs PCI 64 bits proposent des broches supplémentaires, mais peuvent néanmoins accueillir
les cartes PCI 32 bits. Il existe 2 types de connecteurs 64 bits :
Connecteur PCI 64 bits, 5 V :
Connecteur PCI 64 bits, 3.3 V :
Interopérabilité
D'une manière générale, il n'est pas possible de se tromper lors du branchement d'une carte PCI dans un
emplacement PCI. En effet, dans la mesure où la carte s'enfiche correctement, elle est compatible, dans
le cas contraire des détrompeurs empêcheront son installation.
Il existe des cartes d'extension possédant des connecteurs dits « universels « (en anglais universal),
c'est-à-dire possédant les deux types de détrompeurs (deux encoches). Ces cartes d'extension sont
capables de détecter la tension de signalisation et de s'y adapter et peuvent ainsi être insérées
indépendamment dans des emplacements 3.3 V ou 5 V.
Révisions du bus
Le bus PCI, dans sa version initiale, possède une largeur de 32 bits et est cadencé à 33 MHz ce qui lui
permet d'offrir un débit théorique de 132 Mo/s en 32 bits. Sur les architectures 64 bits le bus fonctionne à
64 bits et propose un taux de transfert théorique de 264 Mo/s
Un groupement d'intérêt constitué d'un grand nombre de constructeurs, baptisé PCI-SIG (PCI Special
Interests Group), a vu le jour afin de faire évoluer le standard PCI. Des révisions du bus ont ainsi été
publiées. La version 2.0 du 30 avril 1993 définit la géométrie des connecteurs et des cartes additionnelles
et lui permet d'être cadencé à 66 MHz, contre 33 MHz pour la version 1.0, et double ainsi son taux de
transfert théorique, pour atteindre 266 Mo/s en 32 bits.
Le 1er juin 1995, la révision 2.1 du bus PCI améliore son utilisation à 66 MHz. Les ingénieurs prévoient à
cette époque une évolution progressive de la tension de signalisation de 5 V vers une signalisation en 3.3
V.
La version 2.2 du bus PCI, parue le 18 décembre 1998, permet le branchement à chaud des
périphériques (hot plug).
La révision 2.3, éditée le 29 mars 2002, supprime la possibilité d'utiliser des cartes additionnelles 5V,
mais gard la possibilité d'utiliser des cartes supportant les deux tensions pour assurer une compatibilité
descendante. La révision 3.0 du standard PCI supprime toute possibilité d'utiliser des cartes compatibles
5V.
En septembre 1999, une évolution majeure du bus PCI voit le jour, baptisée PCI-X. Le bus PCI-X 1.0
supporte des fréquences de 66, 100 et 133 MHz. Le bus PCI-X est pleinement compatible avec le format
PCI et permet ainsi d'utiliser des cartes additionnelles au format PCI conventionnel dans des
emplacements PCI-X et vice-versa.
La révision 2.0 du bus PCI-X supporte des fréquence de 66, 100, 133, 266 et 533 MHz et permet
d'atteindre des débits de l'ordre de 4.27 Go/s en 64 bits.
Le tableau ci-dessous récapitule les différentes révisions du bus PCI :
Révision Date de sortie Fréquence Voltage Largeur
PCI 1.0 1992 33 MHz Néant32 bits 133 Mo/s
64 bits 266 Mo/s
PCI 2.0 1993 33 MHz 3.3 V / 5 V 32 bits 132 Mo/s
64 bits 264 Mo/s
PCI 2.1 1995
33 MHz 3.3 V / 5 V32 bits 132 Mo/s
64 bits 264 Mo/s
66 MHz 3.3 V32 bits 264 Mo/s
64 bits 528 Mo/s
PCI 2.2 1998
33 MHz 3.3 V / 5 V32 bits 132 Mo/s
64 bits 264 Mo/s
66 MHz 3.3 V32 bits 264 Mo/s
64 bits 528 Mo/s
PCI 2.3 2002
33 MHz 3.3 V / 5 V32 bits 132 Mo/s
64 bits 264 Mo/s
66 MHz 3.3 V32 bits 264 Mo/s
64 bits 528 Mo/s
PCI-X 1.0 1999
66 MHz 3.3 V32 bits 264 Mo/s
64 bits 528 Mo/s
100 MHz 3.3 V32 bits 400 Mo/s
64 bits 800 Mo/s
133 MHz 3.3 V32 bits 532 Mo/s
64 bits 1064 Mo/s
PCI-X 2.0 200266 MHz 3.3 V
32 bits 264 Mo/s
64 bits 528 Mo/s
100 MHz 3.3 V 32 bits 400 Mo/s
64 bits 800 Mo/s
133 MHz 3.3 V32 bits 532 Mo/s
64 bits 1064 Mo/s
266 MHz 3.3 V / 1.5 V32 bits 1064 Mo/s
64 bits 2128 Mo/s
533 MHz 3.3 V / 1.5 V32 bits 2128 Mo/s
64 bits 4256 Mo/s
Bus AGP
Présentation du bus AGP
Le bus AGP (sigle de Accelerated Graphics Port, soit littéralement port graphique accéléré) est apparu en
Mai 1997, sur des chipsets à base de «Slot One», puis est apparu par la suite sur des supports à base de
Super 7 afin de permettre de gérer les flux de données graphiques devenant trop importants pour le bus
PCI. Ainsi le bus AGP est directement relié au bus processeur (FSB, Front Side Bus) et bénéficie de la
même fréquence, donc d'une bande passante élevée.
L'interface AGP a été mise au point spécifiquement pour la connexion de la carte graphique en lui
ouvrant un canal direct d'accès à la mémoire (DMA, Direct Memory Access), sans passer par
le contrôleur d'entrée-sortie. Les cartes utilisant ce bus graphique ont donc théoriquement besoin de
moins de mémoire embarquée, puisqu'elles peuvent accéder directement aux données graphiques (par
exemple des textures) stockées dans la mémoire centrale, leur coût de revient est donc théoriquement
plus faible.
La version 1.0 du bus AGP, travaillant à une tension de 3.3 V, propose un mode 1X permettant d'envoyer
8 octets tous les deux cycles ainsi qu'un mode 2x permettant le transfert de 8 octets par cycle.
En 1998 la version 2.0 du bus AGP a apporté un mode AGP 4X permettant l'envoi de 16 octets par cycle.
La version 2.0 du bus AGP étant alimentée à une tension de 1.5 V, des connecteurs dits "universels"
(AGP 2.0 universal) sont apparus, supportant les deux tensions.
La version 3.0 du bus AGP, apparue en 2002, a permis de doubler le débit de l'AGP 2.0 en proposant un
mode AGP 8x.
Caractéristiques du bus AGP
Le port AGP 1X est cadencé à 66 MHz, contre 33 MHz pour le bus PCI, ce qui lui offre un débit de 264
Mo/s (contre 132 Mo/s à partager entre les différentes cartes pour le bus PCI), soit de bien meilleures
performances, notamment pour l'affichage de scènes 3D complexes.
Avec l'apparition du port AGP 4X, le débit est passé à 1 Go/s. Cette génération de carte est alimentée en
25 W. La génération de carte suivante se nomme AGP Pro et est alimentée en 50W.
La norme AGP Pro 8x propose un débit de 2 Go/s.
Les débits des différentes normes AGP sont les suivants :
AGP 1X : 66,66 MHz x 1(coef.) x 32 bits /8 = 266.67 Mo/s
AGP 2X : 66,66 MHz x 2(coef.) x 32 bits /8 = 533.33 Mo/s
AGP 4X : 66,66 MHz x 4(coef.) x 32 bits /8 = 1,06 Go/s
AGP 8X : 66,66 MHz x 8(coef.) x 32 bits /8 = 2,11 Go/s
Il est à noter que les différentes normes AGP conservent une compatibilité ascendante, c'est-à-dire qu'un
emplacement AGP 8X pourra accueillir des cartes AGP 4X ou AGP 2X.
Connecteurs AGP
Les cartes mères récentes sont équipées d'un connecteur AGP général reconnaissable par sa couleur
marron (normalisée). Il existe trois types de connecteurs :
Connecteur AGP 1,5 volts :
Connecteur AGP 3,3 volts :
Connecteur AGP universel :
Récapitulatif
Voici un tableau récapitulant les caractéristiques des différentes caractéristiques des versions et modes
AGP :
AGP Tension Mode
AGP 1.0 3.3 V 1x, 2x
AGP 2.0 1.5 V 1x, 2x, 4x
AGP 2.0 universal 1.5 V, 3.3 V 1x, 2x, 4x
AGP 3.0 1.5 V 4x, 8x
Bus PCI Express (PCI-E)
Le bus PCI Express
Le bus PCI Express (Peripheral Component Interconnect Express, noté PCI-E ou 3GIO pour «Third
Generation I/O»), est un bus d'interconnexion permettant l'ajout de cartes d'extension dans l'ordinateur.
Le bus PCI Express a été mis au point en juillet 2002. Contrairement au bus PCI, qui fonctionne en
interfaceparallèle, le bus PCI Express fonctionne en interface série, ce qui lui permet d'obtenir une bande
passante beaucoup plus élevée que ce dernier.
Caractéristiques du bus PCI Express
Le bus PCI Express se décline en plusieurs versions, 1X, 2X, 4X, 8X, 12X, 16X et 32X, permettant
d'obtenir des débits compris entre 250 Mo/s et 8 Go/s, soit près de 4 fois le débit maximal des ports AGP
8X. Ainsi, avec un coût de fabrication similaire à celui du port AGP, le bus PCI Express est amené à le
remplacer progressivement.
Connecteurs PCI Express
Les connecteurs PCI Express sont incompatibles avec les anciens connecteurs PCI et possèdent des
tailles variables et une plus faible consommation électrique. Une des caractéristiques intéressantes du
bus PCI Express est la possibilité de brancher ou débrancher des composants à chaud, c'est-à-dire sans
éteindre ou redémarrer la machine. Les connecteurs PCI Express sont reconnaissables grâce à leur
petite taille et leur couleur anthracite :
Le connecteur PCI Express 1X possède 36 connecteurs et est destiné à un usage d'entrées-
sorties à haut débit :
Le connecteur PCI Express 4X possède 64 connecteurs et est destiné à un usage sur serveurs :
Le connecteur PCI Express 8X possède 98 connecteurs et est destiné à un usage sur serveurs :
Le connecteur PCI Express 16X possède 164 connecteurs, et mesure 89 mm de long et a
vocation à servir de port graphique :
Le standard PCI Express a également vocation à supplanter la technologie PC Card sous la forme de
connecteurs « PCI Express Mini Card ». De plus, contrairement aux connecteurs PCI dont l'usage était
limité à la connectique interne, le standard PCI Express permet de connecter des périphériques externes
à l'aide de câbles. Pour autant il ne se positionne pas en concurrence des ports USB ou FireWire.
Port série et port parallèle
Introduction aux ports d'entrée-sortie
Les ports d'entrée-sortie sont des éléments matériels de l'ordinateur, permettant au système de
communiquer avec des éléments extérieurs, c'est-à-dire d'échanger des données, d'où l'appellation
d'interface d'entrée-sortie (notée parfois interface d'E/S).
Port série
Les ports série (également appelés RS-232, nom de la norme à laquelle ils font référence) représentent
les premières interfaces ayant permis aux ordinateurs d'échanger des informations avec le "monde
extérieur". Le terme série désigne un envoi de données via un fil unique : les bits sont envoyés les uns à
la suite des autres (reportez-vous à la section transmission de données pour un cours théorique sur les
modes de transmission).
A l'origine les ports série permettaient uniquement d'envoyer des données, mais pas d'en recevoir, c'est
pourquoi des ports bidirectionnels ont été mis au point (ceux qui équipent les ordinateurs actuels le sont);
les ports séries bidirectionnels ont donc besoin de deux fils pour effectuer la communication.
La communication série se fait de façon asynchrone, cela signifie qu'aucun signal de synchronisation
(appelé horloge) n'est nécessaire: les données peuvent être envoyées à intervalle de temps arbitraire. En
contrepartie, le périphérique doit être capable de distinguer les caractères (un caractère a une longueur
de 8 bits) parmi la suite de bits qui lui est envoyée.
C'est la raison pour laquelle dans ce type de transmission, chaque caractère est précédé d'un bit de
début (appelé bit START) et d'un bit de fin (bit STOP). Ces bits de contrôle, nécessaires pour une
transmission série, gaspillent 20% de la bande passante (pour 10 bits envoyés, 8 servent à coder le
caractère, 2 servent à assurer la réception).
Les ports série sont généralement intégrés à la carte mère, c'est pourquoi des connecteurs présents à
l'arrière du boîtier, et reliés à la carte mère par une nappe de fils, permettent de connecter un élément
extérieur. Les connecteurs séries possèdent généralement 9 ou 25 broches et se présentent sous la
forme suivante (respectivement connecteurs DB9 et DB25) :
Un ordinateur personnel possède généralement de un à quatre ports séries.
Port parallèle
La transmission de données en parallèle consiste à envoyer des données simultanément sur plusieurs
canaux (fils). Les ports parallèle présents sur les ordinateurs personnels permettent d'envoyer
simultanément 8 bits (un octet) par l'intermédiaire de 8 fils.
Les premiers ports parallèles bidirectionnels permettaient d'atteindre des débits de l'ordre de 2.4Mb/s.
Toutefois des ports parallèles améliorés ont été mis au point afin d'obtenir des débits plus élevés :
Le port EPP (Enhanced Parralel Port, port parallèle amélioré) a permis d'atteindre des débits de
l'ordre de 8 à 16 Mbps
Le port ECP (Enhanced Capabilities Port, port à capacités améliorées), mis au point par Hewlett
Packard et Microsoft. Il reprend les caractéristiques du port EPP en lui ajoutant un support Plug and
Play, c'est-à-dire la possibilité pour l'ordinateur de reconnaître les périphériques branchés
Les ports parallèles sont, comme les ports série, intégrés à la carte mère. Les connecteurs DB25
permettent de connecter un élément extérieur (une imprimante par exemple).
Le bus USB (Universal Serial Bus)
Présentation du bus USB
Le bus USB (Universal Serial Bus, en français Bus série universel) est, comme son nom l'indique, basé
sur une architecture de type série. Il s'agit toutefois d'une interface entrée-sortie beaucoup plus rapide
que les ports série standards. L'architecture qui a été retenue pour ce type de port est en série pour deux
raisons principales :
l'architecture série permet d'utiliser une cadence d'horloge beaucoup plus élevée qu'une interface
parallèle, car celle-ci ne supporte pas des fréquences trop élevées (dans une architecture à haut
débit, les bits circulant sur chaque fil arrivent avec des décalages, provoquant des erreurs) ;
les câbles série coûtent beaucoup moins cher que les câbles parallèles.
Les normes USB
Ainsi, dès 1995, le standard USB a été élaboré pour la connexion d’une grande variété de périphériques.
Le standard USB 1.0 propose deux modes de communication :
12 Mb/s en mode haute vitesse,
1.5 Mb/s à basse vitesse.
Le standard USB 1.1 apporte quelques clarifications aux constructeurs de périphériques USB mais ne
modifie en rien le débit. Les périphériques certifiés USB 1.1 portent le logo suivant :
La norme USB 2.0 permet d'obtenir des débits pouvant atteindre 480 Mbit/s. Les périphériques certifiés
USB 2.0 portent le logo suivant :
En l'absence de logo la meilleure façon de déterminer s'il s'agit de périphériques USB à bas ou haut débit
est de consulter la documentation du produit dans la mesure où les connecteurs sont les mêmes.
La compatibilité entre périphériques USB 1.0, 1.1 et 2.0 est assurée. Toutefois l'utilisation d'un
périphérique USB 2.0 sur un port USB à bas débit (i.e. 1.0 ou 1.1), limitera le débit à 12 Mbit/s maximum.
De plus, le système d'exploitation est susceptible d'afficher un message expliquant que le débit sera
bridé.
Types de connecteurs
Il existe deux types de connecteurs USB :
Les connecteurs dits de type A, dont la forme est rectangulaire et servant généralement pour des
périphériques peu gourmands en bande passante (clavier, souris, webcam, etc.) ;
Les connecteurs dits de type B, dont la forme est carrée et utilisés principalement pour des
périphériques à haut débit (disques durs externes, etc.).
1. Alimentation +5V (VBUS) 100mA maximum
2. Données (D-)
3. Données (D+)
4. Masse (GND)
Fonctionnement du bus USB
L’architecture USB a pour caractéristique de fournir l’alimentation électrique aux périphériques qu’elle
relie, dans la limite de 15 W maximum par périphérique. Elle utilise pour cela un câble composé de quatre
fils (la masse GND, l’alimentation VBUS et deux fils de données appelés D- et D+).
La norme USB permet le chaînage des périphériques, en utilisant une topologie en bus ou en étoile. Les
périphériques peuvent alors être soit connectés les uns à la suite des autres, soit ramifiés.
La ramification se fait à l’aide de boîtiers appelés « hubs » (en français concentrateurs), comportant une
seule entrée et plusieurs sorties. Certains sont actifs (fournissant de l’énergie électrique), d’autres passifs
(alimentés par l'ordinateur).
La communication entre l’hôte (l’ordinateur) et les périphériques se fait selon un protocole (langage de
communication) basé sur le principe de l’anneau à jeton (token ring). Cela signifie que la bande passante
est partagée temporellement entre tous les périphériques connectés. L’hôte (l'ordinateur) émet un signal
de début de séquence chaque milliseconde (ms), intervalle de temps pendant lequel il va donner
simultanément la « parole » à chacun d’entre eux. Lorsque l’hôte désire communiquer avec un
périphérique, il émet un jeton (un paquet de données, contenant l’adresse du périphérique, codé sur 7
bits) désignant un périphérique, c'est donc l'hôte qui décide du « dialogue » avec les périphériques. Si le
périphérique reconnaît son adresse dans le jeton, il envoie un paquet de données (de 8 à 255 octets) en
réponse, sinon il fait suivre le paquet aux autres périphériques connectés. Les données ainsi échangées
sont codées selon le codage NRZI.
Puisque l’adresse est codée sur 7 bits, 128 périphériques (2^7) peuvent être connectés simultanément à
un port de ce type. Il convient en réalité de ramener ce chiffre à 127 car l’adresse 0 est une adresse
réservée. (cf plus loin).
A raison d'une longueur de câble maximale entre deux périphériques de 5 mètres et d'un nombre
maximal de 5 hubs (alimentés), il est possible de créer une chaîne longue de 25 mètres !
Les ports USB supportent le Hot plug and play. Ainsi, les périphériques peuvent être branchés sans
éteindre l’ordinateur (branchement à chaud, en anglais hot plug). Lors de la connexion du périphérique
à l’hôte, ce dernier détecte l’ajout du nouvel élément grâce au changement de la tension entre les fils D+
et D-. A ce moment, l’ordinateur envoie un signal d’initialisation au périphérique pendant 10 ms, puis lui
fournit du courant grâce aux fils GND et VBUS (jusqu’à 100mA). Le périphérique est alors alimenté en
courant électrique et récupère temporairement l’adresse par défaut (l’adresse 0). L’étape suivante
consiste à lui fournir son adresse définitive (c’est la procédure d’énumération). Pour cela, l’ordinateur
interroge les périphériques déjà branchés pour connaître la leur et en attribue une au nouveau, qui en
retour s’identifie. L’hôte, disposant de toutes les caractéristiques nécessaires est alors en mesure de
charger le pilote approprié.
Le bus Firewire (iLink / IEEE 1394)
Présentation du bus Firewire (IEEE 1394)
Le bus IEEE 1394 (nom de la norme à laquelle il fait référence) a été mis au point à la fin de l’année 1995
afin de fournir un système d’interconnexion permettant de faire circuler des données à haute vitesse en
temps réel. La société Apple lui a donné le nom commercial « Firewire », qui est devenu le plus usité.
Sony lui a également donné le nom commercial de i.Link, tandis que Texas Instrument lui a préféré le
nom de Lynx.
Il s'agit ainsi d'un port, équipant certains ordinateurs, permettant de connecter des périphériques
(notamment des caméras numériques) à très haut débit. Il existe ainsi des cartes d'extension
(généralement au format PCI ou PC Card / PCMCIA ) permettant de doter un ordinateur de connecteurs
FireWire. Les connecteurs et câbles FireWire sont repérables grâce à leur forme, ainsi qu'à la présence
du logo suivant :
Les normes FireWire
Il existe différentes normes FireWire permettant d'obtenir les débits suivants :
Norme Débit théorique
IEEE 1394a
IEEE 1394a-S100 100 Mbit/s
IEEE 1394a-S200 200 Mbit/s
IEEE 1394a-S400 400 Mbit/s
IEEE 1394b
IEEE 1394b-S800 800 Mbit/s
IEEE 1394b-S1200 1200 Mbit/s
IEEE 1394b-S1600 1600 Mbit/s
IEEE 1394b-S3200 3200 Mbit/s
La norme IEEE 1394b est également appelée FireWire 2 ou FireWire Gigabit.
Connecteurs Firewire
Il existe différents connecteurs FireWire pour chacune des normes IEEE 1394.
La norme IEEE 1394a définit deux connecteurs :
Les connecteurs 1394a-1995 :
Les connecteurs 1394a-2000 appelés mini-DV car ils sont utilisés sur les caméras
vidéo numériques DV (Digital Video) :
La norme IEEE 1394b définit deux types de connecteurs dessinés de façon à ce que les prises
1394b-Beta puissent s'enficher dans les connecteurs Beta et Bilingual mais que les prises 1394b
Bilingual ne puissent s'enficher que dans les connecteurs Bilingual :
Les connecteurs 1394b Bêta :
Les connecteurs 1394b Bilingual :
Fonctionnement du bus Firewire
Le bus IEEE 1394 suit à peu près la même structure que le bus USB, si ce n’est qu’il utilise un câble
composé de six fils (deux paires pour les données et pour l’horloge, et deux fils pour l’alimentation
électrique) lui permettant d’obtenir un débit de 800 Mb/s (il devrait atteindre prochainement 1.6 Gb/s,
voire 3.2 Gb/s à plus long terme). Ainsi, les deux fils dédiés à une horloge montrent la différence majeure
qui existe entre le bus USB et le bus IEEE 1394, c'est-à-dire la possibilité de fonctionner selon deux
modes de transfert :
le mode de transfert asynchrone : Le mode de transfert asynchrone est basé sur une
transmission de paquets à intervalles de temps variables. Cela signifie que l’hôte envoie un paquet de
données et attend de recevoir un accusé de réception du périphérique. Si l’hôte reçoit un accusé de
réception, il envoie le paquet de données suivant, sinon le paquet est à nouveau réexpédié au bout
d’un temps d’attente.
le mode isochrone : Le mode de transfert isochrone permet l’envoi de paquets de données de
taille fixe à intervalle de temps régulier. Un noeud, appelé Cycle Master est chargé d'envoyer un
paquet de synchronisation (appelé Cycle Start packet) toutes les 125 microsecondes. De cette façon
aucun accusé de réception n’est nécessaire, ce qui permet de garantir un débit fixe. De plus, étant
donné qu’aucun accusé de réception n’est nécessaire, l’adressage des périphériques est simplifié et
la bande passante économisée permet de gagner en vitesse de transfert.
Autre innovation du standard IEEE 1394 : la possibilité d’utiliser des ponts, systèmes permettant de relier
plusieurs bus entre eux. En effet, l’adressage des périphériques se fait grâce à un identificateur de nœud
(c’est-à-dire de périphérique) codé sur 16 bits. Cet identificateur est scindé en deux champs : un champ
de 10 bits permettant de désigner le pont et un champ de 6 bits spécifiant le nœud. Il est donc possible
de relier 1023 ponts (soit 210 -1), sur chacun desquels il peut y avoir 63 nœuds (soit 26 -1), il est ainsi
possible d’adresser 65535 périphériques ! Le standard IEEE 1394 permet aussi le Hot plug’n play, mais
alors que le bus USB est destiné à l’utilisation de périphériques peu gourmands en ressources (souris ou
clavier par exemple), la bande passante de l’IEEE 1394 la destine à des utilisations multimédias sans
précédents (acquisition vidéo, etc.)
ATA, IDE et EIDE
Tour d'horizon
Le standard ATA (Advanced Technology Attachment) est une interface standard permettant la connexion
de périphériques de stockage sur les ordinateurs de type PC. Le standard ATA a été mis au point le 12
mai 1994 par l'ANSI (document X3.221-1994).
Malgré l'appellation officielle "ATA", ce standard est plus connue sous le terme
commercial IDE(Integrated Drive Electronics) ou Enhanced IDE (EIDE ou E-IDE).
Le standard ATA est originalement prévu pour connecter des disques durs, toutefois une extension
nommée ATAPI (ATA Packet Interface) a été développée afin de pouvoir interfacer d'autres
périphériques de stockage (lecteurs de CD-ROM, lecteurs de DVD-ROM, etc) sur une interface ATA.
Depuis l'émergence de la norme Serial ATA (notée S-ATA ou SATA), permettant de transférer les
données en série, le terme « Parallel ATA » (noté PATA ou P-ATA) remplace parfois l'appellation "ATA"
afin de marquer le contraste entre les deux normes.
Principe
La norme ATA permet de relier des périphériques de stockage directement à la carte mère grâce à
unenappe IDE (en anglais ribbon cable) généralement composée de 40 fils parallèles et de trois
connecteurs (un connecteur pour la carte mère, généralement bleu, et les connecteurs restants pour
deux périphériques de stockage, respectivement noir et gris).
Sur la nappe un des périphériques doit être déclaré comme maître (master), l'autre en esclave (slave).
Par convention le connecteur à l'extrémité (noir) est réservé au périphérique maître et le connecteur du
milieu (gris) au périphérique esclave. Un mode appelé cable select (noté CS ou C/S) permet de définir
automatiquement le périphérique maître et l'esclave pour peu que le BIOS de l'ordinateur supporte cette
fonctionnalité.
Modes PIO
La transmission des données se fait grâce à un protocole appelé PIO (Programmed Input/Output)
permettant aux périphériques d'échanger des données avec la mémoire vive à l'aide de commandes
gérées directement par le processeur. Toutefois, de gros transferts de données peuvent rapidement
imposer une grosse charge de travail au processeur et ralentir l'ensemble du système. Il existe 5 modes
PIO définissant le taux de transfert maximal :
Mode PIO Débit (Mo/s)
Mode 0 3.3
Mode 1 5.2
Mode 2 8.3
Mode 3 11.1
Mode 4 16.7
Modes DMA
La technique du DMA (Direct Memory Access) permet de désengorger le processeur en permettant à
chacun des périphériques d'accéder directement à la mémoire. On distingue deux types de modes DMA :
Le DMA dit "single word" (en français mot simple) permettant de transmettre un mot simple (2
octets soient 16 bits) à chaque session de transfert,
Le DMA dit "multi-word" (en français mots multiples) permettant de transmettre successivement
plusieurs mots à chaque session de transfert.
Le tableau suivant liste les différents modes DMA et les taux de transfert associés :
Mode DMA Débit (Mo/s)
0 (Single word) 2.1
1 (Single word) 4.2
2 (Single word) 8.3
0 (Multiword) 4.2
1 (Multiword) 13.3
2 (Multiword) 16.7
Ultra DMA
Le standard ATA est à l'origine basé sur un mode de transfert asynchrone, c'est-à-dire que les envois
commandes et les envois de données sont cadencés à la fréquence du bus et se font à chaque front
montant (en anglais rising edge) du signal de l'horloge (strobe). Toutefois les envois des données et des
commandes ne se font pas simultanément, c'est-à-dire qu'une commande ne peut être envoyée tant que
la donnée n'a pas été reçue et inversement.
Pour augmenter le taux de transfert des données il peut donc sembler logique d'augmenter la fréquence
du signal d'horloge. Toutefois sur une interface où les données sont envoyées en parallèle l'augmentation
de la fréquence pose des problèmes d'interférence électromagnétiques.
Ainsi l'Ultra DMA (parfois noté UDMA) a été pensé dans le but d'optimiser au maximum l'interface ATA.
La première idée de l'Ultra DMA consiste à utiliser les front montants ainsi que les fronts descendants
(falling edges) du signal pour les transferts soit un gain de vitesse de 100% (avec un débit passant de
16.6 Mo/s à 33.3 Mo/s). De plus l'Ultra DMA introduit l'utilisation de codes CRC pour détecter les erreurs
de transmission. Ainsi les différents modes Ultra DMA définissent la fréquence de transfert des données.
Lorsqu'une erreur est rencontrée (lorsque le CRC reçu ne correspond pas aux données) le transfert
passe dans un mode Ultra DMA inférieur, voire sans Ultra DMA.
Mode Ultra DMA Débit (Mo/s)
UDMA 0 16.7
UDMA 1 25.0
UDMA 2 (Ultra-ATA/33) 33.3
UDMA 3 44.4
UDMA 4 (Ultra-ATA/66) 66.7
UDMA 5 (Ultra-ATA/100) 100
UDMA 6 (Ultra-ATA/133) 133
A partir de l'Ultra DMA mode 4 un nouveau type de nappe a été introduit afin de limiter les interférences ;
il s'agit d'une nappe ajoutant 40 fils de masse (soit un total de 80), entrecalés avec les fils de données
afin de les isoler et possédant les mêmes connecteurs que la nappe de 40 fils.
Seuls les modes Ultra DMA 2, 4, 5 et 6 sont réellement implémentés par les disques durs.
Les normes ATA
Le standard ATA se décline en plusieurs versions, ayant vu le jour successivement :
ATA-1
Le standard ATA-1, connu sous le nom de IDE, permet la connexion de deux périphériques sur une
nappe de 40 fils et propose une transmission 8 ou 16 bits avec un débit de l'ordre de 8.3 Mo/s. ATA-
1 définit et supporte les modes PIO (Programmed Input/Output) 0, 1 et 2 ainsi que le mode DMA
multiword (Direct Memory Access) 0.
ATA-2
Le standard ATA-2, connu sous le nom de EIDE (parfois Fast ATA, Fast ATA-2 ou Fast IDE), permet la
connexion de deux périphériques sur une nappe de 40 fils et propose une transmission 8 ou 16 bits avec
un débit de l'ordre de 16.6 Mo/s.
ATA-2 permet le support des modes PIO 0, 1, 2, 3 et 4 et modes DMA multiword 0, 1 et 2. De plus,
ATA-2 définit permet de repousser la limite de la taille maximale de disque de 528 Mo imposée par la
norme ATA-1 à 8.4 Go grâce au LBA (Large Block Addressing).
ATA-3
Le standard ATA-3 (également appelé ATA Attachment 3 Interface) représente une révision mineure de
l'ATA-2 (avec une compatibilité descendante) et fut publié en 1997 sous le standard X3.298-1997. Le
standard ATA-3 apporte les améliorations suivantes :
Fiabilité améliorée : L'ATA-3 permet d'augmenter la fiabilité des transferts à haute vitesse.
Le S.M.A.R.T (Self-Monitoring Analysis and Reporting Technology, traduisez Technologie d'auto
surveillance, d'analyse et de rapport) : il s'agit d'une fonction destinée à améliorer la fiabilité et à
prévenir les pannes.
Fonction de sécurité : les périphériques peuvent être protégés à l'aide d'un mot de passe ajouté
dans le BIOS. Au démarrage de l'ordinateur, celui-ci vérifie que le mot de passe codé dans le BIOS
correspond à celui stocké sur le disque. Cela permet notamment d'empêcher l'utilisation du disque sur
une autre machine.
ATA-3 n'introduit pas de nouveau mode mais supporte les modes PIO 0, 1, 2, 3 et 4 ainsi que les modes
DMA 0, 1 et 2.
ATA-4
Le standard ATA-4, ou Ultra-ATA/33, a été défini en 1998 sous sous le standard ANSI NCITS 317-1998.
ATA-4 modifie le mode LBA afin de porter la capacité maximale des disques à 128 Go.
En effet, le mode LBA permet un adressage codé par un nombre binaire de 28 bits. Or chaque secteur
représente 512 octets, ainsi la capacité maximale exacte d'un disque dur en mode LBA est la suivante :
228*512 = 137 438 953 472 octets
137 438 953 472/(1024*1024*1024)= 128 Go
ATA-5
En 1999 le standard ATA-5 définit deux nouveaux modes de transfert :
Ultra-DMA mode 3 et 4 (le mode 4 est aussi appelé Ultra ATA/66 ou Ultra DMA/66) De plus il propose la
détection automatique du type de nappes utilisées (80 ou 40 fils).
ATA-6
Depuis 2001 ATA-6 définit le support de l'Ultra DMA/100 (aussi appelé Ultra DMA mode 5 ou Ultra-
ATA100) permettant d'atteindre des débits théoriques de 100 Mo/s.
D'autre part ATA-6 définit une nouvelle fonctionnalité, appelée Automatic Acoustic Management (AAM),
permettant d'ajuster automatiquement la vitesse d'accès aux disques supportant cette fonction afin d'en
réduire le bruit de fonctionnement.
Enfin, la norme ATA-6 permet un mode d'adressage des secteurs du disque dur sur 48 bits, appelé
LBA48 (Logical Block Addressing 48 bits). Grâce au LBA48, il est possible d'utiliser des disques durs de
2^48 secteurs de 512 octets, soit une capacité de maximale de 2 pétaoctets.
ATA-7
ATA-7 définit le support de l'Ultra DMA/133 (aussi appelé Ultra DMA mode 6 ou Ultra-ATA133)
permettant d'atteindre des débits théoriques de 133 Mo/s.
Tableau récapitulatif
NomNorme ANSI
SynonymeMode (PIO/DMA)
Débit (Mo/s)
Commentaires
ATA-1ANSI X3.221-1994
IDE
PIO mode 0
3,3
PIO mode 1
5,2
PIO mode 2
8,3
DMA mode 0
8,3
ATA-2 ANSI X3.279-1996
EIDE, Fast ATA, Fast ATA-2
PIO mode 3
11,1LBA 28 bits
PIO mode 4
16,7
DMA 13,3
mode 1
DMA mode 2
16,7
ATA-3ANSI X3.298-1997
PIO mode 3
11,1
SMART, LBA 28 bits
PIO mode 4
16,7
DMA mode 1
13,3
DMA mode 2
16,7
ATA-4/ATAPI-4
ANSI NCITS 317-1998
Ultra-ATA/33, UDMA 33, Ultra DMA 33
UDMA mode 0
16,7
Ultra DMA 33 et support des CD-ROM (ATAPI)
UDMA mode 1
25,0
UDMA mode 2
33,3
ATA-5/ATAPI-5
ANSI NCITS 340-2000
Ultra-ATA/66, UDMA 66, Ultra DMA 66
UDMA mode 3
44,4Ultra DMA 66, utilisation d'un câble de 80 brochesUDMA
mode 466,7
ATA-6/ATAPI-6
ANSI NCITS 347-2001
Ultra-ATA/100, UDMA 100, Ultra DMA 100
UDMA mode 5
100
Ultra DMA 100, LBA48 et norme AAC (Automatic Acoustic Management)
ATA-7/ATAPI-7
ANSI NCITS 361-2002
Ultra-ATA/133, UDMA 133, Ultra DMA 133
UDMA mode 6
133 Ultra DMA 133
Serial ATA (SATA ou S-ATA)
Introduction
Le standard Serial ATA (S-ATA ou SATA) est un bus standard permettant la connexion de périphériques
de stockage haut débit sur les ordinateurs de type PC.
Le standard Serial ATA est apparu en février 2003 afin de pallier les limitations de la norme ATA (plus
connue sous le nom "IDE" et rétro-activement appelée Parallel ATA), qui utilise un mode de transmission
en parallèle. En effet, le mode de transmission en parallèle n'est pas prévu pour supporter des
fréquences élevées en raison des problèmes liés aux interférences électromagnétiques entre les
différents fils.
Les câbles et périphériques à la norme S-ATA peuvent notamment être reconnu par la présence du logo
suivant :
Principe du Serial ATA
Le standard Serial ATA est basé sur une communication en série. Une voie de données est utilisée pour
transmettre les données et une autre voie sert à la transmission d'accusés de réception. Sur chacune de
ces voies les données sont transmises en utilisant le mode de transmission LVDS (Low Voltage
Differential Signaling) consistant à transférer un signal sur un fil et son opposé sur un second fil afin de
permettre au récepteur de reconstituer le signal par différence. Les données de contrôle sont transmises
sur la même voie que les données en utilisant une séquence de bits particulière pour les distinguer.
Ainsi la communication demande deux voies de transmission, chacune effectuée via deux fils, soit un
total de quatre fils pour la transmission.
Connecteurs Serial-ATA
Le câble utilisé par le Serial ATA est un câble rond composé de sept fils et terminé par un connecteur de
8 mm :
Trois fils servent à la masse et les deux paires servent à la transmission de données.
Le connecteur d'alimentation est également différent : il est composé de 15 broches permettant
d'alimenter le périphérique en 3.3V, 5V ou 12V et possède une allure similaire au connecteur de
données :
Caractéristiques techniques
Le Serial ATA permet d'obtenir des débits de l'ordre de 187.5 Mo/s (1,5 Gb/s), or chaque octet est
transmis avec un bit de démarrage (start bit) et un bit d'arrêt (stop bit), soit un débit utile théorique de 150
Mo/s (1,2 Gb/s). Le standard Serial ATA II devrait permettre d'avoisiner les 375 Mo/s (3 Gb/s), soit 300
Mo/s utiles théoriques, puis à terme 750 Mo/s (6 Gb/s), soit 600 Mo/s utiles théoriques.
Les câbles Serial ATA peuvent mesurer jusqu'à 1 mètre de long (contre 45 cm pour les nappes IDE). De
plus, le faible nombre de fils dans une gaine ronde permet plus de souplesse et une meilleure circulation
de l'air dans le boîtier qu'avec des nappes IDE (même si des nappes IDE rondes existent). Contrairement
à la norme ATA, les périphériques Serial ATA sont seuls sur chaque câble et il n'est plus nécessaire de
définir des "périphériques maîtres" et des "périphériques esclaves"
D'autre part, la norme Serial ATA permet le raccordement à chaud des périphériques (Hot Plug).
eSATA
Par ailleurs, il existe une version de connecteurs destinés au stockage externe appelés External SATA ou
eSATA. La longueur maximale de câble est alors de 2 m.
La norme eSATA est similaire à la norme SATA, à la différence près qu’elle est destinée à la connexion
de disques externes (vous trouverez sur les cartes mères récentes un port eSATA à l’arrière de celles-ci).
Il est donc possible de trouver des boîtiers externes eSATA offrant des débits similaires à ceux des
disques durs internes (beaucoup plus performants donc que les boîtiers USB classiques).
Par exemple, le boîtier Vantec NexStar 3 permet de connecter un disque dur SATA via le port eSATA
mais également par USB ou FireWire si votre carte mère n’est pas de dernière génération.
SCSI
Présentation de l'interface SCSI
Le standard SCSI (Small Computer System Interface) est une interface permettant la connexion de
plusieurs périphériques de types différents sur un ordinateur par l’intermédiaire d’une carte,
appeléeadaptateur SCSI ou contrôleur SCSI (connecté généralement par l'intermédiaire d'un
connecteur PCI).
Le nombre de périphériques pouvant être branchés dépend de la largeur du bus SCSI. En effet, avec un
bus 8 bits il est possible de connecter 8 unités physiques, contre 16 pour un bus 16 bits. Le contrôleur
SCSI représentant une unité physique à part entière, le bus peut donc accepter 7 (8 - 1) ou 15 (16 - 1)
périphériques.
Adressage des périphériques
L’adressage des périphériques se fait grâce à des numéros d’identification. Le premier numéro est l’ID, il
s’agit d’un numéro permettant de désigner le contrôleur intégré à chaque périphérique (celui-ci est défini
grâce à des cavaliers à positionner sur chaque périphérique SCSI ou bien logiciellement). En effet, le
périphérique peut avoir jusqu’à 8 unités logiques (par exemple un lecteur de CD-ROM comportant
plusieurs tiroirs). Les unités logiques sont repérées par un identificateur appelé LUN (Logical Unit
Number). Enfin, un ordinateur peut comporter plusieurs cartes SCSI, c’est pourquoi un numéro de carte
est assigné à chacune d’entre-elles.
De cette façon, pour communiquer avec un périphérique, l’ordinateur doit donner une adresse de la forme
« numéro de carte - ID - LUN ».
SCSI asymétrique et différentiel
Deux types de bus SCSI existent :
le bus asymétrique, noté SE (pour Single Ended), basé sur une architecture parallèle dans
laquelle chaque canal circule sur un fil, ce qui le rend sensible aux interférences. Les nappes SCSI en
mode SE possèdent donc 8 fils dans le cas de transmission 8 bits (on parle alors de narrow, signifiant
"étroit") ou 16 fils pour un câble 16 bits (appelé wide, dont la traduction est "large") Il s'agit du type de
bus SCSI le plus répandu
le bus différentiel permet le transport des signaux sur une paire de fils. L’information est codée
par différence entre les deux fils (chacun véhiculant la tension opposée) afin de compenser les
perturbations électromagnétiques, ce qui permet une distance de câblage importante (de l'ordre de 25
mètres). On distingue généralement le mode LVD (Low Voltage Differential, en français différentiel
basse tension), basé sur des signaux 3.3V, et le mode HVD (High Voltage differential, en
françaisdifférentiel haute tension), utilisant des signaux 5V. Les périphériques utilisant ce type de
transmission, plus rare, portant généralement l'inscription "DIFF".
Les connecteurs des deux catégories de périphériques sont les mêmes, mais les signaux électriques ne
le sont pas, il faut donc veiller à identifier les périphériques (grâce aux symboles prévus à cet effet) afin
de ne pas les détériorer !
Les normes SCSI
Les normes SCSI définissent les paramètres électriques des interfaces d’entrées-sorties. Le
standardSCSI-1 date de 1986, il définissait des commandes standard permettant le contrôle des
périphériques SCSI sur un bus cadencé à 4,77 MHz d'une largeur de 8 bits, ce qui lui permettait d'offrir
des débits de l'ordre de 5 Mo/s.
Toutefois un grand nombre de ces commandes étaient optionnelles, c’est pourquoi en 1994 la norme
SCSI-2 a été adoptée. Elle définit 18 commandes appelées CCS (Common Command Set). Diverses
versions du standard SCSI-2 ont été définies :
Le Wide SCSI-2 est basé sur un bus de largeur 16 bits (au lieu de 8) et permet d'offrir un débit de
10Mo/s ;
Le Fast SCSI-2 est un mode synchrone rapide permettant de passer de 5 à 10 Mo/s pour le SCSI
standard, et de 10 à 20 Mo/s pour le Wide SCSI-2 (baptisé pour l'occasion Fast Wide SCSI-2);
Les modes Fast-20 et Fast-40 permettent respectivement de doubler et quadrupler ces débits.
La norme SCSI-3 intègre de nouvelles commandes, et permet le chaînage de 32 périphériques ainsi
qu'un débit maximal de 320 Mo/s (en mode Ultra-320).
Le tableau suivant récapitule les caractéristiques des différentes normes SCSI :
NormeLargeur du bus
Vitesse du bus
Bande passante
Connectique
SCSI-1(Fast-5 SCSI) 8 bits 4.77 MHz 5 Mo/sec50 broches(bus asymétrique ou différentiel)
SCSI-2 - Fast-10 SCSI 8 bits 10 MHz 10 Mo/sec50 broches(bus asymétrique ou différentiel)
SCSI-2 - Wide 16 bits 10 MHz 20 Mo/sec50 broches(bus asymétrique ou différentiel)
SCSI-2 - Fast Wide 32 bits 32 bits 10 MHz 40 Mo/sec68 broches(bus asymétrique ou différentiel)
SCSI-2 - Ultra SCSI-2(Fast-20 SCSI)
8 bits 20 MHz 20 Mo/sec50 broches(bus asymétrique ou différentiel)
SCSI-2 - Ultra Wide SCSI-2 16 bits 20 MHz 40 Mo/sec
SCSI-3 - Ultra-2 SCSI(Fast-40 SCSI)
8 bits 40 MHz 40 Mo/sec
SCSI-3 - Ultra-2 Wide SCSI 16 bits 40 MHz 80 Mo/sec 68 broches(bus différentiel)
SCSI-3 - Ultra-160(Ultra-3 SCSI ou Fast-80 SCSI)
16 bits 80 MHz 160 Mo/sec 68 broches(bus différentiel)
SCSI-3 - Ultra-320(Ultra-4 SCSI ou Fast-160 SCSI)
16 bits80 MHz DDR
320 Mo/sec 68 broches(bus différentiel)
SCSI-3 - Ultra-640 (Ultra-5 SCSI)
1680 MHz QDR
640 Mo/sec 68 broches(bus différentiel)
Bus PC Card (PCMCIA)
Présentation du bus PC Card
Le bus PC Card a été mis au point en 1989 par le consortium PCMCIA (Personal Computer Memory
Card International Association, d'où le nom donné parfois au bus) afin d'étendre les capacités d'accueil
de périphériques des ordinateurs portables.
Caractéristiques techniques
Les périphériques PCMCIA sont au format carte de crédit (54 mm par 85 mm) et possèdent un
connecteur de 68 broches.
Il existe trois types de facteur de forme (form factor) correspondant à trois épaisseurs standard :
Type Largeur (mm) Longueur (mm) épaisseur (mm)
PC Card Type I 54 85 3.3
PC Card Type II 54 85 5.0
PC Card Type III 54 85 10.5
Les cartes de type I sont généralement utilisées pour des cartes d'extension de mémoire. Les cartes de
type II servent habituellement pour des périphériques de communication (modem, carte réseau, carte
réseau sans fil) et de petits disques durs. Enfin les cartes de type III, beaucoup plus épaisses, sont en
général réservées à des périphériques embarquant des éléments mécaniques (disques dur de grosse
capacité).
CardBus
A partir de 1995 la norme CardBus (parfois appelée PC Card 32-bit) est apparue, permettant des
transferts de données en 32 bits, cadencés à une fréquence de 33 MHz avec une tension de 3V (contre
5.5 pour le PCMCIA).
Périphérique
Notion de périphérique
On appelle « périphérique » un matériel électronique pouvant être raccordé à un ordinateur par
l'intermédiaire de l'une de ses interfaces d'entrée-sortie (port série, port parallèle, bus USB, bus
firewire,interface SCSI, etc.), le plus souvant par l'intermédiaire d'un connecteur. Il s'agit donc des
composants de l'ordinateur externes à l'unité centrale.
On distingue habituellement les catégories de périphériques suivantes :
périphériques d'affichage : il s'agit de périphériques de sortie, fournissant une représentation
visuelle à l'utilisateur, tels qu'un moniteur (écran).
périphériques de stockage : il s'agit d'un périphérique d'entrée-sortie capable de stocker les
informations de manière permanent (disque dur, lecteur de CD-ROM, lecteur de DVD-ROM, etc.) ;
périphériques d'acquisition. Ils permettent à l'ordinateur d'acquérir des données telles
particulières, telles que des données vidéo, on parle alors d'acquisition vidéo ou bien d'images
numérisées (scanner) ;
périphériques d'entrée : ce sont des périphériques capables uniquement d'envoyer des
informations à l'ordinateur, par exemple les dispositifs de pointage (souris) ou bien le clavier.
Carte d'extension
On appelle « carte d'extension » un matériel électronique sous forme de carte pouvant être raccordé à
un ordinateur par l'intermédiaire de l'un de ses connecteurs d'extension (ISA, PCI, AGP, PCI Express,
etc.).
Il s'agit de composants connectés directement à la carte mère et situés dans l'unité centrale, permettant
de doter l'ordinateur de nouvelles fonctionnalités d'entrée-sortie.
Les principales cartes d'extension sont notamment :
La carte graphique ;
La carte son ;
La carte réseau.
Interruptions matérielles (IRQ) et conflits
Notion d'interruption
Puisque le processeur ne peut pas traiter plusieurs informations simultanément (il traite une information à
la fois), un programme en cours d'exécution peut, grâce à une interruption, être momentanément
suspendu, le temps que s'exécute une routine d'interruption. Le programme interrompu peut ensuite
reprendre son exécution. Il existe 256 adresses d'interruption différentes.
Une interruption devient une interruption matérielle lorsqu'elle est demandée par un composant matériel
de l'ordinateur. En effet, il existe dans l'ordinateur de nombreux périphériques. Ceux-ci ont généralement
besoin d'utiliser les ressources du système, ne serait-ce que pour communiquer avec lui.
Lorsqu'un périphérique souhaite accéder à une ressource, il envoie une demande d'interruption au
processeur pour qu'il lui prête son attention. Ainsi, les périphériques ont un numéro d'interruption, que l'on
appelle IRQ (Interruption ReQuest, soit « requête d'interruption »). A titre d'image, chaque périphérique
tire une « ficelle » reliée à une cloche pour signaler à l'ordinateur qu'il veut qu'il lui prête attention.
Cette « ficelle » est en fait une ligne physique qui relie chaque connecteur d'extension, ainsi que chaque
interface d'entrée-sortie, à la carte mère. Pour un emplacement ISA 8 bits par exemple, il existe 8 lignes
IRQ reliant les slots ISA 8 bits à la carte mère(IRQ0 à IRQ7). Ces IRQ sont contrôlés par un « contrôleur
d'interruption » chargé de « donner la parole » à l'IRQ ayant la plus grande priorité.
Avec l'apparition de slots 16 bits, les IRQ 8 à 15 ont été ajoutés, il a donc fallu ajouter un second
contrôleur d'interruption. La liaison entre les deux groupes d'interruptions se fait par l'intermédiaire de
l'IRQ 2 reliée à l'IRQ 9 (appelée « cascade »). La cascade vient donc en quelque sorte "insérer" les IRQ
8 à 15 entre les IRQ 1 et 3 :
La priorité étant donnée par ordre d'IRQ croissant, et les IRQ 8 à 15 étant insérées entre les IRQ 1 et 3,
l'ordre de priorité est donc le suivant :
0 > 1 > 8 > 9 > 10 > 11 > 12 > 13 > 14 > 15 > 3 > 4 > 5 > 6 > 7
DMA
Les périphériques ont régulièrement besoin d'« emprunter de la mémoire » au système afin de s'en servir
comme zone de tampon (en anglais buffer), c'est-à-dire une zone de stockage temporaire permettant
d'enregistrer rapidement des données en entrée ou en sortie.
Un canal d'accès direct à la mémoire, appelé DMA (Direct Memory Access soit Accès direct à la
mémoire), a ainsi été défini pour y remédier.
Le canal DMA désigne un accès à un emplacement de la mémoire vive (RAM) de l’ordinateur, repéré par
une « adresse de début » (ou «RAM Start Address» en anglais) et une « adresse de fin ». Cette méthode
permet à un périphérique d'emprunter des canaux spéciaux qui lui donnent un accès direct à la mémoire,
sans faire intervenir le microprocesseur, afin de le décharger de ces tâches.
Un ordinateur de type PC possède 8 canaux DMA. Les quatre premiers canaux DMA ont une largeur de
bande de 8 bits tandis que les DMA 4 à 7 ont une largeur de bande de 16 bits.
Les canaux DMA sont généralement assignés comme suit :
DMA0 - libre
DMA1 - (carte son)/ libre
DMA2 - contrôleur de disquettes
DMA3 - port parallèle (port imprimante)
DMA4 - contrôleur d'accès direct à la mémoire
(renvoi vers DMA0)
DMA5 - (carte son)/ libre
DMA6 - (SCSI)/ libre
DMA7 - disponible
Adresses de base
Les périphériques ont parfois besoin d'échanger des informations avec le système, c'est pourquoi des
adresses mémoire leur sont assignées pour l'envoi et la réception de données. Ces adresses sont
appelées «adresses de base» (les termes suivants sont également parfois utilisés : «ports
d'entrée/sortie», «ports d'E/S», «adresse d'E/S», «adresses de ports d'E/S», «ports de base», ou en
anglais I/O address qui signifie «Input/Output Address», littéralement «Adresse d'entrée - sortie»).
C'est par l'intermédiaire de cette adresse de base que le périphérique peut communiquer avec le système
d'exploitation. Il ne peut donc exister qu'une adresse de base unique par périphérique.
Voici une liste de quelques adresses de base courantes :
060h - clavier
170h/376h - contrôleur IDE secondaire
1F0h/3F6h - contrôleur IDE primaire
220h - carte son
300h - carte réseau
330h - carte adaptatrice SCSI
3F2h - contrôleur de lecteur de disquettes
3F8h - COM1
2F8h - COM2
3E8h - COM3
2E8h - COM4
378h - LPT1
278h - LPT2
Tous ces éléments sont toutefois transparents pour l'utilisateur , c'est-à-dire qu'il n'a pas à s'en
préoccuper.
Conflits matériels
Une interruption est une ligne reliant un périphérique au processeur. L'interruption est matérielle
lorsqu'elle est demandée par un composant matériel du PC. C'est le cas, par exemple, lorsqu'une touche
a été frappée et que le clavier veut attirer l'attention du processeur sur cet événement. Cependant, les
256 interruptions ne peuvent pas toutes être demandées comme des interruptions matérielles et les
différents périphériques appellent toujours des interruptions bien précises.
Ainsi, lors de l'installation de cartes d'extension, il faut veiller, au moment de la configuration, à ce que la
même interruption ne soit pas utilisée par deux périphériques différents, auquel cas cela provoque un
«conflit matériel », aboutissant à un dysfonctionnement d'un des deux périphériques.
En effet, si deux périphériques utilisent la même interruption, le système ne saura pas les distinguer. Un
conflit matériel ne se produit pas uniquement pour deux périphériques ayant la même interruption
matérielle, un conflit peut également se produire lorsque deux périphériques possèdent la même adresse
d'entrées/sorties ou utilisent les mêmes canaux DMA.
Configuration des IRQ
L'IRQ d'une carte d'extension peut être modifiée afin de lui allouer un numéro d'IRQ non utilisé par un
autre périphérique.
Sur les anciens périphériques il est fixé grâce à des cavaliers (jumpers), présents sur la carte.
Sur les cartes récentes (comportant un BIOS Plug & Play), le paramétrage des ressources (IRQ,
DMA, Adresses d'entrée-sortie) est automatique. Il peut également être réalisé grâce au système
d'exploitation ou bien à l'aide d'utilitaires fourni avec la carte d'extension. Le mode plug & play doit
parfois être désactivé pour pouvoir modifier les paramètres manuellement.
Il n'est pas toujours évident de trouver des ressources libres pour tous les périphériques, voici donc une
liste non exhaustive de ressources généralement utilisées, ne pouvant donc pas être assignées
manuellement :
IRQ Périphérique
0 Horloge interne
1 clavier
2contrôleur d'interruptions programmable Renvoi vers les IRQ 8 à 15
3 port de communication COM2/COM4
4 port de communication COM1/COM3
5 libre
6 contrôleur de disquettes
7 port imprimante LPT1
8 CMOS (Horloge temps réel)
9 libre
10 libre
11 libre
12 port souris PS2/libre
13 processeur numérique de données(Coprocesseur arithmétique)
14 contrôleur de disques durs primaire (IDE)
15 contrôleur de disques durs secondaire (IDE)
Les ports COM1 et COM4 ainsi que les ports COM2 et COM3 utilisent les mêmes interruptions. Cela
peut paraître illogique dans la mesure où une même interruption ne peut pas être utilisée par deux
périphériques. En réalité il est possible d'utiliser le port COM1 ainsi que le port COM4 (ainsi que le port
COM2 et le port COM3) à condition que ceux-ci ne soient pas actifs simultanément. Dans le cas
contraire l'ordinateur peut se bloquer ou avoir un comportement anormal.
Résolution des conflits matériels
En cas de problème matériel, la première chose à faire est de tenter d'isoler le problème afin de
déterminer quel périphérique pose problème. Cela signifie qu'il faut tenter d'éliminer toutes les variables
possibles jusqu'à la découverte de l'élément responsable :
en ouvrant le capot de la machine et en ôtant petit à petit les éléments susceptibles de provoquer
un conflit ;
en désactivant les périphériques par voie logicielle dans le système d'exploitation.
Le moniteur ou écran d'ordinateur
Introduction aux écrans d'ordinateur
On appelle écran (ou moniteur) le périphérique d'affichage de l'ordinateur. On distingue habituellement
deux familles d'écrans :
Les écrans à tube cathodique (notés CRT pour Cathod Ray Tube), équipant la majorité des
ordinateurs de bureau. Il s'agit de moniteurs volumineux et lourds, possédant une consommation
électrique élevée.
Les écrans plats équipant la totalité des ordinateurs portables, les assistants personnels (PDA),
les appareils photo numérique, ainsi qu'un nombre de plus en plus grand d'ordinateurs de bureau. Il
s'agit d'écrans peu encombrants en profondeur (d'où leur nom), légers et possédant une faible
consommation électrique.
Caractéristiques techniques
Les moniteurs sont souvent caractérisés par les données suivantes :
La définition: c'est le nombre de points (pixel) que l'écran peut afficher, ce nombre de points est
généralement compris entre 640x480 (640 points en longueur, 480 points en largeur) et 2048x1536,
mais des résolutions supérieures sont techniquement possibles. Le tableau ci-dessous donne les
définitions conseillées selon la taille de la diagonale :
Diagonale Définition
15" 800x600
17" 1024x768
19" 1280x1024
21" 1600x1200
La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un
pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet
un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les
écrans de grande taille possèdent une meilleure définition. Les tailles standard des écrans sont les
suivantes (liste non exhaustive) :
14 pouces, soit une diagonale de 36 cm environ ;
15 pouces, soit une diagonale de 38 cm environ ;
17 pouces, soit une diagonale de 43 cm environ ;
19 pouces, soit une diagonale de 48 cm environ ;
21 pouces. soit une diagonale de 53 cm environ ;
Le pas de masque (en anglais dot pitch): C'est la distance qui sépare deux luminophores; plus
celle-ci est petite plus l'image est précise. Ainsi un pas de masque inférieur ou égal à 0,25 mm
procurera un bon confort d'utilisation, tandis que les écrans possédant des pas de masque supérieurs
ou égaux à 0,28 mm seront à proscrire.
La résolution: Elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire
(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300
colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un
pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par
72) soit 0.353mm, correspondant à un point pica (unité typographique anglo-saxonne).
Les modes graphiques
On appelle mode graphique le mode d'affichage des informations à l'écran, en terme de définition et de
nombre de couleurs. Il représente ainsi la capacité d'une carte graphique à gérer des détails ou celle
d'unécran de les afficher.
MDA
La mode MDA (Monochrome Display Adapter), apparu en 1981, est le mode d'affichage des écrans
monochromes fournissant un affichage en mode texte de 80 colonnes par 25 lignes. Ce mode permettait
d'afficher uniquement des caractères ASCII.
CGA
Le mode CGA (color graphic adapter) est apparu en 1981 peu après le mode MDA avec l'arrivée du PC
(personal computer). Ce mode graphique permettait :
un affichage en mode texte amélioré, permettant d'afficher les caractères avec 4 couleurs
un affichage en mode graphique permettant d'afficher les pixels en 4 couleurs avec une
résolution de 320 pixels par 200 (notée 320x200)
EGA
Le mode EGA (Enhanced Graphic Adapter) est apparu au début des années 1985. Il permettait d'afficher
16 couleurs avec une résolution de 640 par 350 pixels (notée 640x350), soit des graphismes beaucoup
plus fins qu'en mode CGA.
VGA
Le mode VGA (Video graphics Array) a vu le jour en 1987. Il permet une résolution de 720x400 en mode
texte et une résolution de 640 par 480 (640x480) en mode graphique 16 couleurs. Il permet également
d'afficher 256 couleurs avec une définition de 320x200 (mode également connu sous le nom
de MCGApour Multi-Colour Graphics Array). Le VGA est rapidement devenu le mode d'affichage
minimum pour les ordinateurs de type PC.
XGA
In 1990, IBM a introduit le XGA (eXtended Graphics Array). La version 2 de ce mode d'affichage,
baptiséXGA-2 offrait une résolution de 800 x 600 en 16 millions de couleurs et de 1024 x 768 en 65536
couleurs.
SVGA
Le mode SVGA (Super Video Graphics Array) est un mode graphique permettant d'afficher 256 couleurs
à des résolutions de 640x200, 640x350 et 640x480. Le SVGA permet également d'afficher des définitions
supérieures telles que le 800x600 ou le 1024x768 en affichant moins de couleurs.
VESA
Afin de pallier le manque de standardisation des modes graphiques un consortium réunissant les
principaux fabricants de cartes graphiques s'est créé (le VESA, Video Electronic Standard Association)
afin de mettre au point des standards graphiques.
SXGA
Le standard SXGA (Super eXtended Graphics Array) défini par le consortium VESA fait référence à une
résolution de 1280 x 1024 en 16 millions de couleurs. Ce mode a pour caractéristique d'avoir un ration de
5:4 contrairement aux autres modes (VGA, SVGA, XGA, UXGA).
UXGA
Le mode UXGA (Ultra eXtended Graphics Array) définit une résolution de 1600 x 1200 avec 16 millions
de couleurs.
WXGA
Le mode WXGA (Wide eXtended Graphics Array) définit une résolution de 1280 x 800 avec 16 millions
de couleurs.
WSXGA
Le mode WSXGA (Wide Super eXtended Graphics Array) définit une résolution de 1600 x 1024 avec 16
millions de couleurs.
WSXGA+
Le mode WSXGA+ (Wide Super eXtended Graphics Array+) définit une résolution de 1680 x 1050 avec
16 millions de couleurs.
WUXGA
Le mode WUXGA (Wide Ultra eXtended Graphics Array) définit une résolution de 1920 x 1200 avec 16
millions de couleurs.
QXGA
Le mode QXGA (Quad eXtended Graphics Array) définit une résolution de 2048 x 1536 avec 16 millions
de couleurs.
QSXGA
Le mode QSXGA (Quad Super eXtended Graphics Array) définit une résolution de 2560 x 2048 avec 16
millions de couleurs.
QUXGA
Le mode QUXGA (Quad Ultra eXtended Graphics Array) définit une résolution de 3200 x 2400 avec 16
millions de couleurs.
tableau récapitulatif
Le tableau suivant récapitule les différentes résolutions, ainsi que le ratio correspondant :
Format d'affichage Résolution horizontale Résolution verticale Nombre de pixels Ratio
VGA 640 480 307 200 1
SVGA 800 600 480 000 1,56
XGA 1024 768 786 432 2,56
SXGA 1280 1024 1 310 720 4,27
SXGA+ 1400 1050 1 470 000 4,78
SXGA+ 1280 1024 1 310 720 4,27
UXGA 1600 1200 1 920 00 6,25
QXGA 2048 1536 3 145 728 10,2
QSXGA 2560 2048 5,242,800 17,1
QUXGA 3200 2400 7,680,000 25
Les normes d'énergie et de rayonnement
Il existe de nombreuses normes s'appliquant aux moniteurs permettant de garantir la qualité de ceux-ci
ainsi que d'assurer le consommateur que le matériel a été conçu de manière à limiter le rayonnement dû
aux émissions d'ondes électrostatiques et à réduire la consommation d'énergie.
Ainsi, à la fin des années 80 la norme MPR1 a été élaborée par une autorité suédoise afin de mesurer
l'émission de rayonnements par les matériels émettant des ondes électrostatiques. Cette norme fut
amendée en 1990 pour donner la norme MPR2, reconnue internationalement.
En 1992, la confédération suédoise des employés professionels (Swedish Confederation of Professional
Employees) introduit le standard TCO décrivant le niveau d'émission de rayonnements non plus en terme
de niveau de sécurité minimal mais en terme de niveau minimal possible techniquement.
La norme TCO a subit des révisions en 1992, 1995 et 1999 afin de donner respectivement lieu aux
normesTCO92, TCO95 et TCO99.
En 1993, un consortium de fabricants de matériel informatique (VESA, Video Electronics Standards
Association) créa la norme DPMS (Display Power Management Signalling) proposant 4 modes de
fonctionnement pour les appareils s'y conformant :
En marche.
En veille (standby), avec une consommation inférieure à 25W.
En suspension, avec une consommation inférieure à 8W. Dans ce mode le canon à électrons est
éteint, ce qui implique un délai de remise en route plus grand qu'en veille.
En arrêt.
Écran à tube cathodique (CRT)1. Le moniteur à tube cathodique 2. Le moniteur couleur 3. Caractéristiques techniques 4. Ressources sur le même sujet
Le moniteur à tube cathodique
Les moniteurs (écrans d'ordinateur) sont la plupart du temps des tubes cathodiques (notés CRT,
soitcathode ray tube ou en français tube à rayonnement cathodique), c'est à dire un tube en verre sous
vide dans lequel un canon à électrons émet un flux d'électrons dirigés par un champ électrique vers un
écran couvert de petits éléments phosphorescents.
Le canon à électrons est constitué d'une cathode, c'est-à-dire une électrode métallique chargée
négativement, d'une ou plusieurs anodes (électrodes chargées positivement). La cathode émet des
électrons attirés par l'anode. L'anode agit ainsi comme un accélérateur et un concentrateur pour les
électrons afin de constituer un flux d'électrons dirigé vers l'écran.
Un champ magnétique est chargé de dévier les électrons de gauche à droite et de bas en haut. Il est créé
grâce à deux bobines X et Y sous tension (appelées déflecteurs) servant respectivement à dévier le flux
horizontalement et verticalement.
L'écran est recouvert d'une fine couche d'éléments phosphorescents, appelés luminophores, émettant de
la lumière par excitation lorsque les électrons viennent les heurter, ce qui constitue un point lumineux
appelé pixel.
En activant le champ magnétique, il est possible de créer un balayage de gauche à droite, puis vers le
bas une fois arrivé en bout de ligne.
Ce balayage n'est pas perçu par l'oeil humain grâce à la persistance rétinienne, essayez par exemple
d'agiter votre main devant votre écran pour visualiser ce phénomène : vous voyez votre main en
plusieurs exemplaires !
Grâce à ce balayage, combiné avec l'activation ou non du canon à électrons, il est possible de faire
"croire" à l'oeil que seuls certains pixels sont "allumés" à l'écran.
Le moniteur couleur
Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en variant
l'intensité du rayon.
Pour les moniteurs couleur, trois faisceaux d'électrons (correspondant à trois cathodes) viennent chacun
heurter un point d'une couleur spécifique : un rouge, un vert et un bleu (RGB, correspondant à Red,
Green, Blue ou en français RVB, Rouge, vert, bleu).
Trois points de couleur sont ainsi appelée une triade (en anglais triad ou dot trio).
Les luminophores bleus sont réalisés à base de sulfure de zinc, les verts en sulfure de zinc et de
cadmium. Les rouges enfin sont plus difficile à réaliser, et sont faits à partir d'un mélange d'yttrium et
europium, ou bien d'oxyde de gadolinium.
Cependant ces luminophores sont si proches les uns des autres que l'oeil n'a pas un pouvoir séparateur
assez fort pour les distinguer: il voit une couleur composée de ces trois couleurs. Essayez de mettre une
minuscule goutte d'eau sur le verre de votre moniteur: celle-ci faisant un effet de loupe va faire apparaître
les luminophores.
De plus, pour éviter des phénomènes de bavure (un électron destiné à frapper un luminophore vert
percutant le bleu) une grille métallique appelée masque est placée devant la couche de luminophores
afin de guider les flux d'électrons.
On distingue selon le masque utilisé plusieurs catégories d'écrans cathodiques :
Les tubes FST-Invar (Flat Square Tube) dont les luminophores sont ronds. Ces moniteurs
utilisent une grille appelée masque (ou shadow mask en anglais). Ils donnent une image nette et de
bonnes couleurs mais possèdent l'inconvénient de déformer et d'assombrir l'image dans les coins.
Les tubes Diamondtron de Mitsubishi et Trinitron de Sony dont le masque est constitué de
fentes verticales (appelée aperture grille ou grille à fentes verticales), laissant passer plus d'électrons
et procurant donc une image plus lumineuse.
Les tubes Cromaclear de Nec dont le masque est constitué d'un système hybride avec des
fentes en forme d'alvéoles constituant la meilleure technologie des trois.
Caractéristiques techniques
Les moniteurs CRT sont caractérisés par les données suivantes :
La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un
pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet
un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les
écrans de grande taille possèdent une meilleure définition.
Le pas de masque (en anglais dot pitch) : il représente la distance qui sépare deux
luminophores de même couleur. Plus le pas de masque est petit, meilleure est la qualité de l'image.
Ainsi un pas de masque inférieur ou égal à 0,25 mm procurera un bon confort d'utilisation, tandis que
les écrans possédant des pas de masque supérieurs ou égaux à 0,28 mm seront à proscrire.
La résolution : elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire
(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300
colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un
pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par
72) soit 0.353 mm, correspondant à un point pica (unité typographique anglo saxonne). Les termes «
résolution » et « définition » sont souvent confondus à tort dans la presse.
La fréquence de balayage vertical (refresh rate en anglais) : Elle représente le nombre
d'images qui sont affichées par seconde, ou plus exactement le nombre de rafraîchissement de
l'image par seconde. On l'appelle ainsi également taux de rafraîchissement, elle est exprimée en
Hertz. Plus cette valeur est élevée meilleur est le confort visuel (on ne voit pas l'image scintiller), il faut
donc qu'elle soit bien supérieure à 67 Hz (limite inférieure à partir de laquelle l'oeil voit véritablement
l'image "clignoter"). La plupart des personnes ne perçoivent plus de scintillement (en anglais flicker) à
partir de 70 Hz, ainsi une valeur supérieure ou égale à 75 Hz conviendra généralement.
Écran plat
Les moniteurs à écran plat
Les moniteurs à écran plat (notés parfois FPD pour Flat panel display) se généralisent de plus en plus
dans la mesure où leur facteur d'encombrement et leur poids sont très inférieurs à ceux des écrans
CRTtraditionnels.
De plus, les technologies utilisées dans les écrans plats sont moins consommatrices d'énergie
(consommation inférieure à 10W contre 100W pour les écrans CRT) et n'émettent pas de rayonnement
électromagnétique.
La technologie LCD
La technologie LCD (Liquid Crystal Display) est basée sur un écran composé de deux plaques parallèles
rainurées transparentes, orientées à 90°, entre lesquelles est coincée une fine couche de liquide
contenant des molécules (cristaux liquides) qui ont la propriété de s'orienter lorsqu'elles sont soumises à
du courant électrique.
Combiné à une source de lumière, la première plaque striée agit comme un filtre polarisant, ne laissant
passer que les composantes de la lumière dont l'oscillation est parallèle aux rainures.
En l'absence de tension électrique, la lumière est bloquée par la seconde plaque, agissant comme un
filtre polarisant perpendiculaire.
Sous l'effet d'une tension, les cristaux vont progressivement s'aligner dans le sens du champ électrique et
ainsi pouvoir traverser la seconde plaque !
En contrôlant localement l'orientation de ces cristaux il est possible de constituer des pixels. On distingue
habituellement deux types d'écrans plats selon le système de commande permettant de polariser les
cristaux :
Les écrans dits à « matrice passive », dont les pixels sont contrôlés par ligne et par colonne.
Ainsi les pixels sont adressés par lignes et par colonne grâce à des conducteurs transparents situés
dans la dalle. Le pixel s'allume lors de son adressage et s'éteint entre deux balayages.
Les écrans dits à « matrice active », dont chaque pixel est contrôlé individuellement.
Que les écrans soient à matrice active ou passive, ils ont besoin d'une source lumineuse pour
fonctionner. Les termes suivants définissent la manière par laquelle l'écran est éclairé :
Les écrans réflectifs sont des écrans éclairés par devant, par une lumière artificielle ou tout
simplement par la lumière ambiante (comme c'est le cas pour la plupart des montres digitales).
Les écrans transmissifs utilisent un rétro éclairage pour afficher les informations. Ce type
d'écran est particulièrement adapté pour un usage en intérieur ou dans des conditions de faible
éclairage et fournissent habituellement une image contrasté et lumineuse. En contrepartie, ils
deviennent difficilement lisibles utilisés en extérieur (en plein soleil par exemple).
Les écrans transflectifs utilisent un rétro éclairage ainsi qu'un polariseur composé d'un matériau
translucide capable de transmettre la lumière d'arrière plan tout en réfléchissant une partie de la
lumière ambiante. Ce type d'écran convient en particulier aux appareils destinés à une utilisation tant
en intérieur qu'en extérieur (appareils photo numérique, PDA).
Écrans plasma
La technologie plasma (PDP, Plasma Display Panel) est basée sur une émission de lumière grâce à
l'excitation d'un gaz. Le gaz utilisé dans les écrans plasma est un mélange d'argon (90%) et de xénon
(10%). Du gaz est contenu dans des cellules, correspondant aux pixels, dans lesquelles sont adressées
une électrode ligne et une électrode colonne permettant d'exciter le gaz de la cellule. En modulant la
valeur de la tension appliquée entre les électrodes et la fréquence de l'excitation il est possible de définir
jusqu'à 256 valeurs d'intensités lumineuses. Le gaz ainsi excité produit un rayonnement lumineux
ultraviolet (donc invisible pour l'œil humain. Grâce à des luminophores respectivement bleus, verts et
rouges répartis sur les cellules le rayonnement lumineux ultraviolet est converti en lumière visible, ce qui
permet d'obtenir des pixels (composés de 3 cellules) de 16 millions de couleurs (256 x 256 x 256).
La technologie plasma permet d'obtenir des écrans de grande dimension avec de très bonnes valeurs de
contrastes mais le prix d'un écran plasma reste élevé. De plus la consommation électrique est plus de 30
fois supérieure à celle d'un écran LCD.
Les caractéristiques
Les écrans plats sont souvent caractérisés par les données suivantes :
La définition : il s'agit du nombre de points (pixels) que l'écran peut afficher, ce nombre de points
est généralement compris entre 640x480 (640 points en longueur, 480 points en largeur) et
1600x1200, mais des résolutions supérieures sont techniquement possibles.
La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un
pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet
un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les
écrans de grande taille possèdent une meilleure définition.
La résolution : Elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire
(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300
colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un
pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par
72) soit 0.353mm, correspondant à un point pica (unité typographique anglo-saxonne).
Le temps de réponse : Défini par la norme internationale ISO 13406-2, il correspond à la durée
nécessaire afin de faire passer un pixel du blanc au noir, puis de nouveau au blanc. Le temps de
réponse (défini en millisecondes) doit être choisi le plus petit possible (pragmatiquement, inférieur à
25 ms).
La luminance : Exprimée en candelas par mètre carré (Cd/m<sup>2</sup>, elle permet de
définir la « luminosité » de l'écran. L'ordre de grandeur de la luminance est d'environ 250
cd/m<sup>2</sup>.
L'angle de vision vertical et horizontal : Exprimée en degrés, il permet de définir l'angle à partir
duquel la vision devient difficile lorsque l'on n'est plus face à l'écran.
Disque dur1. Le rôle du disque dur 2. Structure 3. Fonctionnement 4. Mode bloc 5. Mode 32 bits 6. Caractéristiques techniques 7. Ressources sur le même sujet
Le rôle du disque dur
Le disque dur est l'organe de l'ordinateur servant à conserver les données de manière permanente,
contrairement à la mémoire vive, qui s'efface à chaque redémarrage de l'ordinateur, c'est la raison pour
laquelle on parle parfois de mémoire de masse pour désigner les disques durs.
Le disque dur est relié à la carte-mère par l'intermédiaire d'un contrôleur de disque dur faisant
l'interface entre le processeur et le disque dur. Le contrôleur de disque dur gère les disques qui lui sont
reliés, interprête les commandes envoyées par le processeur et les achemine au disque concerné. On
distingue généralement les interfaces suivantes :
IDE
SCSI
Serial ATA
Avec l'apparition de la norme USB, des boîtiers externes permettant de connecter un disque dur sur un
port USB ont fait leur apparition, rendant le disque dur facile à installer et permettant de rajouter de la
capacité de stockage pour faire des sauvegardes. On parle ainsi de disque dur externe par opposition
aux disques durs internes branchés directement sur la carte mère, mais il s'agit bien des mêmes disques,
si ce n'est qu'ils sont connectés à l'ordinateur par l'intermédiaire d'un boîtier branché sur un port USB.
Structure
Un disque dur est constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard
disk signifie disque dur) en métal, en verre ou en céramique, empilés à une très faible distance les uns
des autres et appelés
plateaux (en anglais platters).
Les disques tournent très rapidement autour d'un axe (à plusieurs milliers de tours par minute
actuellement) dans le sens inverse des aiguilles d'une montre. Un ordinateur fonctionne de
manièrebinaire, c'est-à-dire que les données sont stockées sous forme de 0 et de 1 (appelés bits). Il
existe sur les disques durs des millions de ces bits, stockés très proches les uns des autres sur une fine
couche magnétique de quelques microns d'épaisseur, elle-même recouverte d'un film protecteur.
La lecture et l'écriture se fait grâce à des têtes de lecture (en anglais heads) situées de part et d'autre
de chacun des plateaux. Ces têtes sont des électro-aimants qui se baissent et se soulèvent pour pouvoir
lire l'information ou l'écrire. Les têtes ne sont qu'à quelques microns de la surface, séparées par une
couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h ! De plus ces têtes
sont mobiles latéralement afin de pouvoir balayer l'ensemble de la surface du disque.
Cependant, les têtes sont liées entre elles et une tête seulement peut lire ou écrire à un moment donné.
On parle donc de cylindre pour désigner l'ensemble des données stockées verticalement sur la totalité
des disques.
L'ensemble de cette mécanique de précision est contenu dans un boîtier totalement hermétique, car la
moindre particule peut détériorer la surface du disque. Vous pouvez donc voir sur un disque des
opercules permettant l'étanchéité, et la mention "Warranty void if removed" qui signifie littéralement "la
garantie expire si retiré" car seuls les constructeurs de disques durs peuvent les ouvrir (dans des salles
blanches, exemptes de particules).
Fonctionnement
Les têtes de lecture/écriture sont dites « inductives », c'est-à-dire qu'elles sont capables de générer un
champ magnétique. C'est notamment le cas lors de l'écriture : les têtes, en créant des champs positifs ou
négatifs, viennent polariser la surface du disque en une très petite zone, ce qui se traduira lors du
passage en lecture par des changements de polarité induisant un courant dans la tête de lecture, qui sera
ensuite transformé par un convertisseur analogique numérique (CAN) en 0 et en 1 compréhensibles par
l'ordinateur.
Les têtes commencent à inscrire des données à la périphérie du disque (piste 0), puis avancent vers le
centre. Les données sont organisées en cercles concentriques appelés « pistes », créées par
leformatage de bas niveau.
Les pistes sont séparées en quartiers (entre deux rayons) que l'on appelle secteurs, contenant les
données (au minimum 512 octets par secteur en général).
On appelle cylindre l'ensemble des données situées sur une même piste sur des plateaux différents
(c'est-à-dire à la verticale les unes des autres) car cela forme dans l'espace un "cylindre" de données.
On appelle enfin cluster (ou en français unité d'allocation) la zone minimale que peut occuper un fichier
sur le disque. En effet le système d'exploitation exploite des blocs qui sont en fait
plusieurs secteurs(entre 1 et 16 secteurs). Un fichier minuscule devra donc occuper plusieurs secteurs
(un cluster).
Sur les anciens disques durs, l'adressage se faisait ainsi de manière physique en définissant la position
de la donnée par les coordonnées cylindre / tête / secteur (en anglais CHS pour Cylinder / Head /
Sector).
Mode bloc
Le mode bloc et le transfert 32 bits permettent d'exploiter pleinement les performances de votre disque
dur. Le mode bloc consiste à effectuer des transferts de données par bloc, c'est-à-dire par paquets de
512 octets généralement, ce qui évite au processeur d'avoir à traiter une multitude de minuscules
paquets d'un bit. Le processeur a alors du "temps" pour effectuer d'autres opérations.
Ce mode de transfert des données n'a malheureusement une véritable utilité que sous d'anciens
systèmes d'exploitation (tels que MS-DOS), car les systèmes d'exploitation récents utilisent leur propre
gestionnaire de disque dur, ce qui rend ce gestionnaire obsolète.
Une option du BIOS (IDE HDD block mode ou Multi Sector Transfer) permet parfois de déterminer le
nombre de blocs pouvant être gérés simultanément. Ce nombre se situe entre 2 et 32. Si vous ne le
connaissez pas, plusieurs solutions s'offrent à vous :
consulter la documentation de votre disque dur ;
rechercher les caractéristiques du disque sur internet ;
déterminer expérimentalement en effectuant des tests.
Le mode bloc peut toutefois générer des erreurs sous certains systèmes, à cause d'une redondance de
gestionnaire de disque dur. La solution consiste alors à désactiver l'un des deux gestionnaires :
la gestion logicielle du mode 32-bit sous le système d'exploitation ;
le mode bloc dans le BIOS.
Mode 32 bits
Le mode 32 bits (par opposition au mode 16 bits) est caractérisé par un transfert des données sur 32 bits.
Le transfert sur 32 bits correspond à 32 portes qui s'ouvrent et se ferment simultanément. En mode 32
bits, deux mots (ensemble de bits) de 16 bits sont transmis successivement, puis assemblés.
Le gain de performance lié au passage du mode 16 bits au mode 32 bits est généralement insignifiant.
Quoiqu'il en soit il n'est la plupart du temps plus possible de choisir le mode, car la carte mère détermine
automatiquement le type de mode à adopter en fonction du type de disque dur.
La détermination automatique du mode 32 bits peut toutefois ralentir les lecteurs de CD-ROM IDE dont la
vitesse est supérieure à 24x lorsqu'ils sont seuls sur une nappe IDE. En effet, dans le cas où le lecteur de
CD-ROM est seul sur la nappe, le BIOS peut ne pas détecter sa compatibilité avec le mode 32 bits
(puisqu'il cherche un disque dur), auquel cas il passe en mode 16 bits. La vitesse de transfert (appelée
par abus de langage taux de transfert) est alors en dessous du taux de transfert annoncé par le
constructeur.
La solution dans ce genre de cas consiste à brancher sur la même nappe que le lecteur de CD-ROM un
disque dur supportant le mode 32 bits.
Caractéristiques techniques
Capacité : volume de données pouvant être stockées sur le disque.
Taux de transfert (ou débit) : quantité de données pouvant être lues ou écrites sur le disque par
unité de temps. Il s'exprime en bits par seconde.
Vitesse de rotation : vitesse à laquelle les plateaux tournent, exprimée en tours par minutes
(notésrpm pour rotations par minute). La vitesse des disques durs est de l'ordre de 7200 à 15000 rpm.
Plus la vitesse de rotation d'un disque est élevée meilleur est le débit du disque. En revanche, un
disque possédant une vitesse de rotation élevé est généralement plus bruyant et chauffe plus
facilement.
Temps de latence (aussi appelé délai rotationnel) : temps écoulé entre le moment où le disque
trouve la piste et le moment où il trouve les données.
Temps d'accès moyen : temps moyen que met la tête pour se positionner sur la bonne piste et
accéder à la donnée. Il représente donc le temps moyen que met le disque entre le moment où il a
reçu l'ordre de fournir des données et le moment où il les fournit réellement. Il doit ainsi être le plus
court possible.
Densité radiale : nombre de pistes par pouce (tpi: Track per Inch).
Densité linéaire : nombre de bits par pouce sur une piste donnée (bpi: Bit per Inch).
Densité surfacique : rapport de la densité linéaire sur la densité radiale (s'exprime en bits par
pouce carré).
Mémoire cache (ou mémoire tampon) : quantité de mémoire embarquée sur le disque dur. La
mémoire cache permet de conserver les données auxquelles le disque accède le plus souvent afin
d'améliorer les performances globales ;
Interface : il s'agit de la connectique du disque dur. Les principales interfaces pour disques durs
sont les suivantes :
IDE/ATA ;
Serial ATA ;
SCSI ;
Il existe par ailleurs des boîtiers externes permettant de connecter des disques durs
en USB oufirewire.
Disque dur SSD
Disque dur SSD
La mémoire flash peut remplacer dans certains cas un disque dur. On parle dans ce cas de
disques SSD(Solid State Drive). La traduction en lecteur à état solide fait référence aux composants
électroniques dont il est constitué, par opposition aux disques durs classiques disposant de parties
mécaniques mobiles.
Le terme anglais solid state désigne un appareil ou composant électronique à semi-conducteurs, donc
sans pièces mobiles.
Avantages d'un disque dur SSD
Son principal avantage est son temps d’accès particulièrement faible, généralement de 0,1 ms. Sa
consommation électrique est également plus faible, en particulier en veille. Par ailleurs, le silence total et
sa résistance accrue aux chocs sont des atouts incontournables.
Ces disques utilisent généralement une interface SATA et sont disponibles en 3" ½ ou 2" ½.
Inconvénients d'un disque dur SSD
Pour autant, le nombre d’écritures sur une même zone du « disque » est limité à quelques centaines de
milliers (ce qui est rapidement atteint en cas d’utilisation de mémoire virtuelle ou de fichiers de log). En
attendant des solutions pour contourner ce défaut, augmenter la capacité (à ce jour, 256 Go maximum) et
surtout réduire le coût, les utilisations du SSD comme disque principal restent limitées à certaines
applications telles que les mini PC.
Type de puces
Il existe deux puces différentes sur les SSD. Les puces MLC et SLC.
La puce MLC
Elle est l'abréviation de "Multi-Level Cell" literralement cellule à multi-niveaux. Cette puce est utilisée dans
les SSD grand public.
Son avantage réside dans son faible coût de production.
Ces inconvénients sont qu'elle ne permet pas d'atteindre d'importantse vitesses de transfert, elle
consomme beaucoup plus, et à une durée de vie plus faible que la puce SLC.
La puce SLC
Elle est l'abréviation de "Single Level Cell", ce qui signifie cellule à un niveau. On trouve cette puce dans
les SSD professionnel, ainsi que dans les SSD haut de gamme.
Elle présente l'avante d'avoir des vitesses de transfert accrues, une consommation moins
importante, et une durée de vie plus importante que la puce MLC.
Son seul inconvénient est son coût de fabrication trés elevé.
CD, CD audio et CD-ROM
Le Compact Disc a été inventé par Sony et Philips en 1981 afin de constituer un support audio compact
de haute qualité permettant un accès direct aux pistes numériques. Il a été officiellement lancé en octobre
1982. En 1984, les spécifications du Compact Disc ont été étendues (avec l'édition du Yellow Book) afin
de lui permettre de stocker des données numériques.
La géométrie du CD
Le CD (Compact Disc) est un disque optique de 12 cm de diamètre et de 1.2 mm d'épaisseur
(l'épaisseur peut varier de 1.1 à 1.5 mm) permettant de stocker des informations numériques, c'est-à-dire
correspondant à 650 Mo de données informatiques (soient 300 000 pages dactylographiées) ou bien
jusqu'à 74 minutes de données audio. Un trou circulaire de 15 mm de diamètre en son milieu permet de
le centrer sur la platine de lecture.
La composition du CD
Le CD est constitué d'un substrat en matière plastique (polycarbonate) et d'une fine pellicule métallique
réfléchissante (or 24 carat ou alliage d'argent). La couche réfléchissante est recouverte d'une laque anti-
UV en acrylique créant un film protecteur pour les données. Enfin, une couche supplémentaire peut être
ajoutée afin d'obtenir une face supérieure imprimée.
La couche réfléchissante possède de petites alvéoles. Ainsi lorsque le laser traverse le substrat de
polycarbonate, la lumière est réfléchie sur la couche réfléchissante, sauf lorsque le laser passe sur une
alvéole, c'est ce qui permet de coder l'information.
Cette information est stockée sur 22188 pistes gravées en spirales (il s'agit en réalité d'une seule piste
concentrique).
Les CD achetés dans le commerce sont pressés, c'est-à-dire que les alvéoles sont réalisées grâce à du
plastique injecté dans un moule contenant le motif inverse. Une couche métallique est ensuite coulée sur
le substrat en polycarbonate, et cette couche métallique est elle-même prise sous une couche
protectrice.
Les CD vierges par contre (CD-R) possèdent une couche supplémentaire (située entre le substrat et la
couche métallique) composée d'un colorant organique (en anglais dye) pouvant être marqué (le
termebrûler est souvent utilisé) par un laser de forte puissance (10 fois celle nécessaire pour la lecture).
C'est donc la couche de colorant qui permet d'absorber ou non le faisceau de lumière émis par le laser.
Les colorants les plus souvent utilisés sont :
La cyanine de couleur bleue, donnant une couleur verte lorsque la couche métallique est en or
La pthalocyanine de couleur "vert clair", donnant une couleur dorée lorsque la couche
métallique est en or
L'AZO, de couleur bleu foncé
Etant donné que l'information n'est plus stockée sous forme de cavité mais par une marque "colorée",
une pré-spirale (en anglais pre-groove) est présente dans le support vierge afin d'aider le graveur à
suivre le chemin en spirale, ce qui évite la présence d'une mécanique de précision sur les graveurs de
CD-R.
D'autre part, cette spirale ondule selon une sinusoïdale, appelée wobble, possédant une amplitude de +/-
0.03µm (30nm) et une fréquence de 22,05kHz. Le wobble permet de donner une information au graveur
sur la vitesse à laquelle il doit graver. Cette information est appelée ATIP (Absolute Time in PreGroove).
Fonctionnement
La tête de lecture est composé d'un laser (Light Amplification by Stimulated Emission of Radiation)
émettant un faisceau lumineux et d'une cellule photoélectrique chargée de capter le rayon réfléchi. Le
laser utilisé par les lecteurs de CD est un laser infrarouge (possédant une longueur d'onde de 780 nm)
car il est compact et peu coûteux. Une lentille située à proximité du CD focalise le faisceau laser sur les
alvéoles.
Un miroir semi réfléchissant permet à la lumière réfléchie d'atteindre la cellule photoélectrique, comme
expliqué sur le dessin suivant :
Un chariot est chargé de déplacer le miroir de façon à permettre à la tête de lecture d'accéder à
l'intégralité du CD-ROM.
On distingue généralement deux modes de fonctionnement pour la lecture de CD :
La lecture à vitesse linéaire constante (notée CLV soit constant linear velocity). Il s'agit du
mode de fonctionnement des premiers lecteurs de CD-ROM, basé sur le fonctionnement des lecteurs
de CD audio ou bien même des vieux tourne-disques. Lorsqu'un disque tourne, la vitesse des pistes
situées au centre est moins importante que celle des pistes situées sur l'extérieur, ainsi il est
nécessaire d'adapter la vitesse de lecture (donc la vitesse de rotation du disque) en fonction de la
position radiale de la tête de lecture. Avec ce procédé la densité d'information est la même sur tout le
support, il y a donc un gain de capacité. Les lecteurs de CD audio possèdent une vitesse linéaire
comprise entre 1.2 et 1.4 m/s.
La lecture à vitesse de rotation angulaire constante (notée CAV pour constant angular
velocity) consiste à ajuster la densité des informations selon l'endroit où elles se trouvent afin d'obtenir
le même débit à vitesse de rotation égale en n'importe quel point du disque. Cela crée donc une faible
densité de données à la périphérie du disque et une forte densité en son centre.
La vitesse de lecture du lecteur de CD-ROM correspondait à l'origine à la vitesse de lecture d'un CD
audio, c'est-à-dire un débit de 150 ko/s. Cette vitesse a par la suite été prise comme référence et
notée 1x. Les générations suivantes de lecteurs de CD-ROM ont été caractérisées par des multiples de
cette valeur. Le tableau suivant donne les équivalences entre les multiples de 1x et le débit :
Débit Temps de réponse
1x 150 ko/s 400 à 600 ms
2x 300 ko/s 200 à 400 ms
3x 450 ko/s 180 à 240 ms
4x 600 ko/s 150 à 220 ms
6x 900 ko/s 140 à 200 ms
8x 1200 ko/s 120 à 180 ms
10x 1500 ko/s 100 à 160 ms
12x 1800 ko/s 90 à 150 ms
16x 2400 ko/s 80 à 120 ms
20x 3000 ko/s 75 à 100 ms
24x 3600 ko/s 70 à 90 ms
32x 4500 ko/s 70 à 90 ms
40x 6000 ko/s 60 à 80 ms
52x 7800 ko/s 60 à 80 ms
Le codage des informations
La piste physique est en fait constituée d'alvéoles d'une profondeur de 0,168µm, d'une largeur de 0,67µm
et de longueur variable. Les pistes physiques sont écartées entre elles d'une distance d'environ 1.6µm.
On nomme creux (en anglais pit) le fond de l'alvéole et on nomme plat (en anglais land) les espaces
entre les alvéoles.
Le laser utilisé pour lire les CD a une longueur d'onde de 780 nm dans l'air. Or l'indice de réfraction du
polycarbonate étant égal à 1.55, la longueur d'onde du laser dans le polycarbonate vaut 780 / 1.55 =
503nm = 0.5µm.
La profondeur de l'alvéole correspond donc à un quart de la longueur d'onde du faisceau laser, si bien
que l'onde se réfléchissant dans le creux parcourt une moitié de longueur d'onde de plus (un quart à
l'aller plus un quart au retour) que celle se réfléchissant sur le plat.
De cette façon, lorsque le laser passe au niveau d'une alvéole, l'onde et sa réflexion sont déphasées
d'une demi-longueur d'onde et s'annulent (interférences destructrices), tout se passe alors comme si
aucune lumière n'était réfléchie. Le passage d'un creux à un plat provoque une chute de signal,
représentant un bit.
C'est la longueur de l'alvéole qui permet de définir l'information. La taille d'un bit sur le CD, notée "T", est
normalisée et correspond à la distance parcourue par le faisceau lumineux en 231.4 nanosecondes,
soit0.278µm à la vitesse standard minimale de 1.2 m/s.
D'après le standard EFM (Eight-to-Fourteen Modulation), utilisé pour le stockage d'information sur un CD,
il doit toujours y avoir au minimum deux bits à 0 entre deux bits consécutifs à 1 et il ne peut y avoir plus
de 10 bits consécutifs à zéro entre deux bits à 1 pour éviter les erreurs. C'est pourquoi la longueur d'une
alvéole (ou d'un plat) correspond au minimum à la longueur nécessaire pour stocker la valeur OO1 (3T,
c'est-à-dire 0.833µm) et au maximum à la longueur correspondant à la valeur 00000000001 (11T,
soit3.054µm).
Standards
Il existe de nombreux standards décrivant la façon selon laquelle les informations doivent être stockées
sur un disque compact, selon l'usage que l'on désire en faire. Ces standards sont référencés dans des
documents appelés books (en français livres) auxquels une couleur a été affectée :
Red book (livre rouge appelé aussi RedBook audio): Développé en 1980 par Sony et Philips, il
décrit le format physique d'un CD et l'encodage des CD audio (notés parfois CD-DA pour Compact
Disc - Digital Audio). Il définit ainsi une fréquence d'échantillonnage de 44.1 kHz et une résolution de
16 bits en stéréo pour l'enregistrement des données audio.
Yellow book (livre jaune): il a été mis au point en 1984 afin de décrire le format physique des CD
de données (CD-ROM pour Compact Disc - Read Only Memory). Il comprend deux modes :
CD-ROM Mode 1 , utilisé pour stocker des données avec un mode de correction
d'erreurs (ECC, pour Error Correction Code) permettant d'éviter les pertes de données dûes à
une détérioration du support
CD-ROM Mode 2, permettant de stocker des données graphiques, vidéo ou audio
compressées. Pour pouvoir lire ce type de CD-ROM un lecteur doit être compatible Mode 2.
Green book (livre vert): format physique des CD-I (CD Interactifs de Philips)
Orange book (livre orange): format physique des CD inscriptibles. Il se décline en trois parties :
Partie I: le format des CD-MO (disques magnéto-optiques)
Partie II: le format des CD-WO (Write Once, désormais notés CD-R)
Partie III: le format des CD-RW (CD ReWritable ou CD réinscriptibles)
White book (livre blanc): format physique des CD vidéo (VCD ou VideoCD)
Blue book (livre bleu): format physique des CD extra (CD-XA)
Structure logique
Un CD-R, qu'il soit audio ou CD-ROM, est constitué, d'après le Orange Book, de trois zones constituant
lazone d'information (information area) :
La zone Lead-in Area (parfois notée LIA) contenant uniquement des informations décrivant le
contenu du support (ces informations sont stockées dans la TOC, Table of Contents). La zone Lead-
in s'étend du rayon 23 mm au rayon 25 mm. Cette taille est imposée par le besoin de pouvoir stocker
des informations concernant un maximum de 99 pistes. La zone Lead-in sert au lecteur de CD à
suivre les creux en spirale afin de se synchroniser avec les données présentes dans la zone
programme
La zone Programme (Program Area) est la zone contenant les données. Elle commence à partir
d'un rayon de 25 mm, s'étend jusqu'à un rayon de 58mm et peut contenir l'équivalent de 76 minutes
de données. La zone programme peut contenir un maximum de 99 pistes (ou sessions) d'une
longueur minimale de 4 secondes.
La zone Lead-Out (parfois notée LOA) contenant des données nulles (du silence pour un CD
audio) marque la fin du CD. Elle commence au rayon 58 mm et doit mesurer au moins O.5 mm
d'épaisseur (radialement). La zone lead-out doit ainsi contenir au minimum 6750 secteurs, soit 90
secondes de silence à la vitesse minimale (1X).
Un CD-R contient, en plus des trois zones décrites ci-dessus, une zone appelée PCA (Power Calibration
Area) et une zone PMA (Program Memory Area) constituant à elles deux une zone appelé SUA (System
User Area).
La PCA peut être vue comme une zone de test pour le laser afin de lui permettre d'adapter sa puissance
au type de support. C'est grâce à cette zone qu'est possible la commercialisation de supports vierges
utilisant des colorants organiques et des couches réfléchissantes différents. A chaque calibration, le
graveur note qu'il a effectué un essai. Un maximum de 99 essais par media est autorisé.
Systèmes de fichiers
Le format de CD (ou plus exactement le système de fichiers) s'attache à décrire la manière selon laquelle
les données sont stockées dans la zone programme.
Le premier système de fichiers historique pour les CD est le High Sierra Standard.
Le format ISO 9660 normalisé en 1984 par l'ISO (International Standards Organization) reprend le High
Sierra Standard afin de définir la structure des répertoires et des fichiers sur un CD-ROM. Il se décline en
trois niveaux :
Niveau 1 : Un CD-ROM formaté en ISO 9660 Level 1 ne peut contenir que des fichiers dont le
nom est en majuscule (A-Z), pouvant contenir des chiffres (0-9) ainsi que le caractère "_". L'ensemble
de ces caractères est appelé d-characters. Les répertoires ont un nom limité à 8 d-characters et une
profondeur limitée à 8 niveaux de sous-répertoires. De plus la norme ISO 9660 impose que chaque
fichier soit stocké de manière continue sur le CD-ROM, sans fragmentation. Il s'agit du niveau le plus
restrictif. Le respect du niveau 1 permet ainsi de s'assurer que le média sera lisible sur un grand
nombre de plates formes.
Niveau 2 : Le format ISO 9660 Level 2 impose que chaque fichier soit stocké comme un flux
continu d'octets, mais permet un nommage de fichiers plus souple en acceptant notamment les
caractères @ - ^ ! $ % & ( ) # ~ et une profondeur de 32 sous-répertoires maximum.
Niveau 3 : Le format ISO 9660 Level 3 n'impose aucune restriction de noms de fichiers ou de
répertoires.
Microsoft a également défini le format Joliet, une extension au format ISO 9660 permettant d'utiliser des
noms de fichiers longs (LFN, long file names) de 64 caractères comprenant des espaces et des
caractères accentués selon le codage Unicode.
Le format ISO 9660 Romeo est une option de nommage proposée par Adaptec, indépendante donc du
format Joliet, permettant de stocker des fichiers dont le nom peut aller jusqu'à 128 caractères mais ne
supportant pas le codage Unicode.
Le format ISO 9660 RockRidge est une extension de nommage au format ISO 9660 lui permettant d'être
compatible avec les systèmes de fichiers UNIX.
Afin de pallier les limitations du format ISO 9660 (le rendant notamment inapproprié pour les DVD-ROM),
l'OSTA (Optical Storage Technology Association) a mis au point le format ISO 13346, connu sous le nom
de UDF (Universal Disk Format).
Les méthodes d'écriture
Monosession : Cette méthode crée une seule session sur le disque et ne donne pas la
possibilité de rajouter des données ultérieurement.
Multisession : Contrairement à la méthode précédente, cette méthode permet de graver un CD
en plusieurs fois, en créant une table des matières (TOC pour table of contents) de 14Mo pour
chacune des sessions
Multivolume : C'est la gravure Multisession qui considère chaque session comme un volume
séparé.
Track At Once : Cette méthode permet de désactiver le laser entre deux pistes, afin de créer
une pause de 2 secondes entre chaque piste d'un CD audio.
Disc At Once : Contrairement à la méthode précédente, le Disc At Once écrit sur le CD en une
seule traite (sans pause).
Packet Writing : Cette méthode permet la gravure par paquets.
Caractéristiques techniques
Un lecteur CD-ROM est caractérisé par les éléments suivants :
Vitesse: la vitesse est calculée par rapport à la vitesse d'un lecteur de CD-Audio (150 Ko/s). Un
lecteur allant à 3000Ko/s sera qualifié de 20X (20 fois plus rapide qu'un lecteur 1X).
Temps d'accès : il représente le temps moyen pour aller d'une partie du CD à une autre.
Interface : ATAPI (IDE) ou SCSI ;
DVD, DVD audio et DVD-ROM (DVD-R, DVD-RW, DVD+W, DVD+RW)
Présentation du DVDLe DVD (Digital Versatile Disc, plus rarement Digital Video Disc) est une «alternative» au disque compact (CD) dont la capacité est six fois plus importante (pour le support DVD de moindre capacité, simple face, simple couche). Le format DVD a été prévu afin de fournir un support de stockage universel alors que le CD était originalement prévu en tant que support audio uniquement.
Le format DVD est prévu afin de rendre les données adressables et accessibles aléatoirement (de manière non séquentielle). Il possède une structure complexe, permettant une plus grande interactivité, mais nécessitant l'utilisation de microprocesseurs évolués.
Le format DVD était porté originalement (dès le 15 septembre 1995) par un consortium de dix sociétés du monde multimédia (Hitachi, JVC, Matsushita, Mitsubishi, Philips, Pioneer, Sony, Thomson, Time Warner et Toshiba). A partir de 1997, un nouveau consortium, baptisé «DVD Forum» a succédé au consortium initial.
Un DVD peut facilement être confondu avec un CD dans la mesure où les deux supports sont des disques en plastique de 12 cm de diamètre et de 1.2 mm d'épaisseur et que leur lecture repose sur l'utilisation d'un rayon laser. Toutefois, les CD utilisent un laser infrarouge possédant une longueur d'onde de 780 nanomètres (nm) tandis que les graveurs de DVD utilisent un laser rouge avec une longueur d'onde de 635 nm ou 650 nm. De plus, les lecteurs de CD utilisent généralement une lentille dont la focale vaut 0,5, alors que les lecteurs de DVD sont basés sur une lentille ayant une focale de 0,6. Ainsi, les DVD possèdent des alvéoles dont la taille minimum est de 0,40µ avec un espacement de 0,74µ, contre 0,834µ et 1,6µ pour le CD.
L'intérêt du DVD est essentiellement sa capacité de stockage, ce qui en fait le support par excellence pour la vidéo. Un DVD de 4,7 Go permet ainsi de stocker plus de deux heures de vidéo compressée en MPEG-2 (Motion Picture Experts Group), un format qui permet de compresser les images tout en gardant une grande qualité d'image.
Structure physiqueLes DVD existent en version «simple couche» et «double couche» (en anglais «Dual Layer», noté DL). Ces derniers sont constitués d'une couche translucide semi réfléchissante à base d'or et d'une couche réflexive opaque à base d'argent, séparées par une couche de liaison (bonding layer). Pour lire ces deux
couches le lecteur dispose d'un laser pouvant changer d'intensité en modifiant sa fréquence et sa focale :
avec une intensité faible le rayon est réfléchi sur la surface dorée supérieure, avec une intensité plus élevée le rayon traverse la première couche et est réfléchi sur la surface
argentée inférieure.
La couche inférieure possède toutefois une densité moindre. De plus l'information y est stockée «à l'envers» sur une spirale inversée, afin de limiter le temps de latence lors du passage d'une couche à une autre.
Par ailleurs, les DVD existent en version simple face ou double face, à la manière des disques vinyles. Dans le second cas, l'information est stockée de part et d'autre du support.
On distingue généralement 4 grandes familles de supports DVD, possédant différentes capacités selon leurs caractéristiques physiques :
Type de support
Caractéristiques CapacitéTemps musical
équivalentNombre de CD
équivalent
CD 650Mo 1h14 min 1
DVD-5 simple face, simple couche 4.7 Go 9h30 7
DVD-9 simple face double couche 8.5 Go 17h30 13
DVD-10double face, simple couche
9.4 Go 19h 14
DVD-17double face, double couche
18 Go 35h 26
Formats standard de DVDLes spécifications officielles des DVD se déclinent en cinq livres :
le livre A (Book A) pour le DVD-ROM ; le livre B (Book B) pour le DVD Vidéo ;
le livre C (Book C) pour le DVD Audio ;
le livre D (Book D) pour le DVD inscriptible (DVD-R) et le DVD réinscriptible (DVD-RW). Le format DVD-R est un format inscriptible une seule fois (Write-Once), tandis que le format DVD-RW est un format réinscriptible, permettant l'effacement et la modification de données grâce à une phase capable de changer d'état ;
le livre E (Book E) pour le DVD réinscriptible (également DVD-RAM, pour DVD Random Access Memory). Le DVD-RAM est un support réinscriptible utilisant une technologie du changement de phase pour l'enregistrement. Les DVD-RAM sont en réalité des cartouches composées d'un boîtier et d'un DVD. Certaines cartouches sont amovibles, afin de permettre la lecture d'un DVD-RAM dans un lecteur DVD de salon.
Formats standard de DVD enregistrablesIl existe actuellement trois formats de DVD enregistrables :
DVD-RAM de Toshiba © et Matsushita ©. Il s'agit d'un format essentiellement utilisé au Japon. DVD-R / DVD-RW, porté par le DVD Forum. Les DVD au format DVD-R sont enregistrables une
seule fois tandis que les DVD au format DVD-RW sont réinscriptibles à raison d'environ 1 000 enregistrements. Le format DVD-R, ainsi que le format DVD-RW, permet d'obtenir une capacité totale de 4.7 Go.
DVD+R / DVD+RW, porté par Sony et Philips au sein de la DVD+RW Alliance, regroupant, en plus des deux précédentes, les sociétés Dell, Hewlett-Packard, Mitsubishi/Verbatim, Ricoh, Thomson et Yamaha.
Ces trois formats sont incompatibles entre eux, malgré des performances équivalentes. Le format DVD-RAM ne fera pas l'objet de détails, dans la mesure où il est principalement utilisé au Japon. Les formats DVD-R(W) et DVD+R(W) sont par contre largement utilisés en Europe.
DVD-R/RWLe format DVD-R/DVD-RW est basé sur une technique dite du «pré-pits». À la manière des CD inscriptibles (CD-R), les DVD inscriptibles et réinscriptibles utilisent une «pre-groove» (spirale
préalablement gravée sur le support), ondulant selon une sinusoïdale appelée wobble. La pre-groove permet de définir le positionnement de la tête d'enregistrement sur le support (appelé tracking) tandis que la fréquence d'oscillation permet au graveur d'ajuster sa vitesse. Les informations d'adressage (position des données) sont par contre définies grâce à des cuvettes pré-gravées sur le support, dans les creux (appelés land) entre les sillons du disque (appelés groove), baptisées «land pré pits» (abrégé en LPP).
Les pré-pits constituent ainsi un second signal servant au positionnement des données. Lorsque le laser rencontre un pré-pit, un pic d'amplitude apparaît dans l'oscillation, indiquant au graveur où la donnée doit être gravée. Les spécifications du DVD-R précise qu'un pré-pit doit posséder une longueur d'au moins une période (1T).
Le format DVD-R/DVD-RW propose des fonctionnalités de gestion des erreurs, essentiellement logicielles (appelées Persistent-DM et DRT-DM).
DVD+R/RWLe format DVD+R/DVD+RW utilise une spirale dont l'oscillation (wobble) possède une fréquence beaucoup plus élevée que les DVD-R (817,4 kHz pour les DVD+R contre 140,6 pour les DVD-R) et gère l'adressage grâce à une modulation de la phase de l'oscillation, c'est-à-dire un codage par inversion de phase appelé ADIP (ADdress In Pre-groove). L'inversion de phase a lieu toutes les 32 périodes (32T).
Le format DVD+RW offre une fonctionnalité de correction d'erreurs appelée DVD+MRW (Mount Rainier
for DVD+RW abrégé en Mt Rainier for DVD+RW) permettant de marquer les blocs défectueux. De plus, si des données lisibles existent sur ce bloc, un mécanisme permet de les déplacer sur un bloc sain et met à jour la table d'allocation des fichiers (on parle alors de Logical to Physical Address Translation).
En outre, une vérification en arrière-plan est prévue dans les spécifications, permettant de vérifier les erreurs présentes sur le disque, lorsque le lecteur est inactif. L'utilisateur peut néanmoins lire le support ou l'éjecter à tout moment, auquel cas les vérifications continueront où elles s'étaient arrêtées dès que le lecteur sera à nouveau en veille.
Différences entre DVD+ et DVD-D'une manière générale la méthode d'adressage utilisée par les DVD+R (modulation de phase) possède une meilleure résistance aux perturbations électromagnétiques que la méthode des pré-pits. En effet, lors de la gravure, le graveur doit également lire les pré-pits afin de positionner correctement les données sur le support. Or, la lumière émise par le laser peut provoquer des perturbations.
D'autre part, étant donné la période correspondant à la longueur d'un pré-pit (1T), les pré-pits sont d'autant plus difficiles à détecter que la vitesse de lecture est élevée. Il n'est donc pas étonnant que le premier graveur 16x commercialisé ait été au format DVD+RW.
Ainsi, le format DVD+R(W), bénéficiant de spécifications plus récentes, propose de meilleures performances ainsi que des fonctionnalités supplémentaires. En contrepartie, le format DVD-R(W) est ratifié par le DVD Forum et correspond au format initial, si bien qu'une majorité de lecteurs (notamment de salon) sont compatibles.
Les graveurs de DVD supportent généralement les deux formats de disques. En conclusion, compte tenu de sa meilleure compatibilité avec les platines de salon, le format DVD-R(W) est à privilégier pour la création de DVD Vidéo, tandis que le format DVD+R(W) comporte des avantages pour la création de DVD de données.
DVD DLLe terme «DVD DL» (DVD Dual Layer) désigne les DVD enregistrables double couche. Ces supports, proposant une plus grande capacité de stockage que les DVD simple couche, utilisent une technologie proche des DVD-9 (DVD pressés double couche).
Structure logiqueUn DVD est essentiellement constitué de trois zones représentant la «zone d'information» (information area) :
La zone Lead-in Area (parfois notée LIA) contenant uniquement des informations décrivant le contenu du support (ces informations sont stockées dans la TOC, Table of Contents, traduisez table des contenus). La zone Lead-in sert au lecteur à suivre les creux en spirale afin de se synchroniser avec les données présentes dans la zone programme.
La zone Programme (Program Area) est la zone contenant les données.
La zone Lead-Out (parfois notée LOA), contenant des données nulles (du silence pour un DVD audio), marque la fin du CD.
Un DVD enregistrable contient, en plus des trois zones décrites ci-dessus, une zone appelée PCA (Power Calibration Area) et une zone RMA (Recording Management Area) situées avant la zone Lead-In.
La PCA peut être vue comme une zone de test pour le laser afin de lui permettre d'adapter sa puissance au type de support. C'est grâce à cette zone qu'est possible la commercialisation de supports vierges utilisant des couches réfléchissantes et des colorants organiques différents. A chaque calibration, le graveur note qu'il a effectué un essai. Un maximum de 99 essais par media est autorisé.
Système de fichiers et répertoiresLes DVD utilisent le système de fichiers UDF (Universal Disk Format). Afin de maintenir une certaine compatibilité avec d'anciens systèmes d'exploitation, un système de fichiers hybride, appelé «UDF Bridge», supportant l'UDF et le système de fichiers ISO 9660 utilisé par les CD-ROM, a été mis au point. Il est toutefois important de noter que les lecteurs de DVD Vidéo et de DVD Audio ne supportent que le système UDF.
Structure d'un DVD VidéoUn DVD vidéo peut contenir des données destinées à des platines de salon ainsi que des données additionnelles pouvant être lues sur un ordinateur.
Un DVD-Video possède une organisation hiérarchique de ses répertoires permettant de contenir les données vidéo et audio. Il repose habituellement sur la structure suivante :
Le répertoire principal, nommé VIDEO_TS (pour Video Title Sets), a pour vocation de contenir les fichiers du DVD Vidéo. Le répertoire AUDIO_TS concerne les DVD-Audio mais sa présence est parfois demandée par certains lecteurs DVD de salon. JACKET_P contient les images des jaquettes du DVD. Il est enfin possible d'y adjoindre d'autres répertoires, pouvant être lus sur un ordinateur.
Un DVD vidéo est composé d'un certain nombre d'éléments, présents dans le répertoire VIDEO_TS :
un gestionnaire vidéo (VMG, pour Video Manager). Le VMG contient généralement la ou les vidéos d'introduction, ainsi que le menu donnant accès aux autres titres vidéo (y compris les sous-menus).
un ou plusieurs ensembles de titres vidéo (VTS, pour video titles sets), contenant les titres vidéo.
Les «titres vidéo» correspondent à des films, des vidéos ou des albums. Un titre est composé d'un «ensemble d'objets vidéo» (VOBS, Video Object Block Sets), chacun composé :
d'un «fichier de contrôle» (appelé VTSI, pour Video Title Set Information), et contenant les données de navigation.
d'un ou plusieurs objets vidéo (VOB, Video Object Block). L'objet vidéo (VOB) est l'élément de base du DVD. Il contient des données vidéo, audio et des images multiplexées, au format MPEG2. Ainsi, un fichier .VOB peut être lu par un lecteur vidéo logiciel en changeant son extension en «.MPG». Les spécifications du DVD imposent que chaque fichier VOB ne dépasse pas un giga-octet. Chaque VOB est lui-même composé de «cellules» (Cells), représentant les différents clips vidéo ou audio composant le VOB : par exemple des chapitres vidéo ou les chansons d'un album.
d'une copie du VTSI (VTSI Backup).
Un DVD peut contenir jusqu'à 99 titres (VTS), chacun subdivisé jusqu'à 10 chapitres.
Ainsi, le répertoire VIDEO_TS contient habituellement trois types de fichiers possédant les extensions suivantes :
IFO contenant les informations de navigation (il correspond au Video Manager).
VOB (Video Object Block) contenant les flux vidéo, les différents canaux audio ainsi que les sous-titres d'un titre vidéo.
BUP (BUP signifiant Backup), contenant une sauvegarde des fichiers IFO, au cas où ils seraient illisibles.
Le fichier particulier nommé VIDEO_TS.IFO (IFO signifiant information) contient les informations nécessaires au lecteur pour l'affichage du menu principal. Il est accompagné du fichier VIDEO_TS.VOB, contenant le clip d'animation d'introduction, ainsi que d'un fichier de sauvegarde (nommé VIDEO_TS.BUP).
ZonesLes DVD Vidéo sont conçus pour ne pouvoir être consultés que dans certaines régions du monde : il s'agit du découpage en zone (prévu initialement pour limiter la diffusion des copies illicites). Il est ainsi théoriquement impossible de lire un DVD d'une zone en étant situé dans une autre. Néanmoins, la quasi-totalité des lecteurs de DVD pour ordinateurs et une grande partie des lecteurs de salon peuvent être «dézonés» grâce à des utilitaires.
Blu ray
Disques Blu-rayLe disque Blu-ray (ou BD) est un média optique conçu pour le stockage de vidéos haute définition et de données. Il présente les mêmes dimensions qu’un CD ou un DVD standard.
Ce format a fini par s’imposer après une « guerre de standard » l’opposant au format HD DVD, soutenu essentiellement par Microsoft et Toshiba. Ce format avait l’avantage d’être moins cher, mais se contentait d’un espace de stockage un peu plus réduit. À la suite de l’annonce par Toshiba d’abandonner en février 2008 le développement des produits HD DVD, l’ensemble des autres partenaires ont abandonné le format, laissant Blu-ray s’imposer en tant que standard du stockage haute définition.
Laser bleuSon nom provient de l’utilisation d’un laser bleu (en fait plutôt violet) pour la lecture ou l’écriture des données. Ce laser a une longueur d’onde de 405 nm, alors que les lasers présents dans les lecteurs CD ou DVD classiques utilisent respectivement des lasers infrarouges proches (780 nm) ou rouges (650 nm). Le laser bleu, avec sa longueur d’onde plus faible, permet de lire ou écrire des « trous » plus petits sur un même espace, ce qui permet par là même d’augmenter le nombre de sillons du disque et donc de stocker un plus grand nombre d’informations.
Sa capacité courante est de 25 Go en simple face et 50 Go en double face. Trois standards sont définis : le BD-R (disque enregistrable), le BD-RE (réinscriptible) et le BD-ROM (lecture seule).
Des disques BD-ROM à 4 couches sont également possibles : il existe ainsi des disques de 100 Go utilisant 4 couches de 25 Go, et de même de 200 Go utilisant 6 couches de 33,3 Go. Pour le moment, tous les lecteurs du marché ne sont pas capables de les lire. À terme, il pourrait exister jusqu’à 10 couches (par face).
Comme pour les CD-R ou DVD-R, plusieurs vitesses d’enregistrement ont été définies pour le BD-R (ou -RE) :
Vitesse Taux de transfert (Mo/s)Temps d’écriture (min) pour un disque Blu-ray
Simple couche Double couche
1x 4,5 90 180
2x 9 45 90
4x 18 23 45
6x 27 15 30
8x 36 12 23
12x 54 8 15
À ce jour, les deux dernières vitesses (8x et 12x) restent totalement théoriques.
Sur les disques Blu-ray, la surface sur laquelle sont présentes les données doit toutefois être plus près de
la surface du disque. Comparé à un DVD standard, il est donc plus sensible aux rayures. Les premières versions utilisaient pour éviter ce désagrément des boîtiers de protection intégrés de type cartouche. Les progrès rapides effectués par les fabricants (TDK, Sony, Verbatim, etc.) dans le domaine des polymères ont permis de supprimer ces protections et d’abandonner l’enveloppe de protection.
Comme pour le CD ou le DVD, il existe un format réduit de Blu-ray à 8 cm (au lieu de 12 cm). Ce format, simple couche, à une face, est destiné à de petits appareils portables (caméra, console portable, etc.) et permet de stocker 15 Go.
Compression, codecs et heures de vidéoLe format BD-ROM spécifie trois formats de compression pour la vidéo : MPEG-2, H.264/AVC, SMPTE VC-1. Le codec MPEG-2 est le standard actuellement utilisé pour les DVD. En utilisant ce codec, il est possible de placer deux heures de vidéo haute définition sur un disque simple couche, car le MPEG-2 haute définition nécessite un taux de transfert d’environ 25 Mbit/s (chaque seconde de film utilise donc 3 Mo). En comparaison, le codec H.264/AVC (qui est une évolution du MPEG-4) et le codec SMPTE VC-1 (dérivé des développements de Microsoft pour son codec inclus dans Windows Media Player 9) permettent de stocker jusqu’à 4 heures de film sur le même support.
Le choix du codec par le producteur du disque n’est pas qu’une affaire de temps maximal disponible sur le disque. C’est également un problème de coûts de licence et de royalties à payer. Il arrive ainsi que sur un même disque on trouve le film principal en VC-1 et les bonus en MPEG-2.
Les graveurs de salon disponibles actuellement (formats BD-R et BD-RE) ne supportent que le codec MPEG-2. En effet, ce standard étant utilisé pour la diffusion HDTV (TV haute définition), l’enregistreur écrit directement ce flux sur le disque (aucun enregistreur actuellement disponible pour le grand public n’est capable de transcrire en temps réel du MPEG-2 vers un autre codec).
Il n’est pas précisé dans la norme Blu-ray que les lecteurs doivent être compatibles DVD ou CD. Si la quasi-totalité des modèles présents dans le commerce le sont effectivement, il est indispensable de s’en assurer, quelques-uns ne permettant toujours pas la lecture de certains CD.
Zonage et protectionsComme pour les DVD, les disques Blu-ray peuvent être soumis à l’utilisation sur une zone géographique. Il n’existe toutefois avec ce standard que trois régions définies à l’échelle mondiale.
La zone A correspond aux Amériques, à l’Asie de l’Est et du Sud-Est, la zone B, à l’Europe, l’Afrique, le Moyen-Orient, et l’Océanie. Enfin, la zone C couvre l’Asie centrale et du Sud ainsi que la Russie.
Ainsi, la plupart des fabricants de BD (Japon, Corée, Malaisie) sont situés dans la même zone que l’Amérique du Nord. En 2008, environ deux tiers des disques produits n’étaient pas rattachés à une région.
Le disque Blu-ray permet d’utiliser plusieurs types de systèmes de gestion de droits ou DRM (Digital Rights Management).
AACS (Advanced Access Content System) est un standard utilisé depuis plusieurs années par LLC, un consortium incluant Disney, IBM, Intel, Microsoft, Panasonic, Sony, Toshiba et Warner Bros. Bien que des failles aient été trouvées en 2006, cet algorithme continue à être utilisé en utilisant de nouvelles clés cryptographiques.
BD+ est développé par Cryptography Research Inc. et basé sur l’utilisation d’une mini-machine virtuelle (sur le même principe qu’un Java embarqué) capable de vérifier le bon usage du lecteur, si ses clés n’ont pas été modifiées, si chaque élément de la chaîne (du lecteur au téléviseur HD par exemple) est valide, et de décoder le contenu audio et vidéo.
Enfin, BD-ROM Mark permet de stocker une clé cryptographique sur un BD-ROM sans que cette clé puisse être dupliquée vers un BD-R grâce à l’usage d’un format propriétaire de BD-ROM, décodable uniquement avec une puce spécifique, présente sur les lecteurs compatibles.
Clé USBIntroduction à la notion de clé USB
Une clé USB (en anglais USB key) est un périphérique de stockage amovible de petit format pouvant être branché sur le port USB d'un ordinateur.
Une clé USB embarque dans une coque plastifiée un connecteur USB et de la mémoire flash, une mémoire à semi-conducteurs, non volatile et réinscriptible, c'est-à-dire une mémoire possédant les caractéristiques d'une mémoire vive mais dont les données ne se volatilisent pas lors d'une mise hors tension.
Ainsi une clé USB est capable de stocker jusqu'à plusieurs gigaoctets de données, tout en étant capable de conserver les données lorsque l'alimentation électrique est coupée, c'est-à-dire lorsque la clé est débranchée.
Dans la pratique une clé USB est très pratique pour des utilisateurs nomades car elle est très facile à transporter et peut contenir une grande quantité de documents et de données.
Par ailleurs, les cartes mères récentes permettent de booter sur des clés USB, ce qui signifie qu'il est désormais possible de démarrer un système d'exploitation à partir d'une simple clé USB ! Pratique pour les utilisateurs souhaitant disposer de leur environnement de travail où qu'ils soient ou pour amorcer et dépanner un système en cas de plantage !
Caractéristiques
Les caractéristiques à prendre en compte lors du choix d'une clé USB sont les suivantes :
Capacité Taux de transfert : il s'agit de la vitesse de transfert des données. Il est à noter que le taux de
transfert en lecture est généralement différent du taux de transfert en écriture, car le processus d'écriture sur la mémoire flash est plus lent. Le taux de transfert dépend de la vitesse en lecture et en écriture de la mémoire Flash, ainsi que de la version de la norme USB supportée :**USB 1.1 (USB bas débit) pouvant atteindre 12 Mbit/s,
o USB 2.0 (USB Haut débit ou Hi-speed) pouvant atteindre 480 Mbit/s. Il est important de noter que pour pouvoir profiter pleinement de ce taux de transfert, la clé devra être
branchée sur un port USB 2.0. Dans le cas contraire (port USB 1.1), la clé fonctionnera à bas débit.
Fonctionnalités de chiffrement : certaines clés proposent des outils permettant de crypter les données ou une partie des données présentes sur la clé afin d'en renforcer leur confidentialité.
Protection des données en écriture : sur certaines clés, un interrupteur matériel permet de mettre la clé en lecture seule afin d'éviter la suppression ou la modification des données.
Fonctions multimédias : lorsque la clé USB possède une prise casque et permet la lecture de fichiers audios (généralement au format MP3), on parle alors de lecteur MP3 ou baladeur MP3.
Le clavierPrésentation du clavier
Le clavier (en anglais keyboard) permet, à la manière des machines à écrire, de saisir des caractères (lettres, chiffres, symboles ...), il s'agit donc d'un périphérique d'entrée essentiel pour l'ordinateur, car c'est grâce à lui qu'il nous est possible d'envoyer des commandes.
Le terme "AZERTY" (en rapport avec les 6 premières touches alphabétiques du clavier) désigne un type de clavier, équipant la quasi-totalité des ordinateurs en France et en Belgique. Il s'agit de la déclinaison pour les pays francophones du clavier QWERTY.
Le clavier Qwerty a été conçu en 1868 à Milwaukee par Christopher Latham Sholes en répartissant aux opposées du clavier les touches correspondant aux paires de lettres les plus utilisées dans la langue anglaise afin d'empêcher les tiges (portant les caractères) des machines à écrire de l'époque de se croiser et de se coincer. Ce clavier a été vendu à l'entreprise Remington en 1873. Le clavier Qwerty (et par extension le clavier Azerty) a donc été conçu dans une optique purement technique, à l'encontre de l'ergonomie et de l'efficacité. La légende veut que la disposition des touches sur la première ligne du clavier Qwerty a été motivée par les vendeurs de machines à écrire de l'époque de telle manière à ce que toutes les touches nécessaires à l'écriture de "typewriter" ("machine à écrire" en anglais) s'y trouvent lorsqu'ils faisaient des démonstrations !
En 1936, August Dvorak (professeur à l'université de Washington) a mis au point un clavier dont la disposition des touches est entièrement pensée en terme d'efficacité. Ainsi le clavier Dvorak a été mis au point en disposant sur la ligne centrale l'ensemble des voyelles de l'alphabet et les cinq consonnes les plus utilisées, de façon à permettre leur accessibilité tout en favorisant une bonne alternance entre main gauche et main droite. D'autre part les lettres de l'alphabet les plus fréquentes ont été placées au centre du clavier.
Différentes études ont montré que les apports du clavier Dvorak en matière d'efficacité étaient maigres dans la pratique et que l'effort demandé pour passer du clavier Azerty ou Qwerty au clavier Dvorak était trop lourd pour que cela soit nécessaire, cela explique pourquoi tous les ordinateurs sont encore aujourd'hui équipés du clavier Azerty/Qwerty.
Connecteur de clavier
Les claviers sont généralement branchés à l'arrière de l'unité centrale, sur la carte mère, sur un connecteur PS/2 de couleur violette :
Fonctionnement
A chaque pression d'une touche du clavier, un signal spécifique est transmis à l'ordinateur. Le clavier utilise en effet un réseau matriciel permettant d'identifier chaque touche grâce à une ligne et une colonne.
Lorsqu'une touche est pressée, un contact électrique s'établit entre la ligne et la colonne. Les signaux électriques sont transmis à un micro-contrôleur, qui envoie un code (BCD, ASCII ou Unicode) à l'ordinateur décrivant le caractère correspondant à la touche.
Les types de claviers
Il existe 4 types de claviers pour PC, les trois premiers ont été inventés par IBM, le dernier est la conséquence d'une modification due à la sortie de Microsoft Windows 95. Voici les quatre types de clavier :
le clavier à 83 touches, de type PC/XT Le clavier à 84 touches, de type PC/AT
Le clavier à 102 touches, appelé aussi clavier étendu
Le clavier à 105 touches compatible Microsoft Windows 95
Les claviers de type PC/XT
Il s'agit du premier clavier pour PC, il a la particularité d'être dissocié de l'ordinateur, contrairement à tous les ordinateurs de l'époque (Apple II, Amiga, ...) pour lesquels l'ordinateur et le clavier étaient une seule et même entité.
Ce clavier comportait 83 touches, mais était critiqué pour la disposition des touches et leurs disproportions (notamment les touches Maj et Entrée qui étaient trop petites et mal placées). D'autre part, la communication entre le clavier et l'unité centrale était à sens unique, ce qui signifie que le clavier ne pouvait pas comporter d'afficheur de type LED.
Les clavier de type PC/AT
Le clavier de type PC/AT, possédant 84 touches, a équipé les PC de type AT en 1984.
Ce type de clavier corrige les erreurs de son prédécesseur en redimensionnant notamment les touches Maj et Entree. D'autre part ce clavier est bidirectionnel, c'est-à-dire qu'il peut afficher des états à l'aide d'afficheurs LED. Enfin, la carte mère équipant les PC de type AT comportait un contrôleur permettant de paramétrer :
La fréquence de répétition, c'est-à-dire le nombre de caractères envoyés par seconde lorsqu'une touche est enfoncée
Le délai de répétition: le temps au bout duquel l'ordinateur considère que la touche est enfoncée, afin de différencier une simple pression de touche (un caractère) d'un enfoncement de touche prolongé
Les claviers étendus
Les nouveaux ordinateurs compatibles IBM lancés en 1986 étaient équipés de claviers comportant 102 touches.
Ce clavier comporte différents blocs de touches : les touches de fonctions ont été déplacés sur le bord haut du clavier à partir de ce modèle, et des touches de contrôle de curseur représentant des flèches ont été ajoutées à ce clavier.
Les claviers compatibles Windows
Microsoft a défini trois nouvelles touches permettant d'effectuer des raccourcis vers des fonctionnalités de Windows.
Ces trois nouvelles touches sont, de gauche à droite :
La touche Windows gauche La touche Windows droite
La touche Application
Voici certains des raccourcis que permettent ces nouvelles touches :
Combinaison Description
WIN - E Afficher l'explorateur
WIN - F Rechercher un fichier
WIN - F1 Afficher l'aide
WIN - M Minimiser toutes les fenêtres du bureau
WIN - Pause Afficher les propriétés du système
WIN - Tab Explorer la barre des tâches
WIN - R Afficher la boîte "Exécuter"
La sourisPrésentation de la souris
La souris (en anglais «mouse» ou «mice») est un périphérique de pointage (en anglais pointing device) servant à déplacer un curseur sur l'écran et permettant de sélectionner, déplacer, manipuler des objets grâce à des boutons. On appelle ainsi «clic» l'action consistant à appuyer (cliquer) sur un bouton afin d'effectuer une action.
La première souris a été inventée et mise au point par Douglas Carle Engelbart du Stanford Research Institute (SRI) : il s'agissait d'une souris en bois contenant deux disques perpendiculaires et relié à l'ordinateur par une paire de fils torsadés.
Connecteur de souris
La souris est généralement branchée à l'arrière de l'unité centrale, sur la carte mère, sur un connecteur PS/2 de couleur verte :
Certaines souris, possédant des fonctionnalités avancées possèdent parfois une connectique <a ref="usb.php3">USB</a>.
Types de souris
Il existe plusieurs types de souris, classifiés selon la technologie de positionnement d'une part, selon la transmission des données à l'unité centrale d'autre part.
On distingue ainsi plusieurs grandes familles de souris :
Les souris mécaniques, dont le fonctionnement est basé sur une boule (en plastique ou en caoutchouc) encastrée dans un châssis (en plastique) transmettant le mouvement à deux rouleaux;
Les souris opto-mécaniques, dont le fonctionnement est similaire à celui des souris mécaniques, si ce n'est que le mouvement de la boule est détecté par des capteurs optiques ;
Les souris optiques, capables de déterminer le mouvement par analyse visuelle de la surface sur laquelle elles glissent.
Souris mécanique
La souris mécanique comporte une bille sur laquelle tournent deux rouleaux. Ces rouleaux comportent chacun un disque cranté qui tourne entre une photodiode et une LED (Diode électroluminescente) laissant passer la lumière par séquence. Lorsque la lumière passe, la photodiode renvoie un bit (1), lorsqu'elle rencontre un obstacle, la photodiode renvoie un bit nul (0). A l'aide de ces informations, l'ordinateur peut connaître la position du curseur, voire sa vitesse.
Astuce: A force de l'utiliser, de la poussière se dépose sur les rouleaux de la souris, empêchant celle-ci de tourner correctement et provoquant des réactions curieuses de la part du curseur. Pour y remédier, il suffit d'ouvrir la cage contenant la bille et de nettoyer les rouleaux (avec une brosse à dents de récupération par exemple).
Souris optique
La souris optique possède un fonctionnement basé sur l'analyse de la surface sur laquelle elle se déplace. Ainsi une souris optique est constituée d'une LED, d'un système d´acquisition d´images (IAS) et d'un processeur de signaux numériques (DSP).
La LED est chargée d'éclairer la surface afin de permettre au système IAS d'acquérir l'image de la surface. Le DSP, par analyse des caractéristiques microscopiques de la surface, détermine le mouvement horizontal et vertical.
Les souris optiques fonctionnent sur toutes surfaces non parfaitement lisses ou bien possèdant des dégradés de couleur. Les avantages principaux de ce type de dispositif de pointage par
rapport aux souris mécaniques sont notamment une précision accrue ainsi qu'un salissement moindre.
Souris sans fil
Les souris sans fil (en anglais cordless mouse) sont de plus en plus populaire car elles peuvent être utilisées sans être physiquement reliées à l'ordinateur, ce qui procure une sensation de liberté.
Il existe également plusieurs catégories de souris sans-fil, selon la technologie utilisée :
souris infrarouges (en anglais «IR» pour «infrared»): ces souris sont utilisées en vis-à-vis avec un récepteur infrarouge connecté à l'ordinateur. La portée de ce type de dispositif est de quelques mètres au plus, en vision directe, au même titre que la télécommande d'un téléviseur.
souris hertzienne : ces souris sont utilisées avec un récepteur hertzien, généralement propriétaire au constructeur. La portée de ce type de dispositif est d'une dizaine de mètres au plus,, sans nécessairement avoir une ligne visuelle avec l'ordinateur. Ce type de dispositif peut notamment être pratique pour les personnes connectant leur ordinateur à leur téléviseur, situé dans une autre pièce.
souris bluetooth : ces souris sont utilisées avec un récepteur bluetooth connecté à l'ordinateur. La portée de ce type de dispositif est équivalente aux technologies hertziennes propriétaires.
Souris à molette
De plus en plus de souris sont équipées d'une molette. La molette, généralement situé entre le bouton gauche et le bouton droit permet de faire défiler des pages tout en permettant à l'utilisateur de déplacer le curseur sur l'écran.
L'imprimanteL'imprimante
L'imprimante (en anglais printer) est un périphériques permettant de faire une sortie imprimée (sur papier) des données de l'ordinateur.
Il existe plusieurs technologies d'imprimantes dont les plus courantes sont :
l'imprimante à marguerite ; l'imprimante matricielle (également appelée imprimante à aiguilles) ;
l'imprimante à jet d'encre et imprimante à bulles d'encre</a> ;
l'imprimante laser.
De nos jours, les imprimantes à marguerite et les imprimantes matricielles ne sont quasiment plus utilisées.
Caractéristiques
L'imprimante est généralement caractérisée par les éléments suivants :
Vitesse d'impression : exprimée en pages par minute (ppm), la vitesse d'impression représente la capacité de l'imprimante à imprimer un grand nombre de pages par minute. Pour les imprimantes couleur, on distingue habituellement la vitesse d'impression en monochrome et en couleur.
Résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per inch), la résolution définit la finesse de l'impression. La résolution est parfois différente pour une impression monochrome, couleur ou photo.
Temps de préchauffage : il représente le temps d'attente nécessaire avant la première impression. En effet une imprimante ne peut pas imprimer « à froid », il lui est nécessaire d'atteindre une certaine température pour fonctionner de manière optimale.
Mémoire embarquée : il s'agit de la quantité de mémoire permettant à l'imprimante de stocker les travaux d'impression. Plus la quantité de mémoire est élevée, plus la file d'attente des travaux peut être importante.
Le format de papier : selon leur taille, les imprimantes sont capables d'accueillir différentes taille de documents, généralement au format A4 (21 x 29,7 cm), plus rarement au format A3 (29,7 x 42 cm). Certaines imprimantes permettent également d'imprimer sur d'autres types de support, tels que les CD ou les DVD.
Alimentation papier : il s'agit du mode de chargement de l'imprimante, caractérisant la façon de laquelle le papier vierge est stocké. Elle a notamment son importance selon l'emplacement prévue pour l'imprimante (un chargement par l'arrière est à proscrire si l'imprimante est collée contre un mur).* Les principaux modes d'alimentation papier sont les suivants :
o L'alimentation par bac (également appelée alimentation par tiroir), utilise une source d'alimentation de papier interne. Sa capacité représente le nombre maximal de feuilles de papier qu'il peut accueillir.
o L'alimentation par plateau est un mode d'alimentation manuel, permettant d'insérer les feuilles par petite quantité (environ une centaine). Le plateau est parfois horizontal, parfois vertical, à l'arrière de l'imprimante.
Cartouches : les cartouches sont rarement standard et dépendent fortement de la marque et du modèle d'imprimante. Ainsi certains constructeurs privilégient des cartouches multicolores, tandis que d'autres proposent des cartouches d'encre séparées. Les cartouches d'encre séparées sont globalement plus économiques car il n'est pas rare qu'une couleur soit plus utilisée que les autres.
Il est intéressant de regarder le coût d'impression à la feuille. La taille de la goutte d'encre a notamment son importance. Plus la goutte d'encre est petite, moins le coût d'impression sera élevé et meilleure sera la qualité d'image. Certaines imprimantes permettent d'obtenir des gouttes de 1 ou 2 picolitre.
Interface : il s'agit de la connectique de l'imprimante. Les principales interfaces sont les suivantes :
o USB ;
o Parallèle ;
o Réseau : ce type d'interface permet de partager très facilement une imprimante entre plusieurs ordinateurs. Il existe également des imprimantes WiFi, accessibles via un réseau sans fil. Si votre imprimante ne dispose pas d’interface réseau, vous pouvez tout de même la brancher à votre réseau (local ou Wi-Fi) grâce à un boîtier spécifique appelé "serveur d'impression".
L'imprimante à marguerite
Les imprimantes à marguerite sont basées sur le principe des machines dactylographiques. Tous les caractères sont imprimés en relief sur une matrice en forme de marguerite. Pour imprimer, un ruban imbibé d'encre est placé entre la marguerite et la feuille. Lorsque la matrice frappe le ruban, celui-ci dépose de l'encre uniquement au niveau du relief du caractère.
Ces imprimantes sont devenues obsolètes car elles sont beaucoup trop bruyantes et très peu rapides.
L'imprimante matricielle
L'imprimante matricielle (parfois appelée imprimante à aiguilles, imprimante à impact ou en anglais Dot-Matrix printer) permet d'imprimer des documents sur le papier grâce à un « va-et-vient » d'un chariot comportant une tête d'impression.
La tête est constituée de petites aiguilles, poussées par des électro-aimants, venant heurter un ruban de carbone, appelé « ruban encreur », situé entre la tête et le papier.
Le ruban de carbone défile afin qu'il y ait continuellement de l'encre dessus. A chaque fin de ligne un rouleau fait tourner la feuille.
Les imprimantes matricielles les plus récentes sont équipées de têtes d'impression comportant 24 aiguilles, ce qui leur permet d'imprimer avec une résolution de 216 ppp (points par pouce ou en anglais dots per inch, notés dpi).
L'imprimante à jet d'encre et à bulles d'encre
La technologie des imprimantes à jet d'encre (Bubble jet printers) a été originalement inventée par Canon, elle repose sur le principe qu'un fluide chauffé produit des bulles.
Le chercheur qui a découvert ce principe avait mis accidentellement en contact une seringue remplie d'encre et un fer à souder, cela créa une bulle dans la seringue qui fit jaillir de l'encre de la seringue.
Les têtes des imprimantes actuelles sont composées de nombreuses buses (jusqu'à 256), équivalentes à plusieurs seringues, chauffées entre 300 et 400°C plusieurs fois par seconde.
Chaque buse produit une bulle minuscule qui fait s'éjecter une gouttelette extrêmement fine. Le vide engendré par la baisse de pression aspire une nouvelle goutte.
On distingue généralement deux technologies :
Les imprimantes à jet d'encre, utilisant des buses possédant leur propre élément chauffant intégré. La technologie utilisée est ainsi thermique.
Les imprimantes à bulles d'encre, utilisant des buses possédant une technologie piézo-électrique. Chaque buse est associé à un quartz piézo-électrique, qui, excité sur sa fréquence de résonance, se déforme et éjecte la goutte d'encre.
L'imprimante laser
L'imprimante laser permet d'obtenir des tirages papier de qualité, à faible coût et avec une vitesse d'impression élevée. En revanche le coût d'acquisition d'une telle imprimante la réserve à des usages semi professionnels ou professionnels.
L'imprimante laser utilise une technologie proche de celle utilisée dans les photocopieurs. Une imprimante laser est ainsi principalement constituée d'un tambour photosensible (en anglais « drum ») qui, chargé électrostatiquement, est capable d'attirer l'encre afin de former un motif qui sera déposé sur la feuille de papier.
Le fonctionnement global est le suivant : un ioniseur de papier charge les feuilles positivement. Le laser charge le tambour positivement en certains points grâce à un miroir pivotant. Ainsi, l'encre sous forme de poudre (toner), chargée négativement, se dépose sur les parties du toner ayant été préalablement chargées par le laser.
En tournant, le tambour dépose l'encre sur le papier. Un fil chauffant (appelé coronaire) permet enfin de fixer l'encre sur le papier.
Ainsi, l'imprimante laser, n'ayant pas de tête mécanique, est rapide et peu bruyante.
On distingue en fait deux technologies pour les imprimantes laser : "carrousel" (quatre passages) ou "tandem" (monopasse).
carrousel : Avec la technologie carrousel, l'imprimante effectue quatre passages pour imprimer un document (un par couleur primaire et un pour le noir, ce qui fait que l'impression est en théorie quatre fois moins rapide en couleur qu'en noir).
tandem : Une imprimante laser exploitant la technologie « tandem » dépose chaque couleur en un seul passage, les toners étant disposés parallèlement. Les sorties sont aussi rapides en noir qu'en couleur. Cette technologie a toutefois un prix de revient plus élevé, la mécanique étant plus complexe. Elle est donc réservée en principe aux imprimantes laser couleur de milieu ou de haut de gamme.
L'imprimante LED
Une autre technologie d'impression concurrence les imprimantes laser : la technologie LED (Light Emitting Diode). Avec cette technologie, une rampe de diodes électro-luminescentes polarise le tambour au moyen d'un rayon lumineux très fin, permettant d'obtenir de très petits
points. Cette technologie et particulièrement bien adaptée pour l'obtention de hautes résolutions (600,1200 ou 2400 ppp).
Etant donné que chaque diode est à l'origine d'un point, la cadence d'impression ne souffre presque pas des différences de résolution. De plus, cette technologie est dépourvue de parties mobiles, ce qui permet de concevoir des produits moins coûteux, mais aussi plus robustes et plus fiables.
Les langages de description de page
Le langage de description de page est le langage standard que l'ordinateur utilise pour communiquer avec l'imprimante. En effet, il faut que l'imprimante soit capable d'interpréter les informations que l'ordinateur lui envoie.
Les deux langages de description de page principaux sont les suivants :
Langage PCL: il s'agit d'un langage constitué de séquences binaires. Les caractères sont transmis selon leur code ASCII
Langage PostScript: ce langage, utilisé à l'origine pour les imprimantes Apple LaserWriter, est devenu le standard en matière de langage de description de page. Il s'agit d'un langage à part entière basé sur un ensemble d'instructions
Le scannerLe scanner
Un scanner (anglicisme pour le mot français «numériseur») est un périphérique d'acquisition permettant de numériser des documents, c'est-à-dire de transformer un document papier en image numérique.
On distingue généralement trois catégories de scanners :
Les scanners à plats permettant de numériser un document en le plaçant à plat contre une vitre. Il s'agit du type de scanner le plus courant.
Les scanners à main possédant une taille réduite. Ces scanners doivent être déplacés manuellement (ou semi manuellement) sur le document, par bandes successives, afin de le numériser en entier.
Les scanners par défilement faisant défiler le document devant une fente lumineuse fixe afin de le numériser, à la manière des télécopieurs (fax). Ce type de scanner est de plus en plus intégré dans des appareils tels que des imprimantes multifonctions.
Il existe également des scanners capables de numériser des supports particuliers tels que les diapositives.
Caractéristiques d'un scanner
Un scanner est généralement caractérisé par les éléments suivants :
Résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per inch), la résolution définit la finesse de la numérisation. L'ordre de grandeur de la résolution est d'environ 1200 par 2400 dpi. La résolution horizontale est fortement dépendante de la qualité et du nombre de capteurs, tandis que la résolution verticale est intimement liée à la précision du moteur d'entraînement. Il faut toutefois veiller à distinguer la résolution optique, représentant la résolution réelle du scanner, de la résolution interpolée. L'interpolation est une technique consistant à définir des pixels intermédiaires entre des pixels réels, en calculant la moyenne des couleurs des pixels avoisinants. Cette technologie permet donc d'obtenir des résultats intéressants mais la résolution interpolée ainsi définie n'est en aucun cas une grandeur permettant de comparer des scanners.
Le format de document : selon leur taille, les scanners sont capables d'accueillir différentes taille de documents, généralement A4 (21 x 29,7 cm), plus rarement A3 (29,7 x 42 cm).
Vitesse d'acquisition : exprimée en pages par minute (ppm), la vitesse d'acquisition représente la capacité du scanner à acquérir un grand nombre de pages par minute. La vitesse d'acquisition dépend du format du document ainsi que de la résolution choisie pour la numérisation.
Interface : il s'agit de la connectique du scanner. Les principales interfaces sont les suivantes :
o Firewire . Il s'agit de l'interface de prédilection, car son débit est particulièrement adapté à ce type de périphériques ;
o USB 2.0 . Présent sur la totalité des ordinateurs récents, il s'agit d'une interface standard, conseillée si l'ordinateur ne possède pas de connexion firewire ;
o SCSI . Interface de prédilection pour le scanner à la fin des années 90, le standard SCSI est actuellement délaissé au profit du Firewire et de l'USB 2.0 ;
o Port parallèle . Lent par nature, ce type de connectique est de moins en moins utilisée et à éviter si l'ordinateur possède une des connectiques précédentes ;
Caractéristiques physiques : d'autres éléments peuvent être pris en compte lors du choix d'un scanner :
o L'encombrement, correspondant aux dimensions physiques du scanner.
o Le poids.
o La consommation électrique, exprimée en Watts (W).
o Les températures de fonctionnement et de stockage.
o Le niveau sonore. Un scanner peut s'avérer être très bruyant, ce qui peut constituer une nuisance non négligeable.
o Les accessoires : Les pilotes et le manuel d'utilisation sont habituellement fourni, mais il faut s'assurer que les câbles de raccordement le sont également ou, dans le cas contraire, les acheter à part.
Fonctionnement d'un scanner
Le principe du fonctionnement d'un scanner est le suivant :
Le scanner parcourt le document ligne par ligne ; Chaque ligne est décomposée en « points élémentaires », correspondant à des pixels.
Un capteur analyse la couleur de chacun des pixels ;
La couleur de chaque pixel est décomposée selon 3 composantes (rouge, vert , bleu) ;
Chacune des composantes de couleur est mesurée et représentée par une valeur. Pour une quantification sur 8 bits, chacune des composantes aura une valeur comprise entre 0 et 255.
La suite de cet article décrira en particulier le fonctionnement d'un scanner à plat, toutefois le mode de fonctionnement pour un scanner à main ou un scanner à défilement est exactement le même. Seul la façon de faire défiler le document diffère.
Un scanner à plat possède une fente lumineuse motorisée, balayant le document ligne par ligne située sous une vitre transparente sur laquelle est posé le document, face à numériser vers le bas.
La lumière de grande intensité ainsi émise est réfléchie par le document et converge vers une série de capteurs grâce à un système de lentilles et de miroirs. Les capteurs convertissent les intensités lumineuses reçues en signaux électriques, eux-mêmes convertis en données numériques par un convertisseur analogique-numérique.
On distingue deux catégories de capteurs :
Les capteurs CMOS (Complementary Metal Oxyd Semi-conductor, ou encore MOS complémentaires). On parle alors de technologie CIS (Contact Image Sensor). Ce type de dispositif utilise une rampe de LED (Light Emitting Diode pour l'éclairage du document et requiert une distance très étroite entre les capteurs et le document. En contrepartie, la technologie CIS est bien moins consommatrice d'énergie.
Les capteurs CCD (Charge-coupled devices). Les scanners utilisant la technologie CCD sont souvent plus épais car ils utilisent une lampe froide de type néon. La qualité de l'image numérisée est en revanche globalement meilleure, grâce à un rapport signal/bruit plus faible.
Le modemA quoi sert un modem ?
Le modem est le périphérique utilisé pour transférer des informations entre plusieurs ordinateurs via un support de transmission filaire (lignes téléphoniques par exemple). Les ordinateurs fonctionnent de façon numérique, ils utilisent le codage binaire (une série de 0 et de 1), mais les lignes téléphoniques sont analogiques. Les signaux numériques passent d'une valeur à une autre, il n'y a pas de milieu, de moitié, c'est du « Tout Ou Rien » (un ou zéro). Les signaux analogiques par contre n'évoluent pas « par pas », ils évoluent de façon continue.
Le piano par exemple fonctionne plus ou moins de façon numérique car il y a un "pas" entre les notes. Un violon par contre peut moduler ses notes pour passer par toutes les fréquences possibles.
Un ordinateur fonctionne à la manière d'un piano, un modem comme un violon. Le modem convertit en analogique l'information binaire provenant de l'ordinateur, afin de le moduler par la ligne téléphonique. On peut entendre des bruits étranges si l'on monte le son provenant du modem.
Ainsi, le modem module les informations numériques en ondes analogiques. En sens inverse, il démodule les données analogiques pour les convertir en numérique. Le mot « modem » est ainsi un acronyme pour « MOdulateur/DEModulateur ».
La vitesse de transmission du modem est généralement exprimée en bauds, en hommage à Emile Baudot (11 septembre 1845 - 28 mars 1903), un célèbre ingénieur français ayant oeuvré dans les télécommunications. Cette unité de vitesse de transmission d'information caractérise la fréquence de (dé)modulation, c'est-à-dire le nombre de changement d'états que le modem fait subir au signal par seconde. Ainsi, le débit en bauds n'est pas tout à fait égal au débit en bits par secondes, car plus d'un changement d'état du signal peuvent être nécessaires pour coder un bit.
Les standards de communicationLa multiplication des modems a nécessité une standardisation des protocoles de communication par modem afin qu'ils parlent tous un langage commun. C'est pourquoi deux organismes ont mis au point des standards de communication :
Les laboratoires BELL, précurseurs en matière de télécommunication ; Le Comité consultatif international de téléphonie et de télégraphie (CCITT), renommé depuis
1990 en union internationale des télécommunication (UIT).
L'UIT a pour but de définir les standards de communications internationaux. Les standards des modems peuvent se diviser en 3 catégories :
Les standards de modulation (par exemple CCITT V.21) Les standards de correction d'erreurs (par exemple CCITT V.42)
Les standards de compression des données (par exemple CCITT V.42bis)
Voici une liste des principaux standards de modem :
Standard de modulation
Débit théorique
Mode Description
Bell 103 300 bpsFull duplex
Standard américain et canadien utilisant un codage à changement de fréquence. Il permet ainsi d'envoyer un bit par baud.
CCITT V.21 300 bpsFull duplex
Standard international proche du standard Bell 103.
Bell 212A 1200 bps Full duplex
Standard américain et canadien fonctionnant selon le codage à changement de phase différentiel. Il permet de cette façon de
transmettre 2 bits par baud
UIT V.22 1200 bpsHalf duplex
Standard international proche du standard Bell 212A.
UIT V.22bis 2400 bpsFull duplex
Standard international constituant une version améliorée du standard V.22 (d'o` l'appellation V.22bis).
UIT V.23 1200 bps"Half duplex"
Standard international fonctionnant en half-duplex, c'est-à-dire permettant de transférer les données sur une seule voie à la fois. Possibilité d'une voie de retour à 75 bauds facultative.
UIT V.231200 bps/75 bps
"Full duplex"
Standard international fournissant un duplex intégral asymétrique, c'est-à-dire qu'il permet de transférer des données à 1200 bps dans un sens et 75 bps dans l'autre.
UIT V.29 9600 bpsHalf duplex
Standard international fonctionnant en half-duplex, c'est-à-dire permettant de transférer les données sur une seule voie à la fois. Ce standard a été mis au point particulièrement pour les faxs.
UIT V.32 9600 bpsFull duplex
Standard international fonctionnant en full-duplex et incorporant des standards de correction d'erreur. La transmission de données se fait selon une technique de correction d'erreurs appelée modulation d'amplitude en quadrature codée en treillage. Cette technique consiste à envoyer un bit supplémentaire pour chaque groupe de 4 bits envoyés sur la ligne de transmission.
UIT V.32bis 14400 bpsFull duplex
Standard international améliorant le standard v.32, en permettant d'envoyer 6 bits par baud, pour atteindre une vitesse de transmission de 14400 bps.
UIT V.32fast 28800 bpsFull duplex
Standard international, nommé parfois V.FC (Fast Class), permettant d'atteindre une vitesse de transmission des données de 28800bps.
UIT V.34 28800 bpsFull duplex
Standard international permettant d'obtenir un débit de 28800. Grâce à un processeur DSP (Digital Signal Processor, processeur de traitement numérique du signal) les modems utilisant ce standard peuvent atteindre un débit de 33600 bps.
UIT V.90 56000 bpsFull duplex
Standard international permettant d'obtenir des vitesses de transmission de 56000 bps.
Carte graphique Présentation de la carte graphique
o GPU
o Mémoire vidéo
o RAMDAC
o BIOS Vidéo
o Interface
o Connectique
DVI
S-Vidéo
HDMI
Les cartes accélératrices 3D
Fonctions accélératrices 3D et 2D
Ressources sur le même sujet
Présentation de la carte graphique
La carte graphique (en anglais graphic adapter), parfois appelée carte vidéo ou accélérateur graphique, est l'élément de l'ordinateur chargé de convertir les données numériques à afficher en données graphiques exploitables par un périphérique d'affichage.
Le rôle de la carte graphique était initialement l'envoi de pixels graphique à un écran, ainsi qu'un ensemble de manipulation graphiques simples :
déplacement des blocs (curseur de la souris par exemple) ; tracé de lignes ;
tracé de polygones ;
etc.
Les cartes graphiques récentes sont désormais équipées de processeurs spécialisés dans le calcul de scènes graphiques complexes en 3D !
Les principaux composants d'une carte vidéo sont :
GPU
Un processeur graphique (appelé GPU, pour Graphical Processing Unit), constituant le coeur de la carte graphique et chargé de traiter les images en fonction de la résolution et de la profondeur de codage sélectionnée. Le GPU est ainsi un processeur spécialisé possédant des instructions évoluées de traitement de l'image, notamment de la 3D. En raison de la température que peut atteindre le processeur graphique, il est parfois surmonté d'un radiateur et d'un ventilateur.
Mémoire vidéo
La mémoire vidéo chargée de conserver les images traitées par le processeur graphique avant l'affichage. Plus la quantité de mémoire vidéo est importante, plus la carte graphique pourra gérer de textures lors de l'affichage de scènes en 3D. On parle généralement de frame buffer
RAMDAC
Le RAMDAC (random access memory digital-analog converter) permet de convertir les images numériques stockées dans le frame buffer en signaux analogiques à envoyer au moniteur. La fréquence du RAMDAC détermine les taux de rafraîchissement (nombre d'images par seconde, exprimé en Hertz - Hz) que la carte graphique peut supporter.
BIOS Vidéo
Le BIOS vidéo contient les paramètres de la carte graphique, notamment les modes graphiques que celle-ci supporte.
Interface
L'interface : Il s'agit du type de bus utilisé pour connecter la carte graphique à la carte mère. Le bus AGP est ainsi spécialement prévu pour accepter des débits important de données, nécessaire pour l'affichage de séquences vidéo ou 3D. Le bus PCI Express possède de meilleures performances que le bus AGP et est amené à le remplacer.
Connectique
La connectique : ====VGA=== L'interface VGA standard : Les cartes graphiques sont la plupart du temps équipées d'un connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches), généralement de couleur bleue, permettant notamment la connexion d'un moniteur.
DVI
L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques, permet d'envoyer, aux
écrans le supportant, des données numériques. Ceci permet d'éviter des conversions numérique-analogique, puis analogique numériques, inutiles.
S-Vidéo
L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video permettant d'afficher sur une télévision, c'est la raison pour laquelle elle est souvent appelée prise télé (notée « TV-out »).
HDMI
L'interface HDMI (High-Definition Multimedia Interface) rassemble sur un même connecteur à la fois les signaux vidéo et audio. Ceux-ci sont transmis numériquement et peuvent être cryptés (protection du contenu contre la copie). Elle permet d'interconnecter une source audio/vidéo - tel qu'un lecteur HD DVD ou Blu-ray, un ordinateur, une console de jeu ou un téléviseur HD. Elle vise donc à remplacer les câbles Péritel, coaxiaux, S-Video, et supporte aussi bien la vidéo standard que la haute définition. Elle se base sur l'interface DVI qu'elle étend largement. Il existe en effet plusieurs versions de la norme HDMI (1.0, 1.1, 1.2, 1.3...) en fonction des besoins et possibilités de l'appareil à connecter. La version 1.3 permet ainsi de connecter des appareils de très haute définition (3 840 x 2 400), jusqu'à 8 voix audio peuvent être utilisées.
Le connecteur HDMI type A dispose de 19 broches et est utilisé dans la plupart des cas. Il existe un connecteur étendu disposant de 29 broches réservé aux appareils très haute
définition.
Enfin, un connecteur de type C au format réduit mais disposant également de 19 broches, est destiné aux appareils portables.
Les cartes accélératrices 3D
Le calcul d'une scène 3D est un processus qui se décompose grossièrement en quatre étapes:
le script: mise en place des éléments la geometry: création d'objets simples
le setup: découpage en triangles 2D
le rendering: C'est le rendu, c'est-à-dire le plaquage des textures
Ainsi, plus la carte accélératrice 3D calcule elle-même ces étapes, plus le processeur central est libéré de cette tâche et donc plus l'affichage est rapide. Les premières puces n'effectuaient que le rendering, laissant le processeur s'occuper du reste. Depuis, les cartes possèdent un « setup engine » qui prend en charge les deux dernières étapes. A titre d'exemple, un Pentium II à 266 Mhz qui calcule les trois premières étapes peut calculer 350 000 polygones par secondes, lorsqu'il n'en calcule que deux, il atteint 750 000 polygones par seconde. Cela montre à quel point ces cartes déchargent le processeur.
Le type de bus est lui aussi déterminant. Alors que le bus AGP n'apporte aucune amélioration dans le domaine de la 2D, les cartes utilisant ce bus plutôt que le bus PCI sont beaucoup plus performantes. Cela s'explique par le fait que le bus AGP est directement relié à la mémoire vive, ce qui lui offre une bande
passante beaucoup plus grande que le bus PCI.
Ces produits de haute technologie ont maintenant besoin de la même qualité de fabrication que les processeurs, ainsi que des gravures allant de 0.35 µm à 0.25 µm.
Afin d'augmenter encore plus la vitesse de calcul 3D, il est possible de placer plusieurs cartes graphiques dans un même ordinateur. On parle alors de multi-GPU (Graphics Processing Unit). Les cartes sont reliées par un bus spécifique, en plus du PCI Express. L'architecture proposée par nVIDIA se nomme SLI alors qu'ATI le nomme crossfire. Les deux architectures ne sont évidemment pas compatibles.
Fonctions accélératrices 3D et 2D
Terme Définition
2D Graphics Affiche une représentation d'une scène selon 2 axes de référence (x et y)
3D Graphics Affiche une représentation d'une scène selon 3 axes de référence (x, y et z)
Alpha blending
Le monde est composé d'objets opaques, translucides et transparents. L'alpha blending est une manière d'ajouter des informations de transparence à des objets translucides. Cela est fait en effectuant un rendu des polygones à travers des masques dont la densité est proportionnelle à la transparence des objets. La couleur du pixel résultant est une combinaison de la couleur du premier plan et de la couleur de l'arrière-plan. L'alpha a généralement une valeur comprise entre 0 et 1 calculée de la manière suivante: nouveau pixel=(alpha)*(couleur du premier pixel)+(1-alpha)*(couleur du second pixel)
Alpha bufferC'est un canal supplémentaire pour stocker l'information de transparence (Rouge-Vert-Bleu-Transparence).
Anti-aliasing appelé aussi anti-crénelage)
Technique permettant de faire apparaître les pixels de façon moins crénelée.
Effets atmosphériquesEffets tels que le brouillard ou bien l'effet de distance, qui améliorent le rendu d'un environnement.
Bitmap Image pixel par pixel
Bilinear filteringPermet de fluidifier le passage d'un pixel d'un endroit à un autre (lors d'une rotation par exemple)
BitBLT
C'est l'une des fonctions d'accélération les plus importantes, elle permet de simplifier le déplacement d'un bloc de données, en prenant en compte les particularités de la mémoire-vidéo. Elle est par exemple utilisée lors du déplacement d'une fenêtre
Blending Combinaison de deux images en les ajoutant bit-à-bit
Bus Mastering Une fonction du bus PCI permettant de recevoir directement des informations de
la mémoire sans transiter par le processeur
Correction de perspective
Une méthode pour faire du mappage (enveloppage) avec des textures (texture mapping). Elle prend en compte la valeur de Z pour mapper les polygones. Lorsqu'un objet s'éloigne de l'objectif, il apparaît plus petit en hauteur et en largeur, la correction de perspective consiste à dire que le taux de changement dans les pixels de la texture est proportionnel à la profondeur.
Depth Cueing Baisse l'intensité des objets s'éloignant de l'objectif
DitheringPermet d'archiver des images de qualité 24-bit dans des tampons plus petits (8 ou 16 bits). Le dithering utilise deux couleurs pour en créer une seule
Double bufferingUne méthode utilisant deux tampons, une pour l'affichage, l'autre pour le calcul du rendu, ainsi lorsque le rendu est fait les deux tampons sont échangés.
Flat shading ou Constant shading
Assigne une couleur uniforme sur un polygone. L'objet ainsi rendu apparaît facettisé.
FogUtilise la fonction blending pour un objet avec une couleur fixe (plus il s'éloigne de l'objectif, plus cette fonction est utilisée)
Gamma
Les caractéristiques d'un affichage utilisant des phosphores sont non-linéaires : un petit changement de la tension à basse tension crée un changement dans l'affichage au niveau de la brillance, ce même changement à plus haute tension ne donnera pas la même magnitude de brillance. La différence entre ce qui est attendu et ce qui est mesuré est appelée Gamma
Gamma CorrectionAvant d'être affichées, les données doivent être corrigées pour compenser le Gamma
Gouraud Shading (lissage Gouraud)
Algorithme (portant le nom du mathématicien français qui l'a inventé) permettant un lissage des couleurs par interpolation. Il assigne une couleur à chaque pixel d'un polygone en se basant sur une interpolation de ses arêtes, il simule l'apparence de surfaces plastiques ou métalliques.
InterpolationFaçon mathématique de régénérer des informations manquantes ou endommagées. Lorsqu'on agrandit une image par exemple, les pixels manquants sont régénérés par interpolation.
Line Buffer C'est un tampon fait pour mémoriser une ligne vidéo
Lissage Phong
Algorithme (portant le nom de Phong Bui-Tong) permettant un lissage des couleurs en calculant le taux de lumière en de nombreux points d'une surface, et en changeant la couleur des pixels en fonction de la valeur. Il est plus gourmand en ressources que le lissage Gouraud
MIP Mapping
C'est un mot provenant du latin "Multum in Parvum" qui signifie "plusieurs en un". Cette méthode permet d'appliquer des textures de différentes résolutions pour des objets d'une même image, selon leur taille et leur distance. Cela permet entre autres de mettre des textures de plus haute résolution lorsqu'on se rapproche d'un objet.
ProjectionC'est le fait de transformer (en le réduisant) un espace en 3 dimensions en un espace en 2 dimensions
Rasterisation Transforme une image en pixels
Rendu (Rendering)C'est le fait de créer des images réalistes sur un écran en utilisant des modèles mathématiques pour le lissage, les couleurs ...
Rendering enginePartie matérielle ou logicielle chargée de calculer les primitives 3D (Généralement des triangles)
Tesselation ou facettisation
Le fait de calculer des graphiques en 3D peut être divisé en 3 parties: la facettisation, la géométrie et le rendu. La facettisation est la partie consistant à découper une surface en plus petites formes, en la découpant (souvent en triangles ou en quadrilatères)
Texture MappingConsiste à stocker des images constituées de pixels (texels), puis à envelopper des objets 3D de cette texture pour obtenir une représentation plus réaliste des objets
Tri-linear filteringBasé sur le principe du filtrage bilinéaire, le filtrage trilinéaire consiste à faire une moyenne de deux niveaux de filtrage bilinéaire.
Z-bufferPartie de la mémoire qui stocke la distance de chaque pixel à l'objectif. Lorsque les objets sont rendus à l'écran, le rendering engine doit supprimer les surfaces cachées.
Z-bufferingC'est le fait de supprimer les faces cachées en utilisant les valeurs stockées dans le Z-buffer
Carte sonIntroduction à la carte sonLa carte son (en anglais audio card ou sound card) est l'élément de l'ordinateur permettant de gérer les entrées-sorties sonores de l'ordinateur.
Il s'agit généralement d'un contrôleur pouvant s'insérer dans un emplacement ISA ou PCI (pour les plus récentes) mais de plus en plus de cartes mères possèdent une carte son intégrée.
Les connecteurs de la carte sonLes principaux éléments d'une carte son sont :
Le processeur spécialisé, appelé DSP (digital signal processor) chargé de tous les traitements numériques du son (écho, réverbération, vibrato chorus, tremolo, effets 3D, etc.) ;
Le convertisseur digital-analogique appelé DAC (digital to analog converter) permettant de convertir les données audio de l'ordinateur en signal analogique vers un système de restitution sonore (enceintes, amplificateur, etc.) ;
Le convertisseur analogique / numérique appelé ADC
Les connecteurs d'entrées-sorties externes :
o Une ou deux sorties ligne au format jack standard 3.5 mm (notée Line Out ou bien Speaker output ou SPK, signifiant « hauts parleurs » en anglais), habituellement de couleur vert clair ;
o Une entrée ligne (Line in) ;
o Une entrée microphone (notée parfois Mic), généralement au format jack 3.5 mm et de couleur rose ;
o Une sortie numérique SPDIF (Sony Philips Digital Interface, noté également S/PDIF ou S-PDIF
o Une interface MIDI, généralement de couleur or (ocre) permettant de connecter des instruments de musique et pouvant faire office de port de jeu
Les connecteurs d'entrées-sorties internes :
o Connecteur CD-ROM / DVD-ROM, possédant un connecteur noir, permettant de connecter la carte son à la sortie audio analogique du CD-ROM à l'aide d'un câble CD Audio ;
o Entrée auxiliaire (AUX-In) possédant un connecteur blanc, permettant de connecter des sources audio internes telles qu'une carte tuner TV ;
o Connecteur pour répondeur téléphonique (TAD, Telephone Answering Devices) possédant un connecteur vert ;
Carte réseauQu'est-ce qu'une carte réseau ?
La carte réseau (appelée Network Interface Card en anglais et notée NIC) constitue l’interface entre l’ordinateur et le câble du réseau. La fonction d’une carte réseau est de préparer, d’envoyer et de contrôler les données sur le réseau.
La carte réseau possède généralement deux témoins lumineux (LEDs) :
La LED verte correspond à l'alimentation de la carte ; La LED orange (10 Mb/s) ou rouge (100 Mb/s) indique une activité du réseau (envoi ou réception
de données).
Pour préparer les données à envoyer, la carte réseau utilise un transceiver qui transforme les données parallèles en données séries. Chaque carte dispose d’une adresse unique, appelée adresse MAC, affectée par le constructeur de la carte, ce qui lui permet d’être identifiée de façon unique dans le monde parmi toutes les autres cartes réseau.
Les cartes réseau disposent de paramètres qu’il est possible de configurer. Parmi eux figurent l’interruption matérielle (IRQ), l’adresse de base du port E/S et l’adresse de base de la mémoire (DMA).
Pour garantir la compatibilité entre l’ordinateur et le réseau, la carte doit être adaptée à l’architecture du bus de données de l’ordinateur et avoir le type de connecteur approprié au câblage. Chaque carte est conçue pour s’adapter à un certain type de câble. Certaines cartes comprennent plusieurs connecteurs d’interfaces (à paramétrer soit avec les cavaliers, soit avec les DIP, soit de façon logicielle). Les connecteurs les plus répandus sont les connecteurs RJ-45. NB : Certaines topologies réseau propriétaires utilisant la paire torsadée ont recours au connecteur RJ-11. Ces topologies sont parfois appelées « pré-10BaseT ».
Enfin pour garantir cette compatibilité entre ordinateur et réseau, la carte doit être compatible avec la structure interne de l’ordinateur (architecture du bus de données) et avoir un connecteur adapté à la nature du câblage.
Quel est le rôle de la carte réseau ? o La préparation des données
o Le rôle d'identificateur
o Les autres fonctions de la carte réseau
o Envoi et contrôle des données
o Paramètres de configuration de la carte
Cartes réseau Ethernet
Cartes réseau Wi-Fi
Ressources sur le même sujet
Quel est le rôle de la carte réseau ?
Une carte réseau sert d’interface physique entre l’ordinateur et le câble. Elle prépare pour le câble réseau les données émises par l’ordinateur, les transfère vers un autre ordinateur et contrôle le flux de données entre l’ordinateur et le câble. Elle traduit aussi les données venant du câble et les traduit en octets afin que l’Unité Centrale de l’ordinateur les comprenne. Ainsi une carte réseau est une carte d'extension s'insérant dans un connecteur d’extensions (slot).
La préparation des données
Les données se déplacent dans l’ordinateur en empruntant des chemins appelés « bus ». Plusieurs chemins côte à côte font que les données se déplacent en parallèle et non en série (les unes à la suite des autres).
Les premiers bus fonctionnaient en 8 bits (8 bits de données transportés à la fois) L’ordinateur PC/AT d’IBM introduit les premiers bus 16 bits
Aujourd’hui, la plupart des bus fonctionnent en 32 bits
Toutefois sur un câble les données circulent en série (un seul flux de bits), en se déplaçant dans un seul sens. L’ordinateur peut envoyer OU recevoir des informations mais il ne peut pas effectuer les deux simultanément. Ainsi, la carte réseau restructure un groupe de données arrivant en parallèle en données circulant en série (1 bit).
Pour cela, les signaux numériques sont transformés en signaux électriques ou optiques susceptibles de voyager sur les câbles du réseau. Le dispositif chargé de cette traduction est le Transceiver.
Le rôle d'identificateur La carte traduit les données et indique son adresse au reste du réseau afin de pouvoir être
distinguée des autres cartes du réseau. Adresses MAC : définies par l’IEEE (Institute of Electrical and Electronics Engineer) qui attribue
des plages d’adresses à chaque fabriquant de cartes réseau.
Elles sont inscrites sur les puces des cartes : procédure appelée « Gravure de l’adresse sur la carte ». Par conséquent, chaque carte a une adresse MAC UNIQUE sur le réseau.
Les autres fonctions de la carte réseau
L’ordinateur et la carte doivent communiquer afin que les données puissent passer de l’un vers l’autre. L’ordinateur affecte ainsi une partie de sa mémoire aux cartes munies d’un Accès Direct à la Mémoire (DMA : Direct Access Memory).
La carte indique qu’un autre ordinateur demande des données à l’ordinateur qui la contient. Le bus de l’ordinateur transfère les données depuis la mémoire de l’ordinateur vers la carte réseau.
Si les données circulent plus vite que la carte ne peut les traiter, elles sont placées dans la mémoire tampon affectée à la carte (RAM) dans laquelle elles sont stockées temporairement pendant l’émission et la réception des données.
Envoi et contrôle des données
Avant que la carte émettrice envoie les données, elle dialogue électroniquement avec la carte réceptrice pour s’accorder sur les points suivants :
Taille maximale des groupes de données à envoyer Volume de données à envoyer avant confirmation
Intervalles de temps entre les transmissions partielles de données
Délai d’attente avant envoi de la confirmation
Quantité que chaque carte peut contenir avant débordement
Vitesse de transmission des données
Si une carte plus récente, donc plus perfectionnée, communique avec une carte plus lente, elles doivent trouver une vitesse de transmission commune. Certaines cartes ont des circuits leur permettant de s’adapter au débit d’une carte plus lente.
Il y a donc acceptation et ajustement des paramètres propres à chacune des deux cartes avant émission et réception des données.
Paramètres de configuration de la carte
Les cartes réseau sont munies d’options de configuration. Entre autres :
Interruption (IRQ) : Dans la plupart des cas, ce sont les IRQ 3 et 5 qui sont attribués aux cartes réseau. L’IRQ 5 est même conseillé (s’il est disponible !) et la plupart des cartes l’utilisent comme paramètre par défaut.
Adresse de base du port d’entrée/sortie (E/S) : Chaque périphérique doit utiliser une adresse de base différente pour le port correspondant.
Adresse de base de la mémoire : Elle désigne un emplacement de la mémoire vive (RAM) de l’ordinateur. La carte utilise cet emplacement comme tampon pour les données qui entrent et qui sortent. Ce paramètre est parfois appelé « adresse de début » (RAM Start Address). En général, l’adresse de base de la mémoire pour une carte réseau est D8000. Le dernier 0 est parfois supprimé pour certaine carte réseau. Il est essentiel de prendre soin de ne pas sélectionner une adresse de base déjà utilisée par un autre périphérique. A noter toutefois que certaines cartes réseau n’ont pas de réglage pour l’adresse de base de la mémoire car elles n’utilisent pas les adresses RAM de la machine.
Le transceiver
Remarque : il est possible de configurer la carte de manière logicielle. Les paramètres doivent correspondre avec la disposition des cavaliers ou des commutateurs DIP (Dual Inline Package) situés sur la carte réseau. Les réglages sont fournis avec la documentation de la carte. Beaucoup de cartes récentes sont en PnP (Plug and Play). Cela dispense de configurer la carte à la main mais peut parfois
être gênant (apparition de conflits) auquel cas il est généralement agréable de pouvoir désactiver l'option PnP et configurer la carte "à la main".
Cartes réseau EthernetLa plupart des cartes réseau destinées au grand public sont des cartes Ethernet. Elles utilisent comme support de communication des paires torsadées (8 fils en cuivre), disposant à chaque extrémité de prises RJ45.
Les trois standards Ethernet (norme 802.3) les plus courants correspondent aux trois débits les plus fréquemment rencontrés :
Le 10Base-T permet un débit maximal de 10 Mbit/s. Le câble RJ45 peut alors mesurer jusqu’à une centaine de mètres et seuls 4 des 8 fils sont utilisés.
Le 100Base-TX permet un débit maximal de 100 Mbit/s. Il est également appelé Fast Ethernet et est désormais supporté par la quasi-totalité des cartes réseau. Comme pour le 10Base-T, le câble RJ45 peut alors mesurer jusqu’à une centaine de mètres et seuls 4 des 8 fils sont utilisés.
Le 1000Base-T permet un débit maximal de 1 000 Mbit/s. Il est également appelé Gigabit Ethernet et se démocratise rapidement. Pour que le réseau fonctionne correctement, le câble RJ45 peut toujours mesurer jusqu’à 100 m, mais doit être de bonne qualité. Cette fois, les 8 fils sont utilisés.
Afin d’étendre les distances maximales, d’autres normes Ethernet existent : elles utilisent dans la plupart des cas de la fibre optique comme support de communication.
Pour relier deux ordinateurs en réseau, un câble RJ45 spécifique suffit : il s’agit d’un câble « croisé » dont on branche simplement les extrémités dans chaque carte. Pour relier plus de deux machines, on utilise un matériel nommé hub ou switch : une extrémité du câble sera alors branchée sur l’ordinateur alors que l’autre sera relié au switch. Les deux caractéristiques fondamentales d’un switch sont sa vitesse (compatibilité 10Base-T, 100Base-TX et/ou 1000Base-T) et son nombre de ports (nombre de prises RJ45).
Cartes réseau Wi-FiLes réseaux sans fil Wi-Fi (Wireless Fidelity) ou WLAN (Wireless Local Area Network) fonctionnent sur les mêmes principes que les réseaux Ethernet filaires. Une carte réseau Wi-Fi doit être installée sur chaque ordinateur du réseau sans fil. Cette carte peut être directement incluse dans la carte mère (cas de nombreux portables), mais peut également se trouver sous la forme d’une carte PCI ou d’une clé USB. Une antenne, parfois intégrée dans la carte, permet l’envoi et la réception des signaux.
Il est possible de relier deux machines directement par Wi-Fi (on parle alors d’architecture ad hoc). Comme en Ethernet filaire, pour relier plus de deux machines, on utilise généralement un matériel spécifique, appelé routeur Wi-Fi (ou point d’accès). Ce dernier dispose d’une à trois antennes afin d’optimiser l’envoi et la réception des signaux. En outre, il possède au moins un port RJ45 afin de pouvoir le relier à un réseau Ethernet filaire (généralement compatible 100Base-TX). On parle alors d’architecture de type infrastructure.
Plusieurs normes Wi-Fi ont été mises en œuvre afin d’augmenter progressivement la portée et la vitesse des échanges :
Ainsi, le 802.11b permet un débit théorique jusqu’à 11 Mbit/s (environ 6 Mbit/s réel) pour une portée maximale de 300 m (en intérieur, cette portée est toutefois généralement limitée à quelques dizaines de mètres). Tous les ordinateurs grand public, les PDA ou les smartphones équipés de cartes Wi-Fi sont au moins compatibles avec cette norme.
Le 802.11g permet un débit théorique maximal de 54 Mbit/s (environ 25 Mbit/s réel). Le 802.11g a une compatibilité ascendante avec la norme 802.11b, ce qui signifie que des matériels conformes à la norme 802.11g peuvent fonctionner en 802.11b.
Le 802.11n, dit également WWiSE (World-Wide Spectrum Efficiency) ou TGn Sync, est une norme finalisée en 2008. Le débit théorique atteint les 600 Mbit/s (débit réel de 100 Mbit/s dans un rayon de 90 m) grâce aux technologies MIMO (Multiple-Input Multiple-Output) et OFDM (Orthogonal Frequency Division Multiplexing). Depuis 2006, des équipements qualifiés généralement de pré-N sont disponibles. Ils mettent en œuvre la technologie MIMO d’une façon propriétaire, plus ou moins éloignée de la norme 802.11n finale
BIOSPrésentation du BIOSLe BIOS (« Basic Input/Output System » traduisez « Système de gestion élémentaire des entrées/sorties ») est un composant essentiel de l'ordinateur, permettant le contrôle des éléments matériels. Il s'agit d'un petit logiciel dont une partie est dans une ROM (mémoire morte, c'est-à-dire une mémoire qui ne peut pas être modifiée), et une autre partie est dans un EEPROM (mémoire modifiable par impulsions électriques, d'où le terme flasher pour désigner l'action de modifier l'EEPROM).
Le POSTLorsque le système est mis sous-tension ou réamorcé (Reset), le BIOS fait l'inventaire du matériel présent dans l'ordinateur et effectue un test (appelé POST, pour "Power-On Self Test") afin de vérifier son bon fonctionnement.
Effectuer un test du processeur (CPU) Vérifier le BIOS
Vérifier la configuration du CMOS
Initialiser le timer (l'horloge interne)
Initialiser le contrôleur DMA
Vérifier la mémoire vive et la mémoire cache
Installer toutes les fonctions du BIOS
Vérifier toutes les configurations (clavier, disquettes, disques durs ...)
Si jamais le POST rencontre une erreur, il va essayer de continuer le démarrage de l'ordinateur. Toutefois si l'erreur est grave, le BIOS va arrêter le système et :
afficher un message à l'écran si possible (le matériel d'affichage n'étant pas forcément encore initialisée ou bien pouvant être défaillant) ;
émettre un signal sonore, sous forme d'une séquence de bips (beeps en anglais) permettant de diagnostiquer l'origine de la panne ;
envoyer un code (appelé code POST) sur le port série de l'ordinateur, pouvant être récupéré à l'aide d'un matériel spécifique de diagnostic.
Si tout est correct, le BIOS émettra généralement un bip bref, signalant qu'il n'y a pas d'erreur.
Signification des bips pour les BIOS Award récents
Nb de bips Signification Résolution du problème
1 bip courtLe PC démarre normalement
2 bips courts Problème CMOSRéinitialiser le CMOS en enlevant la pile du BIOS et en la remettant ou en déplaçant le cavalier JP4
1 bip long / 1 bip court
Problème de carte-mère ou de mémoire vive
Enficher correctement les modules de mémoire vive, tester sa RAM ou les changer
1 bip long / 2 bips courts
Problème lié à la carte graphique
Vérifier que la carte graphique est bien enfichée. Eventuellement, tester avec une autre carte vidéo
1 bip long / 3 bips courts
Problème lié au clavierVérifier que le clavier est bien enfiché et qu'aucune touche n'est enfoncée. Eventuellement, tester avec un autre clavier
1 bip long / 9 bips courts
Problème du BIOSLe BIOS est invalide, flasher le BIOS avec une version plus récente
3 bipsProblème dans les 64 premiers Ko de la RAM
La mémoire vive contient des erreurs. Essayer de la réinsérer correctement ou en changer
4 bipsProblème de rafraîchissement
La mémoire vive n'est pas rafraîchie correctement. Remettre des valeurs de rafraiîchissement correctes dans le BIOS ou faire un reset du BIOS.
5 bips Problème de processeurVérifier que le processeur est correctement branché, que son ventilateur fonctionne. Eventuellement, en changer.
6 bips Problème lié au clavierVérifier que le clavier est bien enfiché et qu'aucune touche n'est enfoncée. Eventuellement, tester avec un autre clavier
8 bipsProblème lié à la carte graphique
Vérifier que la carte graphique est bien enfichée. Eventuellement, tester avec une autre carte vidéo
Bips longs incessants
Problème de mémoire viveEnficher correctement les modules de mémoire vive, tester sa RAM ou les changer
Bips courts incessants
Problème d'alimentationVérifier que tous les câbles d'alimentation sont bien reliés à la carte mère, tester avec une autre alimentation ou bien en changer
Signification des bips pour les BIOS AMI (AMIBIOS)
Nb de Signification Résolution du problème
bips
1Refresh failure(erreur lors du rafraîchissement de la mémoire)
La mémoire vive n'est pas rafraîchie correctement. Remettre des valeurs de rafraiîchissement correctes dans le BIOS ou faire un reset du BIOS. Enficher correctement les modules de mémoire vive ou les changer.
2 Parity Error(erreur de parité)Enficher correctement les modules de mémoire vive ou les changer. Tester sa mémoire vive.
3Base 64K RAM failure(erreur dans les 64 premiers Ko de la mémoire vive)
Enficher correctement les modules de mémoire vive ou les changer. Eventuellement, flasher le BIOS.
4 System timer not operational La carte mère doit être envoyée en réparation
5 Processor Error(erreur du processeur)Vérifier que le processeur est correctement branché, que son ventilateur fonctionne. Eventuellement, en changer.
6 Gate A20 failure(échec clavier)Vérifier que le clavier est bien enfiché et qu'aucune touche n'est enfoncée. Eventuellement, tester avec un autre clavier.
7Processor exception interrupt error(erreur d'interruption du processeur)
La carte mère doit être envoyée en réparation
8Display memory read/write failure(erreur de mémoire vidéo)
Vérifier que la carte graphique est bien enfichée. Eventuellement, tester avec une autre carte vidéo.
9ROM checksum error(erreur de la somme de contrôle de la mémoire morte)
La puce du BIOS doit être changée ou flashée.
10CMOS shutdown register read/write error(erreur de lecture/écriture lors de l'enregistrement dans le CMOS)
La carte mère doit être envoyée en réparation
11Cache memory problem(problème de mémoire cache)
Vérifier que le processeur est correctement branché, que son ventilateur fonctionne. Eventuellement, en changer. Enficher correctement les modules de mémoire vive ou les changer
Signification des bips pour les BIOS Phoenix
Nb de bips
Signification Résolution du problème
1-3-1-1DRAM Refresh error(erreur lors du rafraîchissement de la mémoire)
Enficher correctement les modules de mémoire vive ou les changer
1-2-2-3 ROM checksum error(erreur de la somme de Enficher correctement les modules de
contrôle de la mémoire morte) mémoire vive ou les changer
1-3-1-3Keyboard Controller Error(erreur du contrôleur de clavier)
Enficher correctement le clavier ou le changer
1-3-4-1 RAM error(erreur dans la mémoire)Enficher correctement les modules de mémoire vive ou les changer
1-3-4-3 RAM error(erreur dans la mémoire)Enficher correctement les modules de mémoire vive ou les changer
1-4-1-1 RAM error(erreur dans la mémoire)Enficher correctement les modules de mémoire vive ou les changer
2-2-3-1 Unexpected interrupt(interruption inattendue)
Pour le BIOS Award, seules les erreurs relatives à la vidéo font l'objet de signaux sonores, les autres erreurs sont envoyées sous forme de codes POST et sont affichées à l'écran.
Ainsi un long bip, suivi de deux bips courts indique une erreur due aux périphériques vidéo (carte graphique). Dans ce cas il est nécessaire d'essayer d'enficher correctement la carte vidéo voire d'en changer. Tout autre bip indique une erreur due à la mémoire.
Voici la liste des codes POST et de la signification des bips pour les 3 principaux constructeurs de BIOS : Phoenix - Phoenix BIOS POST code AMIBIOS - AMIBIOS POST code
Award - BIOS Award POST code
Le setup du BIOSLa plupart des BIOS ont un « setup » (programme de configuration) qui permet de modifier la configuration basique du système. Ce type d'information est stockée dans une mémoire autoalimentée (à l'aide d'une pile) afin que l'information soit conservée même lorsque le système est hors tension (la mémoire vive est réinitialisée à chaque redémarrage).
Il existe de nombreux BIOS dans chaque machine :
Le BIOS de la carte mère Le BIOS qui contrôle le clavier
Le BIOS de la carte vidéo
et éventuellement
o Le BIOS de contrôleurs SCSI qui permettent de booter sur le périphérique SCSI, qui communique alors avec le DOS sans pilote supplémentaire
o (Le BIOS de cartes réseau qui permettent de booter sur le réseau)
Lorsque le système est mis sous tension, le BIOS affiche un message de copyright à l'écran, puis il effectue les tests de diagnostics et d'initialisation. Lorsque tous les tests ont été effectués, le BIOS affiche un message invitant l'utilisateur à appuyer sur une ou plusieurs touches afin d'entrer dans le setup du BIOS.
Selon la marque du BIOS il peut s'agir de la touche F2, de la touche F10, de la touche DEL (sur les claviers français : "Suppr"), ou bien d'une des séquences de touche suivantes :
Ctrl+Alt+S Ctrl+Alt+Esc
Ctrl+Alt+Ins
Sur les BIOS Award le message suivant est affiché lors du POST : TO ENTER SETUP BEFORE BOOT PRESS CTRL-ALT-ESC OR DEL KEY
Ce message signifie « PRESSEZ "CTRL-ALT-ESC" ou la touche "DEL" pour entrer dans le "SETUP" avant le démarrage du PC »
Réinitialiser le BIOSDans la mesure où le setup du BIOS permet de modifier des paramètres matériels, il peut arriver que le
système devienne instable, voire ne redémarre plus. Ainsi, lorsque cela arrive, il devient nécessaire
d'annuler les modifications apportées au BIOS et de remettre les paramètres par défaut.
Si l'ordinateur démarre et que l'accès au setup du BIOS est possible, celui-ci offre généralement la
possibilité de rétablir les paramètres par défaut. Sur les BIOS de type PhoenixBIOS, l'appui sur la touche
F9 permet de rétablir les paramètres par défaut du constructeur. Sur les BIOS de type AwardBIOS
l'appui sur la touche F5 rétablit les paramètres précédents, l'appui sur F6 rétablit les valeurs par défaut
du BIOS Award, enfin la touche F7 permet de rétablir les paramètres par défaut fournis par le
contructeur de la carte mère.
Si l'accès au BIOS est impossible par la procédure standard, la plupart des cartes mères sont dotées d'un
cavalier (jumper) leur permettant de rétablir les valeurs par défaut. Il suffit de changer la position du
cavalier, et de le laisser maintenu dans cette nouvelle position pendant une dizaine de secondes.
Il est fortement conseillé de procéder à ces manipulations en ayant
préalablement mis l'ordinateur hors tension. Pour toutes ces
manipulations référez-vous au manuel fourni avec votre carte mère !