MELINA GIANNAKIS - UCL · 2006. 10. 9. · MELINA GIANNAKIS CONSTRUCTION ET REPRESENTATION SPATIALE...
Transcript of MELINA GIANNAKIS - UCL · 2006. 10. 9. · MELINA GIANNAKIS CONSTRUCTION ET REPRESENTATION SPATIALE...
MELINA GIANNAKIS
CONSTRUCTION ET REPRESENTATION SPATIALE DE L’INTERACTIVITE
NUMERIQUE PAR MANIPULATION D’INFORMATIONS 2D ET 3D
Mémoire
présenté
à la Faculté des études
supérieures
de l’Université Laval
pour l’obtention
du grade de maître ès sciences ( M. Sc. )
Ecole d’architecture
FACULTE D’AMÉNAGEMENT, D'ARCHITECTURE ET DES ARTS VISUELS
UNIVERSITE LAVAL
NOVEMBRE 2001
© Melina Giannakis, 2001
3
Résumé
L’idée d’un modèle d’espace abstrait pour interagir avec des
ensembles d’information numérique est à la source du développement du
sujet de ce mémoire. La revue de littérature réalisée sur les nouvelles
formes de transmission et de production de l’information et du savoir
permet de qualifier le médium électronique qu’est Internet d'espace
collectif, que l’on nomme aussi couramment « cyberespace ». Ce dernier
fait partie de la prochaine génération d’interfaces et leur qualité
dépend essentiellement des contenus présentés et des notions
d’interactivité et d’interaction. Par un examen des implications des
notions d’espace, de réel et de virtuel, le mémoire démontre qu’un espace
d’informations se développe et se déploie sous de multiples formes. En
situation interactive, l’utilisation d’un feed-back visuel peut augmenter
la perception de cet espace d’information en tant qu’un tout et développe
des métaphores spatiales propres à ce système. Le prototype proposé
s’attache à définir l’interactivité numérique au travers d’un langage
spatial et visuel, en relation avec le cyberespace. Il consiste à fournir
un modèle délivrant en temps réel une réponse visuelle (2D ou 3D) des
interactions d’un utilisateur avec ce dernier, lui permettant d'avoir une
perception globale de l'activité en cours.
Pierre Côté Melina Giannakis
Directeur Candidate
4
REMERCIEMENTS
En même temps que ce mémoire pose un deuxième jalon à mon parcours
universitaire, il marque la fin d’un an et demi de vie au Québec. Cette
aventure de vie transatlantique a été appuyée par de nombreuses personnes
que je tiens à remercier dans cet avant-propos, à commencer par mes
parents, sans le soutien desquels, tant financier que moral, ce travail
n’aurait pas vu le jour. En particulier, j’aimerais remercier mon papa,
qui dès le plus jeune âge de ses enfants, par le premier biais d’une
console raccordée à un téléviseur, nous a ouvert la voie de
l’informatique. De même, pendant maintenant près de cinq années, Ertu me
suit dans mes entreprises et contribue à de nombreux niveaux à mes
travaux.
Je remercie chaleureusement Pierre Côté dont l’ouverture d’esprit
et les qualités tant au niveau de la personne que de la pédagogie m’ont
5
procuré un support constant. Mes remerciements s’adressent également à
Luc Noppen et à Lucie Morisset : leur accueil chaleureux et leurs
initiatives pour nous intégrer Ertu et moi à la vie québécoise ont été
des plus dignes de cette dernière.
Je tiens à souligner aussi l’aide fournie par Pierre Côté, Carole
Després, Luc Noppen et Denise Piché au niveau de l’octroi de la bourse de
l’Université Laval exemptant les étudiants étrangers de frais de
scolarité supplémentaires, celle-ci m’ayant permis de continuer des
études déjà entamées. Dans la même lignée s’inscrivent le Commissariat
Général aux Relations Internationales (CGRI) de la Communauté française
de Belgique ainsi que le Centre interuniversitaire d’Etudes sur les
Lettres, les Arts et les Traditions (CELAT) qui m’ont offert deux autres
bourses.
Enfin, je remercie Hassoun Karam qui m’a apporté une lecture
différente d’une partie de mon travail. Il sera le dernier que je citerai
explicitement, mais mes pensées vont également à tous ceux qui m’ont
aidé, de près ou de loin, tout au long de mes études.
6
Table des matières
Résumé…………………………………………………………………………………………………………………………………………………………………………………………
Remerciements…………………………………………………………………………………………………………………………………………………………………….
Table des matières………………………………………………………………………………………………………………………………………………………
Liste des figures……………………………………………………………………………………………………………………………………………………………..
INTRODUCTION………………………………………………………………………………………………………………………………………………………………………..
Chapitre 1 : Brève genèse de l’interactivité numérique
Introduction……………………………………………………………………………………………………………………………………………………………………….
1.1 Informatique et interface homme-machine…………………………………………………………………………………... 1.1.1 L’aventure informatique : une détonation de l’armée
américaine…………………………………………………………………………………………………………………………………………………………
1.1.2 L’heure de gloire des interfaces……………………………………………………………………………………..
1.2 Cybernétique…………………………………………………………………………………………………………………………………………………………………. 1.2.1 Naissance de la cybernétique………………………………………………………………………………………………………….
1.2.2 Système, rétroaction, information codée…………………………………………………………………..
1.2.3 Causalité circulaire et nouveau paradigme de la communication………………
1.2.4 Cybernétique et systémique………………………………………………………………………………………………………….
1.3 Interactivité et interaction…………………………………………………………………………………………………………………
1.3.1 Interaction…………………………………………………………………………………………………………………………………………………………
1.3.2 Interactivité………………………………………………………………………………………………………………………………………………….
1.3.3 L’effort interactif……………………………………………………………………………………………………………………………….
1.3.4 Formes d’interactivité………………………………………………………………………………………………………………………….
1.3.5 Degrés d’interactivité…………………………………………………………………………………………………………………….…
1.4 Concepts théoriques de l’interface homme-machine…………………………………………………...
1.4.1 L’effet « tous azimuts »…………………………………………………………………………………………………………. 1.4.2 Les modélisations du système interactif………………………………………………………………….
1.4.2.1 L’interacteur…………………………………………………………………………………………………………………..
1.4.2.2 Une façon de modéliser un système interactif…………………………………
1.4.3 Etapes de réalisation de l’interface usager ……………………………………………………
1.4.3.1 Phases de la conception d’une interface……………………………………….
1.4.3.2 Caractéristique d’une bonne interface usager……………………………..
1.4.4 Conclusion au niveau de la conception d’interfaces……………………………………
3
4
6
9
11
18
18
20
20
23
27
28
30
31
33
34
35
36
39
41
42
45
46
46
47
50
55
55
63
64
7
Chapitre 2 : L’espace interactif
Introduction……………………………………………………………………………………………………………………………………………………………………….
2.1 Environnement, espace, interface…………………………………………………………………………………………………..
2.2 Espace et réalité : espace dans la réalité et réalité de
l’espace………………………………………………………………………………………………………………………………………………………………
2.2.1 Les plus anciennes conceptions de l’espace……………………………………………..
2.2.2 Des deux « réalités » médiévales à l’espace perspectif………
2.2.3 Le XVIIè siècle philosophique…………………………………………………………………………………
2.2.4 Sous le contrôle de Kant………………………………………………………………………………………………..
2.3 Espace et virtuel : espace dans le virtuel et virtualité de
l’espace…………………………………………………………………………………………………………………………………………………………………………
2.3.1 Les architectes du virtuel…..……………………………………………………………………………………….
2.3.2 < Réalité virtuelle >…………………………………………………………………………………………………………….
2.3.3 Réalité ∩ Potentiel ∩ Virtuel………………………………………………………………………………….
2.4 Bref retour aux philosophes…………………………………………………………………………………………………………………..
2.5 Interactivité, spatialisation, énaction…………………………………………………………………………….….
2.5.1 L’espace-information…………………………………………………………………………………………………………………………..
2.5.2 Topographies virtuelles……………………………………………………………………………………………………………….
2.5.3 Précédents en matière de topographies virtuelles,
cartographie de réseau et étude de l’interactivité numérique..
2.5.4 Enaction et représentation de l’interactivité numérique………………..
Chapitre 3 : Précédents et outils choisis
Introduction aux chapitres 3 et 4………………………………………………………………………………………………………..
3.1 VRML………………………………………………………………………………………………………………………………………………………………………………………..
3.1.1 Définition et bref historique………………………………………………………………………………………………….
3.1.2 Quelques concepts de base du VRML……………………………………………………………………………………
3.1.3 Eléments du graphe de scène………………………………………………………………………………………………………
3.1.4 Forces et faiblesses générales du VRML dans le
cadre de l’étude………………………………………………………………………………………………………………………………………….
3.2 HTML, JavaScript et SVG…………………………………………………………………………………………………………………….
3.2.1 HTML : histoire et concepts de base……………………………………………………………………………….
3.2.2 Les différentes versions du HTML……………………………………………………………………………………………
3.2.3 JavaScript………………………………………………………………………………………………………………………………………………………
3.2.4 SVG (Scalable Vector Graphic)…………………………………………………………………………………………………
65
65
68
72
72
74
77
78
80
81
83
87
91
94
94
95
97
100
105
105
107
107
109
112
116
118
119
120
121
126
8
Chapitre 4 : Description et évaluation du prototype
4.1 Méthodologie systémique………………………………………………………………………………………………………………………..
4.2 Cadre d’élaboration du prototype et objectifs…………………………………………………………….
4.3 Description et évaluation du prototype…………………………………………………………………………………….
4.3.1 Version HTML…………………………………………………………………………………………………………………………………………………..
4.3.2 Version VRML………………………………………………………………………………………………………………………………………………….
4.3.2.1 Petite histoire du prototype………………………………………………………………………
4.3.2.2 Le prototype 3D actuel……………………………………………………………………………………………….
4.4 Evaluation des deux versions…………………………………………………………………………………………………………………
CONCLUSION……………………………………………………………………………………………………………………………………………………………………………….
ADDENDA……………………………………………………………………………………………………………………………………………………………………………………..
BIBLIOGRAPHIE………………………………………………………………………………………………………………………………………………………………………..
ANNEXES………………………………………………………………………………………………………………………………………………………………………………………...
Annexe A……………………………………………………………………………………………………………………………………………………………………..
Annexe B………………………………………………………………………………………………………………………………………………………………………….
132
132
134
137
138
147
147
151
159
166
172
174
187
188
189
9
Liste des figures
1 – Loi de Fitts (personnelle)………………………………………………………………………………………………………………………..
2 – Le modèle du processeur humain (Gillet, 1995)………………………………………………………………..
3 – Modélisation d’un système interactif (personnelle)…………………………………………………
4 – Les différents prototypes selon Nielsen (1993)…………………………………………………………….
5 – Ecran et espace (Gardies, 1993)………………………………………………………………………………………………………….
6 – Le concept d’objet en JavaScript (personnelle)………………………………………………………………..
7 – Comparaison entre JavaScript et Java (personnelle)………………………………………………
8 – Navigateurs et compatibilités (Flanagan, 1998)……………………………………………………………..
9 – Arborescence du site HTML (personnelle)………………………………………………………………………………....
10 – Structure générale du site HTML (personnelle)………………………………………………………
11 – Menu arborescent du site HTML (personnelle)……………………………………………………………………….
12 – Répartition des informations du site HTML (personnelle)…………………………………
13 – Echanges entre JavaScript et HTML (personnelle)……………………………………………………...
14 – Carte interactive (personnelle)……………………………………………………………………………………………………..…
15 – Changement de texture selon position d’un curseur (personnelle)……………
16 – Apparition d’éléments animés dans une scène (personnelle)………………………………
17 – Translation et rotation d’objets (personnelle)………………………………………………………..
18 – Changement de couleur activé par un clic (personnelle)…………………………………………
19 – Interactions des technologies VRML, HTML et panoramiques
(personnelle)………………………………………………………………………………………………………………………………………..
20 – Un essai de modèle interactif : le rubicube (personnelle)……………………………
21 – Métaphore spatiale du prototype actuel (personnelle)………………………………………..
22 – Adaptation du concept de modèle de l’activité à l’interface 3D
(personnelle)………………………………………………………………………………………………………………………………………………………
36
37
39
48
57
104
107
107
120
121
121
122
123
125
127
127
127
127
128
128
129
131
10
« Imaginer, c'est hausser le réel d'un ton. »
Gaston Bachelard, L'air et les songes.
Ce mémoire est dédié à mon grand-père, qui m’assiste pas à pas, même s’il n’est plus là.
INTRODUCTION
12
En s'insérant dans la société ou plus particulièrement dans un
groupe social dont les pratiques quotidiennes ont développé un imaginaire
collectif, l’individu, cesse, dans la majorité des cas, d'être créatif,
pour devenir un spectateur passif de cette structure imaginaire. S’il ne
participe plus à la construction de son imaginaire, il bloque son
évolution dans le temps devenant ainsi un des nombreux pions manipulés
par une minorité. Sa structure mentale se transforme en un monolithe aux
contours nets, ne laissant plus de place à l'expérience. Cet imaginaire
collectif se transforme radicalement d’une époque à l’autre et la
mutation du XXIième siècle est déjà souvent comparée à celle qui a eu lieu
au XIVième siècle, lorsque l’on passa des moines copistes à l’imprimerie.
La mutation en cours, basée sur les progrès technologiques, dépasse
largement le cadre technologique. Ce changement de civilisation est
culturel, politique, économique et touche également nos modes de
représentation, notre rapport à l’espace et au temps. Internet et le
virtuel sont de nouveaux mondes, de nouveaux espaces à explorer, pour
lesquels l’imaginaire collectif n’en est qu’à sa première phase
d’élaboration. C’est en ce sens que tout comme à la découverte des lois
de la perspective ou autre point clé de l’histoire, une porte s’ouvre sur
de nouvelles conceptions, ou du moins sur une réévaluation des concepts
établis. Sans avoir une telle prétention, ce mémoire tend à une
exploration de l’espace numérique, au travers d’un de ses éléments
fondateurs : l’interactivité. Pour mener à bien cette conquête de
l’espace, une compréhension profonde des implications des notions
d’espace, de réel et de virtuel est nécessaire. Là se situe un autre des
objectifs de ce mémoire.
Le concept d’interactivité et celui d’interaction, qui lui est
directement lié, ne sont pas des phénomènes nouveaux. En effet, de façon
générale, notre expérience du monde est pétrie d’interactivité. La notion
d'interactivité est en réalité une notion assez floue, à tel point que
l'on peut dire que tout est interaction (Balpe, 1990). Une confusion
grandissante affecte les définitions de l'interactivité interhumaine par
l'intermédiaire de différents médium plus ou moins combinés, de
l’interactivité homme-machine et de l’interaction elle-même. Le mémoire
s’appliquera donc à clarifier ces concepts en établissant des définitions
adéquates au sein de cette étude. Ce travail montrera d’autre part
13
pourquoi et comment l'informatique peut être considérée, depuis ses
débuts, comme un puissant accélérateur de virtualité, et que
l’interactivité, qui traverse tous les aspects de l'informatisation de la
société, en est le moteur : la construction d’un environnement de
manipulation virtuelle n’était pas un fondement historique de
l’informatique, mais comme le rappellent les ouvrages de Philippe Breton
(1990) ou les descriptions enthousiastes du journaliste Howard Rheingold
(1993) cette démarche a constitué au fil des années la branche la plus
créative et la plus novatrice des théories sur les interfaces homme-
machine et a ouvert la voie de l’interactivité à l’aide de
représentations graphiques d’environnements virtuels.
Le prototype informatique, qui fait partie intégrante de ce
mémoire, propose à l’utilisateur une représentation de son interactivité
dans un espace virtuel : en effet, l’hypothèse de départ de ce travail
repose sur la construction de l’interactivité numérique au travers d’un
langage spatial et visuel qui amènerait à une des multiples
interprétations que l’on peut avoir du cyberespace. Le prototype utilise
le feed-back visuel pour augmenter la perception de l’espace
d’information qui se développe avec Internet et le virtuel et propose des
métaphores spatiales relatives à ce système. L’objectif visé dans le
prototype consiste à fournir un modèle délivrant en temps réel une
réponse visuelle (2D ou 3D) des interactions d’un utilisateur avec ce
dernier, lui permettant d'avoir une perception globale de l'activité en
cours. La qualité du résultat dépend essentiellement des contenus
présentés et de la question de l'interface personne-machine. Le mémoire
s’applique donc à étudier les concepts théoriques relatives à la
conception d’une interface personne-machine. Dans le chapitre 1 étudiant
ces notions théoriques sont également établis des critères d’évaluation à
la lumière desquels est considéré le prototype dans le chapitre 4. Au
niveau des contenus, le prototype a été intégré à un projet de recherche
dont le but est de mettre en place un site web mettant en relation les
expertises francophones au niveau du patrimoine urbain du XXième siècle.
L’option choisie fut celle d’exploiter la manipulation de données, tant
2D que 3D : le prototype comporte en effet deux parties, complémentaires,
l’une présente une interface 2D et l’autre une interface 3D. Par
ailleurs, le défi consistait également à développer au maximum les
capacités interactives du VRML (Virtual Reality Modeling Language).
14
L’inspiration générale de ce mémoire provient de la conception
théâtrale de l’interactivité de Brenda Laurel (1993) dans Computer as a
Theater et d' Alice au pays des merveilles et Ce qu'Alice trouva de
l'autre côté du miroir de Lewis Carroll (1977) : la possibilité de
renvoyer l'interactivité numérique à un espace imaginaire, entre réel et
symbolique, où informations et connaissances sont partagées, a motivé
l’entreprise dont le résultat est ici présenté. Penser l’interactivité en
terme d’espace ne paraît en effet pas impossible lorsqu’on pense à
l’ « espace cybernétique », ou « cyberespace », de William Gibson (1985).
Le problème réside en réalité dans la construction et la représentation
de cette espace. Dans l’idée de construire et de représenter
l’interactivité en tant qu’expérience propre à chaque individu, les
recherches effectuées ont conduit au domaine des sciences cognitives, et
plus particulièrement à la théorie de l’énaction de Francisco J. Varela
(1989 et 1996). Il a semblé important d’également situer, à la fin du
deuxième chapitre (point 2.5.4), les origines du travail.
Par ailleurs, l'apport de la systémique est fondamental dans la
démarche entreprise. La systémique s’étaye sur l’histoire du lien, non
plus comme une ligne vers la vérité mais une spirale où toute
connaissance n’est que provisoire et valide dans son contexte. Elle
propose la modélisation comme méthode pour aborder la complexité et la
globalité; les problématiques s'envisagent à un niveau macroscopique, où
l'incertitude est acceptée au sein d'un schéma de connaissances. Par la
modélisation, il est possible de dresser la carte des relations et
interactions de chaque élément constituant un phénomène, plutôt que
d'opérer par décomposition isolatrice de chacun de ces éléments. Les
modèles élaborés sont des modèles ouverts à d'autres systèmes. La notion
de cyclicité entre prototypage, évaluation et simulation vient remplacer
la linéarité du cause à effet (Le Moigne, 1999). Cet apport de la
systémique se fait notamment ressentir par la nécessité d'un modèle
interactif pour étayer notre hypothèse, par son évaluation et sa
simulation. En accord cette démarche systémique, le mémoire rend compte
dans son développement tant de questions théoriques que de leurs rapports
avec le prototype informatique; le prototype, quant à lui, ne constitue
pas la démonstration pratique des concepts théoriques exposés dans la
partie écrite, mais vient plutôt les éprouver, particulièrement en ce qui
concerne la version 3D en VRML, et vient appuyer les hypothèses. Aussi,
15
les deux derniers chapitres du mémoire sont consacrés à la description du
prototype et procède à une évaluation du résultat obtenu. Il faut
d’ailleurs souligner que la vocation d’un prototype n’est pas de fournir
une optimisation d’un produit, mais d’en présenter les potentialités
offertes.
La pertinence d’une telle recherche au niveau architectural a
plusieurs fondements. Considérée au sein de cet univers d'informatisation
et de « nouvelles technologies », l'architecture se développe sous des
angles nouveaux. On voit l’émergence d’un certain nombre de techniques
cybernétiques et leurs applications dans le monde de l’informatique
bouleverser à nouveau les « fondations » de l’architecture. Alors que
l'architecture traditionnelle se construit au moyen de pierres et de
briques, les espaces virtuels sont faits de constructions électroniques :
on pense par exemple à City of Bits. Space, Place, and the Infobahn de
William J. Mitchell du MIT (1995). La métaphore spatiale semble si bien
fonctionner qu’il est tentant de prendre au pied de la lettre
l'architecture comme on la côtoie d’habitude comme base de construction
électronique. Les espaces virtuels peuvent effectivement servir certaines
fonctions du réel, en remplacer d'autres et définitivement en créer de
nouvelles. Mais la forme et la fonction ne sont pas couplées de la même
façon pour l'espace virtuel et pour l'espace physique. Il n'y a pas de
raison suffisante qui détermine la modélisation des espaces virtuels à
l'image de ceux conçus en matériaux lourds qui subsistent au dehors dans
les intempéries. Sans aucun doute, une nouvelle porte s’ouvre à la
création. La conception du cyberespace appelle à l’utilisation d’un autre
langage. Les univers virtuels permettent en effet de représenter de
nouveaux types d’espaces, non explorés, par exemple les espaces non-
euclidiens comme le bord d’un trou noir. Une corrélation entre les
espaces architecturaux euclidiens et des espaces architecturaux non
euclidiens, qui restent encore à définir, ouvre la voie à une autre
vision de l'architecture. Il n'est pas étonnant que les facultés
universitaires d'architecture et les architectes eux-mêmes s'intéressent
à la notion de virtualité. Pour plusieurs d'entre eux l'espace virtuel
est une donnée fondamentale et correspond au développement les plus
prometteurs de leur disciplines. John Beckmann (1998) a dirigé une
publication très pertinente sur le sujet qui déborde nettement les cadre
stricte de la discipline architecturale. Mais il reste que l’espace
16
« réel » et l’espace « virtuel », , l'un comme l'autre, sont utilisés et
vécus par un grand nombre de personnes qui se croisent, discutent au café
comme dans une « chat room », échangent des informations, en bref tentent
de communiquer. Après tout, l'objectif de l'architecture n'est-il pas
d'abriter ou de marquer les comportements humains que ce soit dans
l'espace réel ou virtuel ? Comme le soulignent particulièrement Paul
Virilio et Adrien Sina dans un de leurs entretiens (1996, Annexe B), le
cyberespace demande l’attention particulière des architectes au risque de
causer de grandes pertes à cette profession et à la société en général.
***
Ce mémoire comporte quatre chapitres: les deux premiers s’attachent aux
concepts théoriques, alors que les deux derniers sont orientés vers
l’application pratique. Chacun des chapitres comporte une introduction,
explicitant son contenu et les raisons qui poussent à les aborder.
Les chapitres 1 et 2 du mémoire s’attache à explorer et à définir
les concepts théoriques relatifs à l’étude. Le premier chapitre montre
que l’interactivité numérique prend racine dans l’histoire des
technologies et de la cybernétique, antérieure à la seconde moitié du
vingtième siècle. Par ailleurs, la systémique, qui fonde la démarche de
cette recherche, constitue le renouveau, dans les années soixante de la
cybernétique qui elle-même est née d’une conjonction de découvertes et de
courants de pensée dans les années d’après-guerre. Certains concepts
fondamentaux issus de la cybernétique s’avéreront d’un grand éclairage
pour notre recherche. Le rôle central de l'interface dans le domaine qui
nous intéresse amène d’autre part, dans ce premier chapitre, à en
examiner l’histoire et les concepts théoriques. Enfin, à la lueur de ces
analyses, une définition de l’interaction et de l’interactivité sera
fournie : la confusion est en effet grande au niveau de ces termes et
d’autre part, la nécessité de poser des bases solides à ce niveau s’avère
impérative pour étayer la recherche.
17
Dans le deuxième chapitre est envisagée la problématique engendrée
par la notion d’espace, qui est une des préoccupations majeure au cœur de
l’architecture, et qui met en évidence l'évolution des conceptions du
rapport au monde, donc à la réalité. La lunette de la philosophie a été
choisie pour clarifier les conceptions abordées. En effet, il ne s’agit
pas dans ce travail de l’espace en tant que notion scientifique, mais
plutôt d’espace vécu, qui modèle et est modelé par nos expériences.
Penser l’espace pose des difficultés considérables, et les réflexions
quant à la réalité et au rapport à l’espace des philosophes abordés,
Aristote, Descartes et Kant, influence encore nos modes de penser. Il y a
de plus une parenté historique entre ces penseurs qui révèle une
sensibilité particulière. Ensuite, à l’apparent opposé, la dimension
topologique et spatiale du virtuel viendra compléter l’approche théorique
spatiale. Dans le troisième point du chapitre 2, nous verrons combien
l’apport des différents philosophes est présent lorsqu’on tente de
définir la notion d’espace virtuel et enfin, la dernière section ce
deuxième chapitre définissent la théorie de l’énaction, et clarifient ses
rapports avec l’interactivité et la notion d’espace.
Les chapitres 3 et 4 du mémoire vise à présenter le prototype
informatique. Ainsi, dans le troisième chapitre sont définis les langages
et formats de fichier, leurs origines respectives, leurs avantages et
leurs inconvénients, ainsi que la raison pour laquelle ils ont été
choisis pour l’élaboration du prototype. Le quatrième chapitre présente
en détail le prototype, la méthodologie d’élaboration, le cadre de sa
réalisation, les modalités et choix effectués, les difficultés
rencontrées lors de la réalisation et une évaluation des résultats.
18
Chapitre 1 : Brève genèse de l’interactivité numérique
Introduction
Les premiers ordinateurs des années 40 ont été conçus pour répondre
à un souci de productivité dans le domaine du calcul. La construction
d’un environnement de manipulation virtuelle n’était pas un fondement
historique de l’informatique, mais comme le rappellent les ouvrages de
Philippe Breton (1990) ou les descriptions enthousiastes du journaliste
Howard Rheingold (1993), cette démarche a constitué au fil des années la
branche la plus créative et la plus novatrice des théories sur les
interfaces hommes-machine. Au delà des prospectives envisagées par
Vannevar Bush (1945, Annexe B), ils rappellent que des personnalités
comme celle de Douglas Engelbart et Ivan Sutherland ont ouvert à la fin
des années soixante la voie de l’interactivité opératoire homme-machine à
l’aide de représentations graphiques d’environnements virtuels. Ce
premier chapitre montrera de quelle façon le passage aux interfaces
graphiques place concrètement le fonctionnement et l’utilisation de la
machine dans le domaine d’une réalité virtuelle : par l’intermédiaire de
sa représentation, l’utilisateur va agir dans cet espace.
Par ailleurs, la systémique, qui fonde notre démarche, constitue le
renouveau, dans les années soixante de la cybernétique qui elle-même est
née d’une conjonction de découvertes et de courants de pensée dans les
années d’après-guerre: la Théorie Mathématique de la Communication de
Claude Shannon, la mise au point de système rétroactif par Norbert Wiener
et le développement des premiers ordinateurs par John Von Neumann ou
Alan Turing, l’apport des psychiatres, des neurologues et psychologues
tels Warren Weaver, Paul Watzlawick, Gregory Bateson, et des
anthropologues. Cette conjonction, qui n’est pas fortuite, vu qu’elle
hérite du contexte particulier de bouillonnement et de croisements de
perspectives en réaction à la barbarie nazie, a également bâti les
fondations de la société occidentale et technologique dans laquelle nous
vivons aujourd’hui. Certains concepts fondamentaux issus de la
cybernétique et de la systémique s’avéreront d’un grand éclairage pour
cette recherche.
19
A la lueur de ces analyses, ce mémoire s’attachera à fournir une
définition de l’interaction et de l’interactivité : la confusion est en
effet grande au niveau de ces termes et d’autre part, la nécessité de
poser des bases solides à ce niveau s’avère impérative pour étayer nos
hypothèses.
Enfin, dans le dernier point de ce premier chapitre, seront
envisagés les aspects théoriques relatifs à la conception d’une interface
personne-machine. Cela a été dit plus haut, l'interface homme-machine
tient une place particulière dans l’univers informatique. Elle construit
de plus un ensemble de liens fonctionnels entre l'ordinateur et ses
applications et l'usager, impliquant qu'une attention suffisante doit
être portée aux besoins et aux habitudes de ce dernier durant le
processus de développement de l’interface. Bien que ce domaine d'étude
soit dénommé « Interaction homme-machine », il est focalisé sur une
catégorie particulière de machines : les systèmes de traitement de
l'information interactifs. Certaines spécificités de ces outils
permettent de les distinguer des « machines » au sens large, objets
d'attention de l'ergonomie. L'interface utilisateur n'est pas un
accessoire mais joue un rôle central : s'il est possible de pallier aux
limites d'une machine « ordinaire » en agissant avec d'autres outils ou
manuellement, il est en revanche impossible de pallier aux insuffisances
d'une interface qui ne permettrait pas d'accéder à certains états
recherchés des données manipulées. Alors que des questions de complétude
d'accès peuvent souvent être écartées de la conception de « machines »
celles-ci peuvent se révéler cruciales dans l'interaction humain-
ordinateur. Ces aspects sont particulièrement utiles dans la conception
du prototype proposé.
20
1.1 Informatique et Interface Homme-Machine
1.1.1 L’aventure informatique : une détonation de l’armée américaine
De tout temps l'homme a essayé de concevoir des machines capables
d'effectuer des tâches seules. On retrouve ce désir d'automatisation au
travers des âges; d'un côté des chercheurs essaient de concevoir des
automates, de l'autre des mathématiciens cherchent à mécaniser les
calculs, comme Blaise Pascal avec sa première calculatrice, la
« Pascaline ».
Au début des années 40, les premiers ordinateurs modernes pesaient
plusieurs tonnes, étaient peu fiables, et leur consommation d’énergie
était celle d’une locomotive électrique… ce qui est bien imaginable en
sachant qu’ils étaient réalisés à partir de composants des postes de
radio de nos grands-parents : les tubes vides. La deuxième génération
d’ordinateurs apparut en 1948. On remplaça les tubes vides par des
transistors et un progrès décisif a été accomplit par l’invention du
circuit imprimé (technique consistant, en gros, à souder divers
composants sur le circuit imprimé sur un support isolant). Le passage de
la deuxième génération à la troisième, en 1965, a plus été marqué par une
meilleure façon d’utiliser l’ordinateur que par une innovation matérielle
majeure : les langages évolués se généralisent. C’est en 1971 que
l’invention par Intel de la puce intégrant plusieurs circuits intégrés
donna naissance à la quatrième génération d’ordinateurs (Fontolliet,
1985).
En réalité, la seconde guerre mondiale a joué un rôle décisif dans
l'invention de l'ordinateur moderne. Plusieurs chercheurs, dont John Von
Neumann, travaillaient aux côtés de l'armée pour mettre au point des
machines – modèles réduits du cerveau humain – permettant d'en
comprendre mieux le fonctionnement et d'en faire un auxiliaire puissant
dans la résolution de certains problèmes abstraits ou nécessitant la
manipulation d'un très grand nombre de données. En 1943 le Balistic
Research Laboratory, dont John Von Neumann était membre, était
complètement débordé : il produisait 15 tables de calcul de tir par
semaine alors que la demande était de 40. Pour la réalisation d’une table
numérique « avec simplement deux facteurs (portée du projectile et
21
altitude de la cible), il fallait calculer entre 2000 et 4000
trajectoires possibles pour chaque couple projectile-canon, chaque
trajectoire exigeant 750 multiplications de 10 chiffres » (Breton, 1990,
p.117). Des calculateurs humains, en majorité des femmes diplômées des
collèges américains, étaient embauchés par centaines. En moyenne un
calculateur humain mettait 3 jours pour calculer une seule trajectoire
alors qu'un analyseur différentiel calculait en quinze secondes.
Cependant, il fallait une à deux heures de câblage à chaque nouvelle
opération (Breton, 1990).
L'ENIAC (Electronic Numerator, Integrator, Analyzer and Computer)
opéra la transition entre les derniers calculateurs et les premiers
ordinateurs. La construction de l'ENIAC démarra en juin 1943 à la Moore
School de l'université de Pennsylvanie et fut achevée en novembre 1945.
L'ENIAC avait une grande vitesse de fonctionnement, était programmable et
universel. Mais pour programmer l'ENIAC il fallait tourner à la main des
milliers de commutateurs et brancher spécialement des centaines de
câbles.
Lors de sa première démonstration publique en 1946, l'ENIAC
additionna 5000 nombres en une seconde et calcula en 20 secondes la
trajectoire d'un projectile qui mettait 30 sec pour atteindre sa cible.
C'était une machine énorme composée de 40 panneaux disposés en fer à
cheval qui pesaient environ 30 tonnes et avaient une surface au sol de
160 m2. Ses 1700 tubes à vide dégageaient suffisamment de chaleur pour
chauffer un immeuble. C'est d'ailleurs de ces tubes à vide que vient le
nom de « Bug » en informatique : en effet, des cafards, « Bugs » en
américain, se logeaient dans les tubes à vide, ce qui erronait les
données de travail de l'ordinateur. On disait, mais c'est une légende,
que lorsqu'elle se mettait en marche toutes les lumières du quartier de
Philadelphie Ouest s'éteignaient (Université de Pennsylvanie, 1997,
http://www.seas.upenn.edu:8080/~museum/overview.html).
En parallèle, en Angleterre la machine Colossus, mise au point par
Alan Turing, était utilisée au nord de Londres pour le décryptage des
messages de la marine allemande. Ces messages étaient décodés par une
série de machines appelées Enigma qui à l'aide de clés et de plusieurs
millions de permutations décryptaient automatiquement les messages
22
allemands. Le 20 Avril 1951 un test eu lieu au cours duquel un avion fit
inopinément irruption dans le ciel du Massachusetts. Repéré par un radar
d'alerte il apparut sous forme d'un point brillant sur un écran du
« Whirlwind », prototype des ordinateurs destinés à cet usage, avec la
mention T (pour target : cible). Un avion intercepteur dont le point sur
le radar était accompagné d'un F (pour fighter : intercepteur) est alors
dirigé sur la cible. L'ordinateur calcule la trajectoire d'interception
et guide l'intercepteur sur la cible. L'innovation centrale était ici
que, pour la première fois dans l'histoire de l'humanité, un dispositif
non humain était utilisé pour traiter de l'information et décider de la
réponse approprié en temps réel et dans un environnement changeant. Le
système Whirlwind est le premier qui allie traitement numérique et
représentation selon des procédures interactives. Howard Rheingold (1993)
indique d’ailleurs que c’est avec ces simulateurs de vols que les
technologies numériques rejoignent les arts de la Représentation et du
Spectacle, avec notamment de nombreux effets sur l’implication de l’image
cinématographique.
Le plus intéressant pour nous est que ce système permet aussi de
simuler une situation virtuelle. Ce système va aussi être à la base d’une
organisation en réseau particulière abordant du coup les problématiques
de la télécommunication. En définitive, ce système permet d’envisager par
l’intermédiaire de ses interfaces, de ses mémoires, d’utiliser la
puissance de calcul et la logique de traitement de l’information de
l’ordinateur pour amplifier le raisonnement humain et lui simuler le
comportement de système réel et virtuel. Il devient le lieu d’une mise en
application des concepts de la cybernétique, dont il sera question plus
loin, instituant une interaction intelligente entre l’homme et la
machine.
Les avancées de l’électronique et de l’informatique vont permettre
à partir des années soixante d’utiliser l’ordinateur non comme un outil,
mais comme un média. Si de son coté l’armée n’abandonne pas totalement
son implication dans les programmes de recherche scientifique, elle a, à
cette époque, suffisamment porté l’émergence de l’informatique pour que
désormais elle débouche sur des applications civiles concrètes, donc sur
de nouveaux investisseurs.
23
1.1.2 L’heure de gloire des interfaces
L’apport des investissements militaires américains a été essentiel
au développement de l’informatique; on pense par exemple à l’ancêtre
d’Internet, Arpanet. Seule l’armée était capable de réunir autant de
fonds et de perspectives pour passer si rapidement à une recherche
appliquée sans un réel souci de rentabilité économique. Au sortir de
cette impulsion, il existait d’une part une compétence théorique et
investigatrice due à l’implication des laboratoires de recherche
universitaires, et d’autre part, le développement de ces technologies
offrait au secteur économique un terrain rentable à labourer (Breton,
1990).
Entre les années soixante et les années soixante-quinze, une
génération de chercheurs va ouvrir la voie de l’interactivité en
changeant le statut de la machine. D’un outil de calcul elle devient un
système de représentation, ce qui implique que ce n’est plus l’homme qui
doit s’adapter au fonctionnement de la machine, mais le contraire.
La référence de départ est généralement Vannevar Bush. Bush était
chargé de coordonner l'activité des quelque 6000 scientifiques américains
appliquant les résultats scientifiques à la conduite de la guerre. En
1945, il publie un article, As We May Think , indiquant que nous ne
pensons pas d’une manière linéaire et hiérarchique, mais par association
(Bush, 1945, Annexe B). Un système de représentation nous permettant de
rechercher des documents devrait non pas fonctionner par la façon dont
ils sont classés, mais par les liens qui les traversent. Ce système est
nommé par Bush le « Memex », « Memory Expander », et est généralement
considéré comme le premier prototype d’hypertexte (Wise, 2000).
Cette idée a été révélatrice pour l’un des plus importants
pionniers des technologies interactives : Douglas Engelbart, du Stanford
Research Institute est un des premiers à voir dans l’ordinateur la
possibilité d’être un outil de représentation. Opérateur radar pendant la
seconde guerre, il se dit que si les ordinateurs, dont on parle, peuvent
produire un résultat imprimé, ce résultat doit pouvoir être projeté sur
un écran. Il imagine alors un système permettant d’utiliser l’ordinateur
comme système de coopération entre la gestion (stockage, manipulation)
24
des données (graphiques, textuelles…) par la machine et la possibilité
d’y accéder et d’intervenir à partir de leur représentation graphique.
L’idée qu’introduit Douglas Engelbart est d’utiliser l’ordinateur pour
construire et représenter un univers hypothétique dans lequel on peut
intervenir. Grâce à l’image vidéo cet univers peut être recalculé en
temps réel : on voit dans le traitement numérique un déplacement par
analogie de l’univers de l’expérience vers sa représentation numérisée,
puis recomposée par la machine. Par l’interaction homme-machine, cet
univers devient exploratoire.
Avec Ivan Sutherland et Georges Evans en 1962, c’est une autre
piste qui se dessine sur l’écran. Au Massachusetts Institute of
Technology (M.I.T.) de Boston, ces deux pionniers ont en effet décrit les
bases d'un système appelé « Sketchpad », le « bloc à dessin », sur un
gros ordinateur de la défense américaine, le TX-2. Ce programme
permettait de faire du dessin technique à l'écran, avec l'aide d'un
crayon lumineux; il pouvait en outre copier et coller n'importe laquelle
forme qu'il dessine à l'écran. Il est l'ancêtre des programmes de dessin
assisté par ordinateur. A cette époque, on osait seulement imaginer que
l'ordinateur puisse manipuler autre chose que du texte; l'unique moyen
que l'utilisateur avait de communiquer avec l'ordinateur était d'enter
ligne après ligne un ensemble de commandes. Les ordinateurs de l'époque
fonctionnaient encore avec des cartes perforées et des grosses bandes
magnétiques à accès séquentiel; c'était le règne du traitement en lots :
on mettait une pile de cartes perforées dans la machine et on attendait
le résultat pour se rendre compte éventuellement qu'on avait fait une
erreur de perforation sur une ou plusieurs cartes et qu'il fallait alors
recommencer (Palfreman et Swade, 1991).
Ivan Sutherland et Georges Evans venaient d'inventer une nouvelle
façon d'entrer en relation avec l'ordinateur : toute représentation
pouvant être numérisée pouvait entrer dans l’ordinateur sous forme de
données. Alors, toute action sur ces données pouvant faire l’objet d’une
mathématisation permettait d’agir dessus. Tout programme partageant
l’automatisation et les décisions d’actions sur les données ouvrait la
porte à l’interactivité. Mais cette brillante réalisation n'a pas eu une
influence immédiate en raison du fait que très peu de gens avaient accès
à un ordinateur aussi puissant pour l'époque que le TX-2 et que les
25
langages de programmation d'alors, Fortran et Cobol, n'ont pas la
puissance requise pour réaliser des projets dans la veine de Sketchpad.
Douglas Engelbart, continua sur la lancée des travaux de Sutherland
et Evans et est considéré de nos jours comme le premier informaticien à
s'être intéressé de près au mode graphique comme interface homme-machine.
Il imagina un terminal permettant à l'utilisateur d'accéder à toute la
surface de l'écran et non uniquement à la dernière ligne. La technologie
« point à point », « bitmap », naquit grâce à lui : le terminal qu'il
conçut est composé de milliers de points, chaque point pouvant être
adressé séparément par le système. Partant du principe que l'utilisateur
pense en termes de page, dans la rédaction d'un document par exemple,
Douglas Engelbart définit la notion de « fenêtre », chaque fenêtre
pouvant contenir une page différente d'un document. L'interface graphique
naquit donc d'une métaphore, la métaphore d'une page de papier transposée
sur un terminal d'ordinateur. C'est également Engelbart qui inventa le
concept de « souris » que nous connaissons. Par ailleurs, la souris n'a
subi que peu d'améliorations fondamentales depuis cette époque et il est
intéressant de remarquer la façon dont elle s'est imposée comme moyen
d'interaction entre l'utilisateur et la machine au détriment de la
tablette graphique ou du stylo optique par exemple.
On doit également à Engelbart, la première opérationnalisation d'un
système hypertexte. Il s'agit du système « Augment » commercialisé par
McDonnel Douglas. Ce système était très sophistiqué. Il comprenait une
banque de données centrale emmagasinée dans un grand ordinateur auquel
étaient reliés des terminaux personnels. Cette banque comprenait des
fichiers communs accessibles par les usagers en mode lecture et écriture.
Elle contenait des rapports, des analyses, des index, des notes, des
procès-verbaux de réunions, des articles de revues scientifiques ou de
magazines professionnels. La banque permettait de conserver des messages
électroniques pour de courte période de temps, préfigurant le courrier
électronique d'aujourd'hui. Elle permettait également de référer à des
documents externes au système comme des livres, des films, des rapports
de recherche, des vidéos, etc. De plus, chaque usager possédait un espace
personnel dans la banque, dans lequel il pouvait conserver des notes, des
idées, son courrier et ses fichiers personnels. Tous ces documents
26
étaient reliés entre eux par des liens et des nœuds dont Engelbart est
l'inventeur (Bordeleau, 1994).
Le premier ordinateur équipé d'une interface graphique fut conçu au
PARC, le Palo Alto Research Center, le laboratoire de recherche de Rank
Xerox. Bien entendu, les chercheurs du PARC continuèrent sur la lancée
des travaux d’Engelbart et conçurent un langage permettant de manipuler
des fenêtres et des objets graphiques: le langage « SmallTalk ».
L' « Alto » fut en, 1972, le premier ordinateur sur lequel ils
expérimentèrent ce langage. En septembre 1974, on annonça le
développement du premier programme de type What You See Is What You Get
(WYSIWYG) pour micro-ordinateur : « Bravo ». Ce fut Bravo qui fonctionna
sur le micro-ordinateur Alto de Xerox. L'Alto ne fut commercialisé qu'en
1979, mais vu son prix exorbitant, seuls des initiés fortunés tels que la
Maison Blanche pouvaient se permettre ce luxe (Gillet, 1995).
Apple décida de céder une partie de ses part à Rank Xerox et accéda
ainsi aux travaux du PARC. Steve Jobs, convaincu que Rank Xerox ne
profite pas au maximum des atouts de l'Alto et de son interface
graphique, imposa l'interface graphique sur l'ordinateur en cours de
construction chez Apple, le « Lisa ». Il fut ensuite évincé du projet
« Lisa » et se consacra au projet Macintosh, qui obtenu le succès
commercial qu'on lui connaît. La première généralisation de l'interface
graphique est due au succès de Macintosh.
En 1981, Steve Jobs dévoila son produit fétiche à Bill Gates. En
effet, à cette époque Microsoft travaillait sur la première version de
Windows et Steve Jobs désirait que Microsoft développe des logiciels pour
Macintosh. Microsoft accepta et participa même à l'amélioration de
l'interface graphique. Un accord est cependant conclu entre Apple et
Microsoft, stipulant que la présentation de Windows devait être
différente de celle du Macintosh et que le produit ne devait pas être
lancé avant 1983.
Une longue période s'écoula avant que Microsoft arrive à sortir une
version déterminante de Windows, la version 3 en 1990. Cette version
marqua réellement l'explosion de l'interface graphique, mais il fallu
attendre Windows 95, la quatrième version de Windows, pour assister enfin
27
à une certaine homogénéité entre les interfaces du Macintosh et du PC
(Gillet, 1995).
Le but ici n'étant pas d'établir la genèse complète de l'interface
graphique mais plutôt de situer les racines de cette dernière en vue
d'une compréhension effective de ce qu'elle est et de ce qu'elle
représente de nos jours, cette étude ne s’avancera pas ici dans la
description des événements plus proches de notre époque.
Au vu de ce qui fut énoncé ci-dessus , il est assez facile de
démontrer que l'avènement des interfaces dites « wimp » (pour « Window,
Icons, Menus & Pointers » : Fenêtres, icônes, menus et pointeur) et de la
manipulation directe, le « wysiwyg » ont certainement contribué à cet
essor de l'informatique et à son devenir en tant que phénomène de
société. Ces systèmes ont apporté de nombreux points positifs, aidant les
utilisateurs novices. En voici un résumé global :
• Les systèmes de fenêtrages permettent de restituer dans l'interface
la versatilité de l'outil informatique: tout travail professionnel
n'est en effet que rarement mono tâche et concentré sur un seul
objet. Les systèmes de fenêtrage permettent à l'utilisateur de
naviguer dans les outils logiciels en fonction de ses besoins.
• La manipulation directe, le « wysiwyg » et l'emploi de métaphores
aident les utilisateurs novices à se former par des suites d'essais
et d'erreurs, à obtenir rapidement et facilement les résultats
cherchés et enfin à se forger un modèle conceptuel clair et
cohérent de l'outil qu'ils manipulent.
1.2 Cybernétique
Le courant cybernétique, qui aura eu le mérite à partir des années
50 de proposer des concepts clés ouvrant vers de nouvelles approches des
problématiques, offre, entre autres, des bases théoriques à une vision de
l’interactivité où le mythe de la « machine humaine » ne sommeille que
d’un œil. Sans pour autant prôner un état « humain » de la machine, ou
encore un anthropomorphisme de cette dernière, l’intérêt principal réside
dans les concepts fondamentaux de ce courant qui coulent des fondations
28
dans un terrain encore inconnu à l’époque, tout en allant au-delà de
l’aspect fonctionnel de la « machine-outil ».
1.2.1 Naissance de la cybernétique
La cybernétique est née d’un renouvellement de la pensée
scientifique, renouvellement rendu possible en grande partie à
l’effervescence multidisciplinaire et au choc intellectuel dû à la guerre
1939-1945. Joël De Rosnay (1995, p. 387) la définit comme étant « la
science de la régulation des organismes et des machines ». De nombreux
ouvrages s’y sont consacrés, notamment celui de Philippe Breton (1997),
L’utopie de la Communication : le mythe du village planétaire , où il
reprend la naissance d’une nouvelle idéologie issue de la cybernétique de
Norbert Wiener, considéré comme le fondateur de ce mouvement, ou encore
celui de Steve Joshua Heims (1991), The cybernetics group. Chez Joël De
Rosnay (1975) et Jean-Louis Le Moigne (1999) quelques rappels des
apports conceptuels de ce courant sont également présentés. Le présent
développement sur la cybernétique constitue de façon générale une « revue
de littérature » de ces auteurs.
Le mot cybernétique vient du grec kubernètikos qui, au sens
premier, signifie le pilotage d'un navire, l'art de la timonerie et, dans
un sens dérivé, l'art de gouverner les hommes. On trouve la comparaison
chez Platon dans un texte, intitulé Clitophon :
« … et en confiant, comme s'il s'agissait d'un navire, le gouvernail de
sa pensée à un autre : à celui qui connaît l'art de gouverner les hommes,
cet art que maintes fois, Socrate, tu désignes du nom d'art politique. »
(Platon, cité par Mengal, 1998, Annexe B)
Au 19e siècle les Anglais l'utilisaient pour désigner la « science
du gouvernement des hommes ». C'est lors de la traduction de l'anglais
cybernetics que le mot français cybernétique fera une nouvelle
apparition. En anglais, le mot apparaît en 1948 dans un ouvrage du
mathématicien Norbert Wiener intitulé Cybernetics : or Control and
Communication in the Animal and the Machine.
29
Aux États-Unis, à la suite de la deuxième Guerre mondiale, les
sciences sociales vécurent une période faste en terme de nombre de
praticiens, de financement, de prestige et d'influence auprès des
pouvoirs publics et privés américains. Elles vont convaincre les élites
que la société a besoin des sciences sociales pour tirer les bonnes
leçons du conflit monstrueux qui venait de se terminer. Toutefois, comme
l'explique Heims (1991), le climat d'après-guerre était teinté d'un grand
conservatisme sur les campus américains. Les critiques sociales seront
bannies de certaines facultés. L'attitude générale était à une hostilité
envers toute innovation sociale, dont le communisme. La guerre froide
avait son « front » académique. C'est dans ce climat que les
scientifiques, partis sur les champs de bataille en Europe ou en Asie,
revinrent au pays. Plusieurs chercheurs des sciences naturelles et
sociales avaient vécu ensemble la guerre, apprenant à travailler en
équipe. C'est ce petit noyau de collaboration interdisciplinaire, qui a
germé pendant la guerre, qui éclata pour devenir le groupe des
cybernéticiens. Car au-delà de l'optimisme technocratique de l'époque, un
espace fut consacré à des nouvelles recherches, à de nouvelles idées.
Sans la guerre et le climat d'après-guerre, ce regroupement n'aurait
peut-être jamais eu lieu.
Les chercheurs de plusieurs disciplines ont tissé les premiers
liens entre les sciences sociales et behaviorales (psychiatrie,
psychologie). Un groupe d'hommes et de femmes formèrent alors un réseau
d'échange scientifique. Parmi ceux-ci on retrouve les mathématiciens
Norbert Wiener et John Von Neumann, les ingénieurs Julian Bigelow et
Claude Shannon, les neurobiologistes Rafael Lorente de Nó et Arturo
Rosenblueth, le neuropsychiatre Warren McCulloch et le physicien Walter
Pitts. De 1946 à 1953 une série de conférences, les conférences Macy,
auxquelles le texte fondateur de Wiener doit énormément, réunirent ces
scientifiques. Une poignée d'autres chercheurs provenaient également des
sciences sociales : Lawrence Frank, Margaret Mead et Gregory Bateson.
Deux grands objectifs animaient ce groupe : le premier vise tout d'abord
une volonté de faire éclater les cloisonnements disciplinaires, le second
relève de l'éthique scientifique. Au sortir de la seconde guerre
mondiale, la participation importante des scientifiques aux projets
militaires avait conduit de nombreux chercheurs à poser le problème de la
responsabilité du scientifique dans l'usage fait de ses travaux. En
30
effet, les scientifiques sont sortis du domaine pur des idées, ils ont
participé directement au conflit, à la responsabilité de son déroulement.
Ce qui fait naître une interrogation éthique sur leur rôle dans la
société.
1.2.2 Système, rétroaction, information codée
Un exemple simple, repris ici à Paul Mengal (1998, Annexe B),
permet de comprendre les concepts fondamentaux de la cybernétique à
partir des premiers travaux de Wiener sur les fonctions aléatoires. Le
temps de formation d’un pilote étant très long et sa perte très coûteuse,
l’US Air Force en vint à la conclusion qu’il est préférable de fabriquer
des bombes que l’on peut envoyer à longue distance. Par conséquent, il
s’agissait de contrer les nombreux aléas auxquels sont soumis les
projectiles, pour éviter toute erreur de cible. Or, si l'on mesure
l'altitude précise d’un avion à chaque instant, que l’on nommera ici
altitude nominale, on constate qu'elle varie plus ou moins au gré des
variations atmosphériques dans l'environnement de l'appareil. Les valeurs
des écarts à l’altitude nominale pendant un laps de temps t est une
fonction aléatoire du temps. Le but alors est de concevoir un système qui
enregistre l'altitude de l'avion à chaque moment et qui confronte cette
valeur à l’altitude nominale; si l’écart est considérable, le système
réorientera l’avion à l’altitude nominale. Selon Mengal (1998, Annexe B),
il serait possible de dégager de cet exemple trois concepts fondamentaux
de la cybernétique : système, rétroaction (feed-back) et information
codée. Un système, dans sa forme la plus simple, se compose d'une entrée
(input) dans un dispositif qui réalise une ou plusieurs opérations et une
sortie (output). L'entrée est ici l’altitude actuelle de l'avion, le
système calcule la différence entre cette valeur et la valeur de
l’altitude nominale et la sortie fournit l'écart entre les deux valeurs.
Il y a rétroaction (feed-back ) dans la mesure où la valeur de sortie
permet de modifier la valeur de l'entrée. L’information codée est rendue
nécessaire car un tel système ne peut tolérer un langage enclin à
interprétation.
Il s'agit de poursuivre une finalité, c'est-à-dire d'évoluer vers
un état à atteindre ou de maintenir un comportement malgré les
31
perturbations dues au milieu extérieur. La rétroaction, autrement dit
action en retour (feed-back) modifie le comportement du système par des
mesures et des ajustements. La notion de mémoire en cybernétique a pour
but de profiter de stratégies antérieures qui se sont révélées
avantageuses. De façon plus générale, le dispositif de feed-back assure
la maintenance du système cybernétique dans lequel des parties intègrent
des informations extérieures et prennent des décisions, et d’autres
parties, asservies, exécutent les décisions. Ces trois concepts
fondamentaux de la cybernétique constituent la base de l’interactivité
entre un homme et une machine.
1.2.3 Causalité circulaire et nouveau paradigme de la communication
En 1946, les discussions du groupe s’orientèrent vers le débat au
niveau de la causalité circulaire. Wiener (1965) suggéra des formulations
plus grandes en complexité et en subtilité que les théories causales
traditionnelles, tout en reconnaissant la prédictibilité scientifique
inhérente à ces théories. Il expliqua que dans la pensée traditionnelle
depuis les Grecs anciens une cause A résulte en un effet B. Avec la
causalité circulaire A et B sont mutuellement cause et effet l'un de
l'autre. Non seulement A affecte B mais par B il agit en retour sur lui-
même (la rétroaction négative). Le concept de causalité circulaire
semblait approprié pour beaucoup des sciences humaines. Il signifiait que
A ne peut agir sur B sans s'affecter lui-même. Dans le prototype
informatique proposé, et dans l’interactivité numérique en général, il
s’agit précisément d’un principe de causalité circulaire : l’utilisateur
ne peut agir sur le système sans être affecté par ce dernier dans la
poursuite de ses actions.
Wiener (1965) expliqua d’autre part que les mécanisme d'auto-
régulation peuvent se retrouver autant dans les machines que chez les
hommes. Le concept de causalité circulaire pouvait donc être autant
applicable aux êtres inanimés qu'aux êtres vivants. Il fit observer que
les intérêts théoriques et pratiques concernent la plupart du temps les
communications. Il présenta les idées fondamentales de ce qui sera appelé
plus tard la théorie de l'information et la théorie de la communication.
Le concept de causalité circulaire fut adopté immédiatement comme concept
32
central du nouveau paradigme, le paradigme cybernétique de la
communication.
La cybernétique apporta en effet un sens nouveau à la
communication, un champ d'étude qui pouvait maintenant considérer les
machines ou les objets comme étant des acteurs au même titre que les
êtres humains. Pour Wiener (1965), la nature des interlocuteurs passait
au second plan de l'analyse d'une communication. Ce sont les formes, les
modèles et les noeuds des réseaux, où s'opèrent les processus de
traduction entre deux interlocuteurs, qui intéresseront les
cybernéticiens et leurs héritiers. La notion d’information apparaît donc
centrale. Elle intervient sous trois formes : en tant qu'objet soumis à
des opérations (calculateur), en tant que programme, et en tant que
médium de la régulation. Mais dans les trois cas, nous avons affaire à
une élaboration transformatrice. Le problème scientifique essentiel
réside dans le traitement de l'information, problème auquel les
« concepteurs d’interactivité » sont confrontés tous les jours.
L'influence du paradigme cybernétique a été immense, des années 50
jusqu'à nos jours. Dans les années 1960, Gregory Bateson démontra que les
buts des actions humaines doivent s'intégrer aux écosystèmes de manière
harmonieuse. Selon lui les entrepreneurs avaient tort de penser en termes
linéaires de cause à effet et d'ignorer les circularités cybernétiques.
Ce faisant ils se trompaient sur les conséquences de leurs actions et
risquaient de détruire l'environnement duquel dépend leur propre vie. Une
telle réflexion se retrouvent d’ailleurs chez de nombreux architectes de
notre époque, tels que le groupe Futur Systems, pour citer un exemple.
Plus près de nous, la théorie du chaos, développée par James Gleick
(1989), se revendique aussi de la cybernétique et de la systémique. Elle
se définit comme « l'étude des systèmes non-linéaires ». La cybernétique
a par ailleurs directement influencé le développement des logiciels de
formation assistée, de représentation de connaissances, de modélisation
cognitive, de travail coopératif assisté par ordinateur et de
modélisation neuronale. Le développement de l'informatique et de
l'intelligence artificielle n'aurait pas été ce qu'il fut sans la
contribution des cybernéticiens. À peine un an ou deux après la
33
publication du livre Cybernetics en 1948, les circuits électroniques
faisaient leur apparition.
Sans perdre de vue l’étymologie du mot qui vient du grec Kubernèsis
(diriger, gouverner), la cybernétique peut être vue comme une théorie de
la communication qui abolit les différences entre monde vivant et
machines. Il n’est plus question d’établir les spécificités de chaque
domaine, mais, au contraire, d’adopter une grille de lecture capable de
rendre compte des deux mondes : c’est également en ce sens que les
principes de la cybernétique rejoignent la démarche d’élaboration de ce
travail.
1.2.4 Cybernétique et systémique
La cybernétique a profondément influencé le renouveau scientifique
à partir des années cinquante, mais l’unité du courant va s’étioler avec
la disparition de ses pères fondateurs. Néanmoins cette pensée va
essaimer dans la science et la société. Avec les années soixante-dix, le
renouveau de la pensée cybernétique s’opère au travers de la systémique.
La systémique s’étaye sur l’histoire du lien, non plus comme une
ligne vers la vérité mais une spirale où toute connaissance n’est que
provisoire et valide dans son contexte. Elle propose la modélisation
comme méthode pour aborder la complexité et la globalité; les
problématiques s'envisagent à un niveau macroscopique, où l'incertitude
est acceptée au sein d'un schéma de connaissances. Par la modélisation,
il est possible de dresser la carte des relations et interactions de
chaque élément constituant un phénomène, plutôt que d'opérer par
décomposition isolatrice de chacun de ces éléments. Les modèles élaborés
sont des modèles ouverts à d'autres systèmes. La notion de cyclicité
entre prototypage, évaluation et simulation vient remplacer la linéarité
du cause à effet (Le Moigne, 1999).
La cybernétique offrait une méthode pour le traitement scientifique
d’un système, dans laquelle la complexité est trop importante pour être
ignorée (Ashby,1965), la systémique aborde plusieurs systèmes ouverts qui
34
communiquent avec d’autres systèmes. L’apport essentiel de la systémique
à la cybernétique est la définition de la notion d’ouverture et les
différentes interrelations qui organisent la globalité à partir de
l’infra et vice versa.
« La nouvelle approche propose des moyens d’agir sur la complexité.
Elle tente d'expliquer comment se réalise la transition entre une
organisation d'un niveau donné et celle dont elle constitue les éléments
de construction. » (Joël De ROSNAY, 1995, p. 21)
De façon générale, le courant systémique reprend les fondements de
la cybernétique en y apportant des concepts critiques et enrichis.
L’apport fondamental de la systémique est celui de la limite de nos
connaissances : on ne peut tout connaître d’un système, car sa totalité
nous échappe par les liens qu’il entretient avec les autres systèmes.
Le chapitre 4, consacré au prototype informatique, montrera de
quelle manière cette démarche systémique est fondamentale au sein de
notre recherche.
1.3 Interactivité et Interaction
L'interactivité est un terme qui semble posséder plus d'une
définition, dont chacun a une idée plus ou moins précise. Jusqu’à
présent, dans notre brève genèse de l’informatique, ces deux termes ont
été utilisés de façon distincte, mais sans que la formulation de cette
distinction soit explicite. Ce choix résulte en effet d’un souci de
justesse quant à la définition de ce concepts de façon contextuelle : en
effet, il a semblé plus approprié de positionner le cadre d’apparition de
ces notions au sein de l’univers informatique avant de se lancer dans une
caractérisation qui autrement aurait sans doute pu paraître arbitraire,
d’autant plus qu’elles recouvrent un champ très vaste. Une définition
« de base » sera donc donnée ici, c’est-à-dire une définition sur
laquelle il sera possible de s’appuyer afin de parvenir à nos objectifs.
35
1.3.1 Interaction
Le Petit Robert (2000) définit l’interaction comme étant une action
réciproque entre plusieurs choses. En psychologie sociale, l’interaction
désigne un phénomène essentiel de la psychologie de groupe, la positivité
des échanges (interact, interactiveness en anglais), l’influence
stimulante que l’idée de l’un a sur les autres et inversement. En
psycholinguistique, notamment dans l’analyse conversationnelle, on étudie
les interactions dans les échanges entre deux ou plusieurs personnes
(LIMSI, 2001, Annexe B). En psychopédagogie, l’interaction prend en
compte les dimensions de l’individu et du groupe comme moteur, producteur
d’un sens et pas seulement comme émetteur ou récepteur d’une réponse
(Nimier, 1991, Annexe B).
Il y a donc, dans le phénomène d’interaction, interdépendance entre
les partenaires, rapport de pouvoir égalitaire ou non, symétrique ou
dissymétrique, entre émetteur et récepteur, autrement dit un processus
d’action réciproque. Ainsi, l’interaction ne nécessite donc pas
l’utilisation de « machines interactives » et inversement, ces dernières
n’entraînent pas automatiquement des interactions. Il est donc possible
de définir l’interaction comme étant « la mise en relation dynamique de
deux ou de plusieurs agents par le biais d'un ensemble d'actions
réciproques » (Boissier, 1999, Annexe B); il y a interaction lorsque la
dynamique propre d’un agent est modifiée par les influences des autres.
En effet, la notion d’interaction exprime notamment le fait que les
participants à un échange exercent en permanence les uns sur les autres
un réseau d’influences mutuelles : parler c’est échanger, et c’est
changer en échangeant. En dehors des interactions humaines en présence,
on étudie les interactions homme-machine, qui relèvent de la recherche en
ergonomie et en informatique. Ainsi, considérée dans le domaine
informatique, l'interaction comprend les moyens d'action entre l'usager
et l'ordinateur avec son
logiciel.oooookkkkkkkkkkkkkooooooooooooooooooooooooooooooooooooooo
Une brève remarque sera faite ici quant à l’utilisation du terme
« agent » lorsque l’on traite d’interaction homme-machine. Brenda Laurel
(1993, p. 47) propose d'employer le mot « agent » à la place de celui d'
« utilisateur ». Le terme « utilisateur » ne décrit finalement qu'une
36
manipulation de la machine. L'agent est donc « one who initiates and
performs actions » (quelqu'un qui initie des actions et les exécute).
Cette notion d’agent, lorsqu’il s’agit d’interactivité, ne décrit pas
l'utilisateur ou la machine de façon distincte, mais potentiellement les
deux. Ainsi, la modélisation des actions de l’utilisateur et de
l'ordinateur en tant que « personnages » dans la machine devient possible
(Laurel, 1991, pp.355-365). La notion d'interface se trouve de cette
façon transportée à un autre niveau, dans une autre scène, celle de la
représentation où ordinateur et utilisateur peuvent interagir dans le
même espace : c’est un des objectifs qu’il a été tenté d’atteindre dans
la réalisation du prototype informatique.
Le terme « interacteur », qui sera utilisé à plusieurs reprises
dans ce développement semble plus adéquat que celui d’« utilisateur », ou
d'« agent ». L'acteur est une réalité de premier ordre selon la
terminologie de Paul Watzlawick (1978). L'acteur peut-être une personne
prenant part au déroulement de la médiation par sa présence directe
(utilisateur) ou transmise (dans l'espace ou le temps) par le dispositif
(programmeur). Dans certains cas, le dispositif peut-être associé à un
acteur dans la mesure où il interprète et produit du contenu symbolique.
Un acteur n'est donc pas seulement quelqu'un qui agit, mais également
quelqu'un qui occupe un persona, un personnage; « interacteur » permet
alors d'identifier l'être humain qui agit, mais « interacteur » permet
aussi d’insister sur le persona que l’individu occupe en agissant – ou en
n'agissant pas. Brenda Laurel elle-même opère ce glissement d’
« interaction » vers « interacteur » dans son introduction pour une
conférence au sujet de interfaces et même en inscrivant sur l'étiquette
qui indique sa profession le terme « Interactivist » (Laurel, 1991, p.
355).
1.3.2 Interactivité
Un des tous premiers termes utilisés pour caractériser le couple
action-rétroaction entre humain et système informatique est
interactivité, terme aux interprétations variées comme l'ont bien compris
les revendeurs de logiciels désireux d'attirer le client. Dans une
acception courante, est interactif un système qui permet des
37
interactions, au sens d'influences réciproques. L’utilisation du terme
d’interactivité, symbole de la nouvelle modernité, et de ses
déclinaisons, en fait un fourre tout idéologique depuis une trentaine
d’années. Ainsi, dans les années 70, certains n'hésitaient pas à
qualifier d'interactif un dispositif informatique qui pouvait commander
plusieurs appareils permettant de créer un environnement multimédia dans
les conditions d'alors : magnétoscope, magnétophone, etc. Aujourd'hui,
cette même acception d'interactivité peut correspondre au fait que le
système offre à l'utilisateur un moyen d'accès à différentes
représentations (images, textes, sons) d'une même réalité. Si un film
classique proposait auparavant un seul montage d'images, une application
interactive permet désormais d'accéder à un ensemble de montages (au sens
d'associations diverses d'éléments) dont la séquence d'occurrences
successives n'est pas déterminée à l'avance. Ce principe général peut
adopter des réalisations concrètes très variées, depuis le choix parmi un
ensemble prédéterminé de parcours linéaires, jusqu'à la simulation
programmée des évolutions d'un monde virtuel (Durand, Laubin et Leleu-
Merviel, 1997, Annexe B).
La notion d’interactivité est généralement plus liée à
l'informatique : on qualifie en effet les ordinateurs de médias
interactifs ou de technologies interactives. Au premier abord, on juge
souvent un produit multimédia plus interactif qu'un autre, sans être
capable de bien préciser ce que l'on entend par là (le terme est en tout
cas connoté positivement).
D’après Le Petit Robert, l’interactivité est l’activité de dialogue entre
un individu et une information fournie par une machine. Jean-Louis
Weissberg (1999) affirme d’ailleurs que l'interactivité est une catégorie
propre à l'informatique des années quatre-vingt. Selon lui, elle tentait
de désigner à l’époque une forme de communication entre programmes et
sujets humains alors qu’un bouillonnement dans l'invention de nouvelles
d'interfaces dites « intuitives » (souris, menus déroulants, etc.)
battait son plein. D’après Sansot (cité par Peraya, 1999, Annexe B),
l’interactivité constitue plutôt « une relation instrumentale entre
l’homme et des machines asservies à ses demandes d’information ». Cette
position semble quelque peu radicale, d’autant plus que l'essor actuel de
ce qu'il est convenu d'appeler le « multimédia », des « nouvelles
technologies » nous permet d’élargir considérablement la façon de
38
concevoir l’interactivité. En effet, si le préfixe latin « inter » est
savant et signifie « entre, parmi », l'interactivité se voudrait plutôt
« activus », à savoir pratique, par opposition à théorique. Traduite
littéralement du latin, « pratique à l'intérieur de deux »,
l'interactivité se définit d'une manière encore plus complexe, savante et
plurielle, et nombreux sont les auteurs à se prononcer et à définir à
leur manière l'interactivité. Si le terme, et la notion même
d’interactivité apparaît avec la généralisation de l’outil informatique
et l’explosion des technologies de l’information, le phénomène, lui, est
vieux comme l’échange. Dès qu’il y a relation entre deux êtres, on peut
considérer qu’il y a interactivité. A notre époque, cette relation
s’étend à l’échelle mondiale, via Internet et la transmission instantanée
de donnée au travers de média tels que l’ordinateur, la machine ou le
téléphone (Cathelat et al. , 1998).
La position adoptée consistera donc à dire que l’interactivité
regroupe un ensemble de processus qui sont dépendants les uns des autres,
entre au moins deux êtres d’un système. Cette interrelation entre les
processus est plus ou moins complexe. La complexité de l’interactivité
dépend de la capacité de chaque être à générer des réponses plus ou moins
contextuelles, adaptée ou intelligente. Le paradigme cybernétique propose
de penser les êtres de la communication à partir du comportement
relationnel des éléments d’un système. Ainsi la notion d’être s’étend aux
humains, aux autres êtres vivants et à certaines machines. Il peut s’agir
d’un être biologique naturel ou d’un système artificiel.
Par ailleurs, le principe d’interactivité a donné prise à de
multiples dérives selon un processus de transposition mécanique de
l’instrument à son usage : par exemple le caractère unidirectionnel d’un
dispositif de communication visuelle est parfois transposé mécaniquement
sur la relation qu’entretient l’interacteur avec son écran informatique1.
Le point 1.3.3 s’attachera à clarifier les relations de l’interactivité à
la passivité (souvent mises en opposition) et de l’interactivité au
multimédia (souvent amalgamées), mais le point de vue systémique sera
dès à présent adopté : sous cet angle systémique, on peut entendre
l'interactivité comme un « type de relation entre deux systèmes qui fait
1 A ce sujet, voir DELEUZE, G. (1983). Cinéma 1 : L'image mouvement. Paris : Editions de Minuit.
39
que le comportement d'un système modifie le comportement de l'autre »
(Notaise, Barda, Dusantes, 1996, p. 479) . Dans cette définition basique,
on constate que l'interactivité implique polarité et dynamique. Dans un
système interactif interviennent forcément au moins deux parties, deux
pôles que l'on peut dès lors définir en terme de récepteur et d'émetteur.
Ces positions d’émetteur et de récepteur étant interchangeables – pensons
au principe de rétroaction (feed-back) – un système interactif n'est dès
lors pas unidirectionnel.
1.3.3 L’effort interactif
L’interactivité renvoie donc généralement aux interactions
possibles, et au couples action-rétroaction qui y sont associés.
Cependant, l’interactivité, cet « inter-activus », est lié au concept
d’action tout autant qu’à celui d’effort. La réflexion suivante à ce
propos est largement inspirée du travail de Douglas Stanley, étudiant à
l'Université de Paris 8, ayant fait son D.E.A. (Diplôme d’Etudes
Approfondies) sous l'égide du Laboratoire d'esthétique de
l'interactivité.
Stanley (1997, http://www.labart.univ-paris8.fr/~douglas/essais/),
dit que l'approche de l'interactivité, c'est à la fois la façon dont
l'interactivité fonctionne, le mouvement de rapprochement de
l'interacteur envers le dispositif interactif, et le rapprochement que
l'interactivité fait de deux mondes incompossibles, c'est-à-dire celui de
l'interacteur et celui du programme.
L'effort est selon Stanley à distinguer du travail, ainsi que de la
passivité qui l'éloigne de l'action. L'effort, c'est ce qui se passe
entre cause et effet. Il est la force moins la puissance, le mouvement
moins le déplacement, l'activité moins l'action. Le travail implique une
tâche plus ou moins définie mais que l'on peut traiter comme un objet
qu'on produit, par exemple la production d’un certain nombre de pages de
texte. Par contre, l'effort n'a pas de produit à part le processus de
production. Stanley donne l’exemple d’un individu en train d’écrire qu’il
ne faut pas déranger. L’effort est fourni lors du travail, mais le
travail n’est pas nécessaire pour faire un effort. On peut faire un
40
effort jusqu'à l'épuisement pour finir un texte, sans écrire un seul mot.
L'effort imiterait donc le travail dans son mouvement, mais jamais dans
son but. L'effort peut produire du produit, mais l'effort est une
production moins son produit, tandis que le travail est une production du
produit. C'est un processus.
La présente recherche se rallie à Stanley lorsqu’il affirme que,
d'un point de vue théorique, l'effort dans l'interactivité n'est souvent
rien d'autre que la maintenance de la relation qui fait de l'interacteur
et de la machine une « configuration » commune. La notion d’interactivité
ne serait pas uniquement dépendante du « temps réel » auquel elle est
souvent associée, ou encore des fréquences d’interactions, mais aussi de
maintenance et de dispositif d’effort entre interacteur et programme.
Quand l'utilisateur se plaint de ne plus pouvoir interagir avec le
dispositif interactif, c'est qu'en fait il ne se trouve plus dans son
processus. Si l'utilisateur veut interagir mais ne peut pas, ce n'est pas
forcément un défaut du programme mais plutôt celui de la mise en scène de
l’interactivité. Ainsi, il est possible de ne pas interagir directement
avec la machine mais de toujours se situer dans le processus du
dispositif d'interactivité. L’occupation du « personnage » dont il est
question plus haut devient alors la seule « activité » de l’interacteur.
Afin de ne pas passer par le raccourci qui a fait de
l’interactivité un mot valise, il semble ici nécessaire d’ajouter
quelques précisions. En effet, si est possible de parler d’interactivité
dans des situations de médiations où l’usager est en situation d’effort
sans nécessairement stimuler des éléments interactifs (par exemple une
icône), ceci peut paraître tout autant excessif que de qualifier d’une
même interactivité tous les systèmes technologiques qui permettent de
changer de contenu informationnel. Le couple téléspectateur-télévision ne
peut pas être qualifié d’interactif, au même titre qu’un système
d’intelligence artificielle par exemple, simplement parce que le
téléspectateur peut changer de chaîne en pressant les boutons [+] et [-]
de sa télécommande. De même, une animation sur ordinateur n’est pas
interactive au même titre qu’un logiciel de communication sur Internet.
Pour cette raison, diverses formes et degrés d’interactivité sont
identifiés dans les sections 1.3.4 et 1.3.5.
41
1.3.4 Formes d’interactivité
Jean-Pierre Balpe (1996) propose d’identifier deux niveaux
d’interactivité. L’interactivité hétéronome, terme qu’il emprunte à
Philippe Quéau, et l’interactivité autonome. Dans le premier cas, il
s’agit de système logiciel dont les réponses sont préprogrammées. Dans le
second cas, le logiciel est intelligent et construit une réponse
originale en interprétant la demande de l’utilisateur. Une autre
distinction introduite par Barchechat et Pouts-Lajus (1990), rappelée par
Peraya (Peraya, 1999, Annexe B), prend le point de vue du concepteur de
l’interactivité. Ces auteurs distinguent l’interactivité fonctionnelle de
l’interactivité intentionnelle. L’interactivité fonctionnelle établit et
gère le protocole de communication entre l'utilisateur et la machine, et
concerne la capacité qu'a l’utilisateur d'interagir avec la machine, de
modifier l’état du système. Les protocoles de communication liés à la
recherche, à la restitution et à la capture d’information, c’est-à-dire à
la logique et à l’ergonomie des échanges d’informations sont du domaine
de l’interactivité fonctionnelle: vitesse et facilité d’usage, user-
friendliness, périphérique de saisie, couleurs; définition des écrans,
etc (Barchechat, Pouts-Lajus cités par Peraya, 1999, Annexe B ).
L’interactivité intentionnelle concerne le protocole de communication
entre l'utilisateur et l'auteur absent, mais présent à travers le
logiciel. Elle reconstruit une situation d'interlocution entre un auteur
physiquement absent mais néanmoins présent par l'empreinte qu'il laisse à
travers le document médiatisé (logiciel, CD-rom), la façon d'interpeller
le destinataire, de s'adresser à lui et de l'impliquer dans le dispositif
interactif.
D’autre part, on trouve chez d’autres auteurs un corollaire à ces
deux types d’interactivité – l’interactivité fonctionnelle et
intentionnelle – mais cette fois-ci du point de vue de l’interacteur.
Ainsi, Geneviève Jacquinot (1998, Annexe B) distingue l’interactivité
transitive, machinique, se rattachant à l’interactivité fonctionnelle, de
l’interactivité intransitive, mentale qui se rapproche de l’interactivité
intentionnelle. La première est celle par laquelle l’utilisateur, en
devenant acteur, rétroagit avec le programme tandis que l’interactivité
intransitive, ou comme la nomme plus proprement Jacquinot (1998, Annexe
B), l’interactivité interprétative, est celle qui permet au destinataire
42
de réagir mentalement, « de déployer une activité sensorielle, affective
et intellectuelle qui contribue à déterminer l'interprétation du
message ». L’interactivité interprétative paraît fondamentale : deux
interacteurs n’expérimenteront jamais de la même façon un hyperdocument,
qu’il s’agisse d’hypertextes ou d’ hypermedia. Par leurs cheminements
respectifs, ils ne produiront jamais le même hyperdocument; d’un côté,
les interprétations sont différentes, et de l’autre, les manifestations
d’hyperdocuments le sont également.
1.3.5 Degrés d’interactivité
Dans un autre ordre d’idées, il existerait divers degrés
d’interactivités permettant de la qualifier. Ainsi, Pierre Lévy (1997,
p.97), dit que le « degré d'interactivité peut se mesurer sur des axes
divers tels que les possibilités d'appropriation et de personnalisation
du message reçu, quelle que soit la nature de ce message, la réciprocité
de la communication, la virtualité – virtualité qui souligne ici le
calcul du message en temps réel en fonction d'un modèle et de données
d'entrée –, l'implication de l'image des participants dans les messages,
et la télé présence ». Chris Crawford (2000, http://www.
erasmatazz.com/book.html) propose quant à lui de penser l’interactivité
en tant que variable continue, comme par exemple le poids d’une personne,
plutôt que comme une propriété booléenne, acquise totalement ou pas du
tout. Une distinction s’établirait entre une forte interactivité, une
interactivité moyenne, basse ou encore une interactivité « zéro ». En
s’inspirant de ces auteurs six degrés d’interactivité sont ici proposés
en ce qui concerne l’interaction homme-machine. La prétention n’est pas
ici d’établir une nouvelle méthode de caractérisation de
l’interactivité : certaines ont déjà été établies, allant de celle de
Pierre Lévy (1997) et de Jean-Pierre Balpe (1996) à celle du département
d'études sur l'enseignement et l'apprentissage de l’Université Laval
(sans date, http://www.fse.ulaval.ca/fac/ten/cours/html/cour7.html).
Cependant, ces dernières s’emploient à caractériser l’interactivité sous
différentes formes, allant des espaces immersifs par vision
stéréoscopique aux Chats Rooms, NewsGroups, et autres Multi-User Domains
43
(MUDs). Le modeste objectif est seulement de les adapter de la façon la
plus adéquate possible à cette recherche.
Au degré zéro de l'interactivité, il y pourrait y avoir l’effort
dont il a été question plus haut : celui-ci constitue en quelque sorte le
pôle intermédiaire entre activité et passivité : une émission est faite;
un des deux acteurs (homme ou machine) n’a aucune possibilité d’échange
concernant cette émission. Si l’un des deux êtres ne réagit pas aux
actions de l’autre, ces dispositifs ne nous concerneraient pas a priori,
dans la mesure où aucune interaction n’instituerait la situation
d’interactivité. Cependant, il est possible qu’au cours du processus
interactif, ce niveau zéro soit temporairement présent. Il est bien
entendu préférable que ce niveau 0 d’interactivité se manifeste du côté
de l’interacteur plutôt que du côté de la machine !
Le premier et le deuxième degrés d’interactivité correspondent en
partie à l’interactivité hétéronome dont parle Pierre Lévy (1997).
L’interface, au premier degré, ne propose à l’utilisateur qu’une seule
possibilité : ce dernier n’a donc pas le choix, il s’agit d’un système
sans alternative, de pure logique binaire. Ce premier niveau comprend
également les situations où à chaque action correspond toujours une
réponse identique, quelque soit cette action. Le deuxième degré offre à
l’utilisateur plusieurs possibilités de choix. Les réponses faites n’ont
aucune influence sur la poursuite du processus interactif, du point de
vue de la machine. Nous serions tentés d’associer les hypertextes, dont
l’interactivité se limite à des liens fixes d’une page écran à l’autre, à
ces deux premiers degrés. Le système technologique serait alors un outil
de feuilletage mécanisé. L’action du système n’est pas relative à son
usage. Tout utilisateur suivant le même parcours rencontrerait les mêmes
contenus. Or, lorsque l’on circule sur le Web, les navigateurs prennent
en compte la circulation d’une page à l’autre. Lorsque l’on revient sur
une page qui a été visitée précédemment, les mots soulignés et colorés
qui indiquent des liens vers une autre page ont changé de couleur. Ils
garderont cette couleurs de liens visités selon des options propres à
l’utilisateur. Le degré d’interactivité est alors plus élevé. Par contre,
un CD-Rom en hypertexte qui ne retient rien du passage de l’utilisateur
constituerait un meilleur exemple pour ces deux premiers degrés.
44
Au troisième degré, l’interacteur a plusieurs possibilités de choix
face à une situation interactive. Les réponses sont, comme aux degrés un
et deux préprogrammés; le nombre de réponses est donc limité – bien qu’il
puisse être important – mais la possibilité de « questionnement interne
au programme » introduit un dialogue sous-jacent avec l’utilisateur. A la
différence des niveaux précédents, les choix proposés sont « actifs »,
c’est-à-dire qu’ils modifient réellement la situation interactive, de
telle sorte que l’expérience interactive devient propre à chaque
interacteur. Avec l’hyperlien, il s’agit d’interactivité de niveau trois.
Les réponses de la machine peuvent également être « ouvertes », à
condition qu’elles entrent dans le cadre de certaines règles permettant
de les traiter, et il y a alors interprétation des choix de
l’interacteur. On se situe alors au quatrième degré. Par exemple dans un
jeu vidéo, un même mouvement du « joystick » peut avoir plusieurs effets
sur le déplacement à l’écran d’un objet. Dans un cas général, il peut
permettre de déplacer horizontalement l’icône d’un vaisseau spatial à une
certaine vitesse. Si l’interprétation de ce mouvement ne se transforme
pas, le niveau d’interactivité est de l’ordre du niveau un. Mais dès que
l’interprétation du même mouvement aboutit à un résultat différent
(accélération du déplacement, blocage), il y a interaction de niveau
quatre. Il y a une évaluation du geste en fonction d’autre chose. On peut
également penser aux modes de navigation en VRML, ou les types de
manipulation que ce langage offre.
Le cinquième degré est celui qui sera nommé « intelligent », c’est-
à-dire qu’un véritable dialogue s’établit entre l’homme et la machine qui
interprète les actions, les compare avec des actions précédentes et
formule des réponses en conséquence. Cela sous entend des compétences de
mémorisation, d’association, de combinaison au niveau de la machine, dont
le comportement est considéré comme original. Ce degré d’interactivité
fait appel par exemple à l’intelligence artificielle. Dans les faits,
nous serons peu confrontés dans notre travail à ce type de compétences,
mis à part les fonctionnalités intelligentes des moteurs de recherche
comme, pour en citer un, « Google » (http://www. google.com).
45
1.4 Concepts théoriques de l’interface Homme-Machine
Le terme « interface » est devenu un concept fort à la mode depuis
quelques années , un phénomène largement attribuable à l’introduction de
l’Apple Macintosh (Laurel, 1993). L’interface décrit un mode de
représentation de l'interaction entre sujet et machine. Comprendre ce que
sont vraiment les ordinateurs est un processus définitionnel en constante
évolution qui influence fortement ces types de représentations. L’usage
des ordinateurs dans des domaines tels que l’analyse statistique ou la
gestion de bases de données ont conduit à la notion d’ordinateurs en tant
que « représentants d’informations ». Les scientifiques utilisent les
ordinateurs pour représenter les phénomènes du monde réel de façons
multiples, de la modélisation mathématique aux simulations symboliques,
schématiques ou réalistes (Laurel, 1993). En architecture, les
applications de l’ordinateurs au travers de la modélisation sont de nos
jour monnaie courante.
La façon par laquelle les représentations par ordinateurs
deviennent accessibles à l’interacteur est reconnue sous la notion
d’interface homme-machine. Les caractéristiques de l’interface, pour
quelque représentation que ce soit, est influencée par la pragmatique des
usages, par les principes des facteurs humains et de l’ergonomie, tout
autant que par la compréhension de l’ordinateur lui-même. La conception
d’une interface homme-machine, demande entre autres qu'une attention
suffisante soit portée aux besoins et aux habitudes de ce dernier. Par
ailleurs, l’interface est le visage de l'espace virtuel, le lien entre
l'espace virtuel et l'homme. Il est dès lors très important qu'elle soit
d'une grande qualité et très inductive : c'est par elle que vont
transiter toutes les informations pour l’embarquement vers le grand
voyage au travers des millions de kilomètres de câbles (Lévy, 1997).
L'interaction entre l'homme et la machine, de part sa nature,
nécessite une approche au niveau de l'homme d'une part, et d'autre part
au niveau de la machine. Ces deux approches se fondent en une rencontre
entre les sciences cognitives (modélisation du fonctionnement du
comportement humain envisagée au sein d'une compréhension systémique) et
les techniques informatiques. Certaines notions fréquemment usitées en
46
Interaction homme-machine seront précisées, dont la définition varie
légèrement d'un auteur à l'autre.
1.4.1 L’effet « tous azimuts »
Le concepteur ou développeur qui va faire le grand saut et goûter
aux délices du développement graphique va présenter inévitablement les
symptômes d'un comportement bien connu qualifié d'effet « tous azimuts »
(Gillet, 1995). L'effet « tous azimuts » se manifeste immédiatement après
la phase préalable d'initiation à un nouvel outil. Il se traduit par un
emploi immodéré de toutes les possibilités graphiques que permet l'outil,
sans souci d'efficacité ou de bon goût. On assiste alors à la réalisation
« d'interfaces » qui sont surchargées de couleurs, d'objets en 3D,
d'icônes, d'effets dynamiques multiples, de fenêtres de tout type et
d'autres merveilles qui rendent les créations impropres à une utilisation
rationnelle et efficace: en fait d'interface, on est plutôt en présence
d'un véritable « sapin de Noël »!
L'effet « tous azimuts » est néfaste sur le plan de l'ergonomie,
toutefois, pour autant qu'il puisse être canalisé, cet effet a aussi des
aspects bénéfiques: il permet au développeur, par le biais d'une
utilisation sans retenue de tous ces gadgets graphiques inconnus de lui,
d'explorer systématiquement les objets et leurs propriétés; et ce mode
ludique d'apprentissage sera utile lors d'utilisations ultérieures
effectuées dans un contexte plus sérieux.
1.4.2 Les modélisations du système interactif
Il est possible de modéliser un système interactif suivant
plusieurs points de vue, selon que l'on s'intéresse au domaine de
l'application, à l'architecture logicielle ou aux aspects ergonomiques et
cognitifs entrant en jeu dans l'utilisation du système. Une interface
peut être envisagée à deux niveaux : l'interface conceptuelle –
description des objets composant l'interface et leurs relations, panoplie
des types et des opérations autorisées sur les objets, ainsi que leur
sémantique – et l'interface perceptuelle – perception du système par
47
l'interacteur à l'aide de ses sens et de ses moyens d'action sur le
système (Côté, 2001).
1.4.2.1 L'interacteur
Le succès d'une bonne interface homme-machine est souvent dû à une
bonne connaissance des usagers. Il faut comprendre comment l'interacteur
réagit, comment il se comporte, quelles sont ses limites afin de lui
simplifier la tâche et de lui proposer une interface adaptée. Le point
qui suivent sont directement inspirés de Jean-Michel Gillet (1995).
Etre humain! L'utilisateur est au centre du débat. Le « pourquoi » d'une
interface graphique est basé sur les besoins de l'usager. Le premier
objectif est donc de répondre à ces besoins. Le fait que l'interface soit
développée avec tel ou tel logiciel, qu'elle soit la vitrine des
capacités et de la créativité d'une équipe mais aussi exempte d'anomalie,
facile à mettre en place, et livrée à temps pour le budget prévu, ne sont
finalement que des objectifs de second ordre.
Mais l'interacteur, de part sa condition humaine, est imprévisible.
Il peut changer d'avis facilement, il peut se tromper, sa concentration
et sa patience sont variables, sa motivation également. Il a des préjugés
sur l'informatique, des expériences vécues, souvent négatives, en
particulier pour le travail considéré ici, car nous savions que les
utilisateurs « types » n'auraient aucune familiarité particulière avec
l'outil informatique. Mais malgré ce fait, il n’est pas possible de créer
une catégorie d'utilisateurs standard au niveau de leurs caractéristiques
physiques, physiologiques, et socio-culturelles, d'autant plus que ces
dernières vont influencer leurs réactions vis-à-vis de l'interface. Dès
qu'il y a plus d'un interacteur, les différences existent, et l'interface
devra avoir une « longueur d'ondes » assez large pour s'adapter au plus
grand nombre de personnes.
Le modèle du processeur humain (figure 2). Pour définir une interface, il
faut d'abord comprendre comment fonctionne l'être humain dans le
processus d'appréhension de la connaissance. Le modèle du processeur
humain (Card, Morand et Newell, 1983) décrit le fonctionnement du cerveau
humain, où apparaissent humain et processeur, exactement comme pour les
48
ordinateurs. Selon ce modèle, l'individu est composé de trois systèmes
indépendants :
- le système sensoriel
- le système moteur
- le système cognitif
Chacun de ces systèmes dispose d'une mémoire et d'un mécanisme de
traitement.
Le système sensoriel traite nos sens, particulièrement ceux de la vue et
de l'audition. Par exemple, la capacité du système visuel est de 17
symboles, sa persistance est de 200 millisecondes (ms) et le temps du
cycle du processeur visuel est de 100 ms. Une animation nécessitera donc
la création d'au moins 20 images par seconde.
Le système moteur concerne les mouvements, comme le mouvement pour
déplacer une souris par exemple. La loi de Fitts (figure 1) précise que
le temps pour placer la main sur une cible dépend uniquement de la
précision requise, c'est-à-dire du rapport entre la distance et la
dimension de la cible: cet élément est utile lors de l'établissement de
la taille des icônes ou boutons par exemple (Gillet, 1995).
LOI DE FITTS : T = I log2 ( 2D/L )
Le système cognitif enfin contrôle le comportement de l'individu, en
fonction de ses connaissances, c'est-à-dire le contenu de la mémoire à
long terme, et des informations en cours de manipulation, c'est-à-dire la
mémoire à court terme.
T = temps pour que la main se déplace sur la cible D = distance de la main à la cible L = largeur de la cible I = constante évaluée à 100 ms
Figure 1 : Loi de Fitts
49
La mémoire est caractérisée par sa capacité à stocker des
informations, mais aussi par le type d'information et la persistance de
l'information stockée (Thimbleby, 1990). Le schéma ci-dessus tente de
résumer le fonctionnement du processeur humain, mettant en jeu la mémoire
à long terme, la mémoire à court terme et les trois processeurs. Nous ne
rentrerons pas dans le détail de chacun des ces éléments mais il faut
seulement préciser que:
- la mémoire à long terme contient les informations de masse de
l'individu. Une opération de lecture dans la mémoire à long
terme consiste à chercher une association reconnue par
l'interacteur. Lorsque la reconnaissance a eu lieu,
l'information va être transférée dans la mémoire à court
terme.
- La mémoire à court terme contient les informations en cours
de manipulation. Elle se comporte comme une mémoire tampon,
comme la mémoire vive des ordinateurs, et peut être
rapidement saturée. Sa capacité est très limitée – sept
éléments, plus ou moins deux –, et sa persistance est de 7 à
100 secondes. La mémoire à court terme, en comparaison avec
Mémoire à long terme Durée de vie infinie
Capacité infinie Codage sémantique
Mémoire à court terme Durée de vie 7 secondes
Capacité 7 éléments Codage visuel ou auditif
Visuel Durée de vie 200ms Capacité 17 lettres Codage physique
Auditif Durée de vie 1500ms
Capacité 5 lettres Codage physique
Processeur Perceptif Temps de cycle 100ms
Processeur Cognitif Temps de cycle 70ms
Processeur moteur Temps de cycle 70ms
Figure 2 : Le modèle du processeur humain
50
le mémoire à long terme, constitue donc une limite pour
l'être humain.
- Le processeur du système cognitif fonctionne sur le modèle de
reconnaissance-action: lors de la phase de reconnaissance, le
processeur recherche dans la mémoire à long terme les actions
liées aux informations contenues dans la mémoire à court
terme. Pendant la phase d'action, le processeur exécute ces
actions, modifiant ainsi la mémoire à court terme. Le cycle
de base du processeur cognitif est de 70 ms (Thimbleby,
1990).
La règle des sept. Le rappel au niveau du fonctionnement du processeur
humain nous permet de démontrer l'origine de la « règle des sept » que
l'on retrouve souvent dans les interfaces graphiques: sept menus, sept
éléments de menus, sept lignes affichées dans une zone de liste
fixe…L'être humain ne peut saisir en un seul coup d'œil que sept
éléments, avec une tolérance de plus ou moins deux, en fonction des
individus. On veillera par exemple à ce qu'une barre de menu principal ne
comporte pas plus de sept menus, à limiter le nombre d'élément de chaque
menu à sept, et si ce n'est pas possible, à tracer un trait de séparation
au moins tous les sept éléments afin de faciliter la mémorisation par
groupe successifs (Gillet, 1995).
1.4.2.2 Une façon de modéliser un système interactif
Il a été choisi ici d’élaborer un schéma (figure 3) reflétant des
notions théoriques émanant de diverses sources dont les origines seront
définies au fur et à mesure de l’examen des différents concepts. Chacun
de ces modèles correspond à une vue que peut se former un observateur en
fonction de son rôle dans l'élaboration de l’interface. Le commanditaire
de l'interface est principalement préoccupé par l'activité (ou la tâche)
que le système aidera à effectuer.
51
Le concepteur de l'application a pour objectif de spécifier un
système logiciel correspondant au modèle de l'activité (Calvez, 1991).
Dans notre prototype, l’interface ne nécessitant pas l'élaboration d'un
système logiciel, ce modèle ne pourra être représenté de façon
significative. Cependant, il semble intéressant de se pencher sur cet
aspect théorique et d'en tirer les éléments utiles et applicables dans la
conception d'une interface web. Le concepteur de l'interface, lui,
propose une représentation des objets et des méthodes d'interaction
efficaces et compréhensibles pour l'interacteur, en fonction de
l'application (modèle conceptuel) et du système informatique utilisé
(modèle d'interaction). Enfin, l'utilisateur utilise un système en
fonction de ses connaissances du domaine (activité) et du système (modèle
d'interaction et modèle conceptuel de l'application). Il sera souligné
dans la suite que la notion de modèle conceptuel varie très fort d'un
auteur à l'autre, et d'autre part que le schéma général d'une
modélisation d'un système interactif dépend de la signification choisie
pour chacune de ces notions.
Modèle de l'activité Modèle de l'application
Modèle de l'utilisateur Modèle conceptuel
Modèle d'interaction
Figure 3 : Modélisation d'un système interactif. Les flèches indiquent les relations
de dépendance de chaque modèle.
52
Le modèle de l'activité. Le modèle de l'activité est une représentation
des opérations à effectuer à l'aide de l'outil informatique. Il est
généralement décrit en langage naturel, et il existe de nombreuses
méthodologies d'analyse des besoins et de vérification qu'un outil
logiciel permet effectivement d'assister une activité. J. Calvez (1991)
par exemple, dans son ouvrage Spécification et Conception des Systèmes,
présente un panorama de ces méthodes. Concrètement, le modèle de
l’activité peut se présenter comme le « cahier des charges » d'une
application : il détaille le type d'opérations mais aucune référence
n'est faite quant à la façon dont seront menées ces opérations, qui les
effectue et dans quel contexte. Cependant, il convient de distinguer le
modèle de l'activité formulé par le concepteur du système de celui que
peut se former l'utilisateur. Dans la plupart des cas, ces modèles sont
assez proches, du moins est on en droit de l'espérer. C'est ici que la
référence au modèle de l'action de Norman (1986) paraît essentielle. Il
s'agit d'une approche cognitiviste de la modélisation de l'utilisateur :
l'individu élabore un modèle conceptuel du système informatique; le
comportement est conditionné par l'environnement et par la représentation
interne que l'utilisateur se fait du système. Selon la théorie de
l'action, un individu agit selon des modèles mentaux, élaborés par
l'individu même et évoluant avec l'expérience. Dans un processus de
communication interpersonnelle, les individus confrontent et adaptent
leurs représentations mentales. Dans le cas d'une interface homme-
machine, la communication met en jeu l'usager et l'interface – production
d'une représentation perceptible (image) du système à partir de laquelle
l'utilisateur adapte sa représentation.
Le rôle du concepteur est de réduire le décalage entre les modèles
mentaux de l'interacteur et l'image produite. Une bonne méthode pour
diminuer les distances semble être celle des scénarios : élaborer des
réflexions concrètes et créatives qui permettent de cerner l'interacteur,
son espace de travail, et d'identifier les tâches de l'utilisateur. Cette
méthode a été suivie dans l’élaboration du prototype.
Le modèle de l'application. Le modèle de l'application peut être assimilé
à la conception détaillée du système, c'est-à-dire la description des
objets informatiques le composant et leurs relations. Ce modèle ne
concerne que le réalisateur du système, dans le cas d'applications
53
logicielles, et n'a pas à être connu de l'usager. Il est cependant
important pour le concepteur de l'interface, qui lui, ne pourra proposer
une bonne interface qu'en veillant à permettre toutes les opérations
autorisées à l'usager, et à interdire les autres. Pour la création de
notre prototype, voué à des opérations plus complexes qu'une simple
navigation, nous pourrions considérer que le réalisateur du système et le
concepteur de l'interface ne constitue en réalité qu'une seule et même
personne. Le modèle de l'application ne peut être construit que si un
modèle de l'activité est connu. Il existe une série d'étapes entre la
définition des besoins et des activités et celle de l'application, qui
vont de la spécification à la conception détaillée. Sans s’étendre sur
ces mécanismes, Calvez (1991) est proposé comme référence générale.
Le modèle de l'application n'est cependant pas le seul composant
logiciel à prendre en compte lors de l'élaboration d'une application. En
effet, les objets informatiques manipulables et les outils proposés
s'insèrent, sauf rare exception, dans un environnement informatique et il
convient, lors de la conception d'un nouvel outil, de prendre en compte
les contraintes imposées par les différents systèmes d'exploitation, par
exemple. Cet aspect est également important dans la construction du
prototype informatique proposé.
Le modèle conceptuel. La tâche essentielle du concepteur de l'interface
d'un système interactif est la définition d'un modèle conceptuel adapté
aux activités envisagées (Gillet, 1995). Le modèle conceptuel d'un
système interactif est la représentation de l'image que le concepteur
donne du système à ses utilisateurs. Le concepteur doit extraire des
actions réalisables avec le système et des objets manipulables une
structure cohérente, aisément assimilable et permettant une interaction
efficace. Il paraît évident que le modèle conceptuel doive refléter au
mieux le fonctionnement de l’interface et le domaine d'activité pour
lequel elle est prévue. Cependant, cette image que le concepteur offre
aux utilisateurs n'est pas nécessairement un fidèle reflet des structures
internes de l'application (Tognazzi, 1993) : si une opération peut être
effectuée sans que l'interacteur ait à être au courant, alors il ne faut
pas la représenter; inversement, il faut parfois représenter des
informations qui ne sont pas présentes à l'état brut dans l'application
(par exemple l'état du chargement d'une animation).
54
Le système de gestion de fichiers sur les ordinateur Apple qui
propose la métaphore maintenant classique du « bureau » a déjà été citée
: les fichiers, répertoires et actions sont respectivement dénommés
« documents », « dossiers » et « outils ». La transposition du modèle
conceptuel, via une métaphore, en un modèle plus familier à l’utilisateur
et supposé mieux connu est une technique efficace de structuration du
modèle conceptuel. Par ailleurs, devant la difficulté de définition
stricte d'une activité de manipulation d'information, on effectue souvent
une anthropomorphisation de l'ordinateur, en considérant que ce dernier
peut être considéré comme un « partenaire » plus que comme un outil
(Coutaz, 1990). Ce parallèle est parfois utile, notamment pour rapprocher
les échanges entre l'ordinateur et l'individu, et tirer parti de l'apport
des théories linguistiques et sémiotiques pour modéliser certains aspects
de l'interaction.
L'interface « idéale » reproduit donc le mode de fonctionnement
imaginé par les utilisateurs, non seulement en produisant des résultats
conformes à leurs attentes, mais également en présentant un univers plus
ou moins familier. L'interface va rassurer l'utilisateur et lui faciliter
la reconnaissance des objets : il aura l'impression d'être en terrain
familier.
Le modèle de l'utilisateur – Précisions. La notion de « modèle de
l’utilisateur » connaît diverses acceptations. Le sens général est celui
de représentation (cognitive) que se fait l'usager du système lors de son
utilisation, tel qu'il a été illustré plus haut , avec le modèle du
processeur humain. Il paraît important d'insister sur la distinction
entre le modèle conceptuel et le modèle de l'utilisateur, même si
l'interface « idéale » exige que la représentation que se fait l'usager
du système soit la plus proche du modèle conceptuel, image que donne le
concepteur à l'utilisateur de l'application. En effet, l'élaboration par
un usager d'un modèle mental de son outil est variable, et il importe
dans ce cas de distinguer le modèle conceptuel, représentation « idéale »
du système informatique, et le modèle de l'utilisateur, représentation
réelle, qui, heureusement, n'est pas pour autant toujours inadaptée à
l'activité menée au moyen du système informatique. D’autre part, les
applications informatiques sont des systèmes versatiles, qui peuvent dans
55
une certaine mesure être détournés de leur usage initial, voire étendues
à des domaines non prévus initialement. Le concepteur d'une application
ne pourrait donc prétendre cerner la totalité des usages qui vont en être
faits (Norman, 1990).
Le modèle d'interaction : Un modèle d'interaction est la représentation
de la structure des échanges entre l'utilisateur et son outil. La
représentation d'un modèle d'interaction requiert la description des
dispositifs d'interaction utilisés et leur mode d'activation, les choix
de représentation des informations du modèle conceptuel, la structuration
des échanges réalisés, l'effet des actions de l'utilisateur sur les
diverses composantes.
1.4.3 Etapes de réalisation de l'interface usager
Selon divers auteurs (Gould et Lewis, Shneiderman, Meinadier et
Nielsen, cités par Buissières, 1995) les cinq principes clés de la
réalisation d'une interface sont les suivantes:
- porter l'attention dès le départ sur les usagers
- concevoir en interaction avec les usagers
- sélectionner les outils (logiciels)
- valider l'interface à l'aide d'un prototype
- concevoir l'interface de manière itérative (corrections
donnant lieu à une nouvelle version qui elle-même se verra
corrigée, et ainsi de suite. )
1.4.3.1 Phases de la conception d’une interface
La conception de l'interface se compose de trois phases : l'analyse
préalable, la spécification de l'interface, le prototypage et
l'évaluation (Côté, 2001 et Bussières 1995).
56
Analyse préalable
Analyse des tâches ou « schéma ». Le premier objectif est la
détermination de la fonctionnalité nécessaire, c'est-à-dire les tâches et
les sous-tâches du projet; il faut résoudre surtout les problèmes
entraînés par les tâches liées aux situations exceptionnelles. Il faut
trouver le juste milieu entre fonctionnalité excessive et fonctionnalité
non adéquate.
Identification des usagers et spécification des performances de l'usage.
La prise en compte des utilisateurs d'une interface est fondamentale du
point de vue de l'ergonomie. La classification des utilisateurs est basée
sur leurs connaissances syntaxiques et sémantiques des tâches qu'ils
doivent accomplir. Les connaissances syntaxiques concernent les détails
dépendants du système, comme par exemple la syntaxe des langages utilisés
pour interagir avec un langage de commandes. Les problèmes principaux
sont : la variation de la syntaxe de système à système, le manque d'une
connaissance structurée et le temps d'apprentissage. Nous pouvons
distinguer trois classes d'usagers d'une interface (Gillet, 1995):
- Novices : ils n'ont pas de connaissances syntaxiques; les
connaissances sémantiques de l'ordinateur et des tâches sont
très limitées. Le vocabulaire à disposition de ces
utilisateurs doit être réduit, les tâches doivent être peu
nombreuses et simples, les « aides » disponibles, telles que
les différents types d'aides à l'emploi intégrées dans le
site, doivent être suffisantes.
- Occasionnels : ils ont des bonnes connaissances sémantiques
du domaine, mais leurs connaissances syntaxiques sont
pauvres. Ils peuvent être aidés par une structure
d'interaction simple, un langage significatif, des
interactions fréquentes etc.
- Spécialistes : ils ont besoin de temps de réponse rapides, un
feedback rapide, en bref, ce sont les plus exigeants tant au
niveau de la performance de l'interface que de son design!
57
D'autre part, il faut garantir une fiabilité suffisante de
l'interface : les logiciels utilisés et le matériel doivent assurer un
bon niveau de performances; de plus la fiabilité, la sécurité et
l'intégrité doivent être assurées. La conception d'une interface doit
prendre en compte les utilisateurs auxquels cette interface est adressée
et les objectifs doivent évaluer entre autres le temps pour
l'apprentissage et la satisfaction subjective.
Spécifications de l'interface
Spécification conceptuelle. La spécification conceptuelle de l'interface
est directement liée au modèle conceptuel : elle consiste à extraire les
actions réalisables avec l'interface, ainsi que les objets manipulables
et à les organiser au sein d'une structure cohérente (propriétés des
objets, leurs relations, les opérations associées), aisément assimilable,
au travers de la métaphore par exemple, et permettant une interaction
efficace.
Spécification fonctionnelle. Lors de la spécification fonctionnelle, le
concepteur se place au niveau de l'utilisateur, sur le plan sémantique,
et décrit l'effet des actions de l'usager sur les objets qui ont été
définis dans le modèle conceptuel. Le but est de faire comprendre à
l'utilisateur l'effet de ses actions; cette spécification doit donc tenir
compte de certaines règles ergonomiques qui seront examinées plus loin.
En effet, l'utilisateur relie une nouvelle donnée à ce qu'il connaît
déjà. Cela signifie qu'il met en oeuvre des stratégies différentes selon
la signification de la donnée.
Spécification syntaxique. A ce niveau, le concepteur doit se préoccuper
de la syntaxe du langage qui sera utilisée pour effectuer les actions
découlant de la spécification conceptuelle, c'est-à-dire le style général
de dialogue entre l’interface et l’usager ainsi que la structure des
interactions.
Spécification lexicale. La spécification lexicale détermine ce qui est
visible par l'utilisateur et déterminera donc les choix de présentation
et les aspects pratiques d'utilisation de l'interface. Par exemple, le
modèle d'interaction des interfaces iconiques décrit les objets du modèle
58
conceptuel sous forme de représentations graphiques appelées icônes. Ces
objets peuvent être manipulés au moyen d'un vocabulaire d'actions, comme
le « drag and drop » ou le simple clic.
Un modèle d'interaction ne se limite pas à la conjonction d'une ou
plusieurs techniques et de styles. Il importe de considérer également
d'autres aspects tels que les caractéristiques imposées par les médias
utilisés ou le contexte d'utilisation. La description suivant une
terminologie « linguistique » telle que proposée dans les deux points
précédents, que l'on pourrait résumer de façon générale par les formules
[lexique = technique] et [syntaxe = style] peut aider à structurer la
présentation d'un modèle d'interaction, mais elle n'est pas suffisante.
L'interaction se distingue d'un langage par certains aspects. Tout
d'abord, le « lexique », donc la technique, n'est pas une donnée, et
peut être créé en fonction des besoins. D'autre part, les actions de
l'utilisateur ne peuvent être représentées totalement dans une structure
à double articulation [lexique/syntaxe] : il peut y avoir de multiples
niveaux d'articulation suivant les moyens d'action proposés pour
manipuler les objets. Une recherche dans cette perspective là paraît
d'ailleurs intéressante. Enfin, afin de permettre une interaction
naturelle avec les objets informatiques, les méthodes d'interaction et la
représentation des objets doivent avoir un rapport non arbitraire avec
les concepts informatiques auxquels elles se référent. Pour P. Andersen
(1990), l'interaction humain-ordinateur est sur ce plan plus proche de
la sémiotique que de la linguistique.
Prototypage et évaluation
Evaluation. L'évaluation d'une interface est une étape du processus de
développement et de conception trop souvent négligée. Il n'existe en
réalité aucune méthode ni outil éprouvés, grâce auxquels un concepteur
serait en mesure de créer une interface « parfaite ». Il s'agit souvent
d'approches intuitives et exploratoires. Cependant, il est possible de
classifier les approches quant à l'utilisabilité d'une interface en deux
groupes : les méthodes analytiques, simulant l'exécution des activités de
l'utilisateur sans que celui-ci ne soit impliqué, et les méthodes dites
59
empiriques, nécessitant le développement d'un prototype évalué en
collaboration avec les utilisateurs (Bussières, 1995). Par ailleurs, on
peut distinguer deux types d'évaluation : l'évaluation formative et
l'évaluation sommative. L'évaluation formative s'effectue durant le
processus de conception et de développement sur une version incomplète;
l'évaluation sommative est effectuée à la fin de ce processus et sur une
version complète de l'interface (Belkiter , 2000, Annexe B).
Il semble peu utile d’entrer dans le détail des diverses techniques
existantes mais la « grille » suivante, inspirée de Nielsen (1993),
pourra être employée facilement dans le cas d'une interface logicielle et
permettra d'identifier rapidement les problèmes majeurs, sans la
collaboration des utilisateurs.
Le dialogue est-il simple ?
Le langage utilisé est-il celui de l'utilisateur ?
Le travail de mémorisation est-il minimal?
La présentation et le dialogue sont-ils cohérents
Les retours sont-ils visibles ?
Les sorties sont-elles explicites ?
Existe-t-il des raccourcis ?
Les messages d'erreur sont-ils explicites ?
Les erreurs sont-elles évitées ?
Existe-t-il une aide ?
Le logiciel est-il documenté ?
Pour un site internet, les critères ci-dessous permettent
d'identifier les principaux problèmes d'utilisabilité d'un site (IBM,
1999, http://www-3.ibm.com/ibm/easy/ eou_ext.nsf/publish/572).
L'objectif du site est-il clair ?
L'audience du site peut-elle clairement s'identifier ?
Le site est-il utile et pertinent pour ce public ?
Le site est-il intéressant et attirant ?
Le site permet-il aux visiteurs de réaliser toutes les tâches
qu'ils veulent accomplir?
Les visiteurs peuvent-ils accomplir facilement ces tâches ?
60
Le contenu et l'organisation des informations sont-ils cohérents
avec l'objectif du site ?
L'information importante est-elle facile à trouver ?
Toutes les informations sont-elles claires, faciles à comprendre et
à lire ?
Le visiteur sait-il toujours où il est et comment faire pour aller
où il veut ?
Le graphisme est-il agréable ?
Les pages se chargent-elles suffisamment vite ?
D'autre part, il faut insister sur l'utilité d'une évaluation qui
pourrait être qualifiée de « coopérative », s'appuyant sur la mise en
situation de l'utilisateur. Cette méthode d'évaluation consiste à
observer l'utilisateur et à l'inviter à penser à voix haute, afin
d'identifier précisément les processus cognitifs qu'il met en œuvre. Pour
obtenir des résultats pertinents et identifier véritablement les
problèmes d'utilisabilité, l'observateur ne doit pas aider l'utilisateur.
Il le laisse se tromper afin d'observer les stratégies de récupération
qu'il met en œuvre. Bien entendu, il replacera l'utilisateur sur la bonne
voie en cas d'impasse. Ce type d'évaluation peut-être menée dés les
premières phases du développement (Belkiter , 2000, Annexe B).
Prototypage. L'objectif du prototypage est de consolider les
spécifications de l'interface auprès des utilisateurs. Pour cela, on
invite l'utilisateur à se servir d'une première version de l'application
: le prototype. En fait la phase de prototypage est aussi l'occasion
d'évaluer l'utilisabilité du système dont on dispose d'une première
version. Nielsen (1993) distingue deux degrés de prototypage selon que le
niveau d'interaction offert par le prototype (figure 4). Le prototype
horizontal correspond au développement de l'interface homme-machine
seule, il s'agit parfois d'une maquette sur papier, le prototype vertical
met en œuvre certaines des fonctionnalités de l'application. Le prototype
horizontal est l'interface de « surface » et permet de réaliser un
prototypage dit « statique ». Pour cela, on procède généralement par
inspection. Les différents composants de l'interface sont passés en revue
avec l'utilisateur. La présentation ainsi que le comportement local de
l'interface sont vérifiés. Cette première étape permet d'identifier les
points critiques où des problèmes d'utilisabilité sont susceptibles
61
d'apparaître. Un prototype vertical est ensuite développé. Il correspond
à la mise en œuvre d'un ensemble cohérent de fonctionnalités, afin que
l'utilisateur puisse dérouler un scénario d'utilisation typique du
logiciel. Il s'agit alors de mener un prototypage « dynamique ». Ce
prototypage donne lieu à des tests d'utilisabilité visant à évaluer les
points critiques relevés lors de la phase statique.
Les tests vont permettre d'identifier des problèmes et d'analyser
leurs causes. Des solutions sont élaborées et mises en œuvre dans une
seconde version du prototype qui va faire l'objet d'une nouvelle série de
tests, et ainsi de suite jusqu'à ce que l'interface soit validé.
Cependant, quelques précautions sont à prendre pour éviter que la phase
de prototypage ne dérive :
Ne pas modifier le prototype en cours de session. L'objectif de la
séance de prototypage n'est pas de montrer à l'utilisateur comment
l'interface à été conçue au niveau du code, par exemple. Les
interruptions qui en découlent risquent de lui faire perdre le fil de la
séance. Dans la plupart des cas, il est préférable de laisser le problème
jusqu'à la fin de la séance afin de s'assurer qu'il s'agit d'un véritable
problème, plutôt que de se lancer dans une modification hâtive. Le
prototype évolue uniquement entre chaque phase de prototypage suite à une
analyse des problèmes et identification des causes avec les utilisateurs.
Figure 4 : Les différents prototypes selon Nielsen (1993)
62
Stabiliser le groupe utilisateur. Lorsque le groupe utilisateur
fluctue – ce qui n'était pas le cas pour notre travail – il peut arriver
que les nouveaux remettent en cause les décisions des précédents. Ce qui
contribue systématiquement à faire dériver la phase de prototypage. Qui
plus est, il est essentiel que le groupe utilisateur soit représentatif
et reconnu par le reste des utilisateurs.
Tracer les évolutions. A des fins de « tracabilité », il importe de
consigner les évolutions demandées par les utilisateurs, les problèmes
rencontrés lors des tests et les solutions choisies pour y remédier.
C'est non seulement un moyen d'éviter de revenir sur des problèmes déjà
traités, mais aussi une manière de mettre en évidence des points délicats
en terme d'utilisabilité sur lesquels il conviendra d'être
particulièrement vigilant pour d'autres réalisations.
Le test vise à évaluer le logiciel, pas l'utilisateur. Si
l'utilisateur ne réussit pas à se servir de l'interface, c'est qu'elle a
été mal conçue. L'objectif du test est d'identifier les problèmes
d'utilisabilité de l'application et non de mesurer la capacité de
l'utilisateur à se servir de l'interface.
Cinq utilisateurs suffisent. Nielsen (2000, Annexe B) a montré que
des tests menés avec cinq utilisateurs permettent de lever au moins 80 %
des problèmes d'utilisabilité. En effet, ce n'est pas en augmentant le
nombre d'utilisateurs que l'on trouve plus de problèmes. Les problèmes
sont liés au logiciel ou à l'interface, pas aux utilisateurs ! Tester
avec un plus grand nombre d'utilisateurs n'augmente pas la pertinence des
résultats. Plutôt que de mener un test avec quinze utilisateurs, J.
Nielsen considère qu'il est préférable de faire trois tests avec cinq
utilisateurs, en améliorant l'interface à chaque itération. Bien entendu,
lorsque l'application vise différents types d'utilisateurs, il importe de
tester auprès des différents groupes.
63
1.4.3.2 Caractéristiques d'une bonne interface usager
Les caractéristiques reprises ici sont directement tirées de
l’essai d’Anne-Marie Bussières (1995) :
Visibilité : L'usager doit être en mesure de voir ce qu'il peut
faire à partir de l'interface, et le résultat de son travail.
Transparence : La transparence implique la nécessité de cacher à
l'utilisateur le travail effectué par le système informatique et
de lui procurer plutôt une image mentale de l'évolution de son
travail.
Intuition : L'intuition réfère aux connaissances déjà acquises
par l'utilisateur et le concept de métaphore intervient donc
également.
Cohérence : Une interface est cohérente si un type d'action
amène toujours le même genre de résultats. Le retour
d'information à l'usager s'avère ici très important en terme
d'apprentissage, étant donné qu'il fait face à un instrument
supposé nouveau.
Intégrité : L'intégrité consiste à sauvegarder les données et
résultats de l'utilisateur..
Guidance : L'usager doit avoir accès en tout temps à un module
d'aide. Un effort a été accomplit au niveau du support fourni à
l'usager.
Contrôle : Nous le vivons jour après jour, il suffit de penser à
nos systèmes gouvernementaux: avoir l'impression de contrôler
tout en étant guidé, voilà le principe du contrôle!
Concision et bonne présentation d'écran : La concision et la
bonne présentation d'écran consistent en gros à éviter l'effet
« tous azimuts » évoqué précédemment. La concision s'applique
64
également au niveau des commandes de l'interacteur. Pas de
surcharge, sans perte d'informations.
Adaptabilité et adaptativité : L'adaptabilité implique que
l'interface peut s'adapter aux différents niveaux d'usagers.
L'adaptativité concerne les interfaces capables de s'adapter
automatiquement au niveau d'expérience de l'usager.
1.4.4 Conclusion au niveau de la conception d’interfaces
Les concepts passés en revue dans cette section vont permettre dans
le dernier chapitre de ce mémoire d’effectuer une évaluation « en fin de
course » du prototype informatique. Ceux-ci ayant été élaborés pour des
interfaces en 2D, il sera montré dans quelle mesure ils peuvent
s’appliquer à une interface 3D. L’ évaluation « finale » dont il est
question n’est pas la seule ayant été effectuée, puisque dans la démarche
systémique entreprise, la cyclicité entre prototypage, simulation et
évaluation est un principe de base.
Par ailleurs, une interface homme-machine doit aussi
être… « belle ». La citation qui suit illustre bien, à notre avis une
alliance nécessaire, en plus de tout ce que nous venons d'évoquer, entre
esthétique et technique.
« … Il faut satisfaire autant les besoins spirituels que les besoins
matériels, et se donner pour but l'élaboration d'une nouvelle conception
de l'espace ne signifie pas seulement parvenir à l'économie structurelle
et à la perfection fonctionnelle... La formule "tout ce qui est
fonctionnel est beau" n'est qu'à moitié vraie…seule une harmonie parfaite
dans la finalité technique, et dans la proportion des formes peut
engendrer la beauté »
Walter Gropius (1956).
65
Chapitre 2 : L’espace interactif
Introduction
« Il avait opéré en tripe d’adrénaline pratiquement permanent, un
sous-produit de la jeunesse et de la compétence, branché sur une palatine
de cyberspace maison qui projetait sa conscience désincarnée au sein de
l’hallucination consensuelle qu’était la matrice. » (Gibson, 1985)
L’hypothèse de William Gibson (1985) reste évidemment du domaine de
l’imaginaire. Mais pour combien de temps encore ? Alphonse de Lamartine
disait : « Les utopies ne sont souvent que des vérités prématurées. » et
les avancées technologiques nous permettent d’entrevoir la réalisation de
la fiction de William Gibson. Par ailleurs, l’hypothèse de William Gibson
a ceci de séduisant qu’elle offre la possibilité de radicaliser les
questions quant au rapport que nous entretenons avec le monde : il y a là
la promesse d’un monde immatériel qui pourrait remplacer presque
entièrement notre monde actuel. Jean-Claude Dussault (1997, p. 59)
affirme même que « l’aventure des mondes virtuels fournit à l’homme la
preuve qu’il est à l’étroit dans ses limites individuelles ».
La notion de présence dans un contexte « virtuel » fait également
partie de notre quotidien : les logiciels (gratuits !) tels que ICQ
(comprendre « I seek you »), MSN, ou celui développé par Infonie, par
lesquels l’utilisateur connecté à Internet est instantanément renseigné
sur les personnes en ligne au même moment, et par lesquels il est
possible d’entrer, en temps réel, en communication textuelle, vocale,
visuelle ou encore par tableau blanc (outil de dessin et de texte) avec
les autres personnes, connectées ou non, sont la preuve la plus évidente
d’une présence induite par une connexion au réseau Internet. Présence,
participation, temps réel, connexion au réseau, tant de termes qui
suscitent l’utilisation de la notion d’espace pour les caractériser, et
il suffit de naviguer quelque peu sur le Net, la toile, pour s’en rendre
compte au travers de tout ce qui y est dit et écrit. La notion d’espace,
dans ce contexte « virtuel » prend une importance capitale.
Ce deuxième chapitre examinera la thématique de l’espace « réel »
pour ensuite aborder le « virtuel », et, pour ce faire, certains auteurs
66
classiques de la philosophie pourront apporter leur aide. En effet, notre
civilisation occidentale a traditionnellement toujours travaillé
avec/dans/pour le monde physique. Notre corps matériel a fourni des
fondements qui, semble-t-il, ne peuvent être transcendés. La notion de
virtualité irait à première vue à l'encontre de ces racines
traditionnelles : alors que le corps est au centre de toute conception,
elle subvertit ce que nous croyons être essentiel à la nature humaine en
aspirant à la désincarnation de notre être. Les philosophes abordés dans
ce travail ont eux aussi tenté, à leurs époques, de comprendre le monde
dans lequel ils vivaient, selon les changements que les avancées des
savoirs et des techniques apportaient. Notre époque vit également une
profonde mutation, celle de la « révolution numérique ». La façon de
procéder dans cette tentative de compréhension de l’espace virtuel se
réclame d’une pensée en dialogue avec son passé, un passé que notre
présent englobe encore à certains niveaux, et qui nous influence.
En rapport direct avec ce qui précède, ce deuxième chapitre mettra
en place une réflexion sur l’interactivité permettant des expériences
concrètes de l'espace électronique comme extension mentale de l'espace
matériel. L'interactivité numérique permet l'exploration du cyberespace;
les outils de fonctions et d'actions offerts par une interface deviennent
nos « sens virtuels ». L’interactivité, tout en étant l’outil du passage
du monde réel au monde virtuel, constitue un instrument nous permettant
de changer notre rapport au monde – réel ou virtuel – et peut être
considéré comme un espace intermédiaire à ces deux dimensions. Otto
Rössler (1998, p. 172), comme Platon l’avait déjà fait, affirme, par
exemple que le monde « n'est pas le monde dans lequel nous vivons, mais
l'interface à travers laquelle nous percevons et agissons ». Et les
outils électroniques sont l'interface de certains processus « symboliques
et expressifs », mettant ainsi en place un système relatif dépendant d'un
observateur particulier pour lequel l'univers projeté est perçu à travers
l’interactivité numérique. Dans son roman, William Gibson exploite les
notions d'espace mental, de réseau, de mémoire et de numérisation, de
manière à tisser les liens complexes qui les unissent et de les fondre
dans un concept alliant espace et information qu'il appelle matrice ou
hallucination consensuelle. L'interactivité, ce que McLuhan (1995)
appelait la participation, entre l'homme et la technologie se qualifie à
travers une stimulation simultanée de différents processus cognitifs. Le
67
prototype montre d’autre part que les mondes virtuels organisent
l'information en temps réel en reliant les flux de données, et rendant
perceptible ces liens à travers un espace modélisé, mais à la fois
cognitif et mental. Au travers de la structuration de l'information dans
le prototype interactif et de leur relation au concept d'espace, nous
verrons comment les utilisateurs s’engagent dans le processus interactif
en investissant le dispositif interactif comme un espace. Sur ces bases
sera entreprise, dans les deux derniers chapitres de ce mémoire, la
construction et la représentation de cette espace sur le principe de
l’énaction inspiré de Francisco Varela (1989, 1993, et 1996).
En résumé, le premier point de ce chapitre insistera sur la notion
d’espace appliquée à l’interface et sur les raisons qui mènent à discuter
les notions d’espace réel et virtuel. Les deuxième et troisième sections
envisagent l’espace réel, sous la lunette des philosophes, et l’espace
virtuel, sa définition, et ses fondements ainsi que la relation de
l’architecte aux univers virtuels. La question de l’intérêt de modéliser
l’interactivité numérique sera abordée et il sera montré la cartographie
des réseaux et les topographies virtuelles n’en sont pas à leurs premiers
essais. Le quatrième point de ce chapitre soulignera les racines de
l’espace virtuel déjà présentes chez les philosophes étudiés. Enfin, la
dernière section de ce chapitre étudie les relations entre
l’interactivité, l’espace et la théorie de l’énaction de Varela.
68
2.1 Environnement, espace, interface
La disposition spatiale des applications de l’ordinateur sur
l’écran est une étape importante, conceptuellement parlant, vers
l’élaboration d’un « cyberespace », notion qui touche particulièrement à
cette étude étant donné sa construction au travers du prototype proposé.
Nous envisagerons le cyberespace plus loin en détail, mais il s’agirait
de prime abord d’une distribution adéquate dans un espace, à trois
dimensions – pour commencer – plutôt qu’à deux dimensions, d’applications
nécessaires à l’utilisation de l’ordinateur; et cette distribution
spatiale demeure un élément fondamental de la conception d’une interface
homme-machine.
En effet, une interface homme-machine est un ensemble d'objets
structurant un espace de communication entre deux interlocuteurs :
l'homme et la machine. Ces objets sont matériels (écran, souris, clavier,
et autres) et logiciels (affichages, saisies, objets graphiques, et
autres). Pour Pierre Lévy (1997, p. 42), l'interface est « l'ensemble des
appareillages matériels qui permettent l'interaction entre l'univers de
l'information numérique aisée et le monde ordinaire ». La sensibilisation
au problème de l'interface graphique commence depuis quelques années à
porter ses fruits : les expressions telles que interface graphique,
design d'applications, GUI (Graphical User Interface), IHM (interface
homme-machine) font désormais partie intégrante de notre paysage
informatique.
L'interface graphique, comme son nom l'indique propose un cadre
visuel et ses différents objets sont représentés sous forme de figures,
de symboles faisant référence à notre environnement quotidien : par
exemple, ciseaux pour couper, sablier pour attendre, « ascenseur » pour
monter ou descendre. Le terme « métaphore », dans le contexte de
l'interface utilisateur prend donc tout son sens, étant donné qu'il met
en jeu les connaissances de l'utilisateur et celles des développeurs.
Ainsi, la base des environnements Macintosh et Windows est le desktop, le
bureau. Ce dernier met à portée de main (ou plutôt de souris) les objets
principaux nécessaires au travail : des « tiroirs » dans lesquels
l’utilisateur peut placer ses outils favoris, et la fameuse poubelle,
dans laquelle il jette ses dossiers et ses documents. Au sujet de
69
l’interface présentée à l’écran, Sherry Turkle (1995, p. 34) affirme
qu’il ne s’agit pas d’une interface logique, manipulée à partir de
commandes logiques, mais d’ « une réalité virtuelle, quoique en deux
dimensions, d’un monde dans lequel l’utilisateur navigue selon ses désirs
au travers de l’information, comme il le ferait dans l’espace réel ».
L’interface graphique prend place sur un écran; et la question
triviale « qu’est-ce qu’un écran ? » peut amener à mieux comprendre le
rapprochement entre la notion d’espace et celle d’interface. Pour ce
faire, l’exemple du cinéma sera utile. La réponse à la définition d’un
écran semble assez simple : il s’agit d’une portion d’espace à deux
dimensions sur laquelle, dans le cas du cinéma, on projette un film, et
dans le cas de l’ordinateur, sur laquelle les différentes composantes
d’une interface s’affichent. Cette définition, hautement insuffisante,
donne malgré tout quelques indices : tout d’abord, il s’agit d’un élément
à deux dimensions; au niveau du cinéma, les images projetées sont
totalement « plates », alors qu’il est possible d’envisager avec
l’ordinateur, comme le fait le prototype présenté, d’ajouter une
troisième dimension à ce qui apparaît à l’écran.
Ensuite, l’écran agit comme un cadre : c’est une portion d’espace.
Au cinéma, ce qui est montré à l’écran est cadré par la caméra. L’écran
paraît donc être un élément de limitation du cinéma car il n’est pas
possible de tout filmer et de tout montrer. Pourtant, le spectateur n’a
pas l’impression de voir des images en deux dimensions, ni même que ces
images sont limitées par un cadre. Confortablement installé dans son
siège et se laissant bercé par l’ambiance, l’image acquiert toute sa
profondeur, ainsi qu’une troisième dimension qu’elle ne possède pas en
réalité, et déborde du cadre de l’écran. Le spectateur entre dans
l’écran. L’exemple des salles de projection Imax est encore plus
sophistiqué mais montre bien qu’instinctivement il est possible de
reconstruire la profondeur de l’image. Le spectateur est en présence d’un
espace qu’il croit percevoir, ou qu’il perçoit au moins d’une façon assez
crédible pour y réagir. La figure 5 reprise d’André Gardies (1993) à la
page suivante, ne reflète aucune réalité concrète mais apporte des
éléments permettant de poursuivre cette réflexion.
Le « là » de Gardies s’affranchit de la limite du cadre de l’écran
pour pénétrer dans un monde imaginaire : en effet, ce « là » n’apparaît
70
pas à l’écran, et quand il le fait, il devient « l’ici ». L’exemple qui
suit permettra de mieux comprendre le propos : imaginons une scène à
l’écran montrant une pièce; au bord de l’écran, une porte s’ouvre et
quelqu’un entre dans la pièce. Notre esprit établit directement la
connexion : il y a une autre pièce ou un espace en continuité directe
avec la pièce illustrée dans la scène. Ainsi, sans nécessairement voir
les objets ou les espaces, l’être humain procède à des constructions
mentales, entre le cognitif et le perceptif, ajoutant de cette façon une
« dimension cachée ». Ce sont ces constructions mentales qui font partie
du « là » qui lui-même est en continuité directe avec « l’ici ».
L’interface graphique relève du même type de constructions
mentales, et d’autant plus face à une interface tridimensionnelle. Le
cinéma se base sur un principe d’illusion visuelle, sur une succession
d’images immobiles créant le mouvement. Avec les interfaces, et plus
précisément les interfaces du cyberespace en trois dimensions, c’est le
mouvement de l’interacteur qui crée une animation et dévoile le monde
dans lequel il se trouve. La dynamique est donc complètement différente,
puisque l’action consciente de l’interacteur est impliquée dans l’image.
Avec le cinéma, une portion de l’espace réel et physique (l’écran)
ouvre la porte du monde de notre imagination; de même, avec l’ordinateur,
l’interface graphique ouvre la porte à une portion de l’espace, numérique
cette fois, et l’ouverture de la porte est conditionnée par ce que le
Figure 5 : Ecran et espace (Gardies, 1993)
71
concepteur de l’interface veut bien dévoiler à l’utilisateur. A cela
vient s’ajouter l’imagination de l’individu.
Dans un autre ordre d’idées, l’élément spatial de l’interface n’est
pas le fruit du hasard, mais bien d’une démarche pesée et réfléchie,
tenant compte des besoins des utilisateurs : « user friendly ». Par
ailleurs, cet espace de travail est venu recouvrir de plus en plus la
machine elle-même et son fonctionnement réel. Avec les ordinateurs
fonctionnant à cartes perforées par exemple, il n’y avait aucun écran.
Pourtant, ces veilles machines de guerre (dans tous les sens du terme !)
conservent un point commun majeur : leur mode de fonctionnement selon le
langage binaire, qui reste caché derrière les interfaces actuelles. Comme
on l’a vu plus haut, l’invention de la bande magnétique, des transistors,
des circuits intégrés, mais aussi de langages tels que Pascal, C, ou le
Basic et bien plus récemment Java, on considérablement transformé
l’univers informatique. Ecrans et autres périphériques sont venus masquer
le fonctionnement et la structure interne de l’ordinateur (Turkle, 1995).
Cette notion d’ « espace-interface » est déjà présente lorsqu’on
parle des environnements Windows, Macintosh et maintenant Linux. La
prochaine étape sera celle de l’ordinateur « immersif », où l’utilisateur
sera en situation d’immersion totale et pourra configurer son ordinateur
pour qu’il réponde à sa seule convenance et qu’il le reconnaisse à sa
voix, à son physique ou encore à son comportement. L’histoire de
l’informatique nous montre le rapprochement sans cesse plus profond de
l’homme avec la machine et de la machine avec l’homme; l’être humain et
la machine entrent en relation de symbiose qui permet à la machine d’être
plus humaine et à un être humain d’être plus performant dans son action.
Les limites s’estompant entre homme et machine finiront peut-être un jour
par modifier ou dédoubler le milieu de vie de l’individu. Howard
Rheingold (1993, cité par Dussault, 1997, p. 14) parle « d’un
environnement dans lequel le cerveau est si étroitement associé à
l’ordinateur que la conscience de l’utilisateur semble se déplacer à
l’intérieur d’un monde crée par l’ordinateur tout comme s’il se déplaçait
dans un environnement naturel ». Ainsi, il n’est pas difficile d’imaginer
que l’individu puisse choisir de passer de plus en plus de temps là, dans
son monde informatique en trois dimensions, et de ne revenir dans le
« vrai » monde que pour réaliser les gestes minimaux nécessaires à la
72
survie de son corps. Il y a non seulement rapprochement de l’être humain
et de la machine, mais également de la machine et du milieu de vie humain
(Dussault, 1997, pp. 26-29).
2.2 Espace et réalité : espace dans la réalité et réalité de l’espace
Dans sa Critique de la raison pure (1944), Kant considère que
l'espace est une intuition a priori, une forme a priori de ce qu’il nomme
« sensibilité », qui sert de fondement, de condition préalable à toutes
les représentations (Vorstellung) immédiate du réel sensible. Selon le
philosophe, comme le souligne Philippe Quéau (1993), l'espace est la
condition de l'expérience. Avec Kant, on ne peut donc jamais se
représenter qu'il n'y ait pas d'espace. De là, la distance n’est pas
longue – mais les chemins multiples – pour dire le contraire, comme le
fait Edward T. Hall dans La dimension cachée (1978), que l’espace ne
serait pas quelque chose de donné en soi, s’imposant à l’individu, mais
bien quelque chose de culturel, de qualitatif, et de vécu.
L’intention ici n’est pas de répondre à la question ontologique :
« Qu'est - ce que l'espace? », mais plutôt de revenir à la formulation
kantienne de ce problème car, au lieu de supprimer la question en tentant
d'apporter une réponse définitive, Kant a radicalement changé de point de
vue en montrant de quelle manière l'espace relevait d'un questionnement à
partir duquel peuvent se concevoir plusieurs réponses. Le développement
tentera, au niveau des mondes virtuels, de mettre en évidence les
relations de ces derniers avec ces conceptions philosophiques de
l’espace.
2.2.1 Les plus anciennes conceptions de l’espace
Les plus anciennes conceptions de l’espace sont marquées par la
religion et la toute puissance du, ou des, Dieu(x). En effet , les
grandes civilisations de l’Antiquité ont modélisé leur conception de
l’univers sous la forme de mythes. Pour les Grecs, il n’existe pas de
distinction entre le réel et le « virtuel », entre l’intangible et le
matériel, entre le surnaturel et le naturel. Le divin appartient au monde
73
matériel sous la forme de forces matérielles et immatérielles,
omniprésentes, que les hommes personnifient pour mieux les appréhender.
Jean-Pierre Vernant (2000), dans son ouvrage intitulé L’homme grec,
résume fort bien le fait qu’on explique souvent la conception antique du
monde par l'omniprésence du divin dans l'espace d'existence humain. En
réalité, le Cosmos appartient à tous selon les limites de leur position
hiérarchique dans l'ordre immuable des choses. Ce qui est le plus
frappant dans la vision cosmologique de l'Antiquité, c'est
l'incompréhension fondamentale de la notion d'infini. Toute la Nature,
tout le Cosmos sont contenus dans un environnement limité. Cependant,
avec le développement de la pensée philosophique, la structure de
l’univers a éveillé la curiosité humaine. Ainsi, Platon dans le Timée
définira un « extérieur » au cosmos et concevra un monde essentiel et
idéal, proposant ainsi une réalité hors du monde qui nous entoure
(Regnauld, 1998).
François Makowski (1994) rappelle néanmoins une polémique au niveau
de la conception de l’espace chez les Grecs, soulevée par d’autres avant
lui, tels que Moreau et Bergson, en prenant pour appui l’œuvre
d’Aristote : dans la mesure où le même mot « topos » dans l’œuvre
d’Aristote est traduit par « lieu » ou par « espace », il n’est pas
évident d’accorder à Aristote l’intention de parler d’ « espace » ou de
« lieu ». Cette polémique sortant du cadre de notre étude, et sans
s’étendre sur ce point les conclusions de François Makowski (1994, pp.
71-87) à ce sujet seront adoptées. La distinction chez Aristote du lieu
propre relatif, du lieu commun et du lieu commun par soi sera retenue. Le
lieu propre relatif est défini comme l’enveloppe immédiate de l’objet au
repos, le lieu commun en tant que la limite enveloppant l’objet en
mouvement, et le lieu commun par soi constitue le lieu propre du monde,
c’est-à-dire le lieu ultime et immobile de tous les objets mobiles. Il
faut ici distinguer les notions de « propre », de « par soi » : le
« propre » renvoie ici à ce qui appartient à une seule chose, et « par
soi » réfère à ce qui appartient à un seul sujet. Il existe donc un lieu
relatif, ou « lieu de », et un lieu par soi, absolu. Cette réflexion,
provenant de la conception immobile du lieu aristotélicien, souligne les
sens très différent que prennent la pensée du lieu à partir de la chose
ou à partir du sujet. Nous verrons comment ceci s’articule à la réflexion
74
sur les espaces virtuels : cette différenciation entre lieu et espace est
loin d’être neutre pour notre étude.
Nonobstant la distance temporelle qui nous sépare des Grecs
anciens, et la différence au niveau des réponses qu’ils ont apportées à
certaines questions par rapport à celles que nous fournissons
aujourd’hui, la richesse d’une conceptualité telle que celle d’Aristote
réside non seulement dans la voie ouverte vers la géométrie newtonienne
mais aussi dans une élucidation de l’ « espace » en tant qu’une unité, un
tout, composé de multiples contenants. Cependant, à la différence
d’Aristote, la préexistence de l’espace semble tout à fait discutable.
2.2.2 Des deux « réalités » médiévales à l’espace perspectif
Ce qui nous intéressera le plus dans la conception médiévale, et
dont J. Délumeau (2000) traite abondamment, est le rapport chrétien à la
notion de réalité. En effet, dans la logique chrétienne au Moyen Âge, la
véritable réalité est extérieure au monde matériel et appartient à
l’intangible du spirituel. Les chrétiens à l’âge médiéval ne vivaient que
dans une image imprégnée de l’essence divine de la réalité; il n’était
possible pour eux d’atteindre la « vraie » réalité que par un effort
spirituel et finalement par la mort. Décoder le monde et l’espace à cette
époque c’est donc chercher à comprendre le dessein de Dieu, créateur,
«grand architecte» de la « réalité » temporelle. Les racines
platoniciennes et surtout néoplatoniciennes du christianisme sont ici
évidentes : Platon, dans La République, suggère que nous regardons des
ombres, mais que ces ombres sont notre réalité humaine. Sa théorie des
Idées présente une dégradation de l’Idéal par sa manifestation
matérielle. Ce ne serait que par la réflexion et par la pensée que l’on
peut comprendre l’essence de ces manifestations (Bourget, sans date,
Annexe B).
Il existe donc à l’époque chrétienne médiévale une véritable
dualité entre l’espace temporel où vivent les hommes, et l’espace
« spirituel », la réalité supérieure, à laquelle les hommes n’ont accès
durant leur vie qu’à des moments de grâce (extase, vision mystique). La
frontière entre ces deux espaces n’est généralement perméable que du
75
spirituel vers le temporel; les penseurs et artistes médiévaux, afin de
représenter ces manifestations divines dans le temporel, ont
littéralement suggéré une brèche dans l'enveloppe de l'espace temporel.
À partir du XVe siècle, les manifestations terrestres de la beauté
spirituelle sont de plus en plus mises en évidence. On n'abolit nullement
la distinction entre les deux « réalités », on ne remet pas non plus en
cause la perfection ultime de la réalité spirituelle. Pourtant, on
revalorise l'expérience temporelle et sous le couvert d'une analyse du
dessein divin, on en vient bientôt à s'intéresser au monde matériel pour
lui-même. Un regard nouveau se pose sur le monde, un regard dégagé des
inhibitions mystiques du premier millénaire chrétien (Bourget, sans date,
Annexe B). D’autre part, avec l’invention de la perspective, une porte
s’ouvre à une nouvelle conception de l’espace. L’humanisme place l’homme
au centre des préoccupations, et avec l’homme, l’espace qui l’entoure et
qu’il vit. Les recherches en matière de représentation perspective de la
Renaissance portent en elles le renouvellement, certes des arts
graphiques et picturaux, mais aussi de la création architecturale et de
l’espace (Giedion, 1990, p. 56).
Philippe Quéau, dans un article publié sur Internet (sans date,
Annexe B) intitulé La Présence de l’esprit, rappelle à ce sujet que le
paradigme de la perspective géométrique, avec ligne de fuite et
observateur privilégié, permettait de structurer rationnellement le
foisonnement confus des successions de plans que notre œil accumule sur
le monde. Selon John Beckmann (1998, p. 4), les lois de la perspectives
ouvrirent le chemin, des siècles plus tard, au cubisme analytique
développé par Picasso et Braque, et ce dernier fut le premier mouvement
artistique synchrone avec la multidimensionnalité introduite par les
théories de la relativité d’Einstein et de Borh. En ce sens, la rupture
introduite par l’espace perspectif est peut-être similaire à celle
introduite par la dimension virtuelle.
Selon Wunenburger (1997, pp. 127-128), il serait tout au plus
permis de dire que les peintres du Quattrocento ont, à l’aide d’un
artefact scientifique et technique, mis en œuvre un signe iconographique
équivalent au paysage perçu au sein d'un certain usage culturel.
76
L’idéalisation paraît nécessaire pour reproduire le point de vue de
l’homme sur ce qui l’entoure, et cette idéalisation est constituée par un
cadre mathématique, géométrique qui sert de code pour retranscrire la
réalité. La perspective se présente donc bien comme une organisation
fictive, imaginaire, censée initier la perception synoptique, en trois
dimensions, de la réalité visible.
La représentation en perspective n’est en fin de compte qu’une
illusion d’optique, centrée sur le point de vue, ce qui est physiquement
impossible. En effet, tout individu peut constater que son regard est net
selon un axe, et flou sur ses côtés. Les représentations de la
Renaissance ont donc, du point de vue perceptuel, cet aspect purement
fictif à savoir qu’elles montrent des images, qui en plus de représenter
une vision « idéale » du monde, sont d’une netteté égale quelle que soit
la distance des objets par rapport au point de vue. D’une part, nous
pourrions donc dire qu’à la Renaissance, le monde et l’espace deviennent
« net » au prix d’une illusion d’optique; mais d’autre part, il serait
possible de se rallier à la position de Jean-Jacques Wunenburger (1997,
p. 233) en affirmant que l’élargissement de la connaissance scientifique
au niveau de la réalité de l'infiniment grand et de l'infiniment petit
« a été conditionné par des prothèses de l'oeil qui reposent sur des
images artificielles assurant une reproduction inédite d'une réalité
cachée ». En ce sens également, l’espace perspectif se rapproche de ce
que nous vivons avec l’introduction du virtuel. Comme à la Renaissance,
l'homme se retrouve à notre époque face à son histoire, à un moment où
les limites de son espace perceptif se sont élargies.
L’espace perspectif renaissant garde son importance en tant
qu'outil de représentation d'une réalité tout autant que comme moyen
d'exploration et de partage d'espaces mentaux nouveaux s'étendant vers
l'infini. Cette notion d'infini ouvrira ensuite de façon franche les
portes à la notion de l'espace-temps.
77
2.2.3 Le XVIIè siècle philosophique
Au sein de la tradition philosophique, Descartes, au XVIIè siècle,
s’intéressa à tout ce qui fit la grandeur de son temps et sa
particularité dans l’histoire. Descartes est souvent considéré comme
l’initiateur d’une pensée nouvelle, spécialement par la coupure qu’il
introduit dans la pensée philosophique traditionnelle. Le développement
qui suit se base sur l’approche de Baertschi (1992) afin d’illustrer
brièvement la pensée de ce philosophe.
Refuser l'autorité des Anciens et n'admettre en sciences que la
raison, telle est l'exigence du philosophe et savant français qui rompt
avec des siècles de pensée scolastique. Convaincu que les longues
démonstrations des mathématiciens pouvaient servir à la connaissance de
toutes choses, il formula une méthode nouvelle fondée sur l'intuition du
vrai et le raisonnement déductif. Armé de cette méthode, Descartes
entreprit de mettre systématiquement en doute tout ce qu'il savait, ou
croyait savoir, de lui-même et du monde (Descartes, 1953, p. 274). Or, au
plus profond du doute, alors même qu'il pensait être le jouet d'un
« malin génie » qui s'employait à le tromper toujours, il se heurta à la
certitude de sa propre existence, telle que la saisissait sa pensée
(Descartes, 1953, p. 272).
Le célèbre « cogito ergo sum », « Je pense, donc je suis », est
adopté comme le premier principe de la philosophie. De cette primauté
accordée au sujet pensant découla une métaphysique dualiste, dans
laquelle l'esprit (ou «chose pensante», « res cogitans ») et le corps (ou
«chose étendue», « res extensa ») sont deux substances radicalement
distinctes, mais cependant unies l'une à l'autre. Descartes déduisit du
cogito l'existence d'un Dieu infini et parfait, qui garantissait alors la
véracité des « idées claires et distinctes ». Par « clair » Descartes
entend « évident », qui « saute à l’œil et à l’esprit » et par
« distinct », il veut dire « concevable seule, sans la présupposition
d’aucune autre idée ». C’est par cette application des idées claires et
distinctes que Descartes va soutenir cette démarcation essentielle de
l’âme et du corps et leur distance irrémédiable (Descartes, 1953, pp.
323-324).
78
La problématique spatiale cartésienne prend toute sa signification
en opposition avec celle de la pensée, et ce jeu d’opposition se retrouve
d’ailleurs dans toute l’œuvre de Descartes : sujet opposé à objet,
intérieur à extérieur, pensée à étendue. Le concept d’étendue de
Descartes maintient l’homme hors du monde. La séparation établie entre
espace et pensée, corps et esprit, objet et sujet pose le problème de la
présence de l’esprit dans le corps, de l’être humain en tant que « chose
pensante » dans le reste du monde, et au-delà, elle soulève la question
d’une définition de la réalité. En effet, Descartes insiste effectivement
sur ces dualités ontologiques, mais constate cependant que des liaisons
existent. La question posée est de savoir comment deux réalités telles
que la pensée et l’étendue peuvent se rencontrer en une troisième réalité
qui serait l’être humain. La solution cartésienne passe par l’action de
la pensée sur le reste du corps. Cette action du cogito est nécessaire
pour que l’être humain puisse effectivement avoir une prise sur le monde,
et non sur une illusion, due au « malin génie », que l’on croirait être
le monde.
2.2.4 Sous le contrôle de Kant
Alors que dans son Esthétique Kant expose le « concept » d’espace,
sa Critique de la raison pure revient maintes fois en préciser le sens.
Bien qu’une lecture courageuse face à l’ampleur et la complexité de la
pensée de Kant au niveau de l’espace a été entreprise, l’œil aiguisé du
philosophe n’est jamais que partiellement acquis par l’architecte et
reste bien souvent lacunaire à de nombreux niveaux. Ceci amène à rappeler
au lecteur que cet exposé se bornera à présenter modestement ce qui sera
le plus pertinent au sein de cette étude.
Pour Kant, l’espace est intégré au sujet. Il est purement subjectif
et les sens sont fonction de cet espace. Là où avec Descartes une
distinction s’établissait entre sujet, res cognitans, et objet, res
extensa, le sujet de Kant est transcendantal. Kant ne se prononce pas sur
la réalité de l’espace. On sait en effet que sa philosophie
transcendantale refuse la possibilité pour l’homme de se prononcer sur
les choses « en soi », c’est-à-dire, sur la façon dont sont les choses
indépendamment de tout point de vue et notamment de tout point de vue
79
humain. Tout ce qu’on peut déterminer avec certitude, c’est la façon dont
les choses sont pour nous; Kant les appelle des « phénomènes ».
Kant distingue donc ce qui apparaît, les « phénomènes », des «
choses en soi », qui demeurent inconnues. Tout comme Dieu, les choses en
soi sont des noumènes, des réalités possibles, mais que nous ne pouvons
ni atteindre ni connaître. Contre l'idéalisme de Berkeley, il affirme
donc l'existence des choses en dehors de l'esprit. Cependant, la
constitution des objets n'est pas séparable de ce qu'ils sont pour
l'entendement allié à la sensibilité. L'activité de l'entendement, qui
opère la synthèse du donné de l'intuition, se fonde sur la conscience
ultime de soi, le « je pense » ou « sujet transcendantal », qui exprime
et assure l'unité de la conscience, identité de soi à soi. Ces modes
selon lesquels l'entendement assure la synthèse du divers représenté dans
l'intuition sont ce que Kant appelle les catégories, douze instruments de
liaison issus de l'entendement, qui structurent la connaissance que nous
avons du monde et qui permettent d'unifier le sensible.
Kant affirme que l’espace et le temps sont des formes a priori de
notre sensibilité, c’est-à-dire des structures de notre rapport à nous-
même et au monde, qui sont constitutives de notre sensibilité : quoique
nous percevions du monde, nous le percevons « dans l’espace » et quoi que
nous percevions de notre vie intérieure et du monde, nous les percevons
« dans le temps ». Si l'on fait abstraction de toute matière sensible, il
subsiste la forme même des intuitions : l'espace, forme du sens externe,
et le temps, forme du sens interne (Kant, 1944, pp. 58-59 et pp. 63-64).
Kant ne considère pas l’espace comme existant par lui-même,
indépendamment du sujet sensible, ou bien comme appartenant aux choses,
il n’est pas une propriété des choses, mais une condition de la
connaissance que nous pouvons avoir d’elles, et cette condition est a
priori, en raison de la certitude absolue des connaissances de la
géométrie. L’espace n’est donc pas dans l’objet, mais bien dans le sujet,
et il conditionne, avec le temps, la façon dont nous recevons
l’impressions des « choses en soi ». D’autre part, du point de vue de l’a
priori, si l’on cherche ce qu’il y a, dans notre faculté de connaître,
qui soit indépendant de l’expérience – et Kant qualifie une telle
recherche de transcendantale – l’espace et le temps sont de la nature des
80
idées, car ils appartiennent à l’esprit. Kant conclut que l’espace et le
temps sont des réalités empiriques et des idéalités transcendantales.
La redistribution kantienne de l’objectivité et de la subjectivité
au sein de la notion d’espace par rapport à Descartes est fondamentale :
l’espace est partie du sujet, alors que chez Descartes, il était
strictement objectif. Le cogito ergo sum de Descartes se transforme chez
Kant en cogito ergo res sunt où res est tout aussi primordial que cogito.
Sujet et objet dépendent l’un de l’autre. Chez Descartes, l’âme est liée
au corps, mais l’être humain ne peut se penser qu’en tant que res
cogitans seulement. Et de cette réalité dépend tout le reste. Pour Kant,
l’espace est une notion subjective, et n’est pas un système fermé, sans
sujet pour l’interpréter, le connaître et le modifier.
2.3 Espace et virtuel : espace dans le virtuel et virtualité de
l’espace
Si la peinture est une fenêtre ouverte sur le monde, alors les
mondes numériques constituent une porte qui s'ouvre sur de nouveaux
horizons. En effet, dans la manière dont le cyberespace nous permet de
jouer avec les horizons de sens, des différents langages qu'il nous fait
manipuler, il nous donne également la sensation d'être des démiurges, des
artisans d'un cosmos dont l'extension correspond à la volonté qui nous
permet de l'imaginer. En façonnant des espaces, en inventant des
mouvements, en proposant des pliures de sens, selon un volontarisme
quasiment souverain, on arrache aux dieux, sans l'intervention d'aucun
Prométhée postmoderne, la responsabilité pour la génération du nouveau :
de nouveaux temps, des nouveaux espaces, des nouveaux langages. Les
mondes virtuels captivent par la force de la représentation et la
richesse des interactions offertes. Indépendamment de l’aspect qualitatif
de l’interfaçage – l’ergonomie, la stylique industrielle (design), la
puissance réaliste et créatrice des images, leur fluidité – les mondes
virtuels ont la vertu de porter celui qui y pénètre dans des états de
présence à la fois psychique et physique, transcendant l’émotion par le
geste, ou la parole.
81
2.3.1 Les architectes du virtuel
Réalité et espace, sont des concepts qui, tout au long de
l’histoire, restent intimement liés. La problématique engendrée par la
notion d’espace est une des préoccupations majeure au cœur des arts
visuels et l'architecture est par excellence l'art de l'espace :
l’architecte sculpte l’intangible de l’espace et donne forme à
l’immatériel. L’architecte peut en faire de même dans un univers de « de
bits et de clics », et l’introduction à ce mémoire a d’ailleurs souligné
le caractère nécessaire du point de vue des architectes en ce qui
concerne les mondes virtuels.
Cependant, l'infiltration progressive de l'informatique non
seulement dans toute la chaîne du projet architectural, mais dans
l'ensemble de son environnement quotidien, invite l'architecte – lui
aussi – à se reconfigurer. De plus, les intersections entre architecture
et informatique étant de plus en plus nombreuses, c'est l'ensemble du
processus architectural qui est en mutation. La première mise à jour à
effectuer, et qui est semble-t-il la plus pénible, est d’arriver à
considérer l’ordinateur non plus seulement comme un outil, mais également
comme un concepteur à part entière (Fillion, 1999, Annexe B). Déjà en
1995, Timothy Binkley (Annexe B) affirmait qu’avec les ordinateurs, « la
création se produit dans un monde hyperréel d'information numérique. Dans
ce monde, le dessin donne un peu la même sensation qu'avec le crayon et
le papier, mais cela peut se révéler très différent puisque l'ordinateur
peut interactivement manipuler les nombres, et cela de plusieurs façons
surprenantes ». Odille Fillion (1999, Annexe B) rappelle aussi que dans
d'autres disciplines comme la musique par exemple, l'ordinateur a fait
émerger depuis des années la notion de « sampling », de recyclage de
réadaptation. En matière d’art et d’écriture, l’introduction de données
aléatoires dans la réalisation d’une œuvre ou dans la construction d’un
texte, produisent d'étonnants résultats. Pour ne citer qu’un exemple, le
Centre interdisciplinaire de recherche sur l'esthétique numérique à
l’Université Paris VIII a élaboré des « générateurs littéraires » sous la
direction de Jean-Pierre Balpe (http://www.labart.univ-paris8.fr/).
En architecture, de nombreux architectes ont compris la puissance
créatrice des ordinateurs et le potentiel des univers virtuels : par
82
exemple Greg Lynn, Marcos Novak, le groupe MVRDV, Kas Oosterhuis, Ben Van
Berkel et le groupe UnStudio, parmi tant d’autres. Le travail en
Conception Assistée par Ordinateur va plus loin que les avantages que
l’on cite généralement tels que : automatisation des tâches de dessin,
possibilités de dessiner directement en trois dimensions, création d’un
modèle informatique réutilisable, détermination des paramètres de
production, augmentation de la productivité, analyses et simulations,
reconstitutions historiques, etc.
François Potonet, professeur à l’Ecole Spéciale d’Architecture et
spécialisé dans l’interactivité sur les processus de conception
multimédia, présente la CAO de la manière suivante :
« Les systèmes de CAO/DAO architecturale permettent par la multiplicité
des points de vue possibles, d’élaborer des espaces virtuels complexes
dans une nécessaire cohérence globale du projet. (…) Pour le concepteur,
les performances d’un système informatisé d’aide à la conception sont
déterminées par sa relation en tant qu’acteur du système avec l’espace de
représentation des données du projet. Autrement dit, le concepteur doit
élaborer ses stratégies personnelles de conception et de projection en se
définissant un espace individuel et technique de représentation
spécifique à sa démarche conceptuelle. La compréhension des processus
induits par ces systèmes, la maîtrise de ces techniques et l’élaboration
de stratégies pertinentes d’utilisation en fonction de la spécificité des
projets et de la pluridisciplinarité des approches sont des étapes
déterminantes pour le concepteur face à l’éclatement des pratiques
professionnelles de l’architecture. » (sans date, Annexe B)
Par ailleurs, la position d’Odille Fillion (1999, Annexe B)
lorsqu’elle dit que maîtriser l’ordinateur et ses techniques, « c’est
inévitablement dépasser les limites admises et réinventer un projet
professionnel » semble convaincante. L’ordinateur crée un nouveau type de
pratique architecturale, et plus encore, offre des perspectives de
méthodologie nouvelle dans l'étude et la conception de l'architecture.
Bernard Tschumi (cité par Fillion, 1999, Annexe B) suggérait à ses
confrères « de moins s’occuper de la technologie de la construction pour
se préoccuper plutôt de la construction de cette technologie ». Osons
nous déclarer architectes du virtuel !
83
2.3.2 < Réalité virtuelle >
La réalité virtuelle, comme l’interactivité n’est pas un concept
nouveau. Ses plus lointaines origines, dans le domaine informatique,
pourraient être retracées au moins dans un article de Ivan Sutherland en
1965, The Ultimate Display, dans lequel il ouvre la voie au défit
d’offrir une simulation de présence aux utilisateurs, par la métaphore
d’une interface à un monde numérique (Gobbetti et Scateni, 1998).
L’introduction dans le langage du terme générique « réalité
virtuelle » reste cependant associé à Jaron Lanier en 1986 (Heim, 1995),
et a, depuis lors, donné naissance par association conceptuelle à une
série de termes, tels que « environnement virtuel » ou encore « espace
virtuel ». Le terme original et ses dérivations, sont aujourd'hui
couramment employés dans la littérature scientifique (et populaire), mais
les définitions de chacun d'eux comportent souvent, d'un domaine
scientifique à l'autre, des nuances, parfois importantes. Les définitions
d’un même terme varient d’un domaine de recherche à un autre. Ceci n'a
d’ailleurs a priori rien d'étonnant; l'usage d'un mot pouvant changer en
fonction du contexte d'application. Ainsi la conception d'un
informaticien ou d'un mathématicien de la « réalité virtuelle », ne
correspondra pas totalement à celle d'un psychologue. Et un psychologue
des perceptions utilisant la « réalité virtuelle » dans ces expériences,
ne la définira pas de la même manière qu'un psychologue s'intéressant à
la collaboration par les « réalités virtuelles ». Il y a donc lieu de
préciser les acceptations de cette notion dans le cadre de cette étude.
Lanier (1988, Annexe B) a définit la « réalité virtuelle » comme
étant une réalité synthétisée partageable avec d'autres personnes, que
nous pouvons appréhender par nos sens, et avec laquelle nous pouvons
interagir, le tout par l'intermédiaire d'artefacts informatisés :
« We are speaking about a technology that uses computerised clothing to
synthesise shared reality. It recreates our relationship with the
physical world in a new plane, no more, no less. It doesn't affect the
subjective world; it doesn't have anything to do directly with what's
going on inside your brain. It only has to do with what your sense organs
perceive. »
84
Cette définition de la réalité virtuelle est de nos jours encore
quelque peu visionnaire, par les technologies qu'elle implique : la
réalité virtuelle « pure et dure », c’est-à-dire, par exemple, celle qui
utilise des casques de vision stéréoscopique, est encore aujourd'hui une
technologie enfermée dans les laboratoires. A l'heure actuelle, dans la
majorité des cas, des écrans d'ordinateurs et des souris remplacent les
habits informatisés de la définition de Lanier, et, vu leur prix encore
relativement élevé, c'est au sein de quelques groupes de recherche que
l'on trouve des Head Mount Display2 et des Data Gloves 3. En dehors de
telles technologies immersives avancées, on utilise d'autres interfaces
de communication afin d'agir sur des univers virtuels : la plus simple,
elle vient d’être citée, consiste en la manipulation d'un pointeur dans
l'espace, où l'interaction s'effectue par un système de boutons que l'on
active selon le principe du click de souris. Ceci est également possible
avec un joystick que l'on déplace dans un espace tridimensionnel en
rapport avec l'univers virtuel. On peut aussi utiliser une spaceball qui
est un outil très pratique pour la réalité virtuelle dite « de bureau »
(Desktop Virtual Reality), puisqu'il est fixe, et qu'il restitue le
mouvement dans l'univers virtuel en fonction de la force qui est
appliquée sur la boule. On parle de réalité virtuelle de bureau, pour
indiquer un univers virtuel qui ne propose pas une immersion totale,
c'est-à-dire que l’utilisateur interagit avec un écran sans être entouré
complètement par l’univers généré par l’ordinateur (NASEC, 1999, Annexe
B). Cette conception de la réalité virtuelle provient de Kalawski (1993),
qui fit remarquer que la réalité virtuelle était divisée d’une part par
l’activité de type immersive (celle qui sera qualifiée ici de « pure et
dure », et la réalité virtuelle dite « de bureau », basée sur le
développement de techniques de conception assistée par ordinateur.
De nombreux changements ont eu lieu depuis la distinction établie
par Kalawsky (1993) : d’autres développements, notamment la
visualisation scientifique, « touchent » à la réalité virtuelle, et
d’autre part, l’idée de présence et de participation vient s’encrer dans
la signification de cette expression. La réalité virtuelle se trouverait
donc à la croisée des chemins de plusieurs technologies, tirant partie
2 Casques munis de deux écrans miniatures placés tels les verres d'une lunette devant chacun des yeux, permettant notamment une vision stéréoscopique.
85
d'innovations de domaines jusque là distincts. Pour donner du sens à tout
cela, il semble plus important d’adopter une approche relativement
formelle, et d’identifier les composants de la réalité virtuelle, de
sorte que les changements rapides de la technologie puissent être compris
aisément. En effet, Benoît Kuhn (2001), rappelle, par exemple, un abus de
cette notion de « réalité virtuelle » : ainsi, au mois de mars 2001, il
était encore possible de lire dans une revue se disant spécialisée en
infographie que Jar Jar Binks, l’extraterrestre en vedette du dernier
film « Star Wars, Episode I » préposait un exemple du devenir des
avatars, supposant ainsi que tout film avec des effets numériques
constitue une réalité virtuelle. Philippe Quéau (1993, p. 14) quant à lui
définit la réalité virtuelle comme « une base de données graphiques
interactive, exploitable et visualisable en temps réel sous forme
d'images de synthèse tridimensionnelles, de façon à donner le sentiment
d'une immersion dans l'image. »
Le point de vue suivant sera donc adopté. La réalité virtuelle
rassemble trois domaines : l’environnement digital (derrière un écran ou
autour de l’utilisateur), l’utilisateur qui participe, d’une façon ou
d’une autre à ce type d’environnement et l’interactivité numérique.
L’environnement et l’utilisateur interagissent et au sein de
l’interactivité proposée, divers types d’interactions peuvent être
modélisées. Une caractéristique clé de la réalité virtuelle est
l'interactivité en temps réel, qui elle suppose connexion des deux
parties en présence; le monde virtuel crée répond aux actions de
l'utilisateur et vice-versa. L’interactivité permet la création en temps
réel de réalités virtuelles, de créer des espaces virtuels. Par sa
puissance d'attraction, ou ce que qualifierait McLuhan (1995) de ‘hot’ en
parlant d’un medium, elle peut contribuer à créer un sentiment
d'immersion pour l'utilisateur prenant part à une action qui se déroule
l'écran (Quéau, 1993); on parlera dès lors d’immersion – qui nécessite
parfois un investissement et un état d’esprit particulier de
l’utilisateur – , à distinguer de l’immersion totale de la réalité
virtuelle « pure et dure ».
3 Casques munis de deux écrans miniatures placés tels les verres d'une lunette devant chacun des yeux, permettant notamment une vision stéréoscopique.
86
Il semble donc important de souligner que la réalité virtuelle,
reste avant tout une construction mentale de l'observateur face aux
stimulations sensorielles qui lui sont fournies par les artefacts
technologiques. Benjamin Wolley (1992, cité par Dussault, 1997) disait
d’ailleurs à ce propos que la réalité virtuelle nous donne la liberté de
l’enfance, l’impression de pouvoir être ce que nous sommes sans
restriction grâce à notre imagination. En résumé, on pourrait dire que la
réalité virtuelle fait appel à l'intégration du trio « interactivité –
imagination – immersion ».
Un dernier point attirera notre attention au niveau de la < Réalité
Vituelle >. En effet, le réalisme sous-entendu dans l’expression
« réalité virtuelle » porte généralement à considérer la réalité
virtuelle comme une imitation ou un simulacre de la réalité physique,
l'accent étant mis sur une sorte de mimétisme de l'environnement physique
grâce aux technologies florissantes de la 3D. Les réalités virtuelles, si
elles se présentent souvent sous les traits d’artifices qui singent plus
ou moins bien une réalité première servant de modèle, ne peuvent être
réduites à cela. Tout d’abord, selon Gilles Deleuze (1969), dans sa
Logique du sens, un simulacre aurait le pouvoir de détruire les modèles
et constituerait une copie illégitime : un masque, par exemple, dont les
traits grimaçants sont bien réels, est un simulacre si l'on considère la
continuité du corps qui le porte et qui aboutit au visage qui se cache
derrière. Par ailleurs, la modélisation virtuelle d'une invention
technique non encore réalisée de façon matérielle n'a aucun répondant
réel; elle réalise plutôt des conceptions théoriques. Ce qui démarque
décisivement les réalités virtuelles du simulacre, c'est qu'elles
peuvent, entre autres, réaliser des possibles qui ne sont préalablement
donnés nulle part, à l’inverse de ce que prétend Kant au niveau de la
réalité.
Les réalités virtuelles ne sont pas des simulacres, et Jar Jar
Binks, s’il n’était pas confiné au sein de son film, pourrait très bien
faire partie d’une réalité virtuelle. Les techniques du virtuel, en plus
de nous plonger dans un univers numérique, nous permettent d’y agir, de
nous y déplacer, et de le travailler. De par cette simulation numérique
d'univers artificiels, l'image se voit libérée de la représentation et de
l'interprétation du réel. De cette façon l'espace de la création
87
iconographique se complexifie ou s'élargit en incorporant au réel et à
l'imaginaire la dimension du virtuel. Il n'est donc plus question alors
de représenter une apparence, mais de créer une sorte de réalité autre,
indépendante de l'espace et du temps réels, car elle ne se réfère pas
plus à un réel qu'à un temps originaires.
2.3.3 Réalité ∩ Potentiel ∩ Virtuel
L’aspect ici abordé concerne l’apparent paradoxe contenu dans
l’expression « réalité virtuelle » et qui se lie très solidement avec la
distinction potentiel/virtuel : en effet, bien que cette dernière bien
qu’elle insiste généralement sur une récente « matérialisation » d’un
espace jusqu’à présent invisible, elle constitue à première vue un non-
sens latent (latent comme le virtuel) qui s’explique par le galvaudage de
la notion de « virtualité ». Aussi il faut bien insister sur la
distinction qui est faite ici entre l’adjectif « virtuel », et le nom
masculin, « le virtuel ». Le Virtuel vient du latin virtus, qui signifie
force, impulsion initiale. La virtus n'est pas une illusion, elle bien
réelle : « elle est à la fois la cause initiale en vertu de laquelle
l'effet existe mais aussi ce par quoi la cause continue de rester
présente virtuellement dans l'effet. Le virtuel n'est donc ni irréel ou
potentiel : le virtuel est dans l'ordre du réel » (Quéau, 1993, Annexe
B). Philippe Quéau insiste d’ailleurs bien sur cette distinction entre
potentia (puissance) et virtus (force). En reprenant la conception
aristotélicienne de la potentia, c'est-à-dire l'aptitude à recevoir une
forme, Quéau démontre qu’à la différence du potentiel, le virtuel est
présent, d'une manière réelle et actuelle, même si elle est dissimulée ou
non évidente. Le potentiel n'est qu'en puissance, c’est-à-dire qu’il peut
être déterminé, tout comme il peut très bien ne l’être jamais. Le
virtuel, c’est la présence discrète de la cause : on pourrait ainsi dire
qu’une conclusion est virtuellement contenue dans un raisonnement, parce
qu'elle est causée par eux mais aussi parce qu'elle en est le
développement et l'aboutissement. Par contre, et par une subtile nuance,
cet auteur rappelle que les mondes virtuels, eux, sont bien des mondes en
puissance, potentiels, parce qu’ils doivent être réalisés, parce qu’ils
doivent être conçus « c'est-à-dire qu'on doit s'efforcer de mettre au
jour ce qui est virtuellement présent en eux, à savoir les modèles
88
intelligibles qui les structurent et les idées qui les animent ». Un
monde virtuel se définit par sa virtus, par l’adjectif virtuel, et donc
par sa potentialité. Presque dix ans plus tard, il confirme cette
affirmation, et par cela même, la position choisie pour cette étude :
« le virtuel est un état du réel, et non pas le contraire du réel (…) Ce
qui est virtuel dans le réel, ce sont les essences, les formes, les
causes cachées, les fins à venir » (2000, Annexe B).
Cette distinction entre potentia et virtus souligne bien, à notre
avis, une caractéristique des approches actuelles du « virtuel ». Ce
terme est, comme bien d’autres, devenu un fourre-tout de significations,
un mot valise déclinés sur tous les tons. Avec la crainte de ne pas
comprendre ce que sera « le monde de demain », nombreux sont ceux qui
l’utilisent comme qualificatif à tout ce qui est abstrait ou impalpable,
que cela implique de près ou de loin l’informatique. Cet « abreuvage »
fait penser au conte de Hans Christian Andersen, Les habits neufs de
l’empereur : tout le monde en parle, en donne sa version et rajoute « un
peu de sel ». Une telle banalisation du terme ne se fait pas sans
introduire la confusion au niveau de sa signification.
En évoquant le virtuel, Paul Virilio (1995) parle « d’accident du
réel », Pierre Lévy (qu’est-ce que le virtuel) évoque le surgissement de
nouveaux espaces s’enchevêtrant aux anciens, Serge Salat (1997) des
mondes multiples, Philippe Quéau (2000, Annexe B) parle de « cyber-
réalité »… et nombreux sont les auteurs que l’on pourrait encore citer.
En fait, c’est la notion même de réalité qui se trouve remise en cause,
et avec elle toutes les oppositions « binaires » qui ont structuré
jusqu'à présent la conception occidentale du monde. Il nous
appartiendrait alors de repenser ces dualismes de l'organique et de
l'inorganique, du naturel et de l'artificiel, du corps et de l'esprit, du
réel et de la fiction, du vrai et du faux, du proche et du lointain, de
la surface et de la profondeur, et de les repenser à la lumière de ce
« nouveau monde » où le possible peut devenir le réel, l'augmenter ou le
prolonger. Par ailleurs, nous l’avons vu au travers d’Aristote, de
Descartes et de Kant, la notion de « réalité » ne va pas de soi, ni même
celle d’espace; et remettre en question ces notions sort bien évidemment
du cadre de notre étude. Il est toutefois permis ici de s’apercevoir que
la technique est en passe d'excéder, de « transgresser » la frontière
89
imperméable entre ces catégories duelles invariantes, et par là de rendre
insuffisante la conception structuraliste du monde selon laquelle ce
dernier se constitue en fonction même de ces invariants. Cependant, une
nuance est à introduire : au sein de l’univers informatique, le
traitement numérique de l'information est essentiellement binaire, et en
ce sens, l’opposition [0, 1] est la forme la plus persistante et la plus
réelle du dualisme.
Comme le dit très justement Maurice Benayoun (1999, p. 101) « c’est
une piètre justification que de prendre la multiplicité des sens et la
confusion lexicale comme la manifestation de son essence ». C’est donc
dans cet esprit, et non pas dans le but de fournir une définition
académique, que sera précisée la conception du « virtuel », en attendant
que tout le monde se mette d’accord…
Tout d’abord, même ayant pris position quant à l’apparente
opposition impliquée par l’association des termes réel et virtuel,
l’expression « réalité virtuelle » sera autant que possible évitée, pour
utiliser « environnement virtuel » ou « mondes virtuels », qui paraissent
plus significatif lors de la lecture et qui permettent d’autre part de
distinguer une situation d’immersion totale (environnement virtuel) d’une
situation interactive en face d’un écran (monde virtuel), telle que
proposée dans le prototype informatique.
Aussi, en ce qui concerne le « virtuel » (et non l’adjectif
virtuel), la réflexion de John Beckmann (1998, p. 16), qui s’apparente à
celle de Philippe Quéau (1993 et 2000, Annexe B), s’accorde avec
l’acceptation sous laquelle il est utilisé dans ce travail : « le virtuel
(n. m.) existe en tant que force et non en tant qu’espace. Il opère et
agit dans un autre plan, dans une autre dimension ». Cela n’empêche pas
qu’il puisse prendre forme, mentale ou « graphique », mais cette prise de
forme implique un processus de représentation, étant donné qu’il s’agit
d’une abstraction. Tout comme la réalité dépend, dans une certaine
mesure, de la représentation que nous en avons, le phénomène est encore
plus vrai avec le virtuel (Quéau, 2000, Annexe B). Le cyberespace n’est
donc pas le virtuel, et le virtuel n’est pas le cyberespace : le
cyberespace est virtuel et potentiel et serait plutôt l’hallucination
consensuelle dont parle Gibson (1985), générée par cette force qu’est le
90
virtuel qui elle-même est véhiculée par l’informatique et ses
technologies. L’espace nous permet de traduire ce qui est abstrait :
notre langage est riche de métaphores et de terminologie spatiale;
parfois même, poser les questions spatialement débroussaille le chemin
vers une réponse (Anders, 1998). Un « monde virtuel », ou un
« environnement virtuel » sera relatif à cette force; il sera dit « en
puissance », tel que précédemment défini. Ainsi, un monde virtuel sera
une représentation « graphique » (2D ou 3D, comme par exemple les mondes
VRML, c’est-à-dire réalisés en Virtual Reality Modeling Language) et/ou
mentale (par exemple les MUDs, Multi Users Domains); cette représentation
virtuelle se distingue se distingue de la représentation écrite ou de la
représentation iconique par les nombreux traits abordés dans le point
précédent.
Dans le même ordre d’idées, tout monde ou environnement virtuel,
au-delà de son caractère potentiel au niveau conceptuel, intègre une
certaine « réalité numérique ». Une des qualités du numérique est sa
capacité à synthétiser le réel, c’est à dire qu’il peut (mais ne le fait
pas nécessairement) recréer l’intégralité d’un objet dans l’espace et
même son mouvement. Les objets numériques sont le résultat d’un processus
ou le calcul se substitue à la lumière, le traitement de l’information à
celui de la matière. A la logique de la représentation optique succède la
logique de la simulation numérique. A l’heure actuelle, il est possible
d’affirmer que par définition, l'informatisation, c'est la numérisation.
La seule façon de tirer un profit maximal des outils informatiques, c'est
de travailler avec des versions numérisées des objets à traiter. Aux
temps reculés des premiers ordinateurs, les seuls objets « réels » dignes
d'être numérisés par ces comptables électroniques étaient des nombres.
Mais à mesure que les machines se sont multipliées et que leur
polyvalence s'est accrue, la gamme des objets devant être numérisé de
façon rentable s'est étendue pour inclure les sons, les images, la voix,
l'écriture, la vidéo, la peinture, les imprimés. Cette « réalité
numérique » non seulement amplifie les qualités existantes attribuées
(par transfert de valeur) aux objets, mais elle en rajoute. Des qualités
ajoutées qui vont tôt ou tard, subtilement, redéfinir notre façon de voir
le monde, de penser, de choisir. Tout ceci parce que les objets qui
composent (et composeront) cette nouvelle réalité sont infiniment
malléables, et aussi infiniment reproductibles. C'est la manière avec
91
laquelle l'individu parvient à gérer ces nouvelles qualités qui détermine
éventuellement cette « réalité numérique », et poussant plus loin, qui
détermine le caractère potentiel des mondes virtuels.
2.4 Bref retour aux philosophes
Aristote. Le virtuel ne pourrait pas avoir une position précise et
définie dans l’espace, ce n’est donc pas un lieu. Philippe Quéau (2000,
Annexe B) dit à ce sujet que « le topos c’est le lieu où l’on est, le
lieu de notre position dans le monde (…) le virtuel n’est pas un topos
mais un tropos, il appartient à l’univers infini et langagier des tropes
et des métaphores ». Le Petit Robert (2000) défini un trope comme une
figure par laquelle un mot ou une expression sont détournés de leur sens
propre, une métaphore. Avec les mondes virtuels, on peut dire que les
tropes peuvent être les langages informatiques et la logique mathématique
qui régissent les mondes virtuels, les images de synthèse et les jeux
métonymiques. A cet égard, il convient de se reporter aux travaux de
Philippe Quéau sur une analyse comparative des différents types de jeux
(métaphoriques et métonymiques) en langages naturels et logico-
mathématiques.
Le virtuel sera donc considéré comme un trope, un système de
métaphores, alors qu’un monde virtuel, lui, peut être considéré comme un
lieu au sein du cyberespace. En revenant à l’élucidation de l’ « espace »
d’Aristote en tant qu’une unité, un tout, composé de multiples
contenants, il est possible d’adopter la position suivante en ce qui
concerne l’espace virtuel, cette position peut s’illustrer par la version
VRML de notre prototype informatique : l’espace virtuel, ou cyberespace
contient une multitude de lieux, ou mondes virtuels; dans le prototype
informatique, nous opérons au sein du cyberespace, et on pourrait
considérer que ce dernier contient un lieu parmi tant d’autres, le monde
virtuel construit par représentation spatiale de l’interactivité sur un
site Internet. Le monde virtuel du prototype peut quant à lui accueillir
d’autres lieux, d’autres sites.
Descartes. Descartes montre que l’on peut douter de tout, même de ce qui
paraît le plus probable en apparence. Pour cela, il feint de croire à
92
l’existence d’un « malin génie » qui fausserait nos pensées. A noter au
passage que l’hypothèse du « malin génie » de Descartes se retrouve dans
de nombreuses fictions actuelles, telles que le film The Matrix , dont
l’idée générale consiste à dire que le monde dans lequel nous vivons
n’est qu’une illusion, que nos expériences ne sont pas véridiques, que
les objets que nous appréhendons, et le monde en général, n’existent pas
réellement. Une fois de plus il est permis de se rendre compte que l’être
humain se pose les mêmes questions éternellement. Descartes avait déjà
mit en doute la réalité même du réel et au-delà de ça, il montre qu’ il
faut douter même de nos sensations les plus intimes, les moins niables.
Les mondes virtuels ouvrent des perspectives heuristiques sans précédent
et sont chargés d’une vive émotion. L’éclosion d’une population
électronique à travers les communautés virtuelles ne saurait démentir les
affirmations de Sherry Turkle (1995) qui souligne, dans son ouvrage Life
on the Screen, que les ordinateurs ne seraient pas les puissants objets
culturels qu'ils représentent désormais si leurs utilisateurs ne
tombaient pas amoureux de leurs machines et des idées qu'elles
produisent. La pensée de Descartes suscite alors une question, à laquelle
seul un élément de réponse sera ici fourni, étant donné qu’elle sort du
cadre de cette étude et qu’il est permis de douter de sa réponse : les
technologies du virtuel constitueraient-elles le « malin génie » de notre
époque ? Le débat est trop important pour être abordé ici, mais une seule
chose paraît certaine, et Jean-Claude Dussault (1997) confirmera la
position choisie, c’est qu’elles remettent en question la notion de
réalité.
Kant. Selon Kant, notre représentation naturelle de l’espace sert de
fondement à toutes nos intuitions extérieures : on ne peut jamais se
représenter l’absence d’espace. L’espace serait même le facteur
déclenchant qui permet de réunir les conditions nécessaires à
l’apparition des phénomènes, comme il est la condition subjective de
notre sensibilité. Il est la condition préalable de la relation du sujet
aux objets. Mais dans les mondes virtuels, l’espace est lui-même un
phénomène, quelque chose auquel on doit donner forme même titre que les
objets qu’il « contient », et en ce sens notre approche des mondes
virtuels s’éloigne quelque peu de Kant. Cependant, en ayant une vision
plus globale de sa philosophie, ce qu’affirme simplement Kant, c’est que
les sens humains n’ont accès aux choses qu’à travers l’espace et le
93
temps. En effet, sa Critique démontre que si toute expérience a lieu dans
l’espace et le temps, et si espace et temps n’appartiennent pas aux
choses, mais sont des conditions de notre expérience des choses, il
s’ensuit que nous ne connaissons toues les choses que nous rencontrons
dans l’expérience que telles qu’elles nous apparaissent et non telles
qu’elles sont. Nous connaissons donc les choses comme phénomènes, c'est-
à-dire telles qu’elles nous apparaissent. Nous ne connaissons que des
apparences. Pour Kant, l’apparence, le phénomène est quelque chose de
tout à fait réel, mais il n’est pas, il est vrai, la chose telle qu’elle
est en soi, indépendamment de notre perception. Le monde, tel qu’il
s’offre à nous, est un monde de phénomènes, non un monde de choses en
soi. Le phénomène est donc la manifestation pour nous de la chose en soi,
la représentation que nous en avons selon les formes de notre intuition.
L’espace et les représentations de l’espace sont bel et bien subjectives,
mais n’en restent pas moins réels : ce n’est pas l’individu qui crée
l’espace, il lui est imposé par sa nature humaine, et c’est encore moins
lui qui invente les représentations, qui ne sont que des émanation des
choses en soi. Que l’inspiration et la foi de Kant en les sciences de son
époque ne soit plus d’actualité ne change pas grand chose à la
problématique qu’il soulève : l’être humain voit, touche, saisit le monde
qui l’entoure selon un espace qui lui est propre, et non lié aux courbes
de Riemann par exemple. Le kantisme est réfutable, mais il semble
pourtant que la sensibilité humaine soit liée à un espace, et à un temps,
déterminés par sa nature humaine.
Il s’agit là d’un point sur lequel cette étude entrera en accord :
au sein du prototype informatique proposé, par exemple, et plus
généralement face à un univers virtuel, le monde est un monde propre à
chaque individu, selon les structures qui lui permette de déchiffrer et
de décoder l’espace. Seul face à un écran, lui seul est à même
d’embrasser cet univers et de le comprendre. Par ailleurs, l’introduction
des systèmes d’opérations est venue masquer le fonctionnement et la
structure interne de l’ordinateur, et derrière les interfaces se cache
une multitude de lignes de code, auxquelles l’utilisateur n’a bien
souvent pas accès : s’agirait-il des « choses en soi » informatiques ?
Tout ce qui est déterminé avec certitude, c’est la façon dont les choses
sont pour lui; ce que Kant les appelle des « phénomènes ». Serait-il
excessif d’étendre ainsi la conception de Kant à l’univers informatique ?
94
2.5 Interactivité, spatialisation, énaction
2.5.1 L’espace-information
Le concept de « matrice » introduit par Gibson (1985) et
abondamment utilisé de nos jours se réfère à une abstraction des réseaux,
qu'ils appartiennent à l'univers technologique comme Internet, ou à
l'univers urbain. D’après Paul Virilio (1996), ces réseaux ne sont rien
de plus que I'aménagement du temps réel et du temps de l'interactivité.
Comme dans la « matrice » où la notion d'espace et celle de réseau ne
font qu'un, Internet peut se définir comme un support permettant la
transmission de tout « espace-information ». Dans toute l'approche
systémique, l'information et les réseaux d'informations jouent un rôle
privilégié : un système peut être constitué de sous-systèmes, éléments
qui interagissent avec d'autres éléments pour accomplir un but, pour
produire une sortie qui est une entrée pour un autre système ou sous-
système. Ces échanges entre sous-systèmes peuvent être de l'information,
de l'énergie et de la matière. Par ailleurs, certaines hypothèse de la
physique théorique récente posent en effet l'univers non plus comme
composé des seules matière et énergie mais comme d'emblée pétrit de
matière, d'énergie et d'information. Ainsi, Tom Stonier (1992) affirme
que l'information constitue une propriété fondamentale de l'univers et
non un simple moyen de nommer et de traiter cognitivement ses parties. De
là, il devient assez aisé d'étendre le débat consacré aux impacts de
l'Internet sur les notions de temps et d'espace à un domaine conceptuel
plus vaste qui intègre l'idée selon laquelle l'information façonne toute
définition possible de l'univers au même titre que l'espace et le temps.
Le Petit Robert (2000) définit la spatialisation comme l’action de
spatialiser, ou le fait d’être spatialisé, spatialiser correspondant à
donner à quelque chose les caractères de l’espace. La spatialité quant à
elle se définit comme le caractère de ce qui est spatial. Nous verrons
que tout comme Internet ou les univers virtuels induisent une certaine
spatialité, il est également possible de spatialiser l’interactivité
numérique, c’est-à-dire donner les caractères d’un espace à ce processus
en le modélisant.
95
2.5.2 Topographies virtuelles
Selon Mark Nunes (1999, Annexe B), la représentation que nous avons
d’Internet nous appelle à envisager la communication médiatisée par
ordinateur en terme d’espace et cette spatialité s’inscrit directement à
l’intérieur du médium. Rob Shields (2001, Annexe B) indique d’ailleurs
que cette spatialité inscrite dans un médium n’est pas nouvelle, le
téléphone par exemple a depuis longtemps cette prétention à la
spatialité. Selon lui, la différence en ce qui concerne Internet réside
dans la spatialisation de la communication au sein même d’un
environnement à variables multiples par rapport à une ligne bipolaire
d’échange, à quoi vient s’ajouter l’aspect visuel et le sentiment de
présence. Il est donc permis de dire que l’interactivité numérique
participe directement de cette spatialité.
Mark Nunes d’autre part ajoute qu’une topographie très pertinente
s’installe lorsqu’on parle de métaphores spatiales. Ces métaphores ne se
limitent pas à qualifier l’espace, mais qu’elles créent l’espace et
confèrent au cyberespace une substance au travers de topographies
virtuelles, expressions performatives qui projettent et créent
simultanément un espace. Cet auteur rejoint ainsi d’une double manière
notre conception du topos et du tropos virtuels.
Par ailleurs, l’exemple qu’il cite au sujet de la campagne de
Microsoft en 1995 « Where do you want to go Today » , les expressions
« autoroutes de l’information », ou encore « surfer sur le net » amène à
une autre réflexion. En effet, le langage utilisé pour qualifier
l’interaction avec un univers virtuel permet de proposer l’interactivité
comme une expérience concrète de l'espace électronique.
Dans un processus de communication, l’interactivité proposée
conditionnent les modes d'échange et d'accès à l'information et génère
des relations fondées sur le principe qu'à une action correspond une
réaction. Philippe Quéau (2000, Annexe B) souligne d’ailleurs à ce propos
que c’est ce principe d’action qui distingue le virtuel des
représentations non numériques. L'introduction de la topographie dans un
processus interactif nous permet non seulement de qualifier les
différentes structures d'information, mais aussi de décrire certaines
96
implications spatiales. En effet, cela a déjà été dit, il est souvent
plus facile de se représenter un problème spatialement pour arriver à la
solution : l’exemple le plus simple est celui d’une personne qui doit
retrouver une adresse avec quelques indications qualitatives telles que à
gauche, près de, à côté de, à droite. En situation interactive, c’est le
même problème qui se pose : l’utilisateur doit s’orienter pour arriver à
trouver ce qu’il cherche, et il se construit ainsi graduellement une
carte mentale d'actions et d'orientations qui dans le cas du cyberespace,
se rapportent à des expériences et ambiances en temps réel. Aussi, les
cartes du site que l’on retrouve sur les sites web ont pour vocation
l’aide à la navigation, elles aident l’utilisateur à se situer et à
comprendre la structuration de l’information (Eick, 2001). Les
expressions « naviguer » ou « surfer sur le net » décrivent cette
nécessité d’utiliser l’espace en tant qu’outil de gestion des
informations, des pensées et de la mémoire. Selon Peter Anders (1998)
créer des liens d’un objet à un autre forme dans notre esprit l’espace
qui les contient. Cette assertion représente parfaitement un des
objectifs du prototype informatique : c’est par son interactivité avec le
prototype informatique, par la création de liens d’un information à une
autre, l’utilisateur crée véritablement l’espace qui contient
l’information. La spatialité liée à la notion d’interactivité numérique
est un phénomène que nous ressentons, mais qui n’a pas de forme ou de
représentation précise. Le prototype complétant ce mémoire offre un moyen
de visualiser l’interactivité, et au-delà, de l’expérimenter sous forme
d’un espace, exacerbant ainsi le caractère spatial, la spatialité de
l’interactivité numérique.
Dans le même ordre d’idées, l’hypertexte, qui est à la base de
l’interactivité numérique, peut être considéré, d’après la définition de
Pierre Lévy (1990) du connexionnisme, comme un ensemble de noeuds
connectés par des liens. Les noeuds peuvent être des mots, des pages, des
images, des graphiques, des séquences sonores, etc. Naviguer dans un
hypertexte, c'est donc dessiner un parcours dans un réseau qui peut être
aussi complexe que possible, car chaque noeud peut contenir à son tour
tout un réseau.
La « cartographie » de l’espace numérique est d’ailleurs devenue un
domaine de recherche novateur, touchant en grande partie les architectes,
97
et qui s’articule autour de la visualisation et de la conceptualisation
des données et des réseaux d'information comme fondements de nouvelles
compréhensions de l'espace. L'évidence que les concepts d'espace mental
et de cyberespace sont directement liés, et d’autre part l’inspiration de
modèles architecturaux et urbains souvent utilisée pour décrire
l'organisation du cyberespace démontrent l'utilité de l'introduction des
nouvelles technologies dans la pratique et la conception de
l'architecture.
Parallèlement à cela, un autre axe de recherche, la visualisation
de l’activité de l’utilisateur en ligne, est en pleine expansion. Stephen
G. Eick (2001) explique à ce sujet que le principal problème pour les
développeurs de visualisation de l’information est le manque de
représentation physique et naturelle de cette dernière, vu que les
données sont par nature non spatiales. Dans le cas le plus classique, les
concepteurs d’interfaces sont confrontés à la représentation de la
structure d’un espace d’information, comme c’est le cas pour un site web,
et plus encore, dans notre prototype informatique. Le défit consiste à
trouver des métaphores pour présenter l’information et à développer des
manières de manipuler ces métaphores afin de donner du sens à
l’information (Eick, 2001).
Cette étude a également été confrontée au défit dont parle Stephen
G. Eick, et particulièrement dans la présentation des informations et le
mode d’accès à ces informations. La représentation de l’interactivité se
fait par la métaphore classique de l’hypertexte, les nœuds et les liens,
telle que présentée par Pierre Lévy. Cette dernière manipule en effet des
représentations du réseau que la plupart des gens connaissent et
auxquelles ils sont habitués. Nous verrons également dans les deux
derniers chapitres quels sont les intérêts d’une telle mise en œuvre.
2.5.3 Précédents en matière de topographies virtuelles, cartographie de réseau et étude de l’interactivité numérique
Tout ce qui a été jusqu’à présent s’est efforcé de le démontrer :
l’interactivité numérique est la composante essentielle des univers
virtuels, et d’après la définition donnée aux réalités virtuelles, et aux
mondes virtuels, sans interactivité, il n’est même pas question de parler
98
en ces termes. Dans cette section seront présentés divers travaux,
accessible sur le Web, permettant de bien se rendre compte des enjeux de
l’interactivité numérique , de la représentation graphique ou spatiale et
de l’utilité d’une préoccupation à ce niveau. Nombreux sont les créations
méritant une attention particulière, mais il a été choisi de présenter
ici une sélection de ceux se rapprochant le plus du prototype et d’y
référer par leur adresse électronique. Malgré la nature – obligée – du
support sur lequel ce mémoire est présenté, et par ailleurs, l’expérience
valant mieux qu’une description résumée, le lecteur est invité à
découvrir ces sites web dont le thème tourne autour de la visualisation
et de la conceptualisation des espaces de données, par l’intermédiaire de
l’interactivité numérique. Comme les flux et la gestion de l'information
constituent souvent dans ces exemples les paramètres générateurs d'un
modèle graphique et/ou spatial, ils se rapprochent d’une façon certaine
du prototype informatique. Par ailleurs, du plus généraliste au plus
expérimental, ces sites proposent chacun une navigation et une réflexion
particulière, qui permet de découvrir les multiples niveaux du
cyberespace.
Conversation Map (Warren Sack :
http://www.media.mit.edu/~wsack/CM/index.html)
Conçu et implémenté par Warren Sack au célèbre Media Lab du MIT, ce
programme génère la carte d'une conversation dans un « chat-space » ou
forum de discussion. Les échanges de la conversation sont indexés selon
quatre critères : les relations entre les personnes, l'importance des
thèmes dans la conversation, les relations entre les thèmes abordés, et
la chronologique. Quatre visualisations interactives présentent ainsi une
recherche orientée sur l'optimisation de la communication dans des
conversations « many to many » telles que proposées actuellement par les
forums de discussion : ce programme permet d'identifier les intérêts et
les associations d’individus, d’analyser le contenu et la relation entre
les messages et utilise les résultats de ces analyses pour créer une
interface graphique avec laquelle un participant peut s’apercevoir des
relations sémantiques et sociales qui ont émergé de la discussion. Cet
exemple se rapproche d’une certaine façon du prototype : ce dernier
permet en effet d’avoir une représentation des échanges d’un individu
avec la machine, mais bien évidemment, il n’est pas sophistiqué au point
99
de pouvoir générer une interprétation sémantique ou cognitive de façon
automatique.
Trace (http://caad.arch.ethz.ch/trace/index.html)
Le projet Trace est un exemple des travaux sur l'espace d'information
entrepris par les étudiants de l'ETH (Institut fédéral de technologie) de
Zürich. Les différentes images présentées sur le site sont tirées d'un
univers d'information navigable développé par Florian Wenz et Fabio
Gramazio. Ce projet montre bien que les métaphores utilisées dans la
représentation d’un espace numérique peuvent être très diverses.
Visual Design Studio - ETH Zürich (http://space.arch.ethz.ch:8080/VDS_98)
Dans la même lignée que l’exemple précédent, le laboratoire
« Architecture and CAAD » de la faculté d’architecture à l'université
technique de Zürich utilise un navigateur illustrant d'une manière
explicite les différentes visualisations des interactions lors d’un
projet de conception par collaboration : une visualisation sous forme de
texte (out index), schéma bidimensionnel (out map), organigramme
tridimensionnel ou une forme d'espace (out world). La transformation en
temps réel de ces visualisations selon un paramétrage effectué par
l'utilisateur rend interactive la structuration et la spatialisation de
cette banque de données regroupant les résultats du studio de conception
par collaboration. Cet exemple donne une idée de ce que pourrait être une
application future et plus élaborée du prototype de cette étude.
Trans-Ports 2001 (http://www.trans-ports.com/)
Trans-ports est le résultat d’un projet du bureau d’architectes
néerlandais Oosterhuis Associates. Il s’agit d’un espace généré en temps
réel par des données, ce dernier changeant de forme et de contenu au fur
et à mesure des interactions. L'utilisateur de trans-ports influence
l'espace simulé en consultant des pages Internet. Le prototype
informatique de notre étude propose la même chose, sous une forme
différente. Seul désavantage : le plug-in « Nemo » est nécessaire.
Visualroute (http://visualroute.com/support.html)
Ce programme à télécharger et à installer, permet de visualiser sur une
carte mondiale, la trajectoire effectuée lors de l'activation d'une
adresse Internet. Cet outil qui permet d'identifier chaque relais et de
100
connaître l'adresse physique de chaque serveur rend immédiate la
compréhension de l'espace des réseaux. Ici, il s’agit d’une façon tout à
fait différente de représenter la localisation dans un espace numérique.
Il semble très intéressant de par son rapprochement à la « réalité » avec
l’emploi d’adresses géographiques.
Chacun de ses exemples présentent une façon différente d’aborder
les « topographies virtuelles », et pour des objectifs différents. Les
résultats obtenus « tournent autour » du même mode de représentation.
Aussi, les outils utilisés sont également divers et les résultats se
valent les uns autant que les autres. Les moyens mis en œuvre et les
connaissances au niveau de la programmation sont, dans ces exemples, bien
évidemment d’un autre registre que notre petite recherche, mais le
domaine d’étude de la représentation et de la visualisation de
l’information est en pleine expansion, et les outils qui sont amenés à
être mis au point ne peuvent que renforcer l’enthousiasme à ce niveau.
2.5.4 Enaction et représentation de l’interactivité numérique
Une représentation, quelle que soit sa nature ou son support, sa
« réalité » ou sa « virtualité », s’élabore à partir d’éléments
constitutifs clairement définis et nécessite un ensemble de symboles,
ainsi qu’un langage pour ordonner ces symboles et leur permettre
d’acquérir une signification. En tant qu’outil manipulant des symboles et
reliant ceux-ci entre eux, l'interactivité numérique peut être également
étudiée sous un angle cognitif.
Aux premiers balbutiements de ce mémoire, le désir, bien ambitieux
avec du recul, se situait en l’examen des processus cognitifs ayant cours
lors de situations interactives. Dans l’approche systémique adoptée, un
tel travail aurait nécessité, par exemple, la simulation d’un prototype
informatique et l’examen de résultats obtenus sur un certains nombre
d’utilisateurs. L’ampleur des théories cognitives aidant, cette
entreprise dépassait largement le cadre d’une maîtrise. Examiner le
résultat de ces processus cognitifs plutôt que les processus eux-mêmes
paraissait dès lors plus approprié, et, sans renier l’existence d’un
101
« tronc commun » de processus cognitifs pour tous les individus en
situation d’interactivité numérique, la théorie de l’énaction de
Francisco Varela est venue renforcer une conviction profonde, fort
probablement liée à la formation d’architecte reçue : finalement, en bout
de course, la représentation que l’on se fait d’une chose, la perception
que l’on en a, est relative et propre à chaque individu.
La notion d’énaction sera ici clarifiée; ensuite il sera montré de
quelle façon le concept d’énaction peut être adapté et appliqué à
l’interactivité numérique.
Varela définit le sens commun comme la somme infinie des
connaissances élémentaires nécessaires à la moindre action cognitive
déployée dans un environnement ouvert (Varela, Rosch, Thompson,
1993). Pour Varela (1993), l’approche cognitiviste basée sur la
représentation d’un monde extérieur prédéfini ne permet pas de rendre
compte du sens commun, et la cognition ne doit plus fonctionner en
référence à un monde extérieur préexistant. L’auteur remet en cause la
réalité même de ce monde, cependant il ne nie pas le monde extérieur en
annonçant que le sujet est le créateur de son propre monde : il établit
une voie moyenne entre ces deux extrémités. Ainsi, pour Varela, la
cognition, qu’il définit comme un acte, un mouvement, devient inséparable
de sa propre histoire et de sa propre évolution. Dans la mesure où le
monde ne peut être considéré objectivement, d’un point de vue extérieur
au sujet, Varela l’envisage comme créé à chaque instant par l’individu.
Et, par un effet de feed-back, ce monde créé vient, en retour, imprégner
l’acte cognitif. La cognition et le monde perçu deviennent donc
indissociables, et c’est ce couplage qui fait émerger la signification.
Pour désigner ce phénomène, Varela utilise le verbe « énacter » ou
« faire-émerger ». Il insiste sur le caractère dynamique du rapport entre
cognition et monde créé. C’est pourquoi il utilise des verbes qui
induisent l’action, le « faire ».
L’auteur illustre notamment son propos par l’exemple de la couleur,
la vision humaine étant biologiquement organisée pour traiter trois
couleurs primaires, alors que certaines espèces d’oiseaux en traitent
quatre ou cinq (Varela, 1989 et 1996). On voit bien, ici, que chacune de
ces espèces utilise des mécanismes perceptifs radicalement différents.
102
Cela tend à prouver que plusieurs réponses sont effectivement possibles
sans qu’il n’y ait de réponse « mieux adaptée » ou « plus pertinente » au
problème de la vision des couleurs. Nous sommes simplement en présence de
plusieurs systèmes perceptifs, d’univers radicalement différents et
incapables de rendre compte les uns des autres : ces deux espèces ne
partagent donc pas véritablement le même monde. Etendant cela à
l’intérieur même de la vision humaine des couleurs, il est permis de dire
les habitudes culturelles modifient parfois assez sensiblement les
perceptions que nous en avons.
En réalité, « l’organisme donne forme à son environnement en même temps
qu’il est façonné par lui » (Varela, 1993, p. 236). Il y a là ce que
l’auteur appelle un couplage structurel, dont l’historique varie d’une
espèce à l’autre, et d’un individu à l’autre.
L’énaction se définit donc comme le « faire-émerger » d’un monde
commun, elle vise à souligner la dynamique du processus cognitif, dans un
monde considéré au niveau phénoménal : c'est de l’activité dans un monde
qu’émerge le sens de ce monde et des choses. Q’un individu soit à même de
se débrouiller dans un monde malgré le fait qu'il ne possède pas une
représentation préalable de ce monde et que ce monde, son monde émerge
avec ses actions, définit un monde énacté (Varela, 1996).
Affirmer cela au niveau des mondes virtuels au-delà d’un écran peut
paraître débordant du cadre de l’énaction, puisqu’elle fait intervenir
l’environnement, et ce, de manière active. Dans le paradigme proposé par
l’énaction, l’individu et le monde qu’il vit forment un ensemble cohérent
où l’un et l’autre se définissent mutuellement. De la sorte devient
indissociable du monde qu’il a énacté. Comment pouvons-nous interpréter,
alors, cet ensemble par rapport au présent propos ?
La problématique qui s’installe face aux univers virtuels, et qui
bouscule tant nos perceptions, est celle de la nature physique de notre
corps d’une part et de ces univers d’autre part. Comment notre corps,
bien « matériel », peut-il, par l’interactivité, prendre contact avec
cette autre dimension ? En effet, la cognition a un caractère incarné :
le corps doté de son arsenal perceptif revêt une importance primordiale
dans notre rapport au monde. Notre confrontation avec les mondes virtuels
implique inévitablement une relecture de ce problème. Alors que, d’une
103
certaine façon, notre « matérialité » fonde notre être et l’établit dans
le monde ici et maintenant, c’est l’immatérialité qui permet aux objets
informatiques d’accéder à l’existence, de passer de l’essence numérique à
l’ « existence » artificielle. Il y a là une analogie que Philippe Quéau
(1993) n’a de nouveau pas manqué de relever.
C’est ici que la célèbre phrase de Marshall McLuhan « The medium is
the message » soutiendra nos hypothèses. Référer à cette phrase équivaut
à renvoyer aux différentes manières par lesquelles les êtres humains se
prolongent. Selon McLuhan (1995 et 1977), une extension ou prolongation
de notre être apparaît lorsqu’un individu ou une société fait usage d’une
chose de sorte que son champ d’action soit élargi et que le résultat de
cette action soit plus efficace. Ainsi, en caricaturant, l’automobile
pourrait être considérée comme une extension du pied. En réalité, McLuhan
fait de toute technologie correspondant à la définition d’une extension
un élément prolongateur de nous-mêmes, partie intégrante de notre
appareil sensitif qui exerce un impact sur nos modes de communication,
sur notre perception, sur notre façon de penser et surtout de construire
cognitivement notre environnement. Les nouvelles technologies conçoivent
en permanence des extensions de notre corps, de nos fonctions, de sorte
que nous en arrivons à percevoir le monde à travers les technologies.
McLuhan part ainsi du constat que ce sont les outils, les interfaces qui
déterminent notre perception, conception et pratique de l'espace.
L'interface, extension de notre corps au sein des représentations
numériques, met en place un système relationnel dans lequel le
cyberespace prend la forme d'un espace expérimental, autant à travers des
processus mentaux, qu'à travers l'interaction directe avec l'information.
De cette manière, l’environnement dont parle Varela, serait autant
constitué par la « sphère opératoire » de l’individu – l’espace temps où
se déploient ses actions sur les objets au travers du média – que par
l’univers virtuel, ou « sphère symbolique » en tant que lieu de
représentation, d’organisation de symboles. L'énaction se comprend alors
comme le fait de « faire émerger » la signification en mettant en
relation des actions et des rétroactions. L'interactivité numérique, au
travers d’un langage basé sur des processus cognitifs, implique ainsi une
expérience du monde virtuel basée sur des principes d'énaction : chaque
individu « fait émerger » sa propre perception des choses. Rejoignant
104
Varela, la conception choisie consiste à dire qu’un monde perçu n’est pas
indépendant de celui qui le perçoit, qu’il s’agisse d’un monde
« concret », ou d’un monde « virtuel ».
De plus, ainsi que le souligne Francisco Varela (1989), « l’idée
fondamentale est (...) que les facultés cognitives sont inextricablement
liées à l’historique de ce qui est vécu, de la même manière qu’un sentier
au préalable inexistant apparaît en marchant » (p.111). Ce sentier qui
apparaît en marchant, en interagissant dans notre cas, est
tridimensionnel et même quadridimensionnel, sinon multidimensionnel. Et
c’est ainsi que prenant au pied de la lettre la notion d’énaction, le
« faire émerger », le prototype informatique proposé va encore plus
loin : il s’agit maintenant non seulement de « faire émerger » la
signification du monde virtuel, mais, au-delà, de « faire émerger »
l’espace lui-même, un espace qui sera énacté par les actions de
l’utilisateur. Ainsi, au sein du prototype, l’individu interagit avec un
espace et le modifie via l’outil informatique; il élabore par ses
actions, par association d’idées, par fonction chronologique ou par tout
autre argument de son choix, un espace qui lui est propre, par ses
énactions. Au terme de son processus interactif, ce dernier fait émerger
des multiples combinatoires disponibles, des divers chemins qu’il peut
parcourir, un seul d’entre eux, qui n’est pas forcément la réponse au
problème du commis voyageur (là n’est pas le but !).
De l’interactivité numérique, propre à chaque individu, ressort une
représentation (signification) que l’utilisateur fait émerger, qu’il se
crée mentalement, mais également une représentation numérique qui elle
aussi est énactée, que l’utilisateur s’est créée, si l’on accepte
l’interprétation quelque peu extrême qui a été donnée à cette notion. Le
principe de départ fût en effet que si un processus interactif est
différent pour chaque utilisateur, la représentation qui peut en être
faite doit également répondre à cette affirmation, même si la
programmation d’une interface nécessite une prédéfinition à de nombreux
niveaux.
105
Chapitre 3 : Précédents et outils choisis
Introduction aux chapitres 3 et 4
Les chapitres 3 et 4 décriront de façon détaillée le prototype
informatique complétant cette étude et les outils utilisés aux fins de
son élaboration. Il faut d’ailleurs souligner que le prototype
informatique fait partie intégrante du mémoire : en effet, selon la
démarche qui a été choisie, l’un ne peut s’envisager sans l’autre. Le
mémoire rend compte dans son développement tant de questions théoriques
que de leurs rapports avec le prototype informatique; le prototype, en
étant la démonstration pratique des concepts théoriques exposés dans la
partie écrite, vient appuyer les hypothèses.
Le prototype informatique comporte deux parties complémentaires,
l’une réalisée en HTML et l’autre en VRML. Le tout est intégré à un site
web francophone d’informations au niveau de la conservation et de la mise
en valeur du patrimoine architectural du 20ième siècle. Le chapitre 4
explicitera davantage les raisons d’être de ces deux composantes. En
résumé, la version HTML du prototype tente d’exploiter la manipulation
d’informations 2D dans la construction et la représentation 2D de
l’interactivité de l’utilisateur, alors que la version VRML explore cette
représentation en 3D par manipulation d’informations 3D. Mais au-delà de
cela, l’objectif principal de ce prototype est d’offrir à l’utilisateur
une représentation en temps réel de son interactivité dans le site, en
parallèle au défi d’une interface en trois dimensions.
L’ensemble du prototype a été conçu sur base de quatre formats de
fichiers, reposant tous sur une structure ASCII. Cette caractéristique
est un avantage certain, étant donné qu’il ne nécessite aucune
compilation, et d’autre part que la source reste ouverte et accessible à
tout le monde. Dans le présent cas, le prototype est voué à une
utilisation et des changements ultérieurs par d’autre personnes. Les
fichiers ASCII sont adaptables aisément, nonobstant une connaissance
minimum des langages en question. Ces derniers, pour cette étude, sont le
VRML (Virtual Reality Modeling Language), le HTML (Hyper Text Markup
Language), et le Javascript. Le SVG (Scalable Vector Graphics) a
106
également été utilisé dans la création de la « carte interactive », de la
version 2D du prototype. Il s’agit d’un format de fichier basé sur le
langage XML (Extensible Markup Language), lui-même fort similaire au
HTML, mais, comme son nom l’indique, bien plus puissant.
Le chapitre 3 présente les différents langages utilisés dans
l’élaboration du prototype (VRML, HTML et JavaScript ainsi que SVG), leur
fonctionnement global, leurs avantages et leurs inconvénients. Le
quatrième chapitre est entièrement consacré à une description détaillée
du prototype lui-même et à son évaluation selon les critères abordés dans
le premier chapitre du mémoire (sections 1.4.2 et 1.4.3). Le
fonctionnement de l’ensemble, les choix et difficultés rencontrés y
seront aussi présentés. Certaines conclusions seront tirées et enfin, pas
ultime de ce mémoire, il s’agira d’établir un bilan général du travail et
de lancer quelques pistes quant à un travail futur.
107
3.1 VRML
Le langage VRML (Virtual Reality Modeling Language) est le langage
utilisé dans la creation de la version 3D du prototype informatique.
Cette section définira ce langage et présentera en brièvement
l’histoire : il semble en effet important de comprendre d’où viennent les
notions qui sont les bases de ce travail et qui sont à l’origine des
évolutions technologiques telles que le X3D (qui sera vu plus loin).
Ensuite, les concepts de bases du langage, c’est-à-dire son
fonctionnement général, seront abordés, afin de permettre au lecteur de
se rendre compte quelles sont les possibilités offertes par le langage et
quelles sont les difficultés qui peuvent être rencontrées dans le cadre
de la conception d’une interface personne-machine. D’autre part, le
langage lui-même comporte un certain nombre de fonctionnalités
« intrinsèques », qui, parfois doivent être complétées par l’usage de
scripts, et il paraît nécessaire de les exposer. Aussi, le graphe de
scène est une des caractéristiques principales du VRML, et le troisième
point de cette section apportera un bref aperçu de sa constitution.
Enfin, les forces et faiblesses du langage seront identifiées dans le
quatrième et dernier point de cette rubrique.
3.1.1 Définition et bref historique
Le VRML (Virtual Reality Modeling Language) est un format de
fichier destiné à décrire des objets et mondes 3D interactifs. Il a été
conçu pour être utilisé sur Internet, dans des réseaux locaux et sur des
systèmes clients locaux. Le VRML se veut être un format d’échange pour la
3D et le multimédia : il n’est pas un langage de programmation; il décrit
des scènes 3D interactives (W3C, 1997, Annexe B).
Le VRML est issu de l'esprit de Mark Pesce et Tony Parisi
principalement. Pesce et Parisi voulait trouver un moyen de créer en 3D
sur le World Wide Web. Ils firent leur première démonstration à la
conférence du World Wide Web en 1994. Après cette conférence, Brian
Behlendorf (d'Organic Online et de la revue Wired) et Mark Pesce mirent
en place une liste d'adresses e-mail et un forum de discussion au sujet
du VRML. La communauté s'est alors développée, et on commença à parler de
108
la mise en place des caractéristiques du VRML 1.0. Le but de ce forum
était de concevoir les spécifications du VRML, un langage indépendant des
plates-formes en liaison avec le World Wide Web. Faire évoluer un format
existant pour rendre possible son utilisation sur l'Internet semblait
être une bonne solution et le choix se porta rapidement sur le format
ASCII de Open Inventor, boîte à outils développée par Silicon Graphics
permettant de créer des applications graphiques 3D (Hamelin, 2001, Annexe
B).
Après des remaniements, c'est en Juin 1995 que fût définie la
version finale du VRML 1.0. La société Silicon Graphics contribua à
porter les spécifications VRML 1.0 dans le domaine public et en août
1995, le VRML Architecture Group (VAG) prit en charge les destinées de
VRML, en liaison avec le forum VRML. Le VRML a cette particularité d'être
l'unique langage à l’époque créé par des utilisateurs et pour les
utilisateurs. Cependant, les limites du langage se sont rapidement fait
sentir et la volonté était de créer un langage plus souple et plus
complet , accessible à des non-programmeurs, permettant des interactions
avec divers formats de documents, constituant un standard ouvert et libre
de droits, et incluant des comportements permettant des animations
complexes d'objets : VRML 2.0. Les spécifications définitives du VRML 2.0
furent publiées en août 1996, et début 97, le VAG (VRML Architecture
Group) devint le VRML Consortium. Les dernières spécifications du VRML
2.0 ont fait l'objet d'une procédure de normalisation ISO en décembre
1997, ce qui a valu au VRML son appellation actuelle (VRML 97). Le VRML
Consortium est aujourd’hui devenu le WEB3D Consortium, pour évoquer les
évolutions de VRML et l’émergence de nouvelles techniques pour la 3D sur
le web (Hamelin, 2001, Annexe B).
Les développements du VRML se poursuivent encore mais son avenir
est à l’heure actuelle incertain. Malgré les prototypes [PROTO](qui
permettent d'ajouter de nouveaux types de d’éléments au langage), les
spécifications du langage sont assez rigides. Il est impossible d'ajouter
de nouvelles fonctionnalités à une scène VRML sans devoir contourner les
spécifications. La réponse actuelle aux problème du VRML semble être le
X3D : Le X3D est le successeur du VRML 2.0. C'est le fruit du travail du
groupe de travail du Web3D consortium plus récemment du « Browser Working
Group ». X3D veut dite eXtensible 3D. L'objectif de cette spécification
109
est de donner un langage évolutif, qui permet d'ajouter facilement de
nouvelles fonctions aux scènes 3D. Le X3D garde une entière comptabilité
avec le VRML 2.0. Les fichiers VRML 2.0 sont entièrement lisible sur un
navigateur X3D. Toutes les fonctions du VRML 2.0 sont donc gardées dans
X3D. Tous les acteurs du Web3D peuvent ajouter leurs propres fonctions au
X3D. Chaque nouveau niveau de composants ou chaque nouvelle fonction est
soumis au groupe de travail du X3D, qui garantit une évolution cohérente
de la norme. Un fichier X3D peut être écrit « à l'ancienne », c'est-à-
dire comme un fichier VRML 2.0 ou en XML (eXtensible Markup Language).
Cette option, elle aussi, permettre une intégration du langage plus
facile dans les outils actuels de gestion de l'information et de
navigation (W3C, 25 septembre 2001, Annexe B).
3.1.2 Quelques concepts de base du VRML
Il est important de comprendre les concepts principaux de VRML 2.0
pour apprécier comment ils peuvent être utilisés. En effet, sans avoir
une connaissance approfondie du langage, il est possible de parvenir à
des résultats intéressants au niveau de la modélisation 3D. Par contre,
comme dans le cas de cette étude, pour atteindre des objectifs plus
sophistiqués, une maîtrise des « subtilités » du VRML est requise ainsi
qu’une connaissance au niveau du JavaScript. Cette section explique les
concepts de base du VRML 2.0 et décrit sans renter dans le détail les
diverses composantes d’un fichier VRML 2.0.
Principe. Le VRML est un langage de description et d’échange de scènes
3D. Une visionneuse VRML est nécessaire pour rendre la scène 3D. Un
utilisateur peut naviguer à l’intérieur d'une scène VRML et interagir
avec elle, entraînant ainsi certains comportements animés en temps réel.
Un fichier VRML définit un monde quadri-dimensionnel par la
représentation graphique en trois dimensions et interaction dans le
temps. Les fichiers contenant la description des scènes ont une extension
.wrl . Ce fichier est un fichier ASCII pour VRML1 et UTF8 pour
VRML2.0/VRML97, c'est donc du texte lisible dans n'importe quel éditeur,
et c’est en ce sens là que le VRML est un langage indépendant des plates-
formes. Le fichier peut aussi être transmis par un serveur, compressé
par Gzip et la décompression est opérée par la visionneuse VRML. Le
110
chargement d'une scène peut se faire par parties (fichiers VRML séparés)
appelées par un premier fichier. D'autres fichiers peuvent être chargés
pour constituer la scène : des images, vidéos, sons, scripts. Un fichier
VRML est composé d'un ensemble de « nœuds » du langage. Un noeud permet
de spécifier le type d’élément – qui seront passés en revue plus loin –
et d’en spécifier l'apparence et la géométrie s’il y a lieu ainsi que la
constitution. Si VRML 1.0 était limité, VRML 2.0 a apporté de nouveaux
types de nœuds ()et de géométries, la possibilité de grouper des nœuds,
la possibilité de configurer la visionneuse directement à l’intérieur du
fichier, l’animation, le support sonore, l'utilisation de scripts en
Java, ECMAScript (JavaScript, VRMLScript), et les capteurs (W3C, 1996,
Annexe B).
Graphe de scène et géométrie. Une scène graphique VRML se compose d'un
graphe décrivant les objets de la scène (graphe de scène) dans lequel
chaque entité est un noeud. Chaque noeud a un nom type, et est composé de
champs et dans certains cas, d’événements qu'il peut recevoir ou envoyer.
Le point 3.1.3 définit en détail chacun de ces éléments. Les événements
diffusent l'information parmi des noeuds pour permettre l'animation et
l'interactivité dans la scène VRML, complétés par la notion des ROUTEs :
des événements générés par le VRML lui-même ( par exemple click de souris
ou tops d'horloge) sont renvoyés vers des champs des noeuds VRML appelées
eventIn. Ces eventIn sont redirigés vers d'autres champs des noeuds VRML
appelées eventOut. Les scripts utilisent le même mécanisme pour passer
leurs méthodes et être activés. Un graphe de scène se compose de noeuds
et de groupes de noeuds dans une structure hiérarchique. Chaque nœud peut
avoir des enfants et une transformation appliquée à un nœud parent se
répercute sur ses enfants. Il existe cinquante-deux noeuds prédéfinis qui
sont la base du langage, et permettent de définir la géométrie,
l'apparence (la couleur et son intensité, la transparence, la texture),
l'emplacement, le regroupement d'autres noeuds, etc. Ces différentes
propriétés sont passées en revue dans le point 3.1.3. Le cube, le cône,
le cylindre et la sphère sont les géométries primitives du VRML. Des
formes complexes peuvent être réalisées par combinaison des formes
élémentaires, ou encore elles peuvent être décrites par l’IndexFaceSet.
Un IndexFaceSet est défini par un certain nombre de points dans l'espace
3D reliés pour former des polygones (habituellement triangles) qui eux-
111
mêmes composent les surfaces de la forme (Marrin, Campbell, Sonstein,
1997).
Interactions. VRML 2.0 procure un certain nombre de moyens par lesquels
l’utilisateur peut interagir avec une scène. La navigation simple ou la
navigation par points de vue se fait au travers de l’interface proposée
par la visionneuse VRML. Il est également possible d’insérer des
hyperliens qui relient des éléments de la scène à d’autres scènes VRML
2.0 ou des documents HTML. Pour des interactions plus complexes,
l’utilisation de scripts est nécessaire. Notre prototype informatique en
fait d’ailleurs un usage important. Ce sont les senseurs (Sensors) qui
permettent d’initier les comportements interactifs ou les animations au
sein d’une scène. Ceux-ci ne sont pas visibles, mais réagissent à
l’action de l’utilisateur ou du temps. Le TouchSensor génère un événement
en réaction au clic ou au passage du curseur. Les CylinderSensor,
PlaneSensor et SphereSensor (senseurs géométriques) réagissant au clic et
au drag (glissement avec bouton de la souris enfoncé). Le TimeSensor
génère des événements selon la valeur relative de ses StartTime et
StopTime; il est généralement utilisé en conjonction avec des senseurs
géométriques et des animations (Groupe VRML francophone, 1999,
http://perso.infonie.fr/kdo/vrml/start.htm).
Animations. La méthode utilisée en animation est connue sous le nom de
Keyframing. Le Keyframing repose sur un principe très simple : c'est le
programme de visualisation qui calcule tous les points intermédiaires
d’une trajectoire entre deux points (Keyframes). Par exemple, lorsque
l’utilisateur déclenche un senseur, celui-ci génère un événement qui met
en route un TimeSensor. A son tour le TimeSensor génère une série
d’événements à intervalles réguliers qui sont envoyés à un interpolateur.
Ces interpolateurs calculent les valeurs pour chaque moment dans le temps
et envoient ces valeurs au nœud contenant l’objet qui doit être animé.
Selon le type d’interpolateur utilisé, il est possible de translater un
objet, de lui faire subir une rotation, de lui faire changer de couleur,
de taille ou de forme. Les animations peuvent être configurées pour ne
jouer qu’une seule fois ou en boucle (Groupe VRML francophone, 1999,
http://perso.infonie.fr/kdo/vrml/start.htm).
112
3.1.3 Eléments du graphe de scène
Le nœud. VRML est un langage structuré et modulaire. Il possède un
mécanisme d'imbrication de noeuds et d'appel de noeuds, ceux-ci étant
définis à un autre endroit dans la description. Le noeud est une
structure qui contient différents champs (field) et permet de gérer
différents événements (event). Ces champs et événements sont typés c'est-
à-dire qu'ils sont d'un type fixé. VRML utilise une stratégie d'arbre
hiérarchique pour ordonner les différents éléments d'une scène. Les
noeuds permettent la description du monde VRML, chaque concept que l'on
retrouve en VRML est défini à travers un noeud spécifique. Chaque noeud
est composé de champs et d'événements qui peuvent être de type « field »,
« exposedField », « eventIn », « eventOut ». Un « field » est un
paramètre dont la valeur peut être définie lors de la création d’un
objet, mais qui ne peut pas être lue ou modifiée après la création de
l’objet. Un « eventIn » est une méthode : c’est le moyen de changer
l’état interne ou la valeur d’un objet, et le plus souvent, ces
changements sont visibles dans la scène. Un « eventOut » permet à un
objet d’envoyer un événement correspondant à l’état interne d’un objet ou
d’une partie d’un objet. Une fois la scène chargée, ces événements
« sortants » sont envoyés seulement lorsque l’état interne change. Un
« exposedField » consiste en la combinaison d’un field, d’un eventIn, et
d’un eventOut (Crispen, 1999, Annexe B). La déclaration d'un noeud se
fait de la façon suivante :
NomDuNoeud {
....
Déclaration des champs
...
}
Un champ se définit de la manière suivante :
TypeDuChamp TypeDeDonnée NomDuChamp ValeurDuChamp
Les noeuds prédéfinis. Ils sont au nombre de cinquante-deux et
constituent la base du langage. Ils permettent de définir la géométrie,
l'apparence, l'aspect, l'emplacement, le regroupement d'autres noeuds,
etc. Le nom d'un noeud commence toujours par une majuscule, par exemple:
Sphere, Box, Material. Ainsi, si le nom du noeud est composé de plusieurs
113
particules, alors chaque particule commence par une majuscule. Par
exemple: SphereSensor, CoordinateInterpolator. En voici la liste
lorsqu'ils sont répertoriés selon leur fonctionnalité (Ames, Nadeau,
Moreland, 1997):
Groupement et hiérarchie : Group, Transform
La géométrie : Shape : Box, Cylinder, Sphere, Cone (les formes
géométriques de base) ; ElevationGrid, Extrusion, IndexedFaceSet,
IndexedLineSet, PointSet, Coordinate, Normal (les formes géométriques
complexes) ; Text, FontStyle (le texte).
Aspect, environnement : Appearance, Material, ImageTexture,
PixelTexture, MovieTexture, TextureTransform, TextureCoordinate,
Color, Background, Fog (Les textures, matières et couleur) ;
DirectionalLight, PointLight, SpotLight (la lumière) ; ViewPoint
(les points de vue) ; Sound, AudioClip (le son).
Appel de fichiers et hyperliens : Anchor (liens) ; Inline (appel de
fichier).
Animation, interaction, comportements et mouvement : NavigationInfo
( type de navigation) ; Collision (détection de collision de
l’utilisateur avec les objets) ; ColorInterpolator,
PositionInterpolator, OrientationInterpolator, ScalarInterpolator,
CoordinateInterpolator, NormalInterpolator (interpolateurs) ;
ProximitySensor, VisibilitySensor, Billboard (interactivité sans
« clic ») ; TouchSensor, CylinderSensor, PlaneSensor,
SphereSensor (interactivité avec « clic » ou « drag ») ;
TimeSensor, Script (temps, animations, événements) ; LOD (Level Of
Detail, niveau de detail), Switch (changement, passage d’un nœud à
un autre), WorldInfo (information sur le fichier).
Le champ. Le champ fait partie de la définition d'un noeud. Il établit
l'état de ce dernier. Alors que les noeuds voient leur nom commencer par
une majuscule, les noms des champs commencent par une minuscule. Un champ
peut être de type eventIn, eventOut, field, exposedField. Un champ, dans
la définition d'un noeud est donné par ((Ames, Nadeau, Moreland, 1997) :
TypeDuChamp TypeDeDonnée NomDuChamp ValeurDuChamp
avec :
typeDuChamp : eventIn, eventOut, Field ou exposedField
114
typeDeDonnée : SFBool, SFColor ou MFColor, SFFloat ou MFFloat,
SFImage, SFInt32 et MFInt32, SFNode ou MFNode ; SFRotation ou
MFRotation, SFString ou MFString ; SFTime ou MFTime, SFVec2f ou
MFVec2f, SFVec3f ou MFVec3f
nomDuChamp : un nom commençant par une minuscule. C'est par ce nom,
associé au nom du noeud auquel il se réfère, qu'on accède à sa
valeur.
ValeurDuChamp : la valeur par défaut dans le cas d'un champ de type
field ou exposedField.
Un noeud est défini par un ensemble de champs et de valeurs par défaut
pour les champs de type field ou exposedField :
NomDuNoeud {
exposedFieldtype ExposedFieldNom ExposedFieldValeur ExposedField
...
fieldtypeField NomField ValeurField
...
eventIntypeEventIn NomEventIn
...
eventOuttypeEventOut NomEventOut
... }
Dans le fichier VRML, les champs de type eventIn et eventOut, le type du
champ et le type de données n'apparaissent pas, sauf cas particuliers du
noeud Script et des PROTOs. Si un champ n'apparaît pas dans un noeud, il
prend la valeur définie par défaut dans les spécifications.
Les types de champs :
field : Un champ de type field ne peut ni émettre ni recevoir
d'événements, c'est un champ statique, la syntaxe de son nom est de la
forme « nomDuChamp ».
eventIn : Un champ de type eventIn est un champ qui ne peut que
recevoir des événements, on dit aussi champ en écriture seule. Son
nom est de la forme « set_NomDuChamp ».
eventOut : Un champ de type eventOut, ou eventOut, ne peut lui
qu'émettre des événements , on dit alors que c'est un champ en lecture
seule. Son nom est de la forme « NomDuChamp_changed ».
exposedField : Le champ de type exposedField représente une
contraction des trois types de champs précédants. Il peut être à la
115
fois un champ de type field, un champ de type eventIn et un champ de
type eventOut. Il peut, en fonction de ce que l'on veut en faire,
prendre chacun des trois rôles et en fonction du rôle qu'il joue,
est appelé différemment, à la manière du type de champ qu'il réfère
(Crispen, 1999, Annexe B).
Les types de données des champs et des événements. Il reste maintenant à
décrire la syntaxe et le sens des types de données des champs et
événements utilisés par les noeuds VRML pour définir les objets. Les
noeuds sont composés de champs et d'événements. Les types définis sont
utilisés à la fois par les champs et les événements. Il existe deux
sortes de champs, ceux contenant une seule valeur (qui peut être un
nombre ou un vecteur par exemple), et ceux contenant plusieurs valeurs.
Les champs contenant une unique valeur ont un nom commençant par SF. Ceux
pouvant contenir plusieurs valeurs (multi-évalués) ont un nom commençant
par MF. Un champ multi-évalué spécifie une série de valeurs comprise
entre deux crochets [ ] et séparées par des espaces ou des virgules. Si
le champ ne contient aucune valeur, seuls les crochets [ ] doivent être
présents. La dernière valeur peut éventuellement être suivie d'un espace
ou d'une virgule. Si une valeur unique est spécifiée, les crochets
peuvent être omis. Certains champs ont leur valeur fixée par défaut,
ainsi, lors de la déclaration d'un noeud, il n'est pas nécessaire
d'affecter une valeur à ce champ. Les types de données sont (Ames,
Nadeau, Moreland, 1997) :
SFBool : booléen
SFColor et MFColor : triplet RVB
SFFloat et MFFloat : flottant
SFImage : image
SFInt32 et MFInt32 : entier 32 bits
SFNode et MFNode : noeud VRML
SFRotation et MFRotation : axe et angle de rotation
SFString et MFString : chaîne de caractères
SFTime et MFTime : temps
SFVec2f et MFVec2f : vecteur 2D
SFVec3f et MFVec3f : vecteur 3D
116
3.1.4 Forces et faiblesses générales du VRML dans le cadre de cette étude
L’atout majeur du VRML est l’indépendance des plates-formes et la
flexibilité de diffusion de la 3D interactive au travers d’Internet. VRML
reste à l’heure actuelle le format le plus adéquat pour manipuler et
échanger des modèles 3D sur le web.
Par ailleurs, le VRML répond tout à fait à l’impératif de la forte
structuration d’un langage grâce à un mécanisme d'imbrication de noeuds
et d'appel de noeuds définis à un autre endroit de la description
(PROTOs) ou dans des fichiers extérieurs (EXTERNPROTOs et InLines).
La modularité qui en découle permet d'envisager la constitution d'une
librairie de prototypes d'objets 3D et de scripts (sous forme
d'EXTERNPROTOs). On pourrait ainsi faire appel à ces modèles et on
générerait un code très lisible qui serait exploitable. Par soucis de
modularité, le recours à des EXTERNPROTOs plutôt que des PROTOs qui
alourdissent le début du code est préconisé. Le mécanisme des IS et des
PROTOs permet d'offrir une interface unique pour paramétrer un ensemble
d'objets encapsulés les uns dans les autres. On peut ainsi définir des
objets complexes modulaires.
Par ailleurs, avec autant d’informations disponibles sur Internet,
une des préoccupations majeures des concepteurs web consiste à attirer
des utilisateurs sur leur page. Une telle préoccupation peut très
facilement se retrouver chez un architecte. La conviction est ici que si
l’interactivité construite dans le monde VRML est suffisamment efficace,
la 3D reste fascinante et attractive en même temps qu’elle peut maintenir
un intérêt particulier de la part de l’utilisateur. Aussi, l’augmentation
rapide de la puissance des ordinateurs ces dernières années permet
d’envisager la création de mondes 3D complexes qui, il y a quelques
années auraient demandé un temps énorme de chargement du fichier. Les
champs d’applications possibles du VRML s’élargissent, allant de la
visualisation et manipulation de molécules d’ADN à la visite virtuelle
d’un bâtiment, et la 3D sur le web devient accessible à n’importe quel
internaute (Marrin, Campbell, Sonstein, 1997).
117
D’autre part, même si la création du prototype ne s’est pas faite
en un jour, il n’est pas nécessaire d’être un programmeur expérimenté ou
un infographiste de haut niveau pour produire des scènes 3D, qui, sans
être des prouesses interactives, n’en reste pas moins intéressantes.
Cependant, ce qui reste le plus intéressant au niveau du VRML et qui est
particulièrement important dans notre étude, c’est la participation
active de l’utilisateur au sein du monde en trois dimensions et le
caractère immersif qu’on peut accorder à un tel type de représentation
numérique. Aussi, les méthodes offertes par le VRML en terme
d’interactivité complexe seront envisagées lors de l’examen du prototype
informatique.
Cependant, rendre la 3D interactive performante pour une activité
en ligne demande assez de précautions quant aux éléments utilisés. En
effet, par exemple, l’emploi de géométries compliquées ayant un nombre
élevé de polygones ralentit considérablement le rendu et le calcul en
temps réel de la scène. Les fichiers son et vidéo ont généralement un
poids relativement élevé; un travail au niveau de ces fichiers est
également nécessaire pour réduire le poids de l’ensemble du fichier VRML.
Il en est de même pour les textures appliquées aux géométries. La gestion
de la boucle d'événements et des scripts appelés peuvent également
gaspiller beaucoup de ressource s’ils ne sont pas gérés de manière
adéquate. Au niveau des scripts, on pourrait imaginer que plusieurs
objets possédant le même comportement partagent leurs scripts, mais ce
n'est pas le cas : les scripts sont instanciés autant de fois qu'il y a
d'objet les utilisant. Aussi, si la scène VRML contient de nombreux liens
vers des pages HTML ou d’autres scènes VRML qui doivent également être
chargés, l’utilisateur peut facilement perde intérêt à cause du temps
d’attente.
D’autre part, le standard même d’un langage de description de
scènes 3D comme le VRML comporte des disparités sensibles lorsqu’il est
écrit pour tourner sur différentes configurations matérielles ou
logicielles : généralement lisible par des navigateurs tels que Netscape
ou Internet Explorer, ils requièrent cependant une interface logicielle
dite « plugin » indispensable à un bon fonctionnement. Il reste seulement
qu’un fichier correctement « browsé » sur PC pourra révéler des
aberrations d’affichage sur Macintosh ou sur une station Unix. De plus,
118
il est clair que la visualisation et l’interaction 3D avec des scènes
complexes se heurte à un problème majeur : des tailles de fichier
dépassant le Mégaoctet sont rapidement atteintes, et avec une bande
passante telle que celle offerte par un simple modem 56k, qui est encore
le plus courant à l’heure actuelle, de longs temps de téléchargement sont
à prévoir. Aussi, la capacité intrinsèque des machines dites « de
bureau » à traiter l’information, ne dépasse pas pour la plupart quelque
milliers de triangles texturés par seconde. On est donc bien loin des
performances des grosses stations de travail. Dans notre cas, plutôt que
de procéder à une extrême simplification des scènes représentées, il a
été choisi de ne pas viser la large diffusion au travers d’Internet et
ses utilisateurs courants, mais de cibler les interlocuteurs à des
intervenants au niveau académique, ayant accès à un réseau performant.
Les désavantages cités ne sont néanmoins pas fatals, ils renforcent
seulement le fait que, comme dans toute démarche de conception, les actes
posés doivent être bien réfléchis et structurés. En détaillant le
prototype informatique, diverses techniques qui permettent de
contrecarrer ces inconvénients seront passées en revue. Un défi reste
malgré tout capital : les utilisateurs ne sont pas encore habitués à la
manipulation d’interfaces 3D et sont bien souvent mal à l’aise face à ces
dernières; c’est au concepteur de rendre l’interface aussi conviviale et
performante que possible pour susciter l’enthousiasme des utilisateurs
les plus novices.
3.2 HTML, JavaScript et SVG
Le HTML (HyperText Markup Language) et le JavaScript sont plus
connus que le SVG (Scalable Vector Graphics). Il a tout de même semblé
nécessaire de présenter les présenter tous les trois. En effet, ils
reflètent bien les intentions du World Wide Web Consortium : « Leading
the Web to its Full Potential... », selon leurs propres mots
(http://www.w3.org/). Aussi, et plus particulièrement pour cette étude,
HTML, JavaScript et SVG s’inscrivent dans la logique méthodologique de
conception de l’interface présentée, c’est-à-dire que HTML, JavaScript et
SVG ont tous trois évolué beaucoup en peu de temps et évolueront semble-
t-il encore, ou du moins leur succession est assurée par d’autres
119
langages issus de la même lignée. Ainsi, une certaine « persistance » est
assurée à ce travail et par ailleurs, le caractère « open source » (qui
sera explicité plus loin) va dans le même sens.
3.2.1 HTML : histoire et concepts de base
Avant de situer les origines de ce langage, il convient de
souligner, en opposition avec une croyance générale, que ce dernier n'est
pas le premier langage gérant les hyperliens. Les acteurs principaux de
la création du HTML sont ici passés en revue.
Le premier chapitre l’a montré, l’article « As we May Think » de
Vannevar Bush (1945) décrit une vision de système hypertexte assisté par
ordinateur que l’auteur nommait le Memex, qui était capable de créer des
liens entre plusieurs microfilms. Cet article présente donc une façon de
parcourir, de « browser » de l’information liée et inclut la capacité
d'insérer facilement de l’information personnelle, pour s'ajouter au Web
croissant (Bush, 1945, Annexe B). Dr. Bush était le directeur du Bureau
des USA de la Recherche et du Développement Scientifiques, et coordonnait
la recherche en temps de guerre dans l'application de la science à la
guerre.
Douglas Engelbart, dont il a également déjà été question et qui a
fondé le Augmentation Research Center à l'institut de recherche de
Stanford (SRI) en 1963 a bien évidemment contribué au développement du
web. Ted Nelson quant à lui s’appliquait à l’implémentation d’un système
global d'hypertexte appelé Xanadu . Il a participé à cerner concrètement
la notion d’hypertexte, et est bien connu pour ses livres : Literary
Machines et Dream Machines, qui décrivent les hypermédias.
L'ACM SIGWEB , autrefois SIGLINK, a été de nombreuses années le
centre de la recherche académique au niveau des systèmes hypertextes,
commanditant une série de conférences annuelles. SIGLINK a été formé dans
1989 après un atelier (workshop) sur l'hypertexte, tenu en 1987 à Chapel
Hill en Caroline du Nord. Bill Atkinson mieux connu pour MacPaint , un
outil de travail bitmap, a crée le premier système populaire
d'hypertexte : HyperCard permettait de « surfer » à travers des documents
120
en utilisant des images, ce qui a rendu aisé de créer des applications
graphiques d'hypertexte.
Tim Berners-Lee et Robert Caillau ont tous deux travaillé au CERN,
le centre international de recherche de physique d'énergie près de
Genève. En 1989, leur collaboration portait sur un système d'informations
liées qui serait accessible à travers l'éventail de différents systèmes
informatiques en service au CERN. A cette époque beaucoup de gens
employaient TeX et PostScript pour l’édition de leurs documents. Quelques
uns employaient le SGML (Standard Generalized Markup Language). Tim
Berners-Lee s'est rendu compte que quelque chose de plus simple était
nécessaire pour répondre aux besoins du système qu'il venait d'inventer
avec Robert Caillau au CERN, le World Wide Web. Le HTML a donc été conçu
comme solution très simple, et assorti d’un protocole de réseau, HTTP
(HyperText Transfer Protocol). Le CERN a lancé le Web en 1991 (W3C, 29
octobre 2001, Annexe B).
HTML et HTTP constituent le coeur de l'invention de Berners-Lee :
un moyen simple et efficace d'accéder sur un réseau à des documents liés
entre eux par des hyperliens. Les documents s'enchaînent désormais les
uns aux autres par un simple clic de souris : écrits en HTML, ils sont
transportés jusqu'au lecteur grâce au protocole HTTP. Le principe de base
est une connexion de type client/serveur : un client (le navigateur) se
connecte sur un serveur, émet une requête et le serveur répond. La
connexion est une simple ouverture de socket TCP/IP généralement sur port
80, mais on utilise aussi de temps en temps le port 8080 (pour les
connexions sur proxy, par exemple).
3.2.2 Les différentes versions du HTML (W3C, 29 octobre 2001, Annexe B)
HTML 1.0. Cette version a vu le jour en 1991 sur l'ordinateur du CERN
(Centre d'études et de recherches nucléaires). La naissance du Web,
plate-forme du HTML, remonte à la même date. Les commandes étaient fort
élémentaires, on pouvait cependant insérer des images ou créer des liens
hypertextes. Cependant, il n'existait pas encore d'interface graphique.
121
HTML 2.0. Le standard HTML 2.0 fût publié en 1995. Avec celui-ci, on peut
enfin disposer d'une interface graphique. Cette version contenait déjà
des commandes que l'on retrouve encore aujourd'hui sur le Web : la
structure de document, avec en-tête (head) et corps (body), la gestion
des listes et des tableaux, composants qui jouent un grand rôle dans les
pages Web.
HTML 3.0. En mai 1996, le HTML 3.0 apparaît avec des commandes anciennes
qui furent étendues avec de nouveaux attributs et de nouvelles commandes
furent intégrées au standard.
HTML 4.0. Publié officiellement le 17 décembre 1997, le standard 4.0
intègre la notion de cadre (frame). Il fournit aux concepteurs, outre de
nouvelles commandes, un instrument performant appelé « feuille de style
en cascade » (CSS). Les CSS définissent la mise en page de documents HTML
et XML en fixant les attributs d'affichage (police, taille, couleur).
Elles sont dites « en cascade » car elles peuvent être imbriquées. Les
feuilles de style permettent de « factoriser » la présentation d'un site
afin que toutes les pages respectent la même charte graphique.
HTML 4.01. HTML 4.01 est une révision de la recommandation de HTML 4.0.
Cette révision fixe les erreurs mineures qui ont été trouvées depuis HTML
4.0. La spécification de XHTML 1.0 (eXtensible HyperText Markup Language)
se fonde sur cette dernière version en ce qui concerne les significations
des balises.
3.2.3 JavaScript
Cette section décrit brièvement le langage JavaScript, utilisé non
seulement dans la partie HTML du prototype, mais également au sein des
fichiers VRML. Les notions sont ici reprises de l’ouvrage de David
Flanagan (1998).
Javascript a été initialement développé par Netscape et s'appelait
à l'époque « LiveScript ». Adopté à la fin de l'année 1995, par la firme
Sun (qui a aussi développé Java), il prit alors son nom actuel de
Javascript. Javascript n'est pas propre aux navigateurs de Netscape;
122
Microsoft l'a d'ailleurs aussi adopté à partir de son Internet Explorer
3. On le retrouve, de façon améliorée, dans Explorer 5, mais de
nombreuses incompatibilités entre navigateurs posent encore de nombreux
problèmes lors de l’écriture d’un script. Cet aspect sera développé plus
loin.
JavaScript est un langage de programmation interprété avec de
capacités orientées objet. Pour les puristes, JavaScript n'est pas à
proprement parler un langage orienté objet tel que C++ ou Java. On dira
plutôt que JavaScript est un langage basé sur les objets. En effet, en
bon internaute, nous voyons tous s’afficher une page Web sur notre écran.
Javascript va diviser cette page en objets et surtout va permettre
d'accéder à ces objets, d'en retirer des informations et de les
manipuler. Ceci est particulièrement important, étant donné que
l'interactivité exige que les éléments individuels d’un document soient
manipulables. Par exemple (figure 6), une page web s’affiche dans une
fenêtre, il s’agit de l’objet fenêtre. Dans cette fenêtre, il y a un
document HTML. C'est l'objet document. Autrement dit (et c'est là que
l'on voit apparaître la notion de la hiérarchie des objets JavaScript),
l'objet fenêtre contient l'objet document. Dans ce document, on trouve,
par exemple, un formulaire au sens HTML. C'est l'objet formulaire. Ainsi,
l'objet fenêtre contient un objet document qui lui contient un objet
formulaire. Dans ce dernier, on peut trouver un boutons « radio », un
boutons « classique » et une zone de texte. Ce sont respectivement
l'objet radio, l'objet bouton, l'objet texte. L'objet fenêtre contient
donc l'objet document qui contient l'objet formulaire qui contient à son
tour l'objet radio, l'objet bouton et enfin, l'objet texte.
123
Pour accéder à un objet, il faudra donner le chemin complet de
l'objet en allant du contenant le plus extérieur à l'objet à l'objet
référencé. Soit par exemple pour le bouton radio « non »:
(window).document.form.radio[1]. L'objet window est mis entre parenthèses
car comme il occupe la première place dans la hiérarchie, il est repris
par défaut par JavaScript et devient donc facultatif.
Il s’agit d’un langage de programmation qui permet d'apporter des
améliorations au langage HTML en permettant d'exécuter des commandes. Le
cœur de ce langage a été intégré aux browsers web tels que Netscape ou
Internet Explorer, le code JavaScript est inclus directement dans la page
HTML. Ce qui permet à tout internaute de voir le code (via l'option
Affichage - Source de son navigateur). Tout programme JavaScript est de
fait un « morceau de logiciel » libre. Le code du script n'est toutefois
pas visible dans la fenêtre même du navigateur car il est compris entre
des balises (ou tags) spécifiques qui signalent au navigateur qu'il
s'agit d'un script écrit en langage JavaScript. Les balises annonçant un
code JavaScript sont les suivantes:
Figure 6 : Le concept d’objet en JavaScript
124
<SCRIPT language= « Javascript »>
Code du script
</SCRIPT>
Toutefois, d'anciens navigateurs, créés avant l'arrivée du
JavaScript, ne connaissent pas ces balises et donc les ignorent. Le code
du JavaScript risque donc de s'afficher sur la page Web et de gâcher le
travail. L'astuce contournant ce problème consiste à ajouter des balises
de commentaires à l'intérieur même des balises de script. Ainsi les
anciens navigateurs ignoreront tout simplement l'intégralité du script,
tandis que les navigateurs récents l'interprèteront (comme il se le doit)
comme du Javascript. Voici ce que donne le script une fois « masqué »
pour les anciens navigateurs:
<SCRIPT language= « Javascript » >
<!--
Code du script
// -->
</SCRIPT>
A noter également qu’il ne faut pas confondre les balises de
commentaires du langage HTML (destinées à masquer le script pour certains
browsers) et les caractères de commentaires JavaScript (permettant de
documenter son script). Par ailleurs, il faut veiller à ne pas imbriquer
des commentaires, au risque de provoquer une erreur lors de l'exécution
du code. Pour écrire des commentaires, JavaScript utilise les conventions
utilisées en langage C et C++. Pour mettre en commentaires tout une ligne
on utilise le double slash :
oooooooooooooooooooooooooooooooooooooooooooooooooooooooo
// Tous les caractères derrière le // sont ignorés
Pour mettre en commentaire une partie du texte (éventuellement sur
plusieurs lignes) on utilise le /* et le */:
/* Toutes les lignes comprises entre ces repères
Sont ignorées par l'interpréteur
de code */
JavaScript est donc une extension du code HTML des pages Web. Les
scripts, qui s'ajoutent ici aux balises HTML, peuvent en quelque sorte
être comparés aux macros d'un traitement de texte. Le code JavaScript
125
faisant partie de la page HTML, il est téléchargé en même temps que
celle-ci sur le poste de l'internaute. Il est ensuite interprété par le
navigateur : les différents scripts sont gérés et exécutés par le browser
lui-même sans devoir faire appel aux ressources du serveur. Cette mise en
oeuvre est pratique mais l'interprétation de code est toujours plus lente
que l'exécution de code compilé.
La syntaxe de ce langage ressemble à du C, C++ et Java à la fois,
avec des constructions programmatiques telles que l’énoncé if, les
boucles while et l’opérateur &&. La similarité s’achève cependant avec la
syntaxe : JavaScript est un langage non typé, c’est-à-dire que le type
des variables n’est pas spécifié. Les objets en JavaScript se rapprochent
plus des tableaux associatifs de Perl que des structures en C ou des
objets en C++ et Java. Les mécanismes d’héritage orienté objet de
JavaScript diffère également de Java; JavaScript propose des objets
préexistants, mais il ne permet pas la création de classe d'objets. Il
est vrai que JavaScript, tout comme Java fournit des contenus exécutables
dans un navigateur Web, cependant, la nomenclature similaire ne provient
que d’une manœuvre de marketing. JavaScript peut contrôler le
comportement d’un navigateur mais ne peut pas, comme le fait Java,
générer des objets graphiques par exemple. D'autre part l'applet Java (le
programme) doit être lancé à chaque chargement de la page, d'où un
important ralentissement pour les applets Java contrairement au
JavaScript. Le tableau de la figure 7 résume les différences entre Java
et JavaScript.
JavaScript Java Code intégré dans la page Html Module (applet) distinct de la page
HTML Code interprété par le browser au moment de l'exécution
Code source compilé avant son exécution
Codes de programmation simples mais pour des applications limitées
Langage de programmation beaucoup plus complexe mais plus performant
Permet d'accéder aux objets du navigateur
N'accède pas aux objets du navigateur
Accessibilité du code Code source compilé – Confidentialité du code
Liaisons dynamiques: les références des objets sont vérifiées au chargement
Liaisons statiques: Les objets doivent exister au chargement (compilation)
Figure 7 : Comparaison entre JavaScript et Java
126
Les versions de JavaScript se sont succédées avec les différentes
versions de Netscape : JavaScript pour Netscape 2, JavaScript 1.1 pour
Netscape 3 et JavaScript 1.2 pour Netscape 4 . Ce qui n'est pas sans
poser certains problèmes de compatibilité, selon le browser utilisé, des
pages comportant du code JavaScript. La figure 8 résume les
compatibilités entre les différentes versions de JavaScript et des
navigateurs. Le nom JavaScript est possédé par Netscape et
l’implémentation Microsoft est officiellement connue en tant que JScript.
JavaScript a été standardisé par ECMA (European Computer Manufacturer
Association), sous la norme ECMA-262. A l’heure actuelle, JavaScript 1.3
est sensé être supporté par les deux navigateurs Netscape et Internet
Explorer. Il reste tout de même laborieux d’adapter les scripts pour les
deux navigateurs. L'avenir de JavaScript est en réalité entre les mains
de ces deux grands navigateurs du Web et en partie lié à la guerre que se
livrent Microsoft et AOL. Le tableau suivant résume les versions de
JavaScript supportées par Netscape et Internet Explorer. Les
compatibilités sous Netscape 6 n’ont pas été testées ni sous Internet
Explorer 6. On s'accordera à prédire un avenir prometteur à ce langage
surtout de par son indépendance vis à vis des ressources du serveur.
Version du navigateur Netscape Microsoft Internet
Explorer
2 JavaScript 1.0 3 JavaScript 1.1 JavaScript 1.0 4 4.6
JavaScript 1.2 – ne répond pas tout à fait à la norme ECMA-262 JavaScript 1.3
JavaScript 1.2 – ne répond pas tout à fait à la norme ECMA-262
5 JavaScript 1.3
3.2.4 SVG (Scalable Vector Graphic)
SVG (Scalable Vector Graphic) est un standard reconnu par le W3C et
en constant développement. SVG 1.0 a été présenté le 2 août 2000, comme
une spécification officielle. Le W3C, l´organisme chargé de fixer les
formats du Web, vient d’ailleurs, en date du 4 septembre 2001, d’annoncer
la recommandation officielle du SVG (W3C, 4 septembre 2001, Annexe B).
SVG est une application du XML (eXtented Markup Language) dont l'objet
Figure 8 : Navigateurs et compatibilités (Flanagan, 1998)
127
est la description d'objets graphiques en deux dimensions. Au moyen d'un
langage de script, dans notre cas, JavaScript, il est possible d'avoir
accès au DOM (Document Object Model) et de réaliser des images dynamiques
offrant de nombreuses fonctionnalités (W3C, 1 novembre 2001, Annexe B).
Le DOM est un modèle objet de documents : il s’agit d’une norme
définissant une interface de programmation (indépendante de tout langage)
qui permet d'accéder à une représentation « orientée objet » des
documents. En utilisant DOM, les développeurs peuvent manipuler et
parcourir de façon arborescente un document – lequel est constitué de
noeuds. Un nœud est un point d'un arbre d'où partent une ou plusieurs
branches. Dans un arbre DOM, un noeud correspond à un objet. DOM est bien
adapté pour traiter les langages de balisage tels que HTML et XML. La
norme DOM est notamment implémentée sous la forme d'analyseurs XML. Des
API analysant et décodant les balises d'un document XML afin de permettre
à l'application utilisant cet analyseur de traiter « facilement » des
données au format XML.
Le SVG permet de gérer trois types d'objets graphiques : les formes
vectorielles (courbes, lignes, polygones par exemple), les textes et les
images. Ces objets graphiques peuvent être groupés, transformés, et être
dotés de styles. Le SVG permet d'écrire des applications interactives et
dynamiques. Il est en effet possible d'accéder au SVG DOM par un langage
de script (en l'occurrence javaScript), et donc de modifier les objets
graphiques, leurs attributs et leurs propriétés, et même d'en créer de
nouveaux. Le SVG gère également les évènements de type onclick (clic de
la souris), onmouseover (survol de la souris), etc. , et ce pour chaque
objet graphique. Concrètement, un fichier SVG se présente de la manière
suivante :
<?xml version="1.0" encoding="iso-8859-1"?>
<svg width="96px" height="76px" viewBox="0 0 9600 7600">
<rect id="guide" x="3200" y="3200" width="3200" height="3200"
style="fill:red;fill-opacity:0.3"/>
</svg>
Dans cet exemple, le document contient un carré rouge transparent :
<rect id="guide" x="3200" y="3200" width="3200" height="3200"
style="fill:red;fill-opacity:0.3"/>. Le fichier SVG est enchâssé (embed)
dans un fichier HTML. Un plugin est nécessaire afin que le navigateur
puisse afficher le fichier SVG. Celui développé par Adobe est
128
téléchargeable gratuitement du site d’Adobe. Le plugin d'Adobe fonctionne
avec Internet Explorer et Netscape Navigator, aussi bien sur Windows que
sur Mac (sauf les cartes dynamiques avec Internet Explorer pour
Macintosh. Par contre, aucun plugin n’a encore été développé pour la
dernières version de Netscape (v. 6 ).
Les fonctionnalités et avantages offerts par SVG sont multiples;
parmi elles on retrouve : une très haute qualité de reproduction
graphique; un format texte permettant de lire et de modifier les fichiers
SVG par de très nombreux outils; des fichiers légers et très
compressibles par rapport aux formats JPEG ou GIF; le format vectoriel
d’où aucune pixellisation de l’image lors d’un zoom; la possibilité
d’effectuer une recherche ou une sélection au sein du fichier, à l’opposé
des formats bitmap traditionnels; des graphiques interactifs et animés
sophistiqués; la compatibilité avec les technologies Java; tous les
avantages du XML; ou encore, plus particulièrement, la gestion de
plusieurs couches d'objets graphiques, avec contrôle interactif de la
visibilité des couches; l’association de données externes aux objets
graphiques (dénomination, données statistiques); l’affichage de ces
données au moyen d'un clic sur l'objet graphique; des fonctions de zoom
et de pan (panoramique) par drag & drop sur une vue miniature de l’image;
l’affichage d'un repère sur un objet graphique sélectionnée dans une
liste (SUN Microsystems, 2001, Annexe B).
Par ailleurs, la plupart des formats graphiques traditionnels sont
souvent des formats binaires propriétaires, peu documentés, qui sont
générés via des fonctions d'exportation de programmes graphiques
particuliers. C'est pourquoi ils ne correspondent pas au principe de
source ouverte qui caractérise Internet. Les formats binaires présentent
d'autant plus d'inconvénients qu'ils ne peuvent être édités et corrigés
sans le programme d'origine. Or, n'importe quel projet devrait intégrer
cette capacité d'édition : particulièrement, les mécanismes
d'interactivité et d'affichage nécessitent souvent d'être adaptés « à la
main », et modifiés par la suite, afin d'intégrer de nouveaux éléments.
C’est dans cet esprit qu’il a été tenté de travailler au travers de cette
recherche, malgré le penchant personnel pour le logiciel Flash de
Macromedia, actuel concurrent du SVG. Il est à souligner cependant que
Macromedia, sentant sans doute venir les limites de Flash, est lui-même
129
entré dans le groupe de travail chargé de développer le format SVG, ce
qui laisse supposer une introduction de la technologie SVG chez
Macromedia tôt ou tard. Comme quoi, quand l´orgueil ne touche pas les
éditeurs, ce sont les utilisateurs qui en profitent (W3C, 11 février
1999, Annexe B).
Les styles graphiques, tels que nous les connaissons dans logiciels
graphiques, peuvent être définis avec SVG par les CSS, afin de doter de
caractéristiques identiques un groupe d'objets graphiques. De la même
façon, il est possible de modifier l'apparence de plusieurs objets. Grâce
à la compatibilité du langage de style, les fichiers SVG peuvent être
intégrés simplement dans des documents web. L'intégration du SVG dans le
DOM permet de contrôler et de modifier les éléments SVG par les
interfaces habituelles JavaScript/Java. S'agissant d’interactivité, le
SVG propose une riche palette d'événements qui sont employés de la même
façon que pour les éléments HTML traditionnels. Chaque élément peut être
animé en modifiant certaines de ses caractéristiques (couleur, forme,
opacité, position ou autres) (W3C, 4 septembre 2001, Annexe B) . La
syntaxe utilisée est conforme à SMIL, le standard du W3C qui définit un
langage d'intégration d'éléments multimédia (séquences de textes,
séquences d'images fixes, diaporama, son, vidéo …) dans une structure
Web.
La norme SVG est développée et soutenue (en particulier via leurs
produits) par les principaux acteurs du graphisme informatique
intervenant sur le Web : Adobe, Apple, AutoDesk, Bit-Flash, Corel, HP,
IBM, ILOG, Inso, Kodak, Macromedia, Microsoft, Netscape, Oasis, Open
Text, Oxford University, Quark, RAL, Sun Microsystems, W3C et Xerox (W3C,
4septembre 2001, Annexe B). Cela garantit dans un avenir proche de larges
possibilités d'importation et d'exportation, ainsi que le développement
de visionneuse et de convertisseurs. Étant donné que le SVG est un
standard XML bien documentée et ouvert, chacun est en mesure de produire
et de convertir ses propres scénarios ou programmes. On peut s'attendre à
ce que le SVG, par son utilisation dans d'importants projets Web,
devienne un format général d'échange dans le domaine graphique. A côté
d'Adobe Illustrator et du PDF, le SVG est l'un des rares formats
graphiques en ASCII bien documentés. En comparaison des deux premiers, il
offre même plus de possibilités. Le plugin d'Adobe est actuellement
130
nécessaire, cependant les prochaines versions des navigateurs intégreront
cette fonctionnalité, cette intégration est également possible avec
l'applet java du CSIRO (Australia's Commonwealth Scientific and
Industrial Research Organisation - http://www.cmis.csiro.au/svg/).
L'adjectif « scalable » dans l'expression « Scalable Vector
Graphics » signifie en premier lieu que l'échelle de représentation des
vecteurs peut varier, notion qui paraît évidente pour un architecte. Pour
le W3C, son sens est cependant plus large, en particulier il signifie que
le rendu du document varie automatiquement selon le périphérique de
sortie (écran ou imprimante) en matière de résolution et de mise en page.
Ce n'est pas le cas pour les autres plugins, qui sont également dans
l'incapacité d'imprimer des pages à base d'images, lorsqu'elles ont été
modifiées par des scripts. Seules les pages dans leur version initiale
peuvent alors être imprimées(W3C, 4 septembre 2001, Annexe B).
Les applications du SVG s'étendent du simple affichage/masquage
d'objets, à la modification des attributs graphiques, la réaction aux
événements de souris, la liaison de fenêtres, le déplacement interactif,
la modification d'échelle ou la rotation d'éléments, ou la création
petits programmes, comme la possibilité offerte à l'utilisateur de sauver
ses propres données sur le serveur en vue d'une future utilisation. Avec
l'aide de scripts CGI, d'applets ou de servlets Java, il est possible
d'établir une liaison avec des bases de données (W3C, 4 septembre 2001,
Annexe B ). Comme VRML, SVG offre la possibilité de réutiliser des
éléments précédemment décrits et clairement identifiés au moyen d'un ID,
d’un identificateur. Cela permet de prédéterminer des objets graphiques
complexes ou des groupes, puis de les réutiliser, éventuellement après
les avoir transformés. L'extensibilité est une des particularités les
plus importantes du SVG, comme c'est le cas avec toutes les
spécifications compatibles DOM/XML. Comme SVG lui-même est défini en XML,
une autre norme également définie en XML peut être enchâssée et
accessible en SVG. Pour des raisons de temps, il a malheureusement été
impossible d’exploiter cette perspective très prometteuse.
SVG, la nouvelle norme vectorielle d'Internet permet enfin de
dépasser les problèmes rencontrés jusqu'ici au niveau du format graphique
interactif. Il permettra aux architectes de se consacrer pleinement au
contenu et aux capacités d'interactivité qu'offrent, par exemple, des
131
plans sur ordinateur. Le caractère ouvert d'Internet, avec le succès du
modèle de l'open source, offrent de nouveaux débouchés à la CAO, ce qui
ne sera pas sans conséquence dans certains secteurs, comme le traitement
de données ou leur distribution, entre autres.
132
Chapitre 4 : Description et évaluation du prototype
4.1 Méthodologie systémique
Le prototype informatique élaboré fait partie intégrante du
mémoire : la recherche entreprise se fonde sur une approche systémique
par prototypage, et cette dernière se fait notamment ressentir par la
nécessité d'un prototype interactif pour étayer notre hypothèse, par son
évaluation et sa simulation. Par ailleurs, l’idée fascinante d’un modèle
d’espace abstrait pour interagir avec des ensembles d’information
digitale amène à imaginer des paradigmes d’interaction en environnements
virtuels 3D, ces environnements pouvant être immersifs ou non, ainsi que
des méthodes d’implémentation de ces concepts d’interaction. En effet, le
nombre de données sous forme digitale augmente de jours en jours, tout
autant que son usage. L'investigation réalisée dans les nouvelles formes
de transmission et de production de l’information et du savoir permet de
qualifier le médium électronique d'espace collectif, que l’on nomme plus
couramment « cyberespace ». John Walker, l’un des créateur de la
compagnie Autodesk et du célèbre programme de dessin d’architecture
AutoCad estime même que « le cyberspace est le seul fonctionnement
possible de la prochaine génération d’interface homme-machine » (cité par
Rheingold, 1993, p. 198). La qualité de ce dernier dépend essentiellement
des contenus qu’ils présentent et de la question de l'interface personne-
machine, donc de celle de l’interactivité et de l’interaction. Il s’agit
là d’une des préoccupations fondamentales du travail présenté. Cette
dernière, en passant par un examen des implications des notions d’espace,
de réel et de virtuel dans le domaine qui la concerne, a démontré qu’un
espace d’informations s’est développé et se déploie sous de multiples
formes. Avec la dispersion de l’utilisation des représentations
numériques, l’information est devenue extrêmement complexe. La notion de
« complexité », au centre de la systémique, implique celle d’ «
imprévisible possible » telle que la nomme Jean-Louis Le Moigne (1999),
c’est-à-dire que l’imprévisibilité potentielle des phénomène est tenue
pour un fait certain. Un phénomène compliqué, par opposition à un
phénomène complexe, est certainement déterminé et peut se réduire à un
principe simple. La complexité, elle, est assignée par les acteurs
concernés aux représentations, ou modèles, qu’ils se font des phénomènes
dits complexes (Le Moigne, 1999). Il paraît évident qu’en situation de
133
conception d’une interface homme-machine, les phénomènes rencontrés
peuvent être dits complexes : l’utilisateur, au centre du débat, est
imprévisible de part sa condition humaine. Il peut changer d’avis
facilement, se tromper, sa concentration et son expérience sont
variables, sa motivation également. Il a des préjugés sur l’informatique,
des expériences vécues, souvent négatives, en particulier dans le cadre
de cette recherche, étant donné que les utilisateurs potentiels ne sont
pas sensés avoir une connaissance approfondie de l’outil informatique.
L’imprévisible possible a donc été le principe général de la conception
du prototype, et ce pour le mieux selon la flexibilité des outils
utilisés.
La modélisation permet de concevoir des modèles dont l’acteur se
servira pour raisonner, élaborer des projets d’action au sein du
phénomène, anticiper et délibérer les conséquences de ces projets
d’action. Ces modèles sont donc potentiellement complexes, et
l’intervention de l’acteur devient capitale (Le Moigne, 1999). C’est
également dans cet esprit que le prototype informatique fût élaboré : le
prototype proposé ne tient pas lieu de résultat définitif et optimisé,
mais il fait plutôt office d’outil d’observations et de raisonnement pour
des applications futures. En effet, il est exclu de penser que le modèle
« théorique » élaboré à partir d’une réalité complexe ne puisse motiver à
son tour une production nouvelle. L’architecture décline ainsi la notion
de modèle sur des registres multiples et l’architecture du Moyen-Age ou
Platon l’utilisaient déjà. Les architectes ont recours aux différents
modèles que leur fournissent à la fois l’histoire de leur discipline et
l’ensemble des sciences qui y touchent de façon plus ou moins étroite. La
modélisation consiste à identifier des problèmes, à formuler des énoncés
et à raisonner par des simulations pour résoudre ces problèmes :
réflexion-raisonnement, et modélisation-simulation sont indispensables à
toute résolution. Le modèle est une représentation artificielle, un
système de symboles crées par l’homme et pouvant en générer de nouveaux.
La recherche ici entreprise s’éloigne donc des méthodes classiques de
construction des modèles symboliques résident dans la méthode « modèle
précédent » et dans la méthode « analytique » ; la première se basant sur
un raisonnement par analogie, et la seconde sur les quatre préceptes du
« Discours de la méthode » de Descartes : n’accepter que ce qui est
évident, diviser en le plus de parties possibles pour mieux résoudre,
134
procéder du simple au composé, dénombrer en entier et revoir en général
pour ne rien omettre (Le Moigne, 1999). Par ailleurs, le modèle
interactif élaboré n’a aucune raison d’être sans l’intervention des
acteurs concernés, dans notre cas les utilisateurs, qui seront les
« évaluateurs » finaux de l’interface et les moteurs de développement.
Ceci rejoint d’ailleurs la notion de « système ouvert » propre à la
systémique, c’est-à-dire un système non réductible à un modèle unique et
complètement calculable, qui échange avec son environnement, son
contexte, pour se définir et se transformer.
En accord avec notre démarche systémique, le mémoire rend compte
dans son développement tant de questions théoriques que de leurs rapports
avec le prototype informatique; le prototype, quant à lui, ne constitue
pas la démonstration pratique des concepts théoriques exposés dans la
partie écrite, mais vient plutôt les éprouver, particulièrement en ce qui
concerne la version 3D en VRML (Virtual Reality Modelling Language), et
vient appuyer nos hypothèses. Pour ces raisons, le développement du
prototype informatique a une importance capitale, au même titre que la
rédaction du mémoire.
4.2 Cadre d’élaboration du prototype et objectifs
Le prototype informatique a été intégré à un projet de recherche
investissant le LIMA (Laboratoire de recherche sur l’Identité par la
Modélisation Architecturale), le CELAT (Centre Interuniversitaire
d'Etudes sur les Lettres, les Arts et les Traditions), tous deux de
l’Université Laval, la Chaire de Patrimoine urbain et l’Ecole de design
de l’Université du Québec à Montréal, l’Institut de Géoarchitecture de
l’Université de Bretagne Occidentale, ainsi que divers autres
partenaires, académiques ou ministériels. Le but de ce projet de
recherche consiste à mettre en réseau les expertises françaises et
québécoises en matière de conservation et de mise en valeur du patrimoine
architectural urbain du XXè siècle autour d’un site web francophone
d’échange et de partage d’informations et de connaissances. Le résultat
de ce projet, notre prototype, baptisé [ P – arch ]xxe, en développant un
contenu francophone sur l'autoroute de l'information, tente de contribuer
aux approches de la conservation patrimoniale qui intègre le processus de
conservation et ses techniques spécifiques. Le contenu pédagogique
135
diffusé se propose de contribuer à la formation d'architectes,
d'aménagistes, mais aussi de techniciens, par la production d'un contenu
informatif et éducatif relié à leurs domaines d'intervention et dédié aux
Nouvelles Technologies de l’Information et de la Communication.
En plus de l’impérative réponse aux attentes du projet, une réponse
aux hypothèses du mémoire furent les objectifs du prototype : l’idée de
départ a été que l’utilisation d’un feed-back visuel pouvait augmenter la
perception de l’espace d’information abordé dans la recherche écrite en
tant qu’un tout et qu’il était possible de développer des métaphores
spatiales propres à ce système. Le prototype réalisé s’attache donc à
définir l’interactivité numérique au travers d’un langage spatial et
visuel, en relation avec le cyberespace. La tâche consiste à fournir un
modèle délivrant en temps réel une sortie visuelle (2D ou 3D) des
interactions d’un utilisateur avec ce dernier. Pour ce faire, la théorie
de l’énaction de Francisco Varela (1989, 1993, et 1996) a été d’une
grande inspiration en ce qui concerne la façon d’entreprendre la
construction de l’interactivité numérique.
De l’interactivité numérique, propre à chaque individu, ressort une
représentation (signification) que l’utilisateur fait émerger, qu’il se
crée mentalement, mais également une représentation numérique qui elle
aussi est énactée, que l’utilisateur s’est créée, si l’on accepte
l’interprétation quelque peu extrême qui a été donnée à cette notion. Le
principe de départ a en effet consisté à dire que si un processus
interactif est différent pour chaque utilisateur, la représentation qui
peut en être faite doit également répondre à cette affirmation, même si
la programmation d’une interface nécessite une prédéfinition à de
nombreux niveaux.
L’interactivité représentée dans le prototype 3D constitue un monde
en soi, médiatisé à travers des éléments interactifs. Le prototype
fournit des représentations de l’activité de l’utilisateur dans un temps
déterminé, de son appréhension du modèle interactif, en même temps que
cette représentation constitue un espace lui-même, non figé, un système
ouvert lui permettant de visualiser et de visiter son parcours. Les
paradigmes d’interaction proposés peuvent s’appliquer à un cadre
classique mono-utilisateur, mais également à un cadre d’interactions
136
coopératives multi-utilisateurs. Dans le cas de coopérations multi-
utilisateurs, celles ci peuvent avoir lieu sur un même site (plusieurs
utilisateurs se trouvant physiquement à proximité les uns des autres,
devant un même dispositif de visualisation ou devant plusieurs) ou sur
des sites distants (plusieurs machines connectées via Internet). Les
métaphores de présentation 3D permettant de transformer les ordinateurs
en outil de communication. En résumé, le prototype 3D consiste en une
interface exploitant une présentation 3D interactive et animée permettant
à l'utilisateur d'avoir une perception globale de l'activité en cours.
Dans son implémentation sous forme de monde multi-utilisateurs, les
interlocuteurs sont représentés sous forme d’avatars, qu’ils peuvent
choisir au sein d’une liste au moment de leur connection, ou qu’ils
peuvent charger directement à partir d’une adresse précise sur Internet.
Avec l'augmentation spectaculaire des applications 3D, il devient
évident que nous maîtrisons très peu comment interagir dans des espaces
3D d'une manière intuitive et efficace. De plus, il apparaît que nous
pouvons tirer profit des capacités 3D pour plusieurs taches différentes,
comme dans notre cas, la représentation de l’interactivité de
l’utilisateur avec un espace virtuel et l’échange d’informations et de
connaissances. Aussi, les interfaces de type WIMP montrent rapidement
certaines limites, comme par exemple, la nécessité de réduire
l’information à l’état d’icône et le recouvrement des fenêtres qui
empêchent de voir ce que d’autres utilisateurs font sur les documents.
Quant au système d’affichage des fenêtres, il banalise les applications
dans des fenêtres toutes pratiquement identiques, sans rapport avec la
tâche de l’utilisateur. Les fenêtres étant dissociées l’une de l’autre,
lorsqu’elles contiennent des documents ou des acteurs (les
interlocuteurs), il est difficile de créer des liens visuels entre elles
de façon naturelle, sans surcharger l’interface. Le rapport de
l’utilisateur dans l’espace de travail s’avère peu proprioceptif dans le
cas des interfaces 2D classiques et dans la construction d’une
représentation mentale globale de l’activité. C’est, de façon générale,
pour ces raisons, et pour relever le défit d’une exploitation maximale
des capacités du VRML qu’il a été choisi de donner un pendant à la
version HTML du site web en explorant la manipulation et l’interactivité
dans un espace tridimensionnel. Au fil de l’examen détaillé du prototype
137
informatique, nous verrons également quels sont les intérêts spécifiques
de l’interface créée.
4.3 Description et évaluation du prototype
Le prototype comporte deux parties complémentaires : l’une en HTML
(HyperText Markup Language), et l’autre en VRML (Virtual Reality Modeling
Language) par lesquelles l’utilisateur peut accéder à des informations 2D
et 3D. Le tout est regroupé sous une interface web. La version HTML tente
d’exploiter la manipulation d’informations 2D dans la construction et la
représentation en 2D d’un espace, alors que la version VRML explore la
représentation en 3D d’un espace par manipulation d’informations 3D.
Après réflexion, et étant donnés les difficultés relatives à la
manipulation de la 3D par des utilisateurs novices, il a été décidé de ne
pas présenter la version 3D du site comme étant l’équivalent 3D de la
partie HTML, mais comme une exploration des capacités d’un site web en
3D. Par ailleurs, à l’encontre de certains prototypes élaborés par
d’autres, par exemple, où l’utilisateur évolue dans un « tunnel
d’informations » qu’il découvre au fur et à mesure de son déplacement
dans l’espace, le prototype 3D élaboré propose une navigation tout à fait
libre, sans parcours préétablit par le concepteur, comme dans le cas d’un
« tunnel ». Ceci bien évidemment augmente la complexité de l’interface et
la notion d’ « imprévisible possible » dont il a été question plus haut.
Le « langage » spatial utilisé pour construire l’interactivité de
l’utilisateur avec le modèle a été défini sur base de cette distinction
2D/3D : en HTML, le résultat de cette construction se présente sous
format graphique 2D, et en VRML, il s’agit de 3D. Au niveau de
l’exploitation des formats graphiques 2D, le SVG a été choisi, étant
donné les avantages qu’il procure pour la qualité d’image, des techniques
d’interactivité, au niveau intrinsèque, réalisables au sein du fichier
même – ce dernier étant écrit en XML – et de la communication qui peut
s’établir entre le SVG et d’autres langages, comme le HTML par exemple.
Cependant, l’occasion d’exploiter la puissance du XML et la communication
entre XML et VRML ne s’est pas présentée.
138
En ce qui concerne la 3D, étant donné la perspective d’utilisation
sur le web et les connaissances peu développées en Java 3D, le VRML
semblait être le format le plus approprié. Bien entendu, les méthodes
interactives inscrites dans le langage même ne suffisant pas dans le
cadre de nos objectifs, le JavaScript, et le VrmlScript ont été utilisés
afin de compléter les différentes lacunes. Nous décrirons plus loin en
détail les différents codes utilisés ainsi que la structure des fichiers.
4.3.1 Version HTML
Sans s’attarder trop longuement sur la version HTML du prototype,
l’examen de cette dernière se basera sur les éléments décrits dans la
section théorique sur l’interface homme-machine dans le premier chapitre
de ce mémoire (section 1.4).
Le centre du débat (voir p. 35). L'utilisateur est au centre du débat. Le
« pourquoi » d'une interface graphique, et dans le présent cas d'une
interface Web destinée au déploiement de l’expertise francophone en
matière de connaissance, de valorisation et de conservation du patrimoine
urbain du XXième siècle, est basé sur les besoins des utilisateurs. Le
premier objectif est donc de répondre à ces besoins. Dans la conception
du site Web, nous avons tenté de toujours garder à l'esprit que les
utilisateurs:
- ne voient in fine que ce qui se passe sur l'écran
- aiment et veulent se sentir au commandes
- apprennent par la pratique
- n'apprennent que ce qu'ils veulent savoir
- se souviennent d'une manière globale
- sont uniques et différents
La règle des sept(voir p. 38). Selon cette règle, l’utilisateur ne peut
saisir en un coup d’œil que sept éléments, avec une tolérance de plus ou
moins deux en fonction des individus. Limiter le nombre de menu à sept
ayant été impossible vu les catégories demandées lors des ateliers de
travail sur le site web, l’alternative proposée par la règle des sept a
été suivie, c’est-à-dire marquer une séparation entre les divers
139
éléments : l’espacement entre les différentes rubriques et les éléments
graphiques marquant les différents « points » contribuent au marquage de
cette séparation.
Le modèle de l’activité et le modèle de l’application (voir pp. 39-40).
Le concepteur d’une interface a pour objectif de spécifier un système
logiciel correspondant au modèle de l’activité. Ce dernier consiste en
une analyse des besoins et en la vérification qu'un outil logiciel permet
effectivement d'assister une activité. Dans notre prototype, l’interface
Web ne nécessitant pas l’élaboration d’un système logiciel, ce modèle ne
peut pas être représenté de façon significative.
Le modèle de l'application peut être assimilé à la conception
détaillée du système, c'est-à-dire la description des objets
informatiques le composant et leurs relations. Le premier chapitre l’a
montré, en ce qui concerne la création d'un site Web sophistiqué, voué à
des opérations plus complexes qu'une simple navigation, nous pourrions
considérer que le réalisateur du système et le concepteur de l'interface
ne constitue en réalité qu'une seule et même personne. Ce modèle n’est
pas non plus représentable de façon significative dans notre travail,
mais à part dans le forum où le concepteur doit veiller à permettre
toutes les opérations autorisées à l'utilisateur, et à interdire les
autres, mais là encore, n’ayant que mis cette application en place sans
l’avoir conçu de A à Z, il serait inadéquat de se proclamer concepteur de
cette dernière.
Cependant, en rapport avec ce modèle de l’application, il a fallu
prendre en compte les contraintes imposées par les différents systèmes
d'exploitation et les divers navigateurs disponibles. En effet, la
majorité des scripts élaborés pour l’interface HTML ont dû être adaptés
maintes fois pour assurer une compatibilité minimale entre les
différentes plateformes et les différents navigateurs web. Par ailleurs,
l’automatisation de la détection de la présence des plugins (Flash
Player, SVG Viewer, Cortona) nécessaires ainsi que leur installation
automatique sont garanties, dans la mesure des latitudes permises par les
licences des diverses compagnies. Aussi, deux versions du site Web ont
été crées, l’une adaptée pour une résolution d’écran de 800x600, et
l’autre pour une résolution de 1024x768.
140
Le modèle conceptuel (voir p. 41). Le modèle conceptuel d'un système
interactif est la représentation de l'image que le concepteur donne du
système à ses utilisateurs. Le concepteur doit extraire des actions
réalisables avec le système et des objets manipulables une structure
cohérente, aisément assimilable et permettant une interaction efficace.
Si une opération peut être effectuée sans que l'utilisateur ait à être au
courant, alors il ne faut pas la représenter; inversement, il faut
parfois représenter des informations qui ne sont pas présentes à l'état
brut dans l'application (par exemple l'état du chargement d'une
animation). Ainsi, dans le site Web, l’insertion d’une notification de
chargement des images et des animations s’il y avait lieu est assurée. Le
modèle conceptuel dans le cas de cette recherche repose sur une structure
arborescente telle que présentée dans le schéma de la figure 9. Dans le
souci de refléter au mieux le fonctionnement de l’interface et afin de
reproduire un mode de fonctionnement imaginable par les utilisateurs, une
structure arborescente a été traduite dans l’interface Web (figures 10 et
11), et, nous le verrons plus loin, a été intégrée également dans la
version 3D du site. L’arborescence repose sur une succession de choix
hiérarchisés qui doivent s’opérer dans un ordre imposé. Ce modèle permet
de satisfaire de nombreux utilisateurs, en fonction des tris effectués.
Aucun utilisateur ne pourra sauter une étape et arriver à l’information
recherchée; les raccourcis n’existent pas dans une arborescence (Séguy,
1999). Il s’agit d’un parcours descendant, la recherche aboutit à une
page d’information, les étapes sont comptées comme autant de passages à
franchir successivement avant d’obtenir une réponse. Ce modèle peut
paraître quelque peu rigide, mais permet d’éviter que les utilisateurs ne
se « perdent », il convient tout à fait à des niveaux d’utilisateurs
hétérogènes et s’applique particulièrement bien au public cible
(chercheurs et personnes concernées par le projet de recherche au niveau
du patrimoine), qui lui procède à une utilisation motivée et rationnelle.
Par ailleurs, le nombre de menus étant relativement limités, la démarche
de passer par ces derniers pour accéder à l’information ne paraît pas
laborieuse.
141
[ P – arch]xxe
Patrimoine
Références
Enseignement
Evénements
Journal en ligne
Forum
Experts
Livre d’or
Liens
Partenaires
Mission
Labo
Cas en cours
Rechercher
Expérimentations
Bibliographie
Iconographie
Internet
Etablissements
A distance
Autres
Passés
Présents
Futurs
Soumission
>1999
1999
2000
Question
devenir expert
Français
Anglais
2001
Procédure
Soumettre
Fonctionnement
Se proposer
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
INFORMATION
Figure 9 : Arborescence du site HTML
142
Figure 11 : Menu arborescent du site HTML
Figure 10 : Structure générale du site HTML
143
Cependant, c’est en contraste avec cette structure HTML
arborescente que la version 3D en VRML a été développée. En effet, en
partant de cette même structure, cette dernière montre que même sur base
d’une arborescente, l’utilisation des trois dimensions permet d’élargir
le champ des actions possibles aux utilisateurs, en diminuant au maximum
l’« ordre imposé » par l’arborescence.
Au niveau de la répartition des informations et de leurs moyens
d’accès sur l’écran, elle est possible de l’illustrer de la manière
suivante (figures 12 et 13) :
Le cadre n°1 affiche le menu général permettant l’accès aux
informations, qui elles apparaissent dans le cadre n°2. Le cadre n°3 est,
au chargement du site, invisible; il comprend la carte du site en SVG
retraçant le parcours de l’utilisateur au sein du site web. Cette
dernière devient visible à l’activation d’un lien, qui, via un
JavaScript, redimensionne le cadre n°2 à 0% de sa taille et le cadre n°3
Figure 12 : Répartition des informations du site HTML
144
à 100%. Inversement, un lien présent sur le cadre n°3 permet de revenir
aux dimensions initiales des cadres.
Une remarque est ici à faire : les versions de Netscape 4 et
antérieures ne supportent pas le dimensionnement «on the fly » des
cadres. Cette fonctionnalité est présente sous Netscape 6, mais
malheureusement le plugin SVG Viewer d’Adobe n’est pas encore disponible
pour ce dernier. Dans un cas comme dans l’autre, ici se situe une lacune
de notre interface, et la solution réside dans l’attente d’un support SVG
par les futures versions de Netscape.
Le modèle d’interaction. Un modèle d'interaction est la représentation de
la structure des échanges entre l'utilisateur et son outil. La
représentation d'un modèle d'interaction requiert la description des
dispositifs d'interaction utilisés et leur mode d'activation, les choix
de représentation des informations du modèle conceptuel, la structuration
Figure 13 : Echanges entre JavaScript et HTML
145
des échanges réalisés, l'effet des actions de l'utilisateur sur les
diverses composantes etc.
Dans le cas de notre site Web, le modèle d'interaction – très peu
élaboré en soi – repose bien évidemment sur l'hypertexte bien connu,
qui propose un modèle d'interaction à part entière. L’hypertexte, à
l’origine de Vannevar Bush, repose sur deux éléments : le nœud (le nœud
d’information) et le lien qui permet de changer de nœud. sans détailler
les principes fondateurs de l’hypertexte, largement passés en revues chez
Bush (1945) et Balpe (1990), les éléments pertinents de ce type
d’interaction seront ici brièvement examinés.
Une application en hypertexte devient par nature un produit non
hiérarchisé; le rapport à la structure arborescente hiérarchisée sera
envisagé plus loin. Un seul point reste théoriquement, c’est-à-dire sans
considérer l’indexation des moteurs de recherche menant à certaines pages
et non à la page d’entrée d’un site ou l’introduction d’un url précis
dans la barre d’adresse du navigateur Web, immuable et commun à tous : le
nœud d’entrée. la suite du parcours dépend donc des choix et des
associations d’idées de l’utilisateur. Avec l’hypertexte, l’utilisateur
n’est pas obligé d’aller au bout de son parcours; les passerelles sont à
la fois multiples et transversales. A l’inverse d’une arborescence, la
nature même de l’hypertexte ne « range » pas les éléments en balisant le
chemin d’accès, il autorise de multiples parcours pour arriver à
l’information sans rien figer, ni les étapes du cheminement, ni la
répartition de l’information. Ceci pose bien évidemment le problème de la
structuration de l’information et des moyens d’accès à cette dernière :
dans une structure hypertexte, sans un minimum de rigueur et de
vigilance, il est très facile pour un utilisateur novice de se perdre
(Séguy, 1999). C’est pour cette raison qu’il a été choisi de créer, pour
la version HTML, un système hybride, alliant à la structure d’un site Web
(l’hypertexte « libre ») l’arborescence (dans le menu) et la recherche
multicritères qui autorise un accès direct à l’information (dans les
sections « Patrimoine » destinées à retrouver des données patrimoniales).
Le parcours en arborescence permet de fournir à l’utilisateur les repères
nécessaires à son avancée dans le site, alors que des liens transversaux,
rejoignant la nature de l’hypertexte définie plus haut, augmentent la
souplesse du dispositif.
146
Le menu de navigation proposé consiste en une mise à plat
structurée et offre en quelque sorte un plan d’accès à l’information. De
plus, la carte du site, retraçant le parcours de l’utilisateur vient
compléter ce menu en donnant à l’utilisateur un aperçu des pages
visitées.
D'autres types d'interaction ont été introduits, tels que le forum,
le livre d’or, et la carte du site en SVG retraçant le parcours de
l’utilisateur. Mais en somme, le modèle proposé est similaire à ce qu'il
est monnaie courante de rencontrer sur le Web. A noter également que la
plupart du temps, la définition d'un modèle d'interaction est partielle,
Figure 14 : Carte interactive
147
la plupart des comportements d'une interface étant compris de façon
implicite, par référence aux usages.
4.3.2 Version VRML
Cette section vise à détailler la version 3D du prototype. Pour
commencer, la « petite histoire » du travail sera décrite : quelles ont
été les sources d’inspirations et les évolutions. Ensuite, le prototype
sera examiné sous la lunette des concepts théoriques au niveau de
l’interface personne-machine tels qu’abordés dans le point 1.4 de ce
mémoire et appliqués de façon similaire à la version HTML (point 4.3.1).
4.3.2.1 Petite histoire du prototype
La petite histoire du prototype remonte au trimestre d’hiver 2001
et se situe dans le cadre de l’atelier de CAAO de Monsieur Pierre Côté.
L'objectif que nous nous étions fixés à cette date était de dégager, à
partir d'une simulation, élaborée sur base des travaux des étudiants de
l’atelier de CAAO, une façon de structurer, de manipuler et d'appréhender
les informations 3D afin d’étayer une définition d'une « architecture
interactive », laquelle constituait une des premières idées pour un
mémoire futur et qui a bien évoluée depuis lors. L’utilisation de mondes
virtuels dans un but interactif pour stimuler, par sa dynamique, la
participation de l'utilisateur un apprentissage d’autant plus importants
chez les étudiants était également une des motivations premières. Pour
atteindre ces objectifs, l'intégration des principes de l'interaction
humain-ordinateur et la description des actions élémentaires utilisées
par un modèle interactif s’avérait nécessaire. C’est à ce moment là que
le langage VRML fut choisi comme outil, pour la capacité d'affichage, de
manipulation, et d'échange d'informations 3D et pour la flexibilité au
niveau de sa spécification. Aussi, l'emploi du VRML étend
considérablement la gamme d'éléments visuels et sonores utilisables dans
le cadre de la CAAO. Au premier abord, le VRML est en quelque sorte
comparable à un équivalent 3D du HTML utilisé dans la composition de
pages web. Il sera montré dans quelle mesure cette affirmation est
incomplète.
148
Cette première étape du travail a été présentée une première fois
au 69ième congrès de l’ACFAS4 (Association canadienne-française pour
l'avancement des sciences) le 17 mai 2001 et à un stade plus évolué 26ième
Congrès annuel de la SEAC5 (Sociéte pour l’étude de l’architecture au
Canada) le 9 juin 2001. L'élaboration du modèle interactif se basait sur
l'étude, non exhaustive, de diverses techniques d'interactivité
réalisables en VRML et appliquées à la modélisation du site proposé à des
étudiants au trimestre d’hiver 2001. Des prototypes (éléments
réutilisables et paramétrables en VRML) ont été réalisés pour chacune
d'elles afin de les incorporer au modèle interactif. Au stade présenté du
travail, ces prototypes expérimentaient des interactions au niveau sonore
et visuel (apparence, luminosité, texture et géométrie) ainsi que des
interactions entre le VRML et le HTML par l'utilisation de scripts.
Afin d’alléger le présent exposé, ces diverses techniques
d’interactivité ne seront pas décrites. Les illustrations qui suivent
(figures 15 à 19) ne donnent qu’un aperçu du travail réalisé. Cependant,
le lecteur trouvera en annexe un document décrivant en détail le
fonctionnement d’une des techniques élaborées et d’autre part, le CD-ROM
joint au mémoire contient tous les fichiers VRML commentés de façon
explicite et décrivant le fonctionnement des différents fichiers. Etant
donné la nature « open source » de tous les outils utilisés dans cette
étude, il suffira au lecteur de disposer d’un éditeur de texte pour
consulter les codes informatiques.
4 GIANNAKIS, M. Une perception de l’architecture virtuelle. Communication, 69ième Congrès de l’Association canadienne-française pour l’avancement des sciences : Le savoir critique, Université de Sherbrooke, Qc/Canada, 17 mai 2001 5 GIANNAKIS, M. Architecture Interactive par structuration et manipulation d’information 3D. Présentation au 26ième Congrès annuel de la SEAC : Ecrire et construire l’architecture dans le Canada du 20ième siècle, Ecole nationale d’administration publique, Québec, Qc/Canada, 9 juin 2001
149
Figure 15 : Changement de texture selon position d’un
Figure 16 : Apparition d’éléments animés dans une scène
Figure 17 : Translation et rotation d’objets
Figure 18 : Changement de couleur activé par un clic
Figure 19 : Interactions des technologies VRML, HTML et panoramiques
150
Un essai de mise en œuvre d’un modèle interactif intégrant les
différentes techniques d’interactivité (figure 20) s'inspirait du
« rubicube », la célèbre invention d' Erno Rubik alors qu'il était
assistant au Département d'architecture d'intérieur à l'Académie des Arts
et Métiers de Budapest, en 1974. Le « rubicube » avait été choisi car il
offrait un type de manipulation connu de tous, riche en variations tout
en conservant les propriétés d'un tout, d'un contenant global et unique
tout au long de ses multiples transformations. Transposé dans un espace
virtuel, l'analogie avec l'espace architectural apparaissait
intéressante, alors que la référence au cube, archétype de l'espace de
Platon à Brunelleschi et jusqu'à Klee, souligne par ailleurs la
confrontation des trois dimensions euclidiennes (x, y, et z) aux n
dimensions indéterminées de la réalité virtuelle.
L’examen de la littérature entrepris, la découverte du travail de
Varela (1989 et 1993) et les réflexions au niveau de l’espace virtuel m’a
Figure 20 : Un essai de modèle interactif : le rubicube
151
ensuite amenée à abandonner ce type de représentation au profit d’une
métaphore spatiale plus parlante. Cet aspect sera détaillé plus loin.
4.3.2.2 Le prototype 3D actuel
Cette section examinera le prototype 3D à la lumière des mêmes
concepts théoriques que ceux vu précédemment, dans le point 3.4.1.
Ensuite, dans le point 4.4, les deux versions du prototype (2D et 3D)
seront évaluées d’après les critères établis au premier chapitre de ce
travail.
Le centre du débat. Le centre du débat du prototype VRML est à nuancer
quelque peu, étant donné que le but recherché n’est pas de fournir le
pendant 3D à la version HTML du site mais bien d’exploiter au maximum les
capacités interactives du VRML et ses aptitudes à fournir une réponse
adéquate en matière d’interface 3D. Bien entendu, l’utilisateur n’a
évidemment pas été relégué au second plan ! Mais étant donné la nature et
les limites de flexibilités de l’outil utilisé, certaines fonctionnalités
Figure 21 : Métaphore spatiale du prototype actuel
152
n’ont pas pu être optimisées de la façon voulue. Il faut rappeler d’autre
part que la vocation d’un prototype n’est pas de fournir un
« produit fini », il s’agit du premier exemplaire d’un modèle, sujet à
améliorations. Je demanderai donc au lecteur et potentiel utilisateur de
l’interface de garder ces élément à l’esprit lors de son expérimentation
du prototype.
La règle des sept. Appliquer cette règle à un espace tridimensionnel
paraît absurde dans la mesure où c’est le déplacement de l’usager dans
l’espace qui conditionne la visibilité des éléments. C’est ici que l’on
peut remarquer que tous les principes théoriques relatifs à une bonne
interface-personne machine, élaborés pour des interfaces de type WIMP,
même s’ils restent tout à fait valables, ne sont pas applicables ou ne
correspondent pas directement à ce qui peut être attendu d’une interface
3D. On peut d’ailleurs se poser la question à savoir s’ils ne remettent
pas en question la notion d’interface 3D elle-même.
Le modèle de l’activité et le modèle de l’application. Ici non plus,
l’interface 3D n’a pas nécessité la mise en œuvre d’un système logiciel;
le modèle de l’activité ne peut pas être représenté de façon
significative. Cependant, il est possible d’adapter ce concept de
« modèle d’activité » à l’outil VRML lui-même (figure 22). Les principaux
nœuds du VRML ont été examinés précédemment, ce qui donne un aperçu de ce
qui est possible de faire sans avoir recours à aucun script, ni à aucun
PROTO. Il est par contre nécessaire de souligner à quel moment les
fonctionnalités et noeuds prédéfinis du VRML n’ont pas été suffisantes
afin d’assister de façon effective les actions et rétroactions
escomptées. Pour ce faire, il est nécessaire d’expliciter dans un premier
temps le fonctionnement général des fichiers VRML composant l’interface,
en examinant par la même occasion les méthodes utilisées pour parvenir au
résultat obtenu.
153
L’interface se compose d’un fichier « général » à partir duquel
l’interface peut être lancée. Le fichier « Infobox » est le fichier
contenant la représentation d’un espace similaire à une galerie ou à un
musée, dans lequel l’utilisateur accède aux informations disponibles sur
les cas de patrimoine étudiés (recherche en cours). Diverses techniques
d’interactivité ont été insérées dans l’ « Infobox », tout comme dans
chacun des « nœuds » de l’interface 3D. Le lecteur-utilisateur trouvera
les codes détaillés dans le CD-ROM joint au mémoire (voir aussi l’Annexe
A). Les éléments grisés de la figure 22 représentent les fichiers
Fichier général Fichier « Infobox »
Noeuds Menu Liens (tubes) Matrice Sons
HUD
S
Sous-menus
Géométrie fil de fer
Géométrie complexe
ou nœud
« Sphere »
Inline
LOD
S Inline Inline
Fichier externe
Script S
Eléments internes aux noeuds
LOD
Inline
S
Figure 22 : Adaptation du concept de modèle de l’activité à l’interface
154
externes au fichier général, appelés à être affichés soit via le nœud
Inline du VRML, soit par l’exécution d’un script. L’indication « S » ou
« Inline » dans l’illustration spécifie la méthode par laquelle leur
affichage est assuré. Cette façon de procéder a été choisie afin de
charger le moins possible le fichier général, de diminuer ainsi le temps
de chargement et de limiter le calcul d’éléments non sollicités par
l’utilisateur. L’inconvénient du Inline par rapport au script qui a été
conçu est le suivant : le bloc Inline permet d'inclure dans une scène une
autre scène ou un objet dont la description se trouve dans un second
fichier dont on fournit l'adresse, met cette action s’effectue au
chargement de la scène et n’est pas réversible, c’est-à-dire que les
éléments inclus ne peuvent être retirés de la scène sans l’utilisation
d’un script utilisant une instruction « RemoveChildren ». Les points
suivants explicitent la figure 22.
Le menu général « fixe » est constitué d’un HUD (Head Up
Display). Les HUDs sont une collection de noeuds assurant,
ici par l’emploi d’un script et d’un ProximitySensor, que les
objets resteront à la même position de façon relative au
déplacement ou à la rotation de l’utilisateur. Chaque élément
du menu est un nœud Transform. Un script permet l’apparition
d’un sous-menu par l’activation du lien de l’élément
correspondant du menu principal, et sa disparition lors du
clic sur un autre élément du menu principal. Cette action
pourrait être comparée au « show/hide onclick » que l’on
retrouve en HTML, mais qui est plus difficile à mettre en
œuvre en VRML. Chaque clic sur le menu appelle deux autres
scripts, l’un faisant apparaître le lien, le chemin
correspondant et l’autre transportant l’utilisateur dans le
nœud associé au lien activé. La même technique est utilisée
pour les liens « flottants », c’est-à-dire les liens se
trouvant à l’intérieur même des nœuds et ne faisant pas
partie du HUD. Au départ, l’intention était d’associer des
animations aux liens « flottants », ces dernières procurant
des déplacements d’un nœud à l’autre différent des
déplacements engendrés par l’activation du menu général. Ceci
a rapidement été abandonné afin de ne pas ralentir encore
plus la navigation, étant donné la complexité déjà existante
155
dans la géométrie des divers éléments de l’interface. La
solution choisie fut de créer un script permettant de générer
des déplacements relatifs à la position de l’utilisateur dans
l’espace. A ce stade déjà, on remarque que l’utilisation de
scripts est indispensable pour mettre en œuvre une
interactivité relativement complexe. L’inconvénient réside
cependant au niveau du temps de réaction de ces scripts, fort
dépendant du type d’ordinateur utilisé.
Les nœuds ou les sphères présentes dans l’interface 3D sont
elles aussi incluses dans la scène générale via le Inline.
Elles sont composées d’une géométrie « fil de fer » et d’une
géométrie IndexFaceSet, pour des raisons essentiellement
esthétiques. Il faut admettre que cet argument esthétique
s’avère probablement très faible lorsqu’on pense à la
fonctionnalité et au calcul rapide nécessaire de l’interface.
Cependant, ceci a permis d’expérimenter la puissance du nœud
LOD (Level of Detail). Ce dernier permet de spécifier
différentes représentations d'un même objet selon la distance
qui séparera l'observateur de chacune de ces représentations.
L'utilisation de LOD a pour conséquence une amélioration
importante de la vitesse d'affichage : en effet, il est
inutile de dessiner un objet avec tous ses détails, lorsque
celui-ci est trop éloigné de l'observateur. Ainsi, lorsque
l'observateur est proche d’un noeud, une version détaillée –
IndexfaceSet et géométrie « fil de fer » – se dessinent;
lorsque l’observateur est loin du nœud, c’est le nœud
prédéfini Sphere qui est affiché. De même, les éléments se
trouvant à l’intérieur de chacune des sphères observent le
même comportement, à la différence près que ces derniers ne
s’affichent pas du tout si l’utilisateur est trop éloigné. Il
aurait été possible d’appliquer ceci aux nœuds eux-mêmes,
mais étant donné que le but était d’offrir à l’utilisateur
une représentation globale de son interactivité – ce qu’il
peut faire en activant le lien « Interactivité » – et que
ceci implique un point de vue éloigné qui aurait provoqué la
disparition de chacune des sphères, cette idée a été
abandonnée.
156
Les liens, ou « tubes », liant les différents nœuds
apparaissent au fur et à mesure, selon les actions de
l’utilisateurs. Ceci n’a été possible que par la création
d’un script ajoutant à la scène principale des fichiers
externes. Chaque « tube » est en effet un fichier à part
entière qui n’est appelé que lors de l’activation des liens,
permettant ainsi une économie de calcul considérable de la
scène.
La « matrice cubique » est elle aussi comprise dans un
fichier externe et chargée via le nœud Inline. Cette dernière
a permis de situer chacune des sphères dans l’espace et de
fournir des repères lors de la conception du monde VRML. Là
aussi, on conviendra qu’elle n’est fonctionnellement pas
nécessaire à l’utilisateur; cependant, résultant de la
démarche de conception, il a semblé intéressant de lui offrir
sa place au sein de la scène.
L'utilisation du son dans toute interface 3D ne peut qu'être
bénéfique. Le son peut renforcer l'impression de présence
spatiale, peut aider à l'identification d'occultation entre
objets, et permet de générer une réponse aux actions de
l'utilisateur, l'aidant à accomplir sa tâche. Les sons de la
scène principale font partie d’un fichier externe, mais le
script permettant de les stopper et de les réactiver est
inclus dans le fichier général, vu que l’ « icône » on/off a
été placée dans ce dernier et que le TouchSensor qui lui est
associé ne peut envoyer un événement (eventOut) à un script
se trouvant dans un fichier externe.
L’ « Infobox », tel que baptisé, est un fichier à part
entière qui présente les informations 3D disponibles au
niveau des cas de patrimoine en cours de recherche. En effet,
il a été choisi de présenter les informations sous forme d’un
« musée virtuel » que l’utilisateur visite et dans lequel
tous les types de données disponibles au niveau d’un bâtiment
157
sont présentées à l’interacteur. De plus, en créant un
« fichier type », réutilisable et extérieur au fichier
général, il est facile d’ajouter de l’information au sujet
d’autres cas de patrimoine. Cependant, il est clair que
l’accumulation des données en VRML peut ralentir la
navigation, dépendant de l’ordinateur utilisé.
En somme, l’élaboration de cette interface 3D n’a été possible que
moyennant une utilisation abondante de scripts. Ces derniers ralentissent
malheureusement l’exécution des actions qui y sont associées. Les besoins
liés à l’interface consistent bien évidemment en un accès aisé à
l’information. Dans le prototype présenté, la question principale réside
justement dans les moyens utilisés pour accéder à de l’information 3D ou
sonore. L’utilisateur accède dans chacun des nœuds à diverses formes
d’informations. Au niveau des cas particuliers de patrimoine (la rubrique
« recherche en cours ») la solution de l’« Infobox » paraît à l’heure
actuelle et dans le cadre de ce prototype la plus appropriée vu
l’abondance des informations disponibles; cette affirmation n’en reste
pas pour le moins nuancée par la conscience de la nécessité d’assister de
façon effective et rapide l’accès à l’information : la manipulation en
trois dimensions n’est pas des plus aisées, et l’utilisateur novice
risque de se lasser rapidement. Il s’agit là d’une des raisons pour
lesquelles, d’un commun accord avec les membres du LIMA, la version 3D du
prototype n’a pas été présentée comme « la version 3D équivalente à la
version HTML » du site web mais plutôt comme une expérimentation, une
perspective ouverte sur ce que pourrait être un site Web en trois
dimensions.
Le modèle conceptuel. L’image que j’ai choisi de donner du système
interactif aux utilisateurs se base sur la métaphore bien connue des
liens et des nœuds liée au connexionnisme de l’hypertexte. A la base, le
résultat visuel en trois dimensions découle d’une « extrusion » de la
carte du site HTML réalisée en SVG, afin de conserver une certaine
cohérence dans le propos spatial. La « matrice cubique » présente dans
l’interface m’a permis de me retrouver, en tant que concepteur de
l’interface, dans la multitude de liens à mettre en place. Cette idée
d’ « extrusion », rattachée à la réalisation de plans en 2D et de leur
extrusion par la suite en 3D a été appliquée dès le début de la
158
conception de l’interface. Cependant, les demandes par rapport au site
Web ayant évolué et été modifiées à maintes reprises au cours des
ateliers de travail réunissant les personnes concernées, la structure du
site HTML a changé de nombreuses fois et, vu que les modifications en
VRML, dans un espace tridimensionnel, ont beaucoup plus d’implications
que des changements en HTML, où par exemple, le simple ajustement d’un
url et le changement de caractères suffisent, je dois admettre que ce
concept d’ « extrusion » n’a pas été appliqué de façon stricte. Dans un
autre ordre d’idées, la « règle » du modèle conceptuel telle que vue
précédemment voudrait que si une opération peut être effectuée sans que
l'utilisateur ait à être au courant, alors il ne faut pas la représenter.
L’interface proposée va à l’encontre de cette « règle » : en effet,
l’objectif visé est justement d’offrir à l’utilisateur une représentation
de ce qu’il ne voit pas en général : son processus d’interactivité avec
l’interface, pour les raisons dont il a déjà été question. En ce sens
également, on se rend compte à quel point le travail en 3D peut être
différent de celui en 2D.
Le modèle d’interaction. Le prototype est en quelque sorte un modèle
d’interaction en soi dans la mesure où il représente la structure des
échanges majeurs entre l’utilisateur et l’interface. Cependant, les
techniques d’interactivité et les dispositifs d’interaction utilisés
étant nombreux et de natures multiples (arrêt-départ de sons, apparition
d’objets, d’images, etc…), il paraît évident qu’au sein du prototype,
seuls les « chemins parcourus » sont représentés. Aussi, élaborer un
modèle d’interaction complet nécessiterait la schématisation de chacune
des techniques d’interactivité présente dans l’interface 3D, de la
structuration des échanges, et des effets des actions de l’utilisateur
sur chacune des composantes, ce qui semble laborieux vu l’ampleur des
méthodes utilisées. Par ailleurs, une des particularités du VRML réside
dans les instructions ROUTE … TO qui elles-mêmes décrivent les
événements, les « messages » diffusés d’un nœud à un autre (les
événements diffusent l'information parmi des noeuds pour permettre
l'animation et l'interactivité dans un monde VRML). Schématiser un modèle
d’interaction en VRML reviendrait à transposer sous forme graphique
l’ensemble des ROUTEs présentes dans l’ensemble des fichiers VRML. En
examinant les codes informatiques et le nombre de ROUTEs dans les divers
159
fichiers, le lecteur se rendra facilement compte que ce type de schéma
est difficile à insérer dans un mémoire.
4.4 Evaluation des deux versions
L’évaluation est une des étapes faisant partie intégrante de notre
approche systémique : la cyclicité entre prototypage, simulation et
évaluation adoptée a permis d’apporter de nombreuses améliorations au
résultat obtenu. La méthode d’évaluation se classe donc parmi les
méthodes dites empiriques, nécessitant que le prototype soit évalué en
collaboration avec les utilisateurs. L’évaluation formative, qui
s’effectue durant le processus de conception, a eu lieu à plusieurs
reprises, soit lors de réunions des membres du LIMA seuls, soit lors
d’ateliers de travail auxquels participaient également les autres
partenaires du projet de recherche sur le site francophone de mise en
valeur du patrimoine du XXième siècle. Dans cette section, il s’agit de
procéder à une évaluation sommative, en fin de processus de conception,
d’après les critères établis dans le premier chapitre (point 1.4).
La « grille » de Nielsen (1993) (voir p. 46). La « grille » de Nielsen
consiste à se poser les questions suivantes :
Le dialogue est-il simple ?
Le langage utilisé est-il celui de l'utilisateur ?
Le travail de mémorisation est-il minimal?
La présentation et le dialogue sont-ils cohérents
Les retours sont-ils visibles ?
Les sorties sont-elles explicites ?
Existe-t-il des raccourcis ?
Les messages d'erreur sont-ils explicites ?
Les erreurs sont-elles évitées ?
Existe-t-il une aide ?
Le logiciel est-il documenté ?
En ce qui concerne la version HTML, et sans prétention aucune, il semble
permis de dire qu’après les corrections effectuées au niveau des termes
utilisés dans le menu général, la compréhension est assez aisée et
correspond à ce que l’utilisateur est en mesure d’attendre comme
160
information. Une légère ambiguïté semble cependant subsister au niveau de
l’expression « Journal en ligne », apparemment due à une définition
nécessaire du type et de la nature du journal qui sera présenté, ceci
dépendant des objectifs des différents partenaires du projet. Le retour
d’information à l’utilisateur s’effectue par l’affichage d’une page dans
le cadre destiné à la présentation des données, le menu général étant
visible en permanence. L’effort de mémorisation est donc minimal,
d’autant plus que la carte du site retraçant le parcours de l’utilisateur
et l’aidant à se situer au sein du site lui apporte un support
complémentaire. La structure arborescente du menu « raccourcit » l’accès
à l’information et limite les erreurs de direction dans le site. Des
scripts ont été élaborés afin de signaler à l’utilisateur l’absence des
plugins nécessaires, mais certains messages d’erreurs, comme par exemple
le fait que tel ou tel JavaScript n’est pas supporté par la version du
navigateur de l’utilisateur reste encore manquants. Dans la mesure du
possible, il a été tenté d’éviter ce genre d’erreurs, mais un regret
demeure : l’interface n’est pas adaptée complètement à toutes les
versions des navigateurs au niveau de l’affichage de la carte du site. Un
« module d’aide » a été prévu, sous forme de personnes que l’utilisateur
peut contacter et qui se tiennent à sa disposition pour le guider. Enfin,
l’ensemble du code HTML est documenté, et l’utilisateur peut le consulter
(bouton droit de la souris – Afficher source).
En ce qui concerne la version VRML, les dialogues utilisés sont
similaires à la version HTML, et le son vient compléter la compréhension.
Le travail de mémorisation est sans doute plus important, étant donné le
déplacement dans l’espace, mais l’identification dans chaque nœud de la
situation de l’utilisateur et le menu principal à droite de l’écran ont
été conçus pour aider l’utilisateur à se repérer. De plus, au cas où ce
dernier est totalement égaré, divers point de vue nommés sont accessibles
via l’interface de la visionneuse, offrant ainsi à l’utilisateur une
troisième « sécurité ». Les rétroactions en 3D sont visibles; il s’agit
là d’un des objectifs majeurs de l’interface. D’autre part, il est très
difficile d’éviter les erreurs dans cette interface 3D : celles-ci
peuvent découler de la manipulation délicate, de l’ordinateur lui-même,
de l’activation de plusieurs scripts en même temps, etc. A ce sujet, il
faut souligner que le temps de réaction des scripts peut varier d’une
machine à une autre, et que la patience est de rigueur avec le prototype
présenté, notamment dans la manipulation du menu général, la réaction au
161
clic de l’utilisateur peut prendre quelques secondes, ce qui est
perturbant surtout lorsqu’on est habitué à une réponse immédiate à
l’activation d’un lien HTML. Pour finir, un document d’aide figure sur le
site : il décrit la configuration de la visionneuse à adopter et donne
des conseils pour une navigation optimale, décrit le fonctionnement
général de l’interface et définit les fonctionnalités du monde multi-
usagers. Enfin, le code de chaque fichier est entièrement commenté.
Les critères d’utilisabilité d’IBM (1999) (voir p. 47). Les critères
d’utilisabilité d’IBM sont les suivants :
L'objectif du site est-il clair ?
L'audience du site peut-elle clairement s'identifier ?
Le site est-il utile et pertinent pour ce public ?
Le site est-il intéressant et attirant ?
Le site permet-il aux visiteurs de réaliser toutes les tâches
qu'ils veulent accomplir?
Les visiteurs peuvent-ils accomplir facilement ces tâches ?
Le contenu et l'organisation des informations sont-ils cohérents
avec l'objectif du site ?
L'information importante est-elle facile à trouver ?
Toutes les informations sont-elles claires, faciles à comprendre et
à lire ?
Le visiteur sait-il toujours où il est et comment faire pour aller
où il veut ?
Le graphisme est-il agréable ?
Les pages se chargent-elles suffisamment vite ?
En HTML, l’objectif du site est clairement décrit dans la rubrique « [P –
arch]xxe » sous la catégorie « Mission ». La rubrique « [P – arch]xxe »
identifie également les partenaires et offre la possibilité de voir leur
photo respective animées ainsi que de les contacter par courriel. Il
semble que l’audience du site puisse s’identifier sans aucun problème
étant donné le caractère spécialisé du site. La pertinence du site ne
semble pas discutable, et est d’ailleurs supportée par l’ensemble des
partenaires du projet. Répondre à la question de l’attirance du site
paraît quelque peu subjective; libre appréciation sera donc laissée au
lecteur-utilisateur. Par ailleurs, divers ateliers de travail et réunions
ont été organisés afin d’évaluer de façon collaborative l’interface au
162
fur et à mesure de ses évolutions. A l’heure actuelle et à l’état
d’avancement du site, les tâches proposées et envisagées ne sont pas
toutes réalisables. Le moteur de recherche, par exemple, n’a pas encore
été mis en place. L’organisation des informations et leur mode d’accès
est également à finaliser, seule la structure générale est en place. Ce
travail nécessite en effet toute une réflexion au niveau de
l’interprétation des données et des informations selon leur nature qui
n’a pas été permise vu l’ampleur d’un tel travail. D’autre part,
l’utilisateur, au travers du menu et de la carte du site, est
parfaitement à même de se situer au sein du site. Pour ce qui est du
graphisme général, le débat ne sera pas lancé : il a déjà fait l’objet
d’une discussion animée lors d’un atelier de travail, et les avis
semblent partagés. Enfin, le temps de chargement des différentes pages
est très raisonnable, et les animations, généralement plus lourdes, sont
dotées d’une barre de chargement indiquant la progression de ce dernier.
La version VRML semble plus difficile à appréhender au premier abord.
C’est pour cette raison qu’un document a été rédigé afin de situer le
cadre et les objectifs de la recherche entreprise. L’audience aura
probablement plus de mal à s’identifier via la version 3D, mais ceci ne
constitue en soi pas un inconvénient : vu le cadre de la recherche, la
possibilité d’attirer des utilisateurs de types différents est même
souhaitable. Moyennant un développement plus poussé et plus sophistiqué,
la conviction est que ce site 3D peut être très pertinent par rapport au
projet de site francophone du patrimoine. L’accès en trois dimensions à
des informations 3D telles que des modèles, ou encore la possibilité de
visiter un édifice en ligne apporte un intérêt certain dans le cadre de
la mise en valeur du patrimoine. Par ailleurs, l’implémentation multi-
utilisateurs du monde VRML ajoute la notion de « contact » avec les
autres utilisateurs. Les moyens d’accès à l’information sont relativement
simple et suivent une logique appliquée partout; ce qui rend
l’accomplissement des tâches plus difficiles se rapporte à diverses
lacunes et inconvénients persistants au sein de l’interface. Plusieurs
ont déjà été cités, et nulle doute que d’autres surgiront encore. Un des
problèmes majeurs posés par le VRML est la lourdeur du calcul des
géométries et d’exécution des scripts, même avec des fichiers
relativement légers en poids. Les aspects graphiques et visuels
constituent également un terrain sur lequel il est difficile d’avancer
163
sans se laisser conquérir par la subjectivité. L’utilisateur sera mieux
placé pour en donner une évaluation.
L’évaluation coopérative (voir pp. 47-49). Ce type d’évaluation s’appuie
sur la mise en situation de l’utilisateur et son observation lors de
l’interaction avec le site. Malheureusement, le temps n’a pas permis un
tel type d’évaluation.
Les caractéristiques d’une bonne interface usager. Les deux versions du
prototype sont évaluées ci-dessous d’après les critères d’une bonne
interface usager déterminés au point 1.4.3.2 (p. 50) et repris à Anne-
Marie Bussières (1995).
Visibilité. En HTML, les possibilités d’action de l’utilisateur
paraissent clairement définies, sauf, bien évidemment, pour les
rubriques à compléter. En VRML, cela semble plus complexe, vu le
caractère spatial de l’interface qui nécessite un déplacement de
l’utilisateur au travers de différents nœuds. Le menu général
« fixe » a d’ailleurs été conçu pour pallier à cet inconvénient.
Transparence. La transparence est sans doute la qualité première
des deux versions de l’interface : « procurer une image plus que
mentale » de l’évolution du travail de l’utilisateur a été une
ligne directrice de cette étude.
Intuition. C’est avec cette notion d’intuition qu’interviennent les
métaphores à utiliser dans la conception d’une interface. Cela a
déjà été dit, au niveau HTML, l’arborescence a littéralement été
traduite de façon graphique au travers du menu, et en ce qui
concerne le VRML, les nœuds et les liens ont été utilisés
métaphoriquement en référence à l’hypertexte. De façon optimiste,
il est permis de penser que les utilisateurs effectueront le lien.
Cohérence. Le principe de cohérence appelle le même type de réponse
pour une même sollicitation de la part de l’utilisateur. Ce
principe ne pose pas de problème pour le HTML, grâce à
l’hypertexte. En VRML, les techniques d’interactivité élaborées
offrent diverses réponses possibles et variées, chacune
164
particulière. Ceci ne pose pas problème; le prototype se propose en
effet d’expérimenter l’interactivité. Par ailleurs, et c’est en
cela que l’interface reste cohérente, les réponses générales de
l’interface (activation d’un lien et apparition du chemin
correspondant) sont similaires pour tous les liens. Seules
l’interactivité spécifique à chacun des nœuds vient diversifier les
réponses.
Guidance. Le principe de guidance implique l’accès à un module
d’aide. Nous avons vu précédemment que cette propriété a été
respectée.
Contrôle. Le contrôle s’applique probablement plus au HTML qu’à la
version VRML. En effet, l’utilisateur en VRML n’est pas totalement
guidé : il a totalement le choix de ses déplacements dans l’espace,
et il n’est pas possible, en tant que concepteur, de prévoir ces
déplacements, par opposition à la version HTML où tous les chemins
possibles entre les pages ont été prédéfinis. A mon avis, il s’agit
plus d’une qualité que d’un défaut du VRML, qui vient conforté la
conception des mondes virtuels en tant que mondes énactés.
Adaptabilité et adaptativité. Le site HTML se prête facilement à
tous les niveaux d’usagers. La manipulation et les accès à
l’information sont clairs, le site ne demande aucune compétence
particulière de la part de l’utilisateur – si ce n’est d’avoir un
minimum d’expérience au niveau d’Internet – et de l’aide est prévue
en cas de problème (y compris dans le forum). Par contre, je pense
que tous les utilisateurs conviendront que le VRML se prête moins
bien à l’adaptabilité, ne fût-ce que par le fait que nous ne sommes
pas encore habitués à manipuler la 3D sur Internet. D’autre part,
concevoir un site s’adaptant automatiquement au niveau d’expérience
de l’utilisateur (adaptative), comme dans certains jeux, peut être
une piste de recherche future.
De façon générale, mis à part les lacunes au niveau « technique »,
le prototype informatique apporte une réponse à la tentative de
construction et de représentation de l’interactivité numérique. Les
165
lacunes persistantes seront fort probablement comblées dans la suite de
ce travail, sûrement avec des outils plus performants et bien plus de
connaissances au niveau de la programmation. Par ailleurs, comme il l’a
déjà été mentionné à maintes reprises dans ce travail, l’objectif du
prototype n’est pas de livrer un « produit fini »; ainsi, le prototype
présenté tente de montrer ce qui est possible de faire, et l’exhaustivité
est loin d’être son objectif. Il a été conçu pour pouvoir être facilement
complété et adapté par d’autres personnes, en temps voulu : en effet, les
informations à présenter dans le deux versions du prototype n’étaient pas
disponibles à l’heure du développement, et leur disponibilité dépend de
différents acteurs. De plus, il a été très difficile de créer une
structure devant accueillir des informations, sans savoir au préalable
quelles seront ces dernières. En présumant du type de données à placer
dans les deux versions du prototype, celui-ci fournit un environnement
relativement flexible pour présenter des informations, qui doit être
complété et qui est voué à un développement futur.
CONCLUSION
167
Pour comprendre la nature des enjeux liés à l'informatique et plus
particulièrement à la CAAO, il est important de se doter d'une vision
claire de ce qu'est d’une part un ordinateur dans l'histoire générale des
techniques de traitement automatique de l'information, et d’autre part
d’où viennent les méthodes que nous utilisons aujourd’hui, tant de façon
quotidienne que dans le cadre d’une recherche académique. Le premier
chapitre de ce travail a montré que l'ordinateur peut être défini
techniquement comme une machine entièrement automatique, disposant d'une
mémoire étendue et d'une unité de commande interne, qui effectue des
opérations logiques de calcul et de traitement de l'information grâce à
des algorithmes enregistrés (Breton, 1990). D’autre part, sans programme,
un ordinateur, aussi puissant soit-il, ne fait rien. Or, qu'est-ce que
c'est qu'un programme? Dans une définition large, c'est un ensemble
ordonné des opérations nécessaires pour obtenir un résultat. Plus
précisément c'est un ensemble de séquences d'instructions rédigées pour
qu'un ordinateur puisse résoudre un problème donné. La programmation est
donc une forme d'écriture qui vise à réduire en une succession de
séquences une action de sorte à ce qu'elle puisse être exécutée par un
ordinateur. A l'évidence il n'existe pas une seule et bonne façon réduire
une action complexe en un algorithme, une série de choix nécessairement
arbitraires est nécessaire. Autrement dit, la programmation est sujette,
comme n'importe quelle autre forme de littérature, à la subjectivité, à
l'erreur, à l'arbitraire, à l'idéologie et à l'incomplétude.
Les programmes, ou plus précisément les interfaces personne-machine
dans cette étude, ne sont donc « pas neutres ». Ils ne sont pas neutres,
seulement dans la mesure où ils ne font que canaliser leurs utilisateurs
dans une seule façon de faire, et de résoudre des problèmes en tous
genres. A un moment donné de son travail, le programmeur sait qu'il doit
opérer des choix arbitraires et subjectifs, parce qu'il ne sait pas
vraiment « ce qui est mieux » . Les concepts théoriques relatifs à une
interface personne-machine aident à la conception, mais bien souvent, le
concepteur doit trancher, et la voie qu'il choisira sera celle que
devront suivre les milliers d'utilisateurs de son produit, ainsi privés
de toutes les autres voies écartées. L'usager de l'informatique ne sait
généralement pas que lorsqu'il achète un logiciel, c'est « une-certaine-
façon-de-faire » qu'il achète et qu'il va intérioriser à partir du moment
où il l'apprend en en faisant un usage répété. Globalement, il en est de
168
même dans le prototype informatique présenté, mais un des objectifs
consistait à offrir une vision plus large que celle qui vient d’être
citée, et cela à l’aide d’une construction et d’une représentation en
temps réel de l’interactivité de l’usager : donner la possibilité à
l’utilisateur de créer « son propre univers virtuel ».
Dans un autre ordre d’idées, les notions théoriques de l’interface
étudient l’être humain dans le but de rendre l’usage de l’ordinateur plus
approprié au fonctionnement naturel de l’être humain, plus proche d’un
environnement « réel ». Mais il ne faut pas oublier que ce rapprochement
entre l’univers « réel » et l’univers « virtuel » des ordinateurs passe
par une superposition du monde matériel à un monde impalpable. Or, le
deuxième chapitre de ce mémoire a démontré au travers des philosophes que
ces notions de « réalité » et de « virtualité » sont en fait
définissables de multiples façons, dépendant du contexte où l’on se situe
et du point de vue ou l’on se place. En effet, parler « objectivement »
de l’espace est chose difficile, voire contradictoire, dès que l’on
considère l’humain comme agissant au sein d’un espace, et divers autres
éléments sont nécessaires pour en parler. Le « détour » philosophique du
chapitre 2 nous a renseigné su la façon dont les concepts abstraits
changent d’une époque à l’autre, d’une pensée à l’autre. L’impression
d’ensemble est qu’un perpétuel aller-retour du concret à l’abstrait est
indispensable, et qu’il est inutile de nier l’importance du concret et du
sensible pour les constructions conceptuelles qui nous aident à
comprendre le mondes virtuels.
Le troisième chapitre a exposé les divers outils utilisés pour
l’élaboration du prototype. En bout de course, il est permis de dire que
le choix du VRML pour la version 3D n’était peut être pas le meilleur, et
qu’il aurait fort probablement été plus efficace de travailler avec X3D.
De nombreuses lacunes persistent dans le prototype et le résultat obtenu
n’est pas tout à fait fonctionnel, vu les problèmes exposés dans le
chapitre 4. Cependant, c’est en faisant des erreurs qu’on apprend, et
d’autre part, il y a toujours du positif dans le négatif : l’étude du
VRML a appris à créer l’interactivité avec un outil qui n’est pas
forcément orienté vers elle, et ainsi à élaborer des techniques qui
seront d’autant plus efficaces au sein d’un environnement qui offre tous
les moyens nécessaires à une interaction sophistiquée. Par ailleurs, le
SVG est un outil très prometteur : sa flexibilité et ses possibilités
169
d’échange avec de nombreux langages entre autres le placent au rang des
futurs incontournables.
Dans un autre ordre d’idées, il semble aussi dommage de vouloir
parler de problèmes actuels selon des catégories du passé, sans remettre
ces catégories en question. Ce constat apparaît de façon générale au
niveau de l’évaluation de la version 3D du prototype proposé, dans le
quatrième chapitre : les critères utilisés, vu la destination à des
interfaces 2D, ne semblent pas répondre complètement à l’interface 3D.
L’élaboration d’une méthodologie d’évaluation de telles interface
apparaît nécessaire, mais sortait du cadre de ce travail.
Quoi qu’il en soit, l’objectif principal de cette étude semble
atteint : construire et représenter l’interactivité numérique. Cette
dernière a été abordée à de nombreux niveaux, tout au long de ce travail,
et il ressort que le trio « imagination-interactivité-immersion » est un
élément primordial dans l’approche des univers numériques. En effet,
l'imagination permet à l'utilisateur d’être plus réceptif face aux
univers virtuels. Elle permet de franchir la barrière entre l'écran et
l'utilisateur, et celui-ci est pris dans l'action, oubliant presque qu'il
s'agit d'un monde virtuel. L’imagination agit donc sur « l'immersion »,
le degré d'implication de l'utilisateur, sa construction mentale vis-à-
vis du monde virtuel qui est créé. Imagination et immersion influence
donc le type d’expérience interactive de l’utilisateur.
***
L’architecture est une discipline touchant à de multiples domaines,
et l’aspect physique et matériel de l’architecture a toujours été le
facteur dominant et persistant dans son évolution. Or, la condition
matérielle de l’espace n’est pas nécessairement plus importante que sa
capacité relationnelle. A notre époque, un renversement s’établit d’une
économie matérielle à une économie de l’information. La proximité
physique (lieu, endroit) est remplacée par de multiples interactions avec
n’importe quoi, n’importe comment, n’importe où (espace). Ces
interactions en temps réel procurent à chaque endroit spécifique une
signification totalement différente au travers de connections
relationnelles et mentales, et chaque lieu tombe sous l’influence de cet
170
espace abstrait et numérique. En admettant que la complexité du
cyberespace va augmenter avec toujours plus d’information, et toujours
plus de personnes concernées par le structuration de cet espace digital,
une question future réside dans le chemin à choisir au niveau de la
définition d’une architecture virtuelle tant dans l’espace numérique que
dans l’espace concret. Du côté « concret » il serait intéressant
d’explorer la capacité de l’architecture « matérielle », c’est-à-dire
celle qui est construite de « briques » et non de « bits », à posséder un
caractère similaire à celui proposé dans le mémoire au niveau des univers
virtuels. En termes informatiques, cette voie ajouterait au « software »
le « hardware » . En effet, certaines recherches actuelles en méthodes
d’interfaçage du domaine numérique au domaine « réel » se penchent sur
l’insertion de l’espace digital dans le domaine physique et sur la mise
en œuvre de l’interface à une échelle architecturale. Dans cette optique,
le « hardware » pourrait être un bâtiment, et une pièce ou un mur
pourrait être un périphérique d’entrée. Les réponses ou « sorties »
pourraient être visuelles au travers de surfaces ou physiques au travers
d’une réaction cinétique de ces surfaces. L’idée d’investiguer une
« architecture interactive » dans cet esprit paraît intéressante. Divers
groupes de recherche du Media Lab au MIT étudient d’ailleurs sur cet
aspect.
Au niveau plus abstrait, en relation avec l’espace d’informations,
une piste consiste en l’amélioration « technique » du prototype réalisé.
En effet, ce dernier gère des données et informations relativement
limitées par rapport à ce qui pourrait être envisagé, par exemple, dans
le cas de larges bases de données ou encore dans le nombre élevé
d’informations à gérer lors de la conception d’un projet architectural
(qui constitue aussi un espace d’informations !). Ainsi, il serait
intéressant de développer des systèmes créant des constructions visuelles
et spatiales à partir d’un large et complexe corps d’informations. Les
méthodes de rassemblement, de représentation graphiques, et de classement
de données sont bien connues au niveau statique, mais beaucoup de
recherche est encore à faire pour trouver des modèles de représentation
pour examiner de façon dynamique de très larges et complexes systèmes
d’information. Ceci implique une étude profonde au niveau de
l’interprétation et de la structuration des informations et une
investigation dans le domaine des systèmes adaptatifs complexes.
171
Continuer à élaborer des modèles devenant progressivement plus
sophistiqués dans leur capacité à relater à une source d’information,
dans un mode similaire aux systèmes biologiques paraît également
intéressant. Le Martin Lab à l’école d’architecture de l’Université de
Cambrige en Angleterre en a d’ailleurs fait un de ses champs de recherche
principaux.
172
ADDENDA
Le site web présenté dans ce travail ne constituant que l’élément
permettant d’accéder au prototype via Internet, et d’autre part, ce site
web ayant des objectifs qui lui sont propres et qui sont différents des
objectifs de ce travail, il semble nécessaire de spécifier ici les
éléments spécifiques au prototype.
Le prototype est accessible hors ligne à partir du CD-ROM et en
ligne à l’adresse http://limableu2.arc.ulaval.ca/~megia3/. Hors ligne,
l’utilisateur n’aura pas accès au forum de discussion ni au livre d’or,
étant donné que ces deux rubriques nécessitent une communication avec le
serveur. Il en est de même pour l’accès en mode multi-usager du prototype
3D. Par ailleurs, il est conseillé de visiter d’abord la version mono-
usager afin de se familiariser avec l’interface avant de se lancer dans
une navigation multi-usager qui sera fortement ralentie par le programme
java communiquant avec le serveur. Le lecteur est renvoyé à l’annexe A
ainsi qu’au fichier « lisez_moi » du CD-ROM pour les configurations
requises et les instructions d’installation.
Certaines rubriques du site HTML demeurent peu étoffées en matière
d’information : ceci résulte du fait que nombreux partenaires doivent
encore apporter leur matériel à ce prototype. De plus, les fonctionnalité
de recherche au sein des données patrimoniales ainsi que dans les
références (rubriques « Patrimoine\rechercher » et « Références ») n’ont
pas été développées : l’intention est de générer une application XML à
ces fins et cette application relève du développement d’un prototype à
part entière. Les rubriques « Enseignement », « Evénements » et « Journal
en ligne » ont été créées pour que les différentes personnes concernées
puissent apporter leur collaboration, mais elle sortent du cadre du
prototype. Des animations annonçant leur mise en œuvre future ont
cependant été réalisées. De même, la plupart des « sphères » dans la
version VRML du prototype sont relativement « vides », pour les mêmes
raisons de disponibilité de matériel. Un nœud représentatif a été
élaboré, « l’infobox », dans le nœud « Recherche en cours\Kerjean » qui
permet à l’usager de se faire une idée sur la façon dont seront
présentées les informations.
173
Pour les raisons spécifiées plus haut dans ce mémoire, le prototype
3D a été placé sous la rubrique « Patrimoine\Expérimentations ». Cette
dernière est spécifique au prototype proposé, de même que la carte du
site interactive, malheureusement non accessible aux utilisateurs de
Netscape à l’heure actuelle.
BIBLIOGRAPHIE 6
6 * Ouvrages cités
175
ABBOTT, E. (1952). Flatland : une aventure à plusieurs dimensions. Paris: Denoël, 1968. ALEGRIA, J. et al. (1983). L'Espace et le temps aujourd'hui. Paris : Seuil. AMES A. , NADEAU D. , MORELAND, J. (1997). The VRML 2.0 Sourcebook. New York : Wiley & Sons. * ANDERS, P. (1998). Envisioning Cyberspace. New York : McGraw Hill. * ASHBY, R. (1956). An introduction to cybernetics. New York : Wiley & Sons, 1965. * ASSOCIATION FOR COMPUTING MACHINERY (1992). ACM SIGCHI curricula for human- computer interaction. New York : Association for Computing Machinery. ASSOCIATION FOR COMPUTING MACHINERY SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY (1991). Proceedings of the ACM Symposium on User Interface Software and Technology. New York : Association for Computing Machinery. BACHELARD, G. (1943). L’air et les songes : essai sur l’imagination du mouvement. Paris : Corti. * BACHELET, B. (1998). L'espace. Paris : Presses universitaires de France. BAERTSCHI, B. (1992). Les rapports de l'âme et du corps : Descartes, Diderot et Maine de Biran. Paris : Vrin. * BALPE, J. P. (1990). Hyperdocuments, Hypertextes, Hypermédias. Paris : Eyrolles. * BALPE, J. P. et al. (1996). Techniques avancées pour l'hypertexte. Paris: Hermes. * BARCHECHATH, E. , POUTS-LAJUS. (1990). Sur l’interactivité. in L. Green : Le design des didacticiels (pp. 155-167). Paris : Observatoire des Technologies Educatives; ACL - Editions. * BARDA J. , DUSANTES O. , NOTAISE J. (1996). Dictionnaire du multimédia : audiovisuel – informatique – télécommunications. Paris : Afnor. * BAUMAN, Z. (2000). Liquid modernity. Cambridge : Polity Press. BECKMANN, J. (dir.) (1998). The Virtual Dimension. New York : Princeton University Press. * BELBEOCH, O. (1994). Vivre l'espace, construire le temps. Paris : Magnard. BELKITER, N. Cours Interface Personne-Machine. Université Laval. Site de la faculté d’informatique. [En ligne]. (2000) http://www.ift.ulaval.ca/~belkhiter/ift65119/ProtegeBelkhiter/Acetates/Evaluation6.pdf (Page consultée le 3 avril 2001) *
176
BELL, D. , KENNEDY, B. (2000). The cybercultures reader. London : Routledge. BENAYOUN, M. (1999). Un monde trop humain : Nouveaux, meilleurs, et autres mondes. La Mazarine : Le Nouveau Monde, n°10, pp. 100-105. Paris : Treize Mars. * BENEDIKT, M. (Ed.) (1991). Cyberspace : First steps. Cambridge: MIT Press, 1994. BERTRAND, J. M. (1992). Cités et royaumes du monde grec : espace et politique. Paris : Hachette. * BESSOT, A. (1994). Représentations graphiques et maîtrise des rapports avec l'espace. Montréal : CIRADE, UQAM. BINKLEY, T. (1995). L'ordinateur n'est pas un médium, in L. Poissant (dir.) : Esthétique des arts médiatiques (pp. 195-213). Sainte-Foy : Presses de l'Université du Québec. Extraits disponibles en ligne : http://www.comm.uqam.ca/~GRAM/A/comm/010.html * BOISSIER, O. Interactions, [En ligne]. (7 octobre 1999) http://www.emse.fr/~boissier/enseignement/sma/html/Interaction/tsld002.htm (Page consultée le 28 juillet 2001) * BORDELEAU, P. (1994). Les développements technologiques : l'univers des environnements pédagogiques informatisés virtuels, in P. Bordeleau (Ed.) : Des outils pour apprendre avec l'ordinateur. Paris : Editions Logiques. * BOURGET, C. « La virtualité médiévale inversée. Le cyberespace face à l’architecture gothique». Chair et Métal , [En ligne]. (sans date). http://www.chairetmetal.com/ cm04/cybermed.htm (Page consultée le 2 mai 2001) * BRETON, P. (1987). Une histoire de l’informatique. Paris : Seuil, 1990. * BRETON, P. (1995). A l’image de l’homme. Du golem aux créatures virtuelles. Paris : Seuil. BRETON, P. (1997). L'utopie de la communication : le mythe du village planétaire. Paris : La Découverte. * BRETON, P. (2000). Le culte de l'Internet. Paris : La Découverte. BUSH, V. (1945). As we may think. In University of Ottawa. Intelligent Software Group, [En ligne]. (Avril 1994). http://www.isg.sfu.ca/~duchier/misc/vbush/ (Page consultée le 30 avril 2001) * CADOZ, C. (1994). Les réalités virtuelles. Paris : Dominos-Flammarion. CALVEZ, J. P.(1991). Spécification et Conception des Systèmes. Paris : Masson. * CAMARA A. S. , RAPER J. (1999). Spatial multimedia and virtual reality. London : Taylor & Francis.
177
CARD, S. K. , MORAN, T. P. et NEWELL, A. (1983). The Psychology of Human-Computer Interaction. Hillsdale : Erlbaum. * CARROLL, L. (1865-1871). Alice au pays des merveilles et Ce qu'Alice trouva de l'autre côté du miroir. Paris: R. Deforges, 1977. * CATHELAT, B. et al. (1998). De l’homo sapiens à l’homme interactif. Paris: Denoël. * CEAQ (Centre d'étude sur l'actuel et le quotidien), [En ligne]. http://www.univ- paris5.fr/ceaq/ (Page consultée le 18 mars 2001) * CIES (Centre Interfacultaire d'Etudes Systémiques). Glossaire systémique, [En ligne]. (septembre1996). http://www.unine.ch/autogenesis/glossair.htm (Page consultée le 25 juillet 2001) * COTE, P. (2001). ARC-65256 : Cours INTERFACE, MODELE 3D et CAAO Hiver 2001. Non publié. * COUTAZ, J. (1990). Interfaces homme-ordinateur. Paris : Dunod. * CRAWFORD, C. Understanding Interactivity, [En ligne]. (2000) http://www. erasmatazz.com/book.html * CRISPEN, B. « Taming VRML Scripts » In VRML Works Website, [En ligne]. (22 mai 1999) http://hiwaay.net/~crispen/vrml/ (Page consultée le 4 novembre 2001) * CSIRO (Australia's Commonwealth Scientific and Industrial Research Organisation). CSIRO Mathematical & Information Sciences - Scalable Vector Graphics, [En ligne]. http://www.cmis.csiro.au/svg/ (page consultée le 22 octobre 2001) * DE ROSNAY, J. (1975). Le macroscope : vers une vision globale. Paris : Seuil. * DE ROSNAY, J. (1995). L'homme symbiotique : regards sur le troisième millénaire. Paris : Editions du Seuil, 1997. * DELEUZE, G. (1969). Logique de la sensation. Paris : la Différence, 1981.* DELUMEAU, J. (2000). Que reste-t-il du Paradis? Paris : Fayard. * DERRY, M. (1996). Escape velocity : cyberculture at the end of the century. New York : Grove Press. DESCARTES, R. (1953). Descartes, œuvres et lettres (Médiations). Paris : Gallimard. * DRUCKREY, T. (Ed). (1996). Electronic Culture, Technology and visual representation. New York : Aperture. DURAND, A. , Laubin, J. M. , LELEU-MERVIEL, S. « Vers une classification des procédés d'interactivité par niveaux corrélés aux données ». Actes de
178
la 4ème conférence internationale Hypertextes et Hypermédias. [En ligne]. (septembre 1997). http://hypermedia.univ-paris8.fr/paragraphe/article/edurand.htm (Page consultée le 29 juillet 2001) * DUSSAULT, J. C. (1998). L’effet Nintendo. Montréal : Hexagone. * EICK, S. T. (2001). Visualizing online activity. Communications of the ACM, Vol. 44, n°8, pp. 31-37. * FILLION, O. « Emergence de l'architecture virtuelle ». Acte du séminaire CIREN, Université Paris 8 [En ligne]. (7 janvier 1999), http://www.labart.univ-paris8.fr/ ciren/conferences/Fillion.htm (Page consultée le 7 juin 2001) * FLANAGAN, D. (1996). JavaScript : The definitive guide. Sepastopol : O’ Reilly, 1998. * FONTOLLIET, P. G. (1985). Pour une informatique consciente. Lausanne : Presses polytechniques romandes. * FONTOLLIET, P.-G. (1991). L'ordinateur, l'informaticien et les autres: pour une réflexion métainformatique, in B. Galland (Ed.) : 40 ans d'informatique civile: rupture ou continuité culturelle? Lausanne : EPFL. FORESTER, T. (Ed.) (1989). Computers in the human context. Boston : MIT Press. * FREKSA, C. , HABEL, C. , WENDER, K. (Eds) (1998). Spatial cognition : an interdisciplinary approach to representing and processing spatial knowledge. Berlin, New York : Springer. GARDIES, A. (1993). L’espace au cinéma. Paris : Méridiens Klincksieck. * GIARDINA, M. (1999). L'interactivité, le multimédia et l'apprentissage : Une dynamique complexe . Paris : Harmattan. GIBSON, W.(1984). Neuromancien : roman. Paris : La Découverte, 1985. * GIEDION, S. (1940). Espace, temps, architecture. Paris: Denoël, 1990. * GILLET, J. M. (1995). L'interface graphique : enjeux, ergonomie, mise en oeuvre sous Windows. Paris : InterEditions. * GLEICK, J. (1987). La théorie du chaos : vers une nouvelle science. Paris: Michel, 1989. * GOBBETTI, E. , SCATENI, R. (1998). Virtual Reality: Past, Present and Future. in G. RIVA, B. K. WIEDERHOLD, E. MOLINARI (Eds.) : Virtual Environments in Clinical Psychology and Neuroscience (pp. 3-20). Amsterdam : Ios Press. * GRAHAM, T. , WATTS, L., CALVARY, G. , COUTAZ, J., DUBOIS, J., NIGAY, L. (2000). A Dimension Space for the Design of Interactive Systems within their Physical Environments. Actes de la conférence ACM DIS2000.
179
Designing Augmented Reality Environments, pp. 406-416. Egalement disponible en ligne : http://iihm.imag.fr/publs/2000/ GRANGER, G. (1999). La pensée de l'espace. Paris : O. Jacob. GROUPE VRML FRANCOPHONE. « Cours VRML ». In Site du Groupe VRML Francophone, [En ligne](16 février 1999). http://perso.infonie.fr/kdo/vrml/start.htm (Page consultée le 29 août 2001) * GUILLAUME, M. (1999). L'empire des réseaux. Paris : Descartes. HALL, E. T. (1971). La dimension cachée. Paris : Seuil, 1978. * HAMELIN, D. « Document 3: la réalité virtuelle. Cours d’introduction au VRML ». In Université du Québec à Chicoutimi. Département d'informatique et de mathématique, [En ligne]. (juillet 2001) http://wwwdim.uqac.uquebec.ca/~dhamelin/cours/ 8inf707/document3-rv.html (Page consultée le 26 juillet 2001) * HEIM, M. (1995). The Design of Virtual Reality, in M. FEATHERSTONE, R. BURROWS (Eds.) : Cyberspace/Cyberbodies/Cyberpunk : Cultures of Technological Embodiment. (pp. 65-78). London : Sage. * HEIM, M. (1995). The Design of Virtual Reality, in M. Featherstone and R. Burrows (Eds.), Cyberspace/Cyberbodies/Cyberpunk : Cultures of Technological Embodiment (pp. 65-78). London : Sage. * HEIMS, S. J. (1991). Constructing a social science for postwar America : the cybernetics group, 1946-1953. Cambridge : MIT Press, 1993. * HEUDIN, J.-C.(Ed.). (2000). Virtual worlds : Second International Conference, VW 2000, Paris, France, July 5-7, 2000 : proceedings. Berlin: Springer. IBM. Web Design guidelines. IBM Compagny Web Site, [En ligne]. (1999) http://www- 3.ibm.com/ibm/easy/eou_ext.nsf/publish/572 (page consultée le 5 mai 2001) * JACQUINOT, G. « Du cinéma éducateur aux plaisirs interactifs: rives et dérives cognitives » . Cinéma et dernières technologies. [En ligne]. (1998) http://educ.univ- paris8.fr/FORMAT_DOCT/SiteDEA99/grame2.html (page consultée le 15 juin 2001) * KALAWASKI, R. (1993). The Science of Virtual Reality and Virtual Environments. Wokingham: Addison-Wesley. * KANT, E. (1944). Critique de la raison pure. Paris : Presses Universitaires de France. * KOYRE, A. (1973). Du monde clos à l’univers infini. Paris : Gallimard. KUHN, B. (2001). « Realité virtuelle : Editorial ». PixelMag, [En ligne]. n° 58 (mai-juin 2001) http://www.pixelmag.com/ (Page consultée le 20 août 2001) *
180
LABORATOIRE « CAAD & ARCHITECTURE ». Institut fédéral de technologie de Zurich. Trace project : an Autonomous Urban Process Field, [En ligne]. http://caad.arch.ethz.ch/ trace/index.html (Page consultée le 15 juillet 2001) * LABORATOIRE « CAAD & ARCHITECTURE ». Institut fédéral de technologie de Zurich. Visual Design Studio 98, [En ligne]. http://space.arch.ethz.ch:8080/VDS_98 (Page consultée le 15 juillet 2001) * LAHIRE, B. (1998). L'homme pluriel : les ressorts de l'action. Paris : Nathan. LANIER, J. « A Vintage Virtual Reality Interview ». The Well Website, [En ligne]. (1998) http://www.well.com/user/jaron/vrint.html (Page consultée le 29 août 2001) * LAUREL, B. (1991). The Art of Human-Computer Interface Design. Reading : Addison-Wesley. * LAUREL, B. (1993). Computer as theatre. Reading : Addison-Wesley. * LAVOIE, L. (dir.) (2001). De quelques utopies actuelles à l'aube du 3e millénaire. Québec : Les Presses de l'Université Laval. LE MOIGNE, J. L. (1999). La modélisation des systèmes complexes. Paris : Dunod. * LEVY, P. (1990). Les technologies de l'intelligence : l'avenir de la pensée à l'ère informatique. Paris : La Découverte. * LEVY, P. (1994). L'intelligence collective : pour une anthropologie du cyberspace. Paris : La Découverte. LEVY, P. (1995). Qu'est-ce que le virtuel? Paris : La Découverte, 1998. LEVY, P. (1997) Cyberculture : rapport au Conseil de l'Europe dans le cadre du projet « Nouvelles technologies : coopération culturelle et communication ». Paris : O. Jacob. * LEVY, P. (2001). « L'économie immatérielle a pris le pas sur l'économie matérielle, Entretien avec Pierre Lévy ». Le temps, [En ligne]. (22 février 2001) http://www.archipress.org/press/levy.htm (Page consultée le 2 septembre 2001) * LIGONNIERE, R. (1987). Préhistoire des ordinateurs. Paris : Lafont. LIMSI (Laboratoire d'Informatique pour la Mécanique et les Sciences de l'Ingénieur). Groupe Langage et Cognition, [En ligne]. ( juillet 2001) http://www.limsi.fr/ RS2000FF/CHM2000FF/LC2000FF/ChapLc/ (Page consultée le 22 juillet 2001) * LOOTSMA B. , SPUYBROEK L. , BROUWER J. , BROECKMAN, A. (Eds.) (1998). The Art of the Accident : The Merging of Art, Architecture and Media Technology. Rotterdam: NAi Publishers. * LUNENFELD, P. (1999). The digital dialectic : new essays on new media. Cambridge : MIT Press.
181
MAKOWSKI, F. (1994). Négligence du lieu et émergence de l’espace dans la Physique (IV, 1-5) d’Aristote. Revue Epokhè : L’Espace lui-même, n°4, pp. 71-87. * MARRIN, C. , CAMPBELL, B. , SONSTEIN, J. (1997). Teach Yourself Vrml 2 in 21 Days. Sams Publishing. * Mc LUHAN, E. , ZINGRONE, F. (Eds) (1995). Essential McLuhan. Don Mills : Anansi. * Mc LUHAN, M. (1964). Pour comprendre les média: les prolongements technologiques de l'homme. Paris : Seuil, 1977. * McLUHAN, E. (1998). Electric language : understanding the present. Don Mills : Stoddart. MEINADIER, J.-P. (1991). L'interface utilisateur : pour une informatique plus conviviale. Paris : Dunod. * MENGAL, P. « Cybernétique, histoire d'un mot ». Res Publica [En ligne]. n°18(juin1998).http://respublicaweb.free.fr/anciens_numeros/18/mengal.htm (Page consultée le 5 juin 2001) * MITCHELL, W. J. (1995). City of Bits: Space, Place, and the Infobahn. Cambridge : MIT Press. * MOREAU, J. (1965). L'espace et le temps selon Aristote. Pavoda : Antenore. * NASEC (National Applied Software Engineering Center). Virtual Reality, [En ligne]. (8 juillet 1999) http://www.nasec.ctc.com/activities/activity_virtual_reality.htm (Page consultée le 27 août 2001) * NIELSEN, J. (1993). Usability Engineering. Cambridge : AP PROFESSIONAL. * NIELSEN, J. Why You Only Need to Test With 5 Users, [En ligne]. (Mars 2000) http://www.useit.com/alertbox/20000319.html (Page consultée le 3 mars) * NIMIER, J. Les facteurs humains dans l'enseignement et la formation d'adultes, [En ligne].(juillet2001). http://perso.wanadoo.fr/jacques.nimier/ interaction.htm#interaction (Page consultée le 28 juillet 2001) * NOËL, E. (2000). Cybermondes : où tu nous mènes, grand frère. Genève : Georg. NORBERG-SCHULZ, C. (1977). La signification dans l'architecture occidentale. Bruxelles : P. Mardaga. * NORMAN, D. A. , DRAPER, S. W. (Eds) (1986). User centered system design : new perspectives on human-computer interaction. Hillsdale : Erlbaum. * NORMAN, D. A. (1988). The design of everyday things. New York : Doubleday, 1990. *
182
NUNES, M. « Virtual Topographies: Smooth and Striated Cyberspace ». Georgia Perimeter College, [En ligne]. (1999) http://www.dc.peachnet.edu/%7Emnunes/vtop.htm (Page consultée le 2 septembre 2001 * OOSTERHUIS, K. et al. « Trans-ports 2001 ». In Trans-ports 2001, [En ligne]. http://www.trans- ports.com/ (Page consultée le 12 juin 2001).* PALFREMAN, J. , SWADE, D. (1991). The Dream Machine. London: BBC Books. * PASCAL, G. (1985). Kant. Paris : Bordas. PERAYA, D. Internet, un nouveau dispositif de médiation des savoirs et des comportements ?,[En ligne].(décembre 1999). http://tecfa.unige.ch/tecfa/ teaching/LME/peraya/textes/cem_def.pdf (page consultée le 23 juillet 2001) * PEREC, G. (1976). Espèces d'espaces. Paris : Denoël-Gonthier. PIMENTEL, K. , TEIXEIRA, K. (1993). La réalité virtuelle... de l'autre côté du miroir. Paris : Addison-Wesley France, 1994. * PLATON. La République. Paris : Livre de poche, 1995. * PLATON. Timée. Paris : Flammarion,1992. * POPPER, F. (1980). Art, action et participation : l'artiste et la créativité aujourd'hui. Paris : Klincksieck. POTONET, F. « CAO/DAO Architecturale ». In Ecole Spéciale d’Architecture de Paris. Site de l’ESA, [En ligne]. (sans date) http://www.esa-paris.fr/esa/school/les_profs/prg/potonet/ potonet.html (Page consultée le 2 juillet 2001) * QUEAU, P. (1993). Le virtuel : vertus et vertiges. Champ Vallon : Seyssel. Egalement disponible en ligne : http://www.ina.fr/Livre * QUEAU, P. (2000). La planète des esprits : pour une politique du cyberespace. Paris : O. Jacob. Egalement disponible en ligne : http://www.unesco.org/ webworld/news/001109_planete_1.shtml * QUEAU, P. « La Présence de l'esprit ». Chair et Métal , [En ligne]. n°3 (sans date). http://www.chairetmetal.com/textes2.htm (Page consultée le 2 mai 2001) * RADU, D. (1999). La représentation de l'espace de la société traditionnelle : les mondes renversés. Paris : L'Harmattan. REGNAULD, H. (1998). L’espace, une vue de l’esprit ? Rennes : Presses universitaires de Rennes. * RHEINGOLD, H. (1993). La réalité virtuelle. Quand l’illusion a toutes les apparences de la réalité. Paris : Dunod, 1991. *
183
ROBERT, A. « Infobahn blues ». c t h e o r y : theory. technology. culture, [En ligne]. n°21 (20 janvier 1995). http://www.ctheory.com/article/a021.html (Page consultée le 16 août 2001) * ROBERT, P. (2000). Le nouveau petit Robert : dictionnaire de la langue française (Nouv. éd. rev.) Paris : Dictionnaires Le Robert. * RÖSSLER, O. E. (1998).The world as an accident, in LOOTSMA, B. , SPUYBROEK, L. , BROUWER, J. , BROECKMAN, A. (Eds.). The Art of the Accident : The Merging of Art, Architecture and Media Technology. Rotterdam: NAi Publishers. * RUSHKOFF, D. (1994). Cyberia. Life in the Trenches of Hyperspace. San Fransisco: Harper. SACK, W. « Conversation map version 0.01: an interface for very large-scale conversations ». In MIT Media Laboratory, [En ligne].http://www.media.mit.edu/~wsack/CM/index.html (Page consultée le 2 juin 2001) * SALAT, S. (1997). La relève du réel : les arts du chaos et du virtuel. Paris : Hermann. * SANSOT, P. (1985). Interactivité et interaction. Le Bulletin de l’IDATE : Interactivité(s), n°20, pp. 87-94. * SEGUY, F. (1999). Les produits interactifs et multimédias : méthodologies, conception, écritures. Grenoble : Presses universitaires de Grenoble. * SINA, A. , VIRILIO, P. L'urbanité virtuelle, l'être-au-monde au temps réel, [En ligne]. (11 janvier 1996) http://www.archivue.net/LECTURES/Textes/Virilio02.html (Page consultée le 10 août 2001) * SHIELDS, R. « Performing Virtualities: Virtual Spaces? ». in Space and Culture: Virtual spaces organizational networks, [En ligne]. n°4/5 (2001). http://www.carleton.ca/~rshields/ space/shields.pdf (page consultée le 3 septembre 2001) * SHNEIDERMAN, B. (1987). Designing the User Interface : strategies for effective human- computer interaction. Reading : Addison-Wesley, 1992. * SPACE AND CULTURE (Ed.) (2000). Virtual spaces organizational networks. Ottawa : Space and Culture. STANLEY, D. Essais d’interactivité. (Thèse (de DEA). Université de Paris 8), 1997 [En ligne]. http://www.labart.univ-paris8.fr/~douglas/essais/* STONIER, T. (1992). Beyond information : the natural history of intelligence. New York : Springer-Verlag. * SUN MICROSYSTEMS. « Scalable Vector Graphics (SVG): An Executive Summary». In Sun Microsystems Website, [En ligne]. (2001) http://www.sun.com/software/xml/ developers/svg/ (Page consultée le 15 octobre 2001) *
184
THIERRY, D. (2000). Nouvelles technologies de communication : nouveaux usages? nouveaux métiers? Paris : L'Harmattan. THIMBLEBY, H. (1990). User interface design. New York : ACM Press; Reading : Addison-Wesley. * THRIFT, N. J. (1996). Spatial formations. London : Thousand Oaks. TOGNAZZI, B. (1993). Principles, Techniques, and Ethics of Stage Magic and their Application to Human Interface Design, in Ashlund et al. (Eds.) : Proceedings of ACM SIGCHI '93 (pp. 355-362). ACM SIGCHI, Addison Wesley. * TURKLE, S. (1995). Life on the screen: Identity in the Age of the Internet. New-York : Simon and Schuster. * UNIVERSITÉ DE PENNSYLVANIE. The ENIAC Virtual Museum, [En ligne]. (15 avril 1997). http://www.seas.upenn.edu:8080/~museum/overview.html (Page consultée le 12 mai 2001) * UNIVERSITE LAVAL. Département d'études sur l'enseignement et l'apprentissage. Technologie éducative, [En ligne]. (sans date) http://www.fse.ulaval.ca/fac/ ten/cours/html/cour7.html(Page consultée le 10 mai 2001). * VARELA, F. J. (1988) Connaître : Les sciences cognitives, tendances et perspectives, Paris : Seuil, 1989. * VARELA, F. J. (1989). Invitation aux sciences cognitives (2e éd. rev.). Paris : Seuil, 1996. * VARELA, F. J. , THOMPSON, E. , ROSCH, E. (1993). L'inscription corporelle de l'esprit : sciences cognitives et expérience humaine. Paris : Seuil. * VERNANT, J. P. (2000). L’homme grec. Paris : Seuil. * VIRILIO, P. (1996). Cybermonde, la politique du pire : entretien avec Philippe Petit. Paris : Textuel. * VIRILIO, P. (1998). La bombe informatique. Paris : Galilée. * VIRLIO, P. (1996). Un paysage d 'événements. Paris: Editions Galilée. VISUALWARE. « VisualRoute® Online Instruction Manual for Version 6.0b ». In Visualware Website,[En ligne]. http://www.visualware.com/visualroute/manual.html (Page consultée le 18 juin 2001) WADE, P. (1998). Cyberplanète : notre vie en temps virtuel. Paris : Autrement. WATZLAWICK, P (1978). La réalité de la réalité. Paris : Seuil. * WEISSBERG, Jean-Louis. Présences à distance. (Paris : L’Harmattan, 1999). [En ligne]. http://hypermedia.univ-paris8.fr/Weissberg/presence/presence.htm#table (Page consultée le 15 juin 2001) *
185
WIENER, N. (1948). Cybernetics or, Control and communication in the animal and the machine. Cambridge: MIT Press, 1965. * WILSON, L. (1995). « Cyberwar, God and Television : Interview with Paul Virilio » . c t h e o r y : theory, technology. culture, [En ligne]. n°20 (1 December 94). http://www.ctheory.com/article/a020.html (Page consultée le 16 août 2001) * WISE, R. (2000). Multimedia : a critical introduction. London : Routledge. * WORLD WIDE WEB CONSORTIUM. « An Overview of the Virtual Reality Modeling Language Version 2.0». In Site Serveur VRML français, [En ligne]. ( 4 août 1996) http://apia.u-strasbg.fr/vrml/ressources/specs/overview.html#NodeChanges(Page consultée le 3 novembre 2001) * WORLD WIDE WEB CONSORTIUM. « The Virtual Reality Modeling Language : Introduction». In W3C Website, [En ligne]. ( 1997) http://www.web3d.org/technicalinfo/specifications/vrml97/part1/introduction.html (Page consultée le 5 juin 2001) * WORLD WIDE WEB CONSORTIUM. « The World Wide Web Consortium Releases First Working Draft of Scalable Vector Graphics (SVG) specification ». In W3C Website, [En ligne] (11 février 1999). http://www.w3.org/Press/1999/Testimonials-SVG-WD (Page consultée le 15 octobre 2001) * WORLD WIDE WEB CONSORTIUM. « SVG Specifications ». In W3C Website, [En ligne] (4 septembre 2001). http:// www.w3.org/TR/SVG/ (Page consultée le 15 octobre 2001) * WORLD WIDE WEB CONSORTIUM. « Extensible 3D (X3D™) Graphics Working Group». In W3C Website, [En ligne]. ( 25 septembre 2001) http://www.web3d.org/x3d.html (Page consultée le 3 novembre 2001) * WORLD WIDE WEB CONSORTIUM. « HyperText Markup Language Home Page». In W3C Website, [En ligne] (29 octobre 2001). http://www.w3.org/MarkUp/ (Page consultée le 3 novembre 2001) * WORLD WIDE WEB CONSORTIUM. « W3C Scalable Vector Graphics (SVG) ». In W3C Website, [En ligne] (1 novembre 2001). http://www.w3.org/Graphics/SVG/Overview.htm8 (Page consultée le 3 novembre 2001) * WUNENBURGER, J. (1997). Philosophie des images. Paris : Presses universitaires de France. * ZHAI, P. (1998). Get real : a philosophical adventure in virtual reality. Lanham : Rowman & Littlefield.
186
ANNEXES
188
Annexe A
Prototype informatique : Supports
Le lecteur trouvera en annexe à ce mémoire le prototype informatique sur support CD-ROM. Le prototype a été réalisé sur un ordinateur du type : PC Processeur AMD Duron 800 Mhz 458 Mega de RAM Carte graphique G-Force Plateforme Windows 98 Navigateur Internet Explorer 5.5 Visionneuse VRML Cortona Il est fortement conseillé d’utiliser Internet Explorer 5.5 afin d’avoir accès à toutes les fonctionnalités du prototype. En effet, les utilisateurs de Netscape n’auront pas accès à la « carte interactive », qui constitue l’essentiel du prototype sur support HTML et SVG. Internet Explorer ainsi que les plugins nécessaires ont été joints sur le CD-ROM; l’utilisateur consultera au préalable le fichier « lisez_moi » pour les instructions d’installation et d’utilisation du prototype. D’autre part, les codes informatiques commentés sont consultables directement à partir du CD-ROM, pour chacun des fichiers HTML, VRML et SVG : en effet, le nombre de pages étant très élevé, il a été choisi de les présenter sous format électronique. Seul un éditeur de texte est nécessaire à cette fin. Aussi, un « flip-book », inspiré des toutes premières techniques de création de dessins animés et illustrant le « voyage » au travers d’un lien dans la version 3D du prototype est également joint à ce travail.
189
Annexe B
Références Internet
Les références Internet étant « volatiles » et ne fournissant aucune assurance au niveau de la persistance, les pages auxquelles ce mémoire fait référence ont été jointes à ce travail de la manière suivante : chacune des pages référencées dans le texte par l’expression « Annexe B » est sauvegardée sur le CD-ROM dans le dossier « references_sauvegardees » (Annexe_B\references_sauvegardees).Ces dernières sont toutes consultables hors ligne, directement à partir du CD-ROM. La liste ci-dessous énumère les différentes références sauvegardées. Un titre bibliographique a été rajouté sur chaque page Internet afin de les rendre plus facilement identifiables. Des raccourcis Internet se trouvent également dans le dossier « raccourcis_references » du CD-ROM pour faciliter l’accès en ligne. BELKITER, N. Cours Interface Personne-Machine. Université Laval. Site de la faculté d’informatique. [En ligne]. (2000) http://www.ift.ulaval.ca/~belkhiter/ift- 65119/ProtegeBelkhiter/Acetates/Evaluation6.pdf (Page consultée le 3 avril 2001) * BINKLEY, T. (1995). L'ordinateur n'est pas un médium, in L. Poissant (dir.) : Esthétique des arts médiatiques (pp. 195-213). Sainte-Foy : Presses de l'Université du Québec. Extraits disponibles en ligne : http://www.comm.uqam.ca/~GRAM/A/comm/010.html BOISSIER, O. Interactions, [En ligne]. (7 octobre 1999) http://www.emse.fr/~boissier/ enseignement/sma/html/Interaction/tsld002.htm (Page consultée le 28 juillet 2001) BOURGET, C. « La virtualité médiévale inversée. Le cyberespace face à l’architecture gothique». Chair et Métal , [En ligne]. (sans date). http://www.chairetmetal.com/ cm04/cybermed.htm (Page consultée le 2 mai 2001) BUSH, V. (1945). As we may think. In University of Ottawa. Intelligent Software Group, [En ligne]. (Avril 1994). http://www.isg.sfu.ca/~duchier/misc/vbush/ (Page consultée le 30 avril 2001) CEAQ (Centre d'étude sur l'actuel et le quotidien), [En ligne]. http://www.univ- paris5.fr/ceaq/ (Page consultée le 18 mars 2001) CIES (Centre Interfacultaire d'Etudes Systémiques). Glossaire systémique, [En ligne]. (septembre 1996). http://www.unine.ch/autogenesis/glossair.htm (Page consultée le 25 juillet 2001) CRISPEN, B. « Taming VRML Scripts » In VRML Works Website, [En ligne]. (22 mai 1999) http://hiwaay.net/~crispen/vrml/ (Page consultée le 4 novembre 2001)
190
DURAND, A. , LAUBIN, J. M. , LELEU-MERVIEL, S. « Vers une classification des procédés d'interactivité par niveaux corrélés aux données ». Actes de la 4ème conférence internationale Hypertextes et Hypermédias. [En ligne]. (septembre 1997). http://hypermedia.univ-paris8.fr/paragraphe/article/edurand.htm (Page consultée le 29 juillet 2001) FILLION, O. « Emergence de l'architecture virtuelle ». Acte du séminaire CIREN, Université Paris 8 [En ligne]. (7 janvier 1999), http://www.labart.univ-paris8.fr/ ciren/conferences/Fillion.htm (Page consultée le 7 juin 2001) HAMELIN, D. « Document 3: la réalité virtuelle. Cours d’introduction au VRML ». In Université du Québec à Chicoutimi. Département d'informatique et de mathématique, [En ligne]. (juillet 2001) http://wwwdim.uqac.uquebec.ca/~dhamelin/cours/ 8inf707/document3-rv.html (Page consultée le 26 juillet 2001) JACQUINOT, G. « Du cinéma éducateur aux plaisirs interactifs: rives et dérives cognitives » . Cinéma et dernières technologies. [En ligne]. (1998) http://educ.univ- paris8.fr/FORMAT_DOCT/SiteDEA99/grame2.html (page consultée le 15 juin 2001) LANIER, J. « A Vintage Virtual Reality Interview ». The Well Website, [En ligne]. (1988) http://www.well.com/user/jaron/vrint.html (Page consultée le 29 août 2001) LEVY, P. (2001). « L'économie immatérielle a pris le pas sur l'économie matérielle, Entretien avec Pierre Lévy ». Le temps, [En ligne]. (22 février 2001) http://www.archipress.org/press/levy.htm (Page consultée le 2 septembre 2001) LIMSI (Laboratoire d'Informatique pour la Mécanique et les Sciences de l'Ingénieur). Groupe Langage et Cognition, [En ligne]. ( juillet 2001) http://www.limsi.fr/ RS2000FF/CHM2000FF/LC2000FF/ChapLc/ (Page consultée le 22 juillet 2001) MENGAL, P. « Cybernétique, histoire d'un mot ». Res Publica [En ligne]. n° 18 (juin 1998). http://respublicaweb.free.fr/anciens_numeros/18/mengal.htm (Page consultée le 5 juin 2001) NIELSEN, J. Why You Only Need to Test With 5 Users, [En ligne]. (Mars 2000) http://www.useit.com/alertbox/20000319.html (Page consultée le 3 mars) NIMIER, J. Les facteurs humains dans l'enseignement et la formation d'adultes, [En ligne]. (juillet 2001). http://perso.wanadoo.fr/jacques.nimier/ interaction.htm#interaction (Page consultée le 28 juillet 2001) NUNES, M. « Virtual Topographies: Smooth and Striated Cyberspace ». Georgia Perimeter College, [En ligne]. (1999) http://www.dc.peachnet.edu/%7Emnunes/vtop.htm (Page consultée le 2 septembre 2001 PERAYA, D. Internet, un nouveau dispositif de médiation des savoirs et des comportements ?, [En ligne]. (décembre 1999).
191
http://tecfa.unige.ch/tecfa/ teaching/LME/peraya/textes/cem_def.pdf (page consultée le 23 juillet 2001) POTONET, F. « CAO/DAO Architecturale ». In Ecole Spéciale d’Architecture de Paris. Site de l’ESA, [En ligne]. (sans date) http://www.esa-paris.fr/esa/school/les_profs/prg/ potonet/potonet.html (Page consultée le 2 juillet 2001) QUEAU, P. (2000). La planète des esprits : pour une politique du cyberespace. Paris : O. Jacob. Egalement disponible en ligne : http://www.unesco.org/ webworld/news/001109_planete_1.shtml QUEAU, P. « La Présence de l'esprit ». Chair et Métal , [En ligne]. n°3 (sans date). http://www.chairetmetal.com/textes2.htm (Page consultée le 2 mai 2001) ROBERT, A. « Infobahn blues ». c t h e o r y : theory. technology. culture, [En ligne]. n°21 (20 janvier 1995). http://www.ctheory.com/article/a021.html (Page consultée le 16 août 2001) SINA, A. , VIRILIO, P. L'urbanité virtuelle, l'être-au-monde au temps réel, [En ligne]. (11 janvier 1996) http://www.archivue.net/LECTURES/Textes/Virilio02.html (Page consultée le 10 août 2001) SHIELDS, R. « Performing Virtualities: Virtual Spaces? ». in Space and Culture: Virtual spaces organizational networks, [En ligne]. n°4/5 (2001). http://www.carleton.ca/~rshields/ space/shields.pdf (page consultée le 3 septembre 2001) SUN MICROSYSTEMS. « Scalable Vector Graphics (SVG): An Executive Summary ». In Sun Microsystems Website, [En ligne]. (2001) http://www.sun.com/software/xml/ developers/svg/ (Page consultée le 15 octobre 2001) WILSON, L. (1995). « Cyberwar, God and Television : Interview with Paul Virilio » . c t h e o r y : theory, technology. culture, [En ligne]. n°20 (1 December 94). http://www.ctheory.com/article/a020.html (Page consultée le 16 août 2001) * WORLD WIDE WEB CONSORTIUM. « An Overview of the Virtual Reality Modeling Language Version 2.0». In Site Serveur VRML français, [En ligne]. ( 4 août 1996) http://apia.u-strasbg.fr/vrml/ressources/specs/overview.html#NodeChanges (Page consultée le 3 novembre 2001) WORLD WIDE WEB CONSORTIUM. « The Virtual Reality Modeling Language : Introduction». In W3C Website, [En ligne]. ( 1997) http://www.web3d.org/technicalinfo/ specifications/vrml97/part1/introduction.html (Page consultée le 5 juin 2001) WORLD WIDE WEB CONSORTIUM. « The World Wide Web Consortium Releases First Working Draft of Scalable Vector Graphics (SVG) specification ». In W3C Website, [En ligne] (11 février 1999). http://www.w3.org/Press/1999/Testimonials-SVG-WD (Page consultée le 15 octobre 2001)
192
WORLD WIDE WEB CONSORTIUM. « SVG Specifications ». In W3C Website, [En ligne] (4 septembre 2001). http:// www.w3.org/TR/SVG/ (Page consultée le 15 octobre 2001) * WORLD WIDE WEB CONSORTIUM. « Extensible 3D (X3D™) Graphics Working Group». In W3C Website, [En ligne]. ( 25 septembre 2001) http://www.web3d.org/x3d.html (Page consultée le 3 novembre 2001) WORLD WIDE WEB CONSORTIUM. « HyperText Markup Language Home Page». In W3C Website, [En ligne] (29 octobre 2001). http://www.w3.org/MarkUp/ (Page consultée le 3 novembre 2001) WORLD WIDE WEB CONSORTIUM. « W3C Scalable Vector Graphics (SVG) ». In W3C Website, [En ligne] (1 novembre 2001). http://www.w3.org/Graphics/SVG/Overview.htm8 (Page consultée le 3 novembre 2001)