1 Architectures dagents intelligents Module Intelligence artificielle P. De Loor - enib - 2001/2002...
-
Upload
stephanie-bourgoin -
Category
Documents
-
view
104 -
download
0
Transcript of 1 Architectures dagents intelligents Module Intelligence artificielle P. De Loor - enib - 2001/2002...
1
Architectures d’agents intelligents
Module Intelligence artificielleP. De Loor - enib - 2001/2002
Procedural Reasoning System (PRS)Belief Desire Intention (BDI)
2
Entités autonomes « intelligentes » :
Pro-Activité (but) Autonomie (refus, échec)
Robustesse Apprentissage Les autres
Comportements complexes
Introduction
3
Spécifier un comportement
code « en dur », modèles -> « interpréteur »,
bas niveau : équadiff, behavior net, rdn, -physique et biologie-
haut niveau : règles (IA), script, storytelling -psychologie-
association des deux -robotique-
Introduction
4
I.A Classique (cognitive)
capteurs actionneursmodéliser planifier agir
• lent• global• pro-activité , échec ?• dynamicité ?
Grandeurs physiques Symboles Inférence
Grandeurs physiques
modèle générique
STRIP, Chrdlu, Allen,(Pert ?)
5
IA « Comportementale » (réactive)
Pas de planification/inférencePas de représentation symbolique
(?)capteurs actionneursFonction
sans
mémoire
Grandeurs physiques
Grandeurs physiques
• rapide• modulaire• pro-actif : oui et non
• la notion d’échec n ’existe pas mais réaction possible• pas d ’inférence
• dynamicité : au niveau perception, pas comportement
6
Problème
A la fois réactif et cognitif ? abstraction
Adaptation à un environnement dynamique échec d ’une action modification d ’un but
Deux exemples d ’approches Architecture de P. Maës Architecture des BDI
7
Approche Symbolique : Beliefs Desires Intentions
Architecture formelle Origines
psychologique, « Practical Reasoning » [BRA 87]
robotique, « Procedural Reasoning System » [GEO 86]
Puis :modèles formels [Coh90], [Woo94], [Rao91]aspect sociaux [Woo94]raisonnement des agents rationnels [Woo00]
8
Formaliser
réel systèmeformel
théorie
formaliser
prédire
fonctionne seul
9
Mots clés des formalistes
concept
Interprétation syntaxique
Modèle : théorie des modèles
Langage formel : syntaxe
Axiomatique : théorie de la démonstration
Interprétation sémantique
10
Les liens modèle-axiomatique
modèle axiomatique
Notion de vérité {v,f}de validité
Notion de preuve :théorèmes
complétude
adéquation
réel
11
Procedural Reasoning System
Réactif
Cognitif planificationaspect déclaratif
PRS
Notion d ’échecsprocédures
12
Procedural Reasoning SystemCe dont on part :
But et environnement dynamique. Connaissance de tâches (processus)
déclarative (précondition, effet)procédurale (plan d ’actions)
Ce que l ’on fait : Raisonner sur les processus/état/but
« means ends reasoning»
Lancer les processus (donc les actions). Réévaluer en fonction des succès/échecs
13
Exemple de processus
Precondition : exist(a) ...Effect : position(a,3)Connaissance procédurale
action1 action2
action3
Action : prédicats du 1er ordreformules : (on a b)(on b c),comportements : (WALK a, b)qui peuvent échouer.
succes
14
Processus
c<P>g le processus P permet d ’atteindre un but c, s ’il s ’exécute avec succès à partir de l ’état (partiel) c.
un processus est en échec si toutes les solutions possibles ont été évaluées
difficulté : connaissant P définir c et g de la façon la plus complète
15
Planifier = Hiérarchisation de Plans
Raisonner à un niveau donné défini par les circonstances
Abstraire les « détails » non prévisibles à un niveau donné
Etre dynamique : modifier ses intentions (plan d ’actions)
Préserver un but
16
Exécution
Abut
pre:trueeffect : !A
unification
pre:trueeffect : !A
C
Lien environnement :capable de répondre succès ou échec
17
Un P.R.S : Bras manipulateur sur navette spatiale
Interface Utilisateur
Interpréteur
(Raisonnement)
Base de données
(faits, croyances)
(Procedures)
process assertion
Buts Procedures actives
Entrées Monitor
Capteurs
Actionneurs
Shuttle
Subsystems
Sorties Génération de commande
18
P.R.S
Interpréteur faits et buts ---> processus « activables » choix de l ’un d ’entre eux en tête de pile
d ’exécution ajout dynamique de faits et de buts donc
de processus « activables » LISP
Problème : maintient de la cohérence
19
P.R.S : exemples d ’applications
Bras manipulateur [GEO 86]Système de Control de la réaction de
la NASA [ING 92]Robocup [BER 97]
20
Ajout d ’un niveau supplémentaire
Niveau « méta » règles de choix des procédures auto-création de nouveaux buts nouveaux désirs, croyances, intentions même syntaxe et sémantique que le
modèle précédent : même interpréteur
B.D.I.
21
B.D.IPrincipe de P.R.SFormalisation des concepts B.D.I (BGI)Règles de mise à jours liées aux concepts
Caractérisation d ’un agentPreuvesAspects « multi » :
partage de croyances appartenance à un groupe
22
Croyances
Affirmation : connaissance … sur l ’environnement. sur soi (croyances(intentions) ..
23
Désirs
Buts pouvant être atteints. peuvent être contradictoires. « moteurs » de l ’agent.
24
Intentions ([Brat87])
But(s) ou désirs non contradictoires Plan à exécuter pour satisfaire un désir Réside d ’un choix à partir des
croyances et des désirs. influent sur des délibérations à venir. re-considération «régulière» (réactif-
pro-actif )
25
BDI [Wei 99]
brf
Capteur/entrée
beliefs
generate options
desires
filter
intentions
action sortie
délibérationPro
cess
us it
érat
if
maj
26
Architecture abstraite :
Interpréteur de base états = formules (différentes logiques) file d ’événements (externes/internes) retour : événement ‘échec ’ ou
‘ succès ’ d ’actions une option : fonction, plan, règle, tache,
automate...
27
Architecture Abstraite [Sin 99]
Interpréteur BDIinitialize-state();
do
options:= option-generator(event-queue, B,G,I);
selected-options = deliberate(option, B,G,I);
update-intention(selected-options,I);
execute(I);
get-new-external-events();
drop-successful-attitudes(B,G,I);
drop-impossible-attitudes(B,G,I);
until quit.
Maj = prise en compte d ’événements : belief-add, belief-remove…+ compatibilité : belief-compatible, goal-compatible, intention-compatible
état
28
Formaliser les BDI
Formaliser : préciser ??? syntaxe
« grammaire » + « formules acceptables »« proof theory » : liens et substitutions entre
formules (axiomes et règles d ’inférences)
sémantique « model theory » : lien avec la réalité
(simplifiée) les systèmes formels sont à « l ’exécution » ce que les méthodologies objets sont
à la P.O.O.
29
Formaliser les BDI
Axiomes des BDI caractéristiques « statiques » déduction et inférence (B G I)
compatibilité entre-euxajout, retrait : interpréteurmise à jour «dynamique»
vers l ’action vers la « personnalisation » (esprit
simple, ouvert)
30
Formalisation des BDI
Différentes PropositionsLogique du premier ordre :
Intention/Engagement [Gen 87]• Bel(Janine,Father(Zeus,Chronos))• problème d ’expressivité
Logiques Modales : • mondes possibles• buts/désirs [Coh90], [Woo94]• buts/désirs/intentions/croyances/plan [Rao91]• « social plan » [Rao92]
Voire annexes
31
Exemple de spécification en BDI
BEL(inevitable (have-soda;fill-glass;drink)quenched-thirst)BEL(inevitable (open-tap;fill-glass;drink)quenched-thirst)BEL(inevitable (open-fridge;remove-soda)have-soda)
BEL(optional (have-soda;fill-glass;drink))BEL(optional (open-tap;fill-glass;drink))BEL(optional (open-fridge;remove-soda))
BEL(inevitable (¬(soda-in-fridge)inevitable¬ (remove-soda))
GOAL(inevitable (quenched-thirst))
32
Exemples d ’interprétation
Axiomes en annexes agent aveugle : l ’agent n ’accepte pas (comme but)
qu’on lui demande de ne pas remplir son verre si dans ses buts il veut boire. Il n ’accepte pas (comme croyance) qu’il n ’y ait plus de soda non plus !
Esprit simple : si il n ’y a plus de soda dans le frigo, l ’agent le croit et garde l ’option de l ’eau. N ’accepte pas qu’on lui demande de ne pas remplir son verre.
Esprit ouvert : accepte de ne plus boire si on lui demande de ne pas remplir son verre.
33
Implémenter les BDI
Interface avec l ’environnement mondes ? (taille) environnement -> état « cognitif » état cognitif-> action -> environnement Représentation des buts …
Primitives exécutables ?...
34
Une Implémentation [Sin 99]
restrictions (temps/mémoire)croyance de « faits », pas de conséquencecroyances et buts courant = prédicats sans
disjonctions ou implications formules de logique modale = plan = graphe
pour atteindre un but : « means-end reasoning »
plans hiérarchiquescroyances de plans intentions = plans
35
Interpréteur « réalisable »Mise à jour I,G,Bbuts à atteindre
ajoutés à la liste des intentions / hiérarchie exécution des buts atomiques
but atteints retirés des intentions ajoutés aux croyances mise à jour des intentions encore
« réalistes »
36
Conclusions sur les BDI
Nombreux travaux Approche formelle
Idées sur les concepts Difficulté de leur mise en œuvre Réaliste ?
37
Conclusions sur les BDI
Aspect « multi » peu traité (Rao 92) Mutual BEL … Joint GOAL ..
Langages logiques SMA : Congolog MetateM
38
Annexe BDI : Unification : décomposition d’actions
Problème d ’unification but->processusexemple :
si le but est : ! (pq)unification avec deux sortes de processus
c<P1>(!p)c<P2>(!q)c<P1>f(#c)
c<P2>f (#c)
c<P1|P2> (!(p q))
39
Annexe : Exemple : CTL BDI [Rao91]
Etats (propositions)Chemins
next O eventually always until U
optionnels, inévitables
Logique CTL BDI
BEL()GOAL()INTEND()succeeded(e)failed(e)done(e)does(e)
occured(extern)
40
Annexe : Formalisation des BDI
Modèle des BDI M = <W,E,T,, U, B,G,I,>
B W x T x W G W x T x W I W x T x W Monde w de W = <Tw,Aw,Sw,Fw>
plus sub-world, sémantique, et …. j ’arrête là
mondes événements
instantsrelation de succession entre instants
univers du discourt !
Lien entre formules du premier ordre (pourchaque monde à chaque instant) et U
Sous ensemble de T
Sous ensemble de
Tw x Tw E = événements réussis
Tw x Tw E = événements échecs
41
Annexe : Formalisation des BDI
Exemples d ’axiomes « statiques » AI1 : GOAL() BEL() un nouveau but ne peut être possible que s ’il
est cru (goal-compatible). AI2 : une intention ne peut être possible que si elle fait partie des buts
(intention-compatible) AI3 : INTEND(does(e)) does(e) : un agent tente une action ‘ a ’ si
does(a) fait partie de ses intentions. AI4 : un agent ayant l ’intention Ø ajoute cette intention dans ses
croyances (BEL(INTEND(Ø)) AI5 : un agent ayant le but Ø ajoute celui ci dans ses croyances
(BEL(GOAL(Ø)) AI7 : un agent ajoute à ses croyances le fait qu’il tente une action AI8 : INTEND() inevitable(¬INTEND()) un agent peut
changer d ’avis.
42
Annexe : Formalisation des BDI
Exemple d ’axiome de déduction
si INTEND(inevitable(INTEND(does(e))))alors BEL(optional(INTEND(does(e)))et BEL(optional(BEL(does(e))))
43
Annexe : Axiomes du changement
Aveugle : AI9a Garde le but dans ses intentions jusqu’à ce qu’il le croit
atteint. Refuse de croire des choses incompatibles avec ses
intentions
INTEND(inévitable( )) (inévitable(INTEND(inévitable ))U(BEL())
(notons l ’axiome done(e) BEL(done(e))
drop-impossible-attitude met dans les croyances le but associé à l ’intention retirée.
belief-compatible retourne false sur belief-add(Ø) si on a tel que INTEND() et que BEL(Ø) implique BEL(¬ )
44
Esprit simple AI9b, Engagement par les buts, ouverture sur les croyancesLes intentions persistent tant qu’on les croit
atteignablesL ’agent accepte de croire des choses en contradiction
avec ses intentions et donc de les retirerINTEND(inevitable ( ))
(inévitable(INTEND(inévitable ))U(BEL() ¬BEL(optional )))
belief-compatible : toujours vraidrop-impossible-attitudes : retire les intentions qui ne
sont plus en accord avec les croyances
Annexe : Axiomes du changement
45
Esprit ouvert AI9caccepte de changer de buts (en fonction de
croyances)maintient des intentions tant qu’elles font parties
des buts.INTEND(inevitable ( ))
(inévitable(INTEND(inévitable ))U(BEL() ¬GOAL(optional )))
goal-compatible : toujours vrai (sauf si en contradiction avec AI1)
drop-impossible-aptitude : retire les intentions qui ne sont plus des buts ou qui sont exclues des croyances
Annexe : Axiomes du changement
46
Bibliographie[All 94] J.M Alliot et T. SCHIEX, Intelligence artificielle& Informatique théorique, cépadues édition, ISBN 2-85428-324-
4.
[Arb 81] M.A. Arbib, Perceptual strucutures and distributed motor control, Handbook of Physiology -- The nervous System II, ed. V. Brooks, 1981.
[Arb 95] M.A. Arbib, Schema Theory, The Handbook of Brain Theory and Neural Networks, ed M. Arbib, MIT Press, Cambridge MA, pp. 830-834, 1995.
[Ark 87] R.C. Arkin, Motor schema based navigation for a mobile robot: an approach to programming by behavior, proceedings of the 1987 IEEE International Conferenceon Robotics and Automation, pp. 264-271, 1987.
[Ark 98] R.C. Arkin, Behavior-based robotics, MIT Press, Cambridge MA, 1998.
[Arn 00] P. Arnaud, Des moutons et des robots, Presses Polytechniques et universitaires romandes, 2000.
[BER 97] Bersano-Begey et al. Multi-Agent Teamwork, Adaptative Learning and Adversial Planning in Robocup Using a PRS Architecture », in IJCAI97.
[Bra 87] M.E Bratman, Intentions, Plans and Practical Reason, Havard University Press, Cambridge, MA, 1987.
[BRO 86] R. Brooks, A robust layered control system for a mobile robot, IEEE Journal of Robotics and Automation, RA-2/1, pp. 14-23, mars 1986.
[Cav 01] M. Cavazza, F. Charles and J.M. Steven, Characters in Search of an Author: AI-Based Virtual Storytelling, ICVS 2001, LNCS 2197, pp.145-154,2001.
[Del00] De Loor Pand Chevaillier P, Generation of Agent Interactions from Temporal Logic Specifications, 16 th IMACS World congress on Scientific Computation, Applied Mathematics and Simulation, Lausanne, 2000.
[Don 01] S. Donikian, HPTS : a behaviour modelling language for autonomous agents. In: Fifth International Conference on Autonomous Agents. Montreal, Canada, mai 2001.
[Coh 90] Cohen and Levesque, Intention is choice with commitment. Artificial Intelligence, 42(3), 1990.
[GBR 95] J.P. Granieri et al Behavioral control for real-time simulated human agents. Symposium on Interactive 3D Graphics, pp. 173-180, 1995.
47
Bibliographie (suite)[Geo 86] M.P. Georgeff, A. L. Lansky, Procedural Knowledge, Proceedings of the IEEE Vol 74, N° 10, October 1986.[Gen 87] Genesereth, M.R. and Nilson N. Logical Foundations of Artifical Intelligence. Morgan Kaufmann Publishers, San
Mateo, CA, 1987.[Hay 95] Haye-Roth, B., An Architecture for Adaptive Intelligent Systems, Artificial Intelligence : Special Issue on Agents
and Interactivity, (72), 1995.[Hin 62, J. Hintikka, Knowledge and Belief, Cornell University Press: Ithaca, NY.[Kri 63 Semantical analysis of modal logic. Zeitschrift für Mathematische Logik und Grundlagen der Mathematik, 9:67-
96.[MAES 89] P. Maes, The dynamics of action selection, Proceedings of the international Joint Conference on Artificial
Intelligence, IJCAI-89, 1989.[Mat97] M. Mateas An Oz-Centric Review of Interactive Drama and Believable Agents, Internal report CMU-CS-97-156,
1997.[PG 96] K. Perlin, A. Golderg, Improv: A system for scripting interactive actors in virtual worlds. In SIGGRAPH ’96 - 1196.[Rao92] Rao A.S. Georgeff M.P and Sonenberg E.A. SOCIAL PLANS: A PRELIMINARY REPORT, decentralized A.I - 3, 1992.[Sin 99] Singh M P. Rao A.S. and Georgeff M.P. Formal Methods in DAI : Logic-Based Representation and Reasoning, in
« Multiagent Systems », edited by Gerhard Weiss, The MIT Press.[TOP99] X. Topin, C. Régis, MP. Gleizes et P. Glize, Comportement individuels adaptatifs dans un environnement
dynamique pour l ’exploitation collective de ressources , Intelligences arrificielle située, Hermes, 1999.[Van 91] K.VanLehn, Architectures for Intelligence. Lawrence Erlbaum Associates, New Jersey, 1991.[Woo 94] Wooldridge, M. Coherent social action. In Proceedings of the Eleventh European Conference on Artificial
Intelligence (ECAI-94), pages 279-283, Amsterdam, 1994.[Woo 95] M. Wooldridge and R.Jennings, Intelligent Agents : Theory and practice. The knowledge Engineering Review,
10(2), p115-152, 1995.