Recherche de flots stables dans des réseaux de transport ... · Objectif de la these` ... de...
Transcript of Recherche de flots stables dans des réseaux de transport ... · Objectif de la these` ... de...
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Recherche de flots stables dans des reseauxde transport multi-agents
Nadia CHAABANE
- Jury -Encadrants Cyril BRIAND Mari-Jose HUGUETRapporteurs Mourad BAIOU Martine LABBEExaminateurs Aziz MOUKRIM Dominique QUADRI Ameur SOUKHAL
19 Janvier 2015
1 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Cadre General
Objectif de la these
Notre travail consiste a modeliser et developper une approchede resolution pour des problemes d’optimisation dans desgraphes de flot multi-agent.
Contributions1 Modelisation de problemes d’optimisation de reseaux
multi-agents avec differents types d’agents.2 Developpement d’un programme mathematique exacte de
resolution du probleme.
2 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Cadre General
Objectif de la these
Notre travail consiste a modeliser et developper une approchede resolution pour des problemes d’optimisation dans desgraphes de flot multi-agent.
Contributions1 Modelisation de problemes d’optimisation de reseaux
multi-agents avec differents types d’agents.2 Developpement d’un programme mathematique exacte de
resolution du probleme.
2 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
3 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
4 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Introduction
Objectif social
Contraintes
Objectifs individuels
Décisions
Individuelles
Ensemble d’acteurs
5 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Introduction
Optimisation dans un reseau multi-agent
Un ensemble d’agents pour prendre une decision commune.
Chaque agent a une autonomie decisionnelle et veut maximiser sonprofit.
Le profit d’un agent depend egalement des strategies des autresagents.⇒ Quelle strategie adopter pour satisfaire l’objectif social, tout enmaximisant les objectifs individuels des agents ?
Optimisation multi-objective
opt F (x) = (Z1(x),Z2(x), . . . ,Zm(x)) s.c. x ∈ ω
A = {A1, . . . ,Am} ensemble d’agents.
x = (x1, . . . , xm) Vecteur de strategies des agents.
Zu(x) profit de l’agent Au
6 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Introduction
Optimisation dans un reseau multi-agent
Un ensemble d’agents pour prendre une decision commune.
Chaque agent a une autonomie decisionnelle et veut maximiser sonprofit.
Le profit d’un agent depend egalement des strategies des autresagents.⇒ Quelle strategie adopter pour satisfaire l’objectif social, tout enmaximisant les objectifs individuels des agents ?
Optimisation multi-objective
opt F (x) = (Z1(x),Z2(x), . . . ,Zm(x)) s.c. x ∈ ω
A = {A1, . . . ,Am} ensemble d’agents.
x = (x1, . . . , xm) Vecteur de strategies des agents.
Zu(x) profit de l’agent Au
6 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exigence d’une strategie
EfficienceStrategies non dominees : chaque agent veut maximiser son profit.
Optimisation multi-objective : Optimum de Pareto a.
a. Ehrgott M., ”Multicriteria Optimization”, Springer (2005)
StabiliteAucun agent ne doit etre capable d’augmenter son profit seul, endiminuant le profit des autres agents.
Theorie des jeux : Equilibre de Nash a.
a. Nash J., ”Equilibrium points in n-person games”, Proceedings of the Na-tional Academy of Sciences, (1950), 48–49.
7 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Applications
Applications
Transport
UniversityTimetabling
Project scheduling
Supplychain
- Agent = compagnie de transport- Flot max, profit.
8 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Applications
Applications
Transport
Emploi du temps
Project scheduling
Supplychain
Agent = teacher, classValuated constraints, tradeoff
- Agent = enseignant , classe- Contraintes valuées, compromis
8 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Applications
Applications
Transport
Emploi du temps
Ordonnancement de projet
Supplychain
- Agent = possédant des tâches- Minimiser Makespan, profit
8 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Applications
- Agent = noeuds SC- Minimiser coût
Applications
Transport
Emploi de temps
Ordonnancement de projet
Chaîne logistique
8 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Applications
Applications
Transport
Emploi de temps
Ordonnancement de projet
Chaîne logistique
8 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Application
Chauffeurs
Application de covoiturage
9 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
10 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Reseaux multi-agents avec capacites controlables
Reseaux de flot a
a. L.R. Ford and D.R. Fulkerson, Flows in networks. 1958 .
Attribuer le flot a un ensemble d’arcs en satisfaisant les contraintes deconservation de flot et de capacites ;
Une seule fonction objective a optimiser (par exemple maximiser le flot).
Reseaux de transport multi-agent
Les arcs sont distribues entre les differents agents, chacun ayant sapropre autonomie decisionnelle et ses objectifs ;
Les agents collaborent pour faire passer un flot dans le reseau.
11 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Reseau de flot
Exemple d’un reseau de flot
la quantite de flot transporte sur chaque arc ;
cout de transport entre deux noeuds ;
une limite superieure sur la valeur du flot maximum sur chaque arc (i.e.,capacite).
A D
B
C
ijqijc
(a) Réseau de flot
12 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Reseau de flot
Exemple d’un reseau de flot
la quantite de flot transporte sur chaque arc ;
cout de transport entre deux noeuds ;
une limite superieure sur la valeur du flot maximum sur chaque arc (i.e.,capacite).
ijc
A D
B
C
ijq
(a) Réseau de flot
A D
B
C
(b) Flot Max
2
21
1
1
max 3F
12 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Reseau multi-agent avec capacites controlables
Jeu d’expansion de reseau
un agent usager/producteur veut augmenter le flot dans le reseau ;
il donne une recompense pour chaque unite de flot supplementaireF > F ;
une politique de partage quelconque wu
Réseau de transport
Réseau tiers
Récompense
Flot F
( , )uw
Jeu d’expansion de réseau
13 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Reseau multi-agent avec capacites controlables
Exemple d’un reseau de transport multi-agent
la valeur de la capacite qi,j ∈ [qi,j, q i,j ] et du flot fi,j ;
cout de l’expansion de la capacite ci,j ;
un ensemble de m agents transporteurs A possedants des arcs ;
chaque arc (i , j) appartient a un seul agent Au .
A D
B
C
ijq ijc
(a) Réseau multi-agent
ijqAgent Ag Agent Ab
14 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Reseau multi-agent avec capacites controlables
Exemple d’un reseau de transport multi-agent
la valeur de la capacite qi,j ∈ [qi,j, q i,j ] et du flot fi,j ;
cout de l’expansion de la capacite ci,j ;
un ensemble de m agents transporteurs A possedants des arcs ;
chaque arc (i , j) appartient a un seul agent Au .
(b) Stratégie réalisable
1
A D
B
C
ijq ijc
(a) Réseau multi-agent
ijq
A D
B
C
1S
Agent Ag Agent Ab
1
14 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Topologie du reseau
S-s S-t
, , ,[ , ],i j i j i jq q c
1p
qp
2p
.
.
.
Réseau de transportRéseau de producteurs Réseau des usagers
.
.
.
1C2C
1
2
.
.
.
m
t
t
t
u1
u2
up
[0, +∞[ [0, +∞[
15 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Principe du jeu
F
F
(a) Jeu transporteurs/usagers (b) Jeu producteurs/usagers
F F
T U P T
P T U
(c) Jeu Producteurs/transporteurs/usagers
16 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Synthese des jeux consideres
Producteurs Transporteurs Usagers0/1/1 0 1 11/1/0 1 1 00/m/1 0 m 11/m/0 1 m 00/m/p 0 m pq/m/0 q m 0q/m/p q m p
17 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Jeu d’expansion de reseau
Type de jeu
Jeu non-cooperatif ou chaque agent veut maximiser son profit.
Objectif social
Les agents usagers et producteurs veulent maximiser le flot total dansle reseau et donnent une recompense.
Strategies des agents
Agents transporteurs : capacite choisie par chaque agent afin demaximiser son profit.
Agents usagers et producteurs : politique de partage de la recompense.
18 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Profit des agents
Agents transporteurs
Z Tx (S) =
∑y∈AU
(wyx × πy )× (Fy (S)− Fy )
+∑
z∈AP
(wzx × πz)× (Fz(S)− Fz)
−∑
(i,j)∈ET
ci,j × (qi,j − qi,j)
Agents usager et/ou producteur
Z Uy (S) =
∑(i,j)∈EU
y(fi,j) ou Z P
z (S) =∑
(i,j)∈EPz(fi,j)
19 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Objectif social
Objectif social
Flot total circulant dans le reseau.Z (S) =
∑aU
y ∈AU Z Uy (S) =
∑aP
z ∈AP Z Pz (S).
20 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Strategies remarquables
Strategie profitable
Une strategie S est profitable si et seulement si les profits desagents sont tous non negatifs : Z T
x ≥ 0, ∀aTx ∈ AT ,
Z Uy ≥ 0, ∀aU
y ∈ AU et Z Pz ≥ 0, ∀aP
x ∈ AP
Probleme MaxProfitable
le probleme MaxProfitable consiste a trouver une strategieS∗ telle que :
F (S∗) = max{F (S) : S est une strategie profitable}.
21 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Strategies remarquables
Strategie stable
Aucun agent n’a interet a modifier sa strategie afin d’ameliorerson profit au detriment des autres agents.
∀aTx ∈ AT , ∀S′T
x = STx , Z T
x (STx ,S−x) ≥ Z T
x (S′Tx ,S−x) ;
∀aUy ∈ AU , ∀S′U
y = SUy , Z U
y (SUy ,S−y ) ≥ Z U
y (S′Uy ,S−y ) ;
∀aPz ∈ AP , ∀S′P
z = SPz , Z P
z (SPz ,S−z) ≥ Z P
z (S′Pz ,S−z).
Probleme MaxNash
Etant donnee une instance du jeu NEG, le probleme MaxNashconsiste a trouver une strategie S∗ telle que :
F (S∗) = max{F (S) : S est un equilibre de Nash}.
22 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple de reseau generalise
S − s A D
B
C
S − t([0,∞[, 60)
a, ([0,2], 50)
e, ([0,2], 30)
c, ([0,1], 10)b, ([0,1], 25)
d, ([0,1], 50)([0,∞[, 60)
S − s A D
B
C
S − t([0,∞[, 60) a, ([0,2], 50)
qA,B=
1
e, ([0,2], 30)qC,D=
0
c, ([0,1], 10)
qB,C
=0b, ([0,1], 25)
qA,C = 0
d, ([0,1], 50)qB,D = 1([0,∞[, 60)
23 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
NEG 0/m/1
Exemple d’un jeu 0/m/1
A D
B
C
a, ([0,1], 50)
e, ([0,1], 30)
c, ([0,1], 10)
b, ([0,1], 30)
d, ([0,1], 50)
24 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Variation du flot dans le reseau
Primal : variation unitaire du flot de cout minimal
min∑
(i,j)∈E ai,j × d i,jF +
∑(i,j)∈E bi,j × d j,i
Bt .q.
(i)∑
(i,j)∈E ϕi,j −∑
(j,i)∈E ϕj,i = ±
0 ∀i = s, t1 , i = s−1 , i = t
(ii) ϕi,j = ai,j − bi,j , ∀(i , j) ∈ Eai,j ≥ 0, ∀(i , j) ∈ Ebi,j ≥ 0, ∀(i , j) ∈ E
Variation de flot et strategie pauvre
Etant donnee une strategie non pauvre S, le programmelineaire admet une solution optimale finie.
25 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Variation du flot dans le reseau
Dual : recherche du plus court chemin
max ±(τt − τs)t .q(i) τj − τi ≤ d i,j
F , ∀(i , j) ∈ E(ii) τi − τj ≤ d j,i
B , ∀(i , j) ∈ Eτi ∈ R, ∀i ∈ V
Variation de flotSi la strategie S est non-pauvre alors on peut faire varier le flota travers des chemins augmentant et/ou decroissant, quipeuvent etre calcules en temps polynomial.
26 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple NEG cas mono-producteur ou mono-usager
Reseau multi-agent 0/m/1
Un reseau G(V ,E) avec capacites controlables
Deux agents : Bleu (aTB ) et vert (aT
G)
Recompense et politique de partage : π = 120 et wB = wG = 12
FIGURE: Exemple d’un NEG 0/m/1 avec deux agents-transporteurs
27 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (2)
Augmenter le flot
Trouver un chemin augementant P dans le graphe residuel tel quecostT
x (P) < wx × π pour tout aTx , tel que :
costTx (P) =
∑(i,j)∈P+ δi,j,x
F +∑
(i,j)∈P− δi,j,xB
28 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (3)
Diminuer le flot
Trouver un chemin decroissant P dans le graphe residuel tel quesavT
x (P) ≥ wx × π pour tous les aTx , avec :
savTx (P) = −
[∑(i,j)∈P+ δi,j,x
F +∑
(i,j)∈P− δi,j,xB
]
28 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Example (4)
Efficiency Vs. Stability
Strategy Flow Reward costG costB ZG ZB
S0 0 0 0 0 0 0S1 1 120 30 30 30 30
29 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (5)
Efficience Vs. Stabilite
Strategie Flot Recompense costG costB ZG ZB
S0 0 0 0 0 0 0S1 1 120 30 30 30 30S2 2 240 80 80 40 40
FIGURE: Strategie S1
30 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Example (6)
Efficience Vs. Stabilite
Strategie Flot Recompense costG costB ZG ZB
S0 0 0 0 0 0 0S1 1 120 30 30 30 30S2 2 240 80 80 40 40
Efficience Vs. Stabilite
S2 maximise le flot.
Est ce que S2
Nash-stable ?
Strategie S1
30 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (7)
Efficience Vs. Stabilite
Strategie Flot Recompense costG costB ZG ZB
S0 0 0 0 0 0 0S1 1 120 30 30 30 30S2 2 240 80 80 40 40
FIGURE: Graphe residuel correspondant a la strategie S1
31 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (8)
Efficience Vs. Stabilite
Strategie Flot Recompense costG costB ZG ZB
S0 0 0 0 0 0 0S1 1 120 30 30 30 30S2 2 240 80 80 40 40
FIGURE: Chemin decroissant profitable pour l’agent aTG
31 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (9)
L’agent aTG peut ameliorer son profit en modifiant unilateralement sa strategie.
Strategie Flot Recompense costG costB ZG ZB
S2 2 240 80 80 40 40S′
2 1 120 10 80 50 -20
Objectif
Trouver une strategie qui maximise le flot, qui soit equilibre de Nash.
31 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Exemple (9)
L’agent aTG peut ameliorer son profit en modifiant unilateralement sa strategie.
Strategie Flot Recompense costG costB ZG ZB
S2 2 240 80 80 40 40S′
2 1 120 10 80 50 -20
Objectif
Trouver une strategie qui maximise le flot, qui soit equilibre de Nash.
31 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
32 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Caracterisation de l’equilibre de Nash
Equilibre de Nash
Une strategie non-pauvre S est un equilibre de Nash si etseulement si :
∀P ∈ PA :
@aTx ∈ AT tel que costT
x (P) < wx × π;
et, ∀P ∈ PA:
∀aTx ∈ AT , savT
x (P) < wx × π.
33 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash
Proposition
Dans le cas 0/m/1, un equilibre de Nash peut etre trouve entemps polynomial pour une politique de partage fixee.
OPT(Z Tx |S−x)
t .q.(i) fi,j ≤ qi,j , ∀(i , j) ∈ E
(ii)∑
(i,j)∈E fi,j −∑
(i,j)∈E fj,i =
0 ∀i = s, tF , i = s−F , i = t
(iii) qi,j = qi,j(STy ), ∀(i , j) /∈ ET
x , ∀aTy = aT
x(iv) q
i,j≤ qi,j ≤ qi,j , ∀(i , j) ∈ ET
x
qi,j , fi,j ≥ 0, ∀(i , j) ∈ E
(1)
34 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash
Expansion de capacité
Réajustement des capacités
35 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash
Preuve
SN est non pauvre : phase de reajustement assurequ’aucun agent ne peut realiser un meilleur profit sanschanger la valeur du flot ;SN est un equilibre de Nash : il n’existe aucun cheminaugmentant/decroissant qui soit profitable pour un agent ;Algorithme polynomial pour trouver SN : implique laresolution de 1
2m(m + 1) programmes lineaires.
36 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash qui maximise le flot
NEG 0/m/1 est dans la classe NP
Verification en temps polynomial que le flot resultant estsuperieur a ϕ : trouver flot maximum en temps polynomialen utilisant les algorithmes classiques de recherche de flotmaximum.Verifier en temps polynomial que S (non-pauvre) eststable : calcul du plus court chemin en termes de coutdans un graphe residuel.
37 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash qui maximise le flot
Equilibre de Nash a flot borne
Etant donne un NEG de type 0/m/1 et un entier φ, est-ilpossible de trouver une strategie stable S tel que F (S) > φ ?
NP-complet au sens fort.
Reduction a partir du probleme 3-Partition
Probleme de 3-PartitionConsiderons un ensembleζ = {a1, . . . , aK} de K = 3 × k entiers, tel que. :
chaque entier al ∈ [B/4,B/2[, pour tout l = 1, . . . ,K∑Kl=1 al = k × B
Decider si ζ peut etre partitionne en k sous-ensembles telque la somme des entiers dans chaque sous ensemble estegale a B ?
38 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash qui maximise le flot
Preuve : Cas d’une politique de partage egalitaire
Reduire une instance du probleme 3-Partition a une instancedu NEG 0/m/1.
Construire un reseau G avec k agents : k × K arcs etK + 1 noeuds.
chaque agent possede K arcs ;chaque entier al ∈ ζ est associe a k arcs paralleles ayant lameme origine et destination, avec une capacite qi,j ∈ [0, 1]et un cout d’expansion al ;La recompense totale est π = (B + ϵ)k , ϵ etant une valeurpositive arbitrairement petite.
39 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash qui maximise le flot
Preuve : Cas d’une politique de partage egalitaire
Reduction d’une instance definie par k = 3,ζ = {7,8,7,7,7,8,9,10,9} et B = 24.
Reseau G compose de k = 3 agents et K ∗ k = 27 arcs.Un entier al est represente par k = 3 arcs paralleles decout ci,j .
Existe-t-il, une strategie stable tel que le flot est strictementsuperieur a 0 ?
0 1 2 3 4 5 6 7 8 9
A1 A2 A3
0( ,7)e 1( ,8)e 2( ,7)e 3( ,7)e 4( ,7)e 5( ,8)e 6( ,9)e 7( ,10)e 8( ,9)e
9( ,7)e
18( ,7)e
10( ,8)e
19( ,8)e
17( ,9)e
26( ,9)e…
40 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash qui maximise le flot
Preuve : Cas d’une politique de partage optimale
Reseau etendu : chemin supplementaire de la source V0 vers le puitsVK .
Ce chemin est compose de k arcs, chacun appartenant a un agentspecifique.
Les arcs ont une capacite qi,j ∈ [0, 1] et un cout d’expansion ci,j = B.
0 1 2 3 4 5 6 7 8 9
A1 A2 A3
0( ,7)e 1( ,8)e 2( ,7)e3( ,7)e
4( ,7)e 5( ,8)e 6( ,9)e 7( ,10)e 8( ,9)e
9( ,7)e
18( ,7)e
10( ,8)e
19( ,8)e
17( ,9)e
26( ,9)e…
…1( , )e B ( , )ke B
41 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Complexite de trouver un equilibre de Nash qui maximise le flot
Preuve : Cas d’une politique de partage optimale
Trouver une strategie stable S tel que F (S) > k ?
0 1 2 3 4 5 6 7 8 9
A1 A2 A3
0( ,7)e 1( ,8)e 2( ,7)e3( ,7)e
4( ,7)e 5( ,8)e 6( ,9)e 7( ,10)e 8( ,9)e
9( ,7)e
18( ,7)e
10( ,8)e
19( ,8)e
17( ,9)e
26( ,9)e…
…1( , )e B ( , )ke B
42 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Trouver une strategie profitable pour 0/m/1
Cas d’une politique de partage wx fixee
Trouver un flot maximum sous contraintes que les profits de tous lesagents soient non-negatifs Z T
x (S) ≥ 0, ∀aTx ∈ AT .
Max Ft .q.(i) fi,j ≤ qi,j , ∀(i , j) ∈ E(ii)
∑(i,j)∈E fi,j =
∑(i,j)∈E fj,i
(iii) wx × π × (F − F )−∑
(i,j)∈Exci,j × (qi,j − q
i,j) ≥ 0, ∀aT
x ∈ AT
(iv) qi,j
≤ qi,j ≤ q i,j , ∀(i , j) ∈ E
(v){
qi,j ∈ N, fi,j ∈ N, ∀(i , j) ∈ EF ∈ N
(2)
43 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Trouver une strategie profitable pour 0/m/1
Cas d’une politique de partage wx fixee
Pour un jeu 0/m/1 a partage fixe, MaxProfitable est NP-difficile ausens fort.
Preuve : Reduction a partir du probleme 3-Partition
Construire un reseau G compose de K + 2 noeuds et de k ×K + 1 arcsrepartis entre k + 1 agents ;
Une premiere partie du reseau du noeud source V0 au noeud puits VK ;
Un arc supplementaire entre le noeud VK et VK+1 appartenant a unagent fictif note a0.
Cet arc a un intervalle de capacite [1, 1] et un cout d’expansion nul.
44 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Trouver une strategie profitable pour 0/m/1
Cas d’une politique de partage wx fixee
La politique de partage egalitaire (i.e., wx = 1/k , ∀aTx ∈ AT ) tel que
wxπ = B.
…
…1([0,1], )a
KV1KV 1V0V 2V
1A 2A kA0A
2([0,1], )a ([0,1], )Ka
([1,1],0)
… … …
([0,1], )Ka1([0,1], )a 2([0,1], )a
3([0,1], )a
3([0,1], )a
45 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Trouver une strategie profitable pour 0/m/1
Cas d’une politique de partage wx fixee
Deux valeurs possibles de flot F ∈ {0, 1} pour le reseau ainsi defini.
Existe-t-il une strategie profitable S tel que F (S) > 0 ?
…
…1([0,1], )a
KV1KV 1V0V 2V
1A 2A kA0A
2([0,1], )a ([0,1], )Ka
([1,1],0)
… … …
([0,1], )Ka1([0,1], )a 2([0,1], )a
3([0,1], )a
3([0,1], )a
46 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
47 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Formulation mathematique
Trouver un EN maximisant le flot
PNEG
max F −∑
∀(i,j)∈E ci,j (qi,j−qi,j )
1+∑
∀(i,j)∈E ci,j (qi,j−qi,j)
t .q.(i) 0 ≤ fi,j ≤ qi,j , ∀(i , j) ∈ E(ii) q
i,j≤ qi,j ≤ q i,j , ∀(i , j) ∈ E
(iii)∑
(i,j)∈E fi,j −∑
(j,i)∈E fj,i =
0 ∀i = s, tF , i = s−F , i = t
(iv)∑
ax∈A wx = 1(v) savT
x (P) < wx × π, ∀aTx ∈ A, ∀P ∈ GA
r (F (S))
(vi)
qi,j ∈ N, fi,j ∈ N, ∀(i , j) ∈ Ewu ∈ R, ∀au ∈ AF ∈ N
48 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Formulation mathematique
Comment lineariser les contraintes de stabilite ?
Contraintes de stabilite :
(iv) savu(P) < wu × π, ∀P ∈ Gf , ∀Au ∈ A
Calculer tous les chemins ?
Reformulation de la contrainte
Identification du chemin P ∈ P(S) ayant un savu(P)maximum.savu(P) < wu×π, ∀P ∈ P(S) ⇒ max∀P∈P savu(P) < wu×π
Calculer le plus long chemin pour une strategie en utilisantdes contraintes primales/duales.
49 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Formulation mathematique
Comment lineariser les contraintes de stabilite ?
Contraintes de stabilite :
(iv) savu(P) < wu × π, ∀P ∈ Gf , ∀Au ∈ A
Calculer tous les chemins ?
Reformulation de la contrainte
Identification du chemin P ∈ P(S) ayant un savu(P)maximum.savu(P) < wu×π, ∀P ∈ P(S) ⇒ max∀P∈P savu(P) < wu×π
Calculer le plus long chemin pour une strategie en utilisantdes contraintes primales/duales.
49 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Caracterisation des contraintes de Nash
Analyse des couts
Couts des arcs avant :
αi,j xi,j fi,j δi,j,xF
(i , j) ∈ ETx (i , j) /∈ ET
x
0 0 fi,j = q i,j +∞ +∞1 0 Interdit − −0 1 q
i,j≤ fi,j < q i,j ci,j +∞
1 1 0 ≤ fi,j < qi,j
0 0
- xi,j = 1 si on peut augmenter la capacite sur l’arc (i , j) (i.e., qi,j < q i,j ), 0sinon.- αi,j = 1 si on peut augmenter le flot a cout nul, 0 sinon.
50 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Caracterisation des contraintes de Nash
Analyse des couts
Couts des arcs arriere :
βi,j yi,j fi,j δj,i,xB
(j , i) ∈ ETx (j , i) /∈ ET
x
0 0 fi,j = 0 +∞ +∞1 0 0 < fi,j ≤ q
i,j0 0
0 1 qi,j
< fi,j ≤ q i,j −ci,j 01 1 Interdit − −
- yi,j = 1 si on peut diminuer la capacite sur l’arc (i , j) (i.e., qi,j > qi,j
), 0 sinon.- βi,j = 1 si la diminution de flot engendre un gain nul, 0 sinon.
51 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Contraintes Primales/duales
Primal : plus long chemin
Min tun+1
s.t .(i) tj − ti ≤ δi,j,x
F , ∀(i , j) ∈ EAF , ∀aT
x ∈ AT
(ii) ti − tj ≤ δj,i,xB , ∀(i , j) ∈ EA
F , ∀aTx ∈ AT
tui ≥ 0, ∀i ∈ V
Dual
Max∑
(i,j)∈E φi,j × δi,j,uF +
∑(j,i)∈E φj,i × δj,i,u
Bs.t .
(i)∑
(i,j)∈E φi,j −∑
(j,i)∈E φj,i =
0 ∀i = s, t−1 , i = s1 , i = t
, ∀i ∈ V
φi,j ∈ {0, 1} ∀(i , j) ∈ E , ∀aTx ∈ AT
52 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Contraintes Primales/duales
A l’optimalite, la valeur du chemin dans le graphe residuel est egale a lasomme des profits de la variation unitaire de flot circulant dans le reseau(Theoreme de la dualite)
tn+1 ≥∑
(i,j)∈EAF
φi,j × δi,j,xF +
∑(i,j)∈EA
B
φi,j × δi,j,xB , ∀aT
x ∈ AT
LINEARISATION ?
Le profit du plus long chemin decroissant (represente par tn+1) est nonprofitable pour l’agent aT
x ∈ AT :
−tn+1 < wx × π, ∀aTx ∈ AT
53 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
54 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Contexte experimental
Les performances de l’algorithme sont evalues sur un ordinateur avecLinux Ubuntu server 12.04 avec processeur Xeon E5-1650 et 8 Go deRAM.
Le modele a ete implemente en utilisant l’API C++ de GUROBIOptimization 6.0.0.
Il n’existe pas d’instances dans la litterature correspondant a notreprobleme.
Familles d’instances
Construire les instances en utilisant le generateur RanGen1.
Considerons 6 familles d’instances en combinant le nombre de noeudsn ∈ {10, 50, 70} et le nombre d’agents transporteurs m ∈ {2, 5}.
Pour chaque famille d’instance, 10 instances sont generees.
55 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Contexte experimental
Familles d’instances
Les arcs du reseau sont repartis entre les differents agentstransporteurs d’une maniere aleatoire.
Un nombre variable d’agents de transport : m ∈ {2, 5}.
Pour chaque arc (i , j) :
Les capacites normales sont fixees a 0 ;Les capacites maximales sont generees aleatoiremententre 0 et 20 ;Le cout d’expansion ci,j est genere aleatoirement dansl’intervalle [5, 30].
La recompense totale est un pourcentage α de la valeur du plus longchemin allant de s vers t dans le graphe : π = α× m × LPath, ou LPathla valeur du plus long chemin de s vers t en termes de couts.
Pour chaque instance cinq valeurs differentes de recompense, et ce envariant α dans {0.1, 0.3, 0.5, 0.7, 0.9}.
56 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Politique de partage de la recompense
Politique de partage
Vecteur wx , ∀aTx ∈ AT .
Trois politiques de partage etudiees :partage optimal ;partage egalitaire, i.e., wx = 1/m ;partage heuristique basee sur les poids des agents dans le
reseau wx =
∑(i,j)∈ET
xci,j×(q i,j−q
i,j)∑
(i,j)∈E ci,j×(q i,j−qi,j)
.
57 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des resultats
Facteurs d’analyse
Le ratio F (S)/Fmax : valeur de flot obtenu F (S) encomparaison avec le flot maximum possible Fmax .(caracterise le prix de la stabilite).Temps cumule d’execution (CPU).Analyse des profits et des recompenses pour lesdifferentes politiques de partage : optimale, egalitaire etheuristique.
58 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse du ratio de flot et du temps d’execution
Cas avec deux agents transporteurs.
Instances Equ. Heur. Var.n m α F/Fmax CPU 1 F/Fmax CPU 1 F/Fmax CPU 1
10 2 0.1 0.000 0.28 0.000 0.22 0.000 0.330.3 0.025 0.52 0.220 0.38 0.478 0.870.5 0.623 0.67 0.683 0.56 0.888 0.970.7 0.837 0.75 0.861 0.65 0.968 1.010.9 0.946 0.82 0.928 0.72 0.986 1.07
50 2 0.1 0.011 93.48 0.019 228.28 0.034 883.820.3 0.607 1231.83 0.631 1447.04 0.767 1977.520.5 0.869 1800.07 0.989 2293.33 0.991 2805.710.7 0.899 2167.24 0.993 2621.11 0.998 3135.310.9 0.998 2339.22 0.993 2816.74 0.999 3299.27
70 2 0.1 0.000 87.09 0.000 98.27 0.000 1046.800.3 0.029 1009.95 0.341 1056.75 0.540 2846.810.5 0.397 1986.36 0.599 1964.17 0.872 4113.680.7 0.400 2499.54 0.724 2567.12 0.998 5104.310.9 0.772 3127.01 0.808 3295.96 0.999 5163.11
1. CPU cumule en seconde59 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse du ratio de flot et du temps d’execution
Cas avec cinq agents transporteurs.
Instances Equ. Heur. Var.n m α F/Fmax CPU 1 F/Fmax CPU 1 F/Fmax CPU 1
10 5 0.1 0.000 0.13 0.000 0.26 0.286 0.140.3 0.386 0.26 0.588 0.5 0.942 0.260.5 0.885 0.34 0.928 0.59 1.000 0.330.7 0.934 0.40 0.928 0.62 1.000 0.410.9 1.000 0.43 0.949 0.65 1.000 0.48
50 5 0.1 0.007 922.40 0.001 1012.53 0.123 1395.500.3 0.759 2229.88 0.737 2467.51 0.984 2195.990.5 0.995 2708.25 0.920 2840.55 1.000 2206.380.7 0.998 2934.40 0.997 2892.73 1.000 2206.690.9 0.998 3159.71 1.000 2937.28 1.000 2207.01
70 5 0.1 0.000 1652.41 0.000 1296.60 0.056 1461.890.3 0.292 3245.49 0.340 2698.96 0.577 2872.530.5 0.609 4187.90 0.690 3473.13 0.999 3349.280.7 0.723 4578.43 0.855 3949.06 1.000 3350.340.9 0.800 4905.73 0.999 4087.26 1.000 3350.86
60 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Politiques de partage
Politique de partage optimale
Instances m = 2 m = 5n α w1 w2 w1 w2 w3 w4 w5
10 0.1 0.50 0.50 0.31 0.36 0.19 0.03 0.110.3 0.70 0.30 0.15 0.20 0.34 0.12 0.190.5 0.57 0.43 0.08 0.10 0.42 0.19 0.220.7 0.61 0.39 0.12 0.10 0.13 0.18 0.470.9 0.53 0.47 0.04 0.17 0.22 0.06 0.51
50 0.1 0.50 0.50 0.14 0.17 0.18 0.15 0.360.3 0.50 0.50 0.18 0.19 0.20 0.21 0.220.5 0.59 0.41 0.11 0.11 0.12 0.12 0.540.7 0.61 0.39 0.08 0.08 0.08 0.09 0.670.9 0.63 0.37 0.06 0.06 0.07 0.07 0.74
70 0.1 0.50 0.50 0.08 0.16 0.14 0.10 0.530.3 0.50 0.50 0.14 0.16 0.13 0.13 0.440.5 0.44 0.56 0.16 0.13 0.16 0.13 0.430.7 0.67 0.33 0.09 0.09 0.12 0.09 0.610.9 0.61 0.39 0.07 0.07 0.06 0.07 0.73
61 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Politiques de partage
Politique de partage heuristique
Instances m = 2 m = 5n w1 w2 w1 w2 w3 w4 w5
10 0.51 0.49 0.13 0.22 0.32 0.16 0.1750 0.49 0.51 0.17 0.21 0.23 0.19 0.2070 0.52 0.48 0.21 0.20 0.20 0.19 0.20
62 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des profits
Cas avec deux agents transporteurs
Instances Equ. Heur. Var.n m α Z1 Z2 Z1 Z2 Z1 Z2
10 2 0.1 0.00 0.00 0.00 0.00 0.00 0.000.3 0.32 3.32 17.68 12.20 29.48 7.680.5 56.70 124.70 91.80 118.40 89.60 132.000.7 220.06 223.46 223.63 271.13 279.72 209.600.9 346.06 407.26 345.09 393.95 339.44 420.48
moyenne 124.63 151.75 135.64 159.14 147.65 153.95
50 2 0.1 9.18 1.91 9.80 6.04 7.64 13.550.3 780.06 815.70 722.99 906.49 1066.65 1067.480.5 2824.73 3133.00 3089.69 3667.77 4040.24 2660.940.7 4720.82 5044.27 5083.15 5807.36 6526.39 4371.540.9 7391.15 7649.42 7097.62 7932.76 9567.16 5511.55
moyenne 3145.19 3328.86 3200.65 3664.08 4241.62 2725.01
70 2 0.1 0.00 18.97 0.00 0.00 0.00 0.000.3 115.20 98.40 1014.08 891.04 1407.17 1770.150.5 2320.20 2348.20 3483.35 3849.05 5386.21 6538.590.7 3830.04 3757.04 7783.32 7494.16 15327.64 6107.580.9 10655.20 10380.20 12225.89 11481.83 17862.46 11612.59
moyenne 3384.13 3320.56 4901.33 4743.22 7996.70 5205.78
63 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des profits
Cas avec cinq agents transporteursInstances Equ.
n m α Z1 Z2 Z3 Z4 Z5
10 5 0.1 0.00 0.00 0.00 0.00 0.000.3 99.73 48.07 75.57 84.90 93.400.5 342.58 286.25 232.25 299.58 317.250.7 505.43 465.93 390.77 460.60 482.100.9 693.20 640.37 567.20 643.37 656.37
moyenne 328.19 288.12 253.16 297.69 309.8250 5 0.1 9.79 9.98 4.48 9.92 0.98
0.3 1800.35 1682.16 1773.23 1843.48 1828.100.5 4798.03 4558.28 4589.16 4792.84 4776.030.7 7030.65 6787.34 6823.65 7028.90 7002.960.9 9257.68 9014.11 9050.68 9255.93 9228.30
moyenne 4579.30 4410.37 4448.24 4586.21 4567.2770 5 0.1 0.00 0.00 0.00 0.00 0.00
0.3 1486.33 1469.64 1381.64 1453.64 1356.270.5 5280.88 5255.94 5223.94 5289.75 5218.630.7 9192.34 9315.03 9239.16 9248.22 9069.910.9 13536.21 13623.59 13506.34 13493.96 13401.28
moyenne 5899.15 5932.84 5870.22 5897.11 5809.2264 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des profits
Cas avec cinq agents transporteursInstances Heur.
n m α Z1 Z2 Z3 Z4 Z5
10 5 0.1 0.00 0.00 0.00 0.00 0.000.3 33.09 134.77 115.92 126.13 124.760.5 140.42 389.05 356.39 311.62 319.180.7 209.09 575.17 556.61 470.87 469.590.9 299.40 767.20 775.45 631.55 626.82
moyenne 136.40 373.24 360.87 308.03 308.0750 5 0.1 0.48 0.81 0.51 0.59 0.52
0.3 1589.63 1834.58 1998.44 1752.38 1978.870.5 3970.04 4473.32 5269.87 4168.14 4552.980.7 6138.99 6972.11 8109.51 6448.53 6941.370.9 8116.75 9274.63 10725.51 8523.51 9217.83
moyenne 3963.18 4511.09 5220.77 4178.63 4538.3170 5 0.1 0.00 0.00 0.00 0.00 0.00
0.3 1687.25 1506.92 1724.20 1487.50 1515.720.5 6042.48 5717.23 5935.65 5886.89 5872.260.7 11299.30 10748.55 11097.83 10459.34 11198.4830.9 17621.20 16646.34 17046.19 15772.50 17011.10
moyenne 7330.05 6923.81 7160.77 6721.25 7119.5165 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des profits
Cas avec cinq agents transporteursInstances Var.
n m α Z1 Z2 Z3 Z4 Z5
10 5 0.1 6.00 3.83 17.75 0.00 6.670.3 129.67 138.33 190.67 105.83 189.330.5 99.33 102.83 780.33 262.50 353.170.7 265.33 162.17 152.00 342.17 1485.000.9 94.33 451.83 430.00 150.17 2098.33
moyenne 118.93 171.80 314.15 172.13 826.5050 5 0.1 49.50 51.78 67.66 49.69 49.25
0.3 2207.79 2166.01 2293.47 2677.69 2790.610.5 2431.57 2106.51 2291.57 2589.88 14077.930.7 2431.57 2106.51 2291.57 2589.88 25228.130.9 2431.57 2106.51 2291.57 2589.88 36378.31
moyenne 1910.40 1707.46 1847.17 2099.40 15704.8570 5 0.1 38.28 49.44 74.22 28.81 63.28
0.3 2154.03 2853.02 2487.96 2544.76 3085.810.5 6356.00 4992.08 6725.31 4925.33 20405.250.7 4972.02 4961.27 6315.26 4904.77 42695.980.9 4972.02 4961.27 4204.77 4904.77 65228.47
moyenne 3698.47 3563.42 3961.50 3461.69 26295.7666 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des profits : deux agents transporteurs
Instances Equ. Heur. Var.n m α F/Fmax Z F/Fmax Z F/Fmax Z
10 2 0.1 0.000 0.00 0.000 0.00 0.000 0.000.3 0.025 3.64 0.220 29.88 0.478 37.160.5 0.623 181.40 0.683 210.20 0.888 221.600.7 0.837 443.52 0.861 494.76 0.968 489.320.9 0.946 753.32 0.928 739.04 0.986 759.92
moyenne 276.38 294.78 301.60
50 2 0.1 0.011 11.09 0.019 15.84 0.034 21.180.3 0.607 1595.76 0.631 1629.47 0.767 2134.130.5 0.869 5957.73 0.989 6757.45 0.991 6701.180.7 0.899 9765.09 0.993 10890.51 0.998 10897.930.9 0.998 15040.56 0.993 15030.39 0.999 15078.72
moyenne 6474.05 6864.73 6966.63
70 2 0.1 0.000 0.00 0.000 0.00 0.000 0.000.3 0.029 213.60 0.341 1905.12 0.540 3177.320.5 0.397 4668.40 0.599 7332.40 0.872 11924.800.7 0.400 7587.08 0.724 15277.48 0.998 21435.220.9 0.772 21035.40 0.808 23707.72 0.999 29475.05
moyenne 6700.90 9644.54 13202.48
67 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Analyse des profits : cinq agents transporteurs
Instances Equ. Heur. Var.n m α F/Fmax Z F/Fmax Z F/Fmax Z
10 5 0.1 0.000 0.00 0.000 0.00 0.286 34.250.3 0.386 401.67 0.588 534.67 0.942 753.830.5 0.885 1477.92 0.928 1516.67 1.000 1598.170.7 0.934 2304.83 0.928 2281.33 1.000 2406.670.9 1.000 3200.50 0.949 3100.42 1.000 3224.67
moyenne 1476.98 1486.62 1603.52
50 5 0.1 0.007 35.16 0.001 2.91 0.123 267.880.3 0.759 8927.31 0.737 9153.91 0.984 12135.560.5 0.995 23514.34 0.920 22434.35 1.000 23497.470.7 0.998 34673.50 0.997 34610.50 1.000 34647.660.9 0.998 45806.69 1.000 45858.22 1.000 45797.85
moyenne 22591.40 22411.98 23269.2870 5 0.1 0.000 0.00 0.000 0.00 0.056 254.03
0.3 0.292 7147.53 0.340 7921.59 0.577 13125.590.5 0.609 26269.13 0.690 29454.50 0.999 43403.970.7 0.723 46064.66 0.855 54803.50 1.000 63849.280.9 0.800 67561.38 0.999 84097.32 1.000 84271.28
moyenne 29408.54 35255.38 40980.83
68 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Plan
1 Introduction
2 Jeux d’expansion de reseaux (NEG)
3 Probleme MaxNash 0/m/1
4 Modele lineaire a Variables Mixtes
5 Resultats experimentaux
6 Conclusion
69 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Conclusion
Jeux d’expansion de reseaux
Jeux d’expansion de reseaux de transport multi-agentsimpliquant des agents producteurs, usagers ettransporteurs ;Modeliser differents scenarios de jeux avec des rolesdifferents des agents.
70 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Conclusion
F
F
(a) Jeu transporteurs/usagers (b) Jeu producteurs/usagers
F F
T U P T
P T U
(c) Jeu Producteurs/transporteurs/usagers
70 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Conclusion
Jeux d’expansion de reseaux
Jeux d’expansion de reseaux de transport multi-agentsimpliquant des agents producteurs, usagers ettransporteurs ;Modeliser differents scenarios de jeux avec des rolesdifferents des agents.Complexite des problemes etudies.
Trouver un equilibre de Nash a flot borne et un partageoptiaml est NP-complet au sens fort.
Une approche PLM efficace pour NEG 0/m/1.
70 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Conclusion
Perspectives
Partie experimentale : considerer des instances de plusgrande taille, comparer les solutions MinNash etMaxNash.Etendre les resultats de complexite et le PLM au NEGgeneralise q/m/p.Methode de resolution exacte ou distribuee dans lesscenarios avec plusieurs agents usagers et/ouproducteurs.Approche multi-objective pour NEG q/m/p tenant comptedes objectifs de tous les agents tiers (front d’EN nondomines au sens de Pareto).conception de mecanismes de cooperation distribues pourobtenir des strategies stables de bonne qualite.
71 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Conclusion
F
F
F F
F F
P T U
UTP
P T U
(a)
(b)
(c)
71 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Merci pour votre attention
72 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Bibliographie
Prix du meilleur articleLaureate du Best Paper Award, Domaine Methodologies et Technologies,lors de la conference internationale ICORES 2014 (International Conferenceon Operations Research and Enterprise Systems).
Article JournalN. Chaabane FAkhfakh, C. Briand and M-J. Huguet. ”Nash Equilibria formulti-agent network with controllable capacities”. Operations Researchand Enterprise Systems, Lecture notes in Communications in Computerand Information Science (CCIS), Springer-Verlag. Volume 509, pages47-62 (2015), DOI :10.1007/978 − 3 − 319 − 17509 − 6 − 4.
N. Chaabane-Fakhfakh, A. Agnetis, C. Briand and M.J. Huguet. Findinga Nash Equilibrium and an optimal sharing policy for multi-agentnetwork expansion game. Networks journal, Elsevier (submitted).
72 / 72
Introduction NEG MaxNash PLM Resultats experimentaux Conclusion
Bibliographie
Conferences internationalesN. Chaabane Fakhfakh, C.Briand, M-J. Huguet Finding Stable flow inmulti-agent Networks under an equal-sharing policy, ENDM lecturenotes (INOC 2015) (Electronic Notes on Discrete Mathematics).
N. Chaabane Fakhfakh , C. Briand and M-J. Huguet. A Multi-AgentMin-Cost Flow problem with Controllable Capacities - Complexity ofFinding a Maximum-Nash Equilibrium. ICORES 2014, pp. 27-34.
72 / 72