Méthodologies d'aide à la décision en conception robuste
-
Upload
hoangthuan -
Category
Documents
-
view
237 -
download
0
Transcript of Méthodologies d'aide à la décision en conception robuste
HAL Id: tel-00585707https://tel.archives-ouvertes.fr/tel-00585707
Submitted on 13 Apr 2011
HAL is a multi-disciplinary open accessarchive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come fromteaching and research institutions in France orabroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, estdestinée au dépôt et à la diffusion de documentsscientifiques de niveau recherche, publiés ou non,émanant des établissements d’enseignement et derecherche français ou étrangers, des laboratoirespublics ou privés.
Méthodologies d’aide à la décision en conception robusteEmmanuel Pillet
To cite this version:Emmanuel Pillet. Méthodologies d’aide à la décision en conception robuste. Mécanique [physics.med-ph]. Université de Franche-Comté, 2008. Français. <tel-00585707>
Année 2008
THÈSEprésentée à
L’U.F.R. DES SCIENCES ET TECHNIQUES
DE L’UNIVERSITÉ DE FRANCHE-COMTÉ
pour obtenir le
GRADE DE DOCTEUR DE L’UNIVERSITÉ
DE FRANCHE-COMTÉ
Spécialité : Sciences pour l’Ingénieur
MÉTHODOLOGIES D’AIDE À LA DÉCISIONEN CONCEPTION ROBUSTE
par
Emmanuel PILLET
Soutenue le 28 mars 2008 devant la commision d’Examen :
Président du jury J. PIRANDA Professeur, Université de Franche-Comté
Rapporteurs A. EL HAMI Professeur, INSA de Rouen
D. A. RADE Professeur, Université fédérale d’Uberlândia (Brésil)
Examinateurs L. BILLET Ingénieur R&D, EDF Clamart
F. BUFFE Ingénieur R&D, CNES Toulouse
Directeur de thèse N. BOUHADDI Professeur, Université de Franche-Comté
Codirecteur de thèse S. COGAN Chargé de recherche CNRS, Institut FEMTO-ST
Remerciements
Je tiens en premier lieu à remercier Monsieur le Professeur Dominique PERREUX, direc-
teur à mon arrivée au Laboratoire de Mécanique Appliquée Raymond CHALÉAT, de m’avoir
accueilli au sein de cette unité.
Je remercie très sincèrement Messieurs les Professeurs Abdelkhalak EL HAMI et Domin-
gos Alves RADE de m’avoir fait l’honneur de s’intéresser à mes travaux et d’en être les rappor-
teurs.
J’exprime toute ma reconnaissance à Monsieur le Professeur Jean PIRANDA pour avoir
accepté d’être le président du jury de cette thèse et à Messieurs Laurent BILLET et Fabrice
BUFFE pour leurs participations à ce jury.
Merci à Monsieur le Professeur Noureddine BOUHADDI et Monsieur Scott COGAN pour
m’avoir fait confiance et avoir codirigé mes travaux de recherche. Merci pour leurs conseils
et encore plus pour la patience dont ils ont fait preuve face à mes nombreux atermoiements.
Une thèse semblerait bien plus longue s’il n’y avait pas dans son bureau des personnes
avec qui échanger. Pour leur accompagnement et leur sympathie, je remercie par ordre d’ap-
parition Nicolas BOURLIAUD, Fouad KHATYR, Sébastien ROUZIER, Kirill VOLYANSKIY, Chris-
tophe AVRIL (désolé de t’avoir fumé lors des entraînements d’athlé), Nivas Babu SELVARAJ,
sans oublier les petits nouveaux, Mouloud AÏSSANI, Marko FELDIC, Hua MA et Abdel Hakim
BEN OUIRANE. Mention spéciale à Ludovic FARINES et Franck GASQUEZ qui ont réalisé toutes
leurs thèses à mes côtés. Je finirai en ayant une pensée pour Sylvain BOURGAINE qui nous a
malheureusement quitté bien trop tôt.
Pardon de ne pas tous pouvoir les nommer, mais je remercie chaleureusement tous les
membres du LMARC, doctorants, enseignants, employés, techniciens, étudiants, avec qui
j’ai pu converser et qui ont su rendre agréable mon séjour dans ce laboratoire.
Mais la recherche c’est aussi des rencontres enrichissantes avec des gens de tous pays, je
dis donc merci barcha à mes collègues tunisiens de l’IPEI de Nabeul et muito obrigado aux
collègues brésiliens que j’ai eu l’occasion de rencontrer.
Pour finir, je remercie mes parents, mes grands-parents pour leurs soutiens de toujours.
i
Table des matières
Remerciements i
Table des matières v
Liste des figures ix
Liste des tableaux xi
Liste des notations et abréviations xiii
Introduction générale 1
1 Méthodes approchées en analyse modale 7
1.1 Modèle linéaire d’un système dynamique . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Méthodes de condensation et de synthèse modale . . . . . . . . . . . . . . . . . 10
1.2.1 Bases de représentation du mouvement . . . . . . . . . . . . . . . . . . . 11
1.2.2 Classification des méthodes de sous-structuration . . . . . . . . . . . . . 14
1.2.3 Couplage des sous-structures . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Méthodes de sous-structuration . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Réanalyse approchée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Réanalyse approchée paramétrique . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Méthodes d’approximation par métamodèles . . . . . . . . . . . . . . . . . . . . 24
1.4.1 Surfaces de réponse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.2 Le krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4.3 Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.4 Choix d’une méthode d’approximation . . . . . . . . . . . . . . . . . . . . 33
1.5 Paramétrisation de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.5.1 Analyse de sensibilité en présence d’incertitudes . . . . . . . . . . . . . . 39
1.5.2 Localisation d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2 Aide à la décision en synthèse modale 51
2.1 Utilisation des modes propres orthogonaux en synthèse modale . . . . . . . . . 52
2.1.1 Décomposition en modes propres orthogonaux . . . . . . . . . . . . . . . 52
2.1.2 Adaptation à la sous-structuration . . . . . . . . . . . . . . . . . . . . . . . 56
2.1.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
iii
Table des matières
2.2 Qualification des super-éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.1 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.2 Localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.2.3 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.2.4 Application au moteur d’avion . . . . . . . . . . . . . . . . . . . . . . . . . 82
2.2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.3 Choix optimal des degrés de liberté maîtres . . . . . . . . . . . . . . . . . . . . . 88
2.3.1 Méthode d’optimisation proposée . . . . . . . . . . . . . . . . . . . . . . . 89
2.3.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3 Aide à la décision pour l’identification et la planification d’essais 95
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2 Identification paramétrique avec données incertaines . . . . . . . . . . . . . . . 97
3.2.1 Théorie générale des problèmes inverses . . . . . . . . . . . . . . . . . . . 97
3.2.2 Analyse de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.2.3 Remarques sur la convergence . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.4 Utilisation des métamodèles . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.2.5 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.3 Planification d’essais pour le gain d’informations . . . . . . . . . . . . . . . . . . 113
3.3.1 Plan d’expérience bayésien . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.3.2 Traitement numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.3.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4 Aide à la décision par approche info-gap 127
4.1 La théorie info-gap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.2 Le modèle info-gap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.3 Les fonctions robustesse et opportunité . . . . . . . . . . . . . . . . . . . 129
4.1.4 Calcul de courbes de robustesse et d’opportunité . . . . . . . . . . . . . . 129
4.2 Évaluation de la robustesse des méthodes de recalage . . . . . . . . . . . . . . . 132
4.2.1 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.3 De la robustesse des modèles optimaux . . . . . . . . . . . . . . . . . . . . . . . . 135
4.3.1 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Conclusions et perspectives 141
Bibliographie 145
Listes des publications 159
Annexes 161
A Critères de comparaison des modèles . . . . . . . . . . . . . . . . . . . . . . . . . 161
B Apprentissage neural et régularisation bayésienne . . . . . . . . . . . . . . . . . 162
B.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
iv
Table des matières
B.2 L’algorithme de Levenberg-Marquardt . . . . . . . . . . . . . . . . . . . . 163
B.3 La régularisation bayésienne . . . . . . . . . . . . . . . . . . . . . . . . . . 164
B.4 Algorithme d’apprentissage neural par régularisation bayésienne . . . . 166
B.5 Calculs des dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . 167
C Échantillonnage de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
D Méthodologies de recalage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
D.1 Recalage par sensibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
D.2 Recalage basé sur l’erreur en relation de comportement . . . . . . . . . . 171
Résumé 176
v
Liste des figures
1 Différents types de variations de la fonction performance : (a) réponses en de-
hors de la cible avec une faible variation ; (b) réponses dans la cible avec une
forte variation ; (c) réponses en dehors de la cible avec une forte variation ; (d)
réponses dans la cible avec une faible variation . . . . . . . . . . . . . . . . . . . 4
1.1 Représentation d’un neurone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Architecture d’un PMC à deux couches cachées et un neurone de sortie linéaire 29
1.3 Illustration du phénomène de surajustement : (a) réseau généralisant bien, (b)
réseau généralisant mal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4 Illustration de la validation croisée . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5 Comparaison de la performance de différentes méthodes d’approximation sur
une fonction non-régulière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.6 Modèle du rotor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7 Observation de la régularité pour la troisième vitesse critique . . . . . . . . . . . 36
1.8 Critères : R2 (a), ERAM (b), MERA (c) . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.9 Domaines et temps de création des différents métamodèles . . . . . . . . . . . . 38
1.10 Trajectoires associées à la méthode de Morris . . . . . . . . . . . . . . . . . . . . 41
1.11 Analyse de sensibilité de la méthode de Morris . . . . . . . . . . . . . . . . . . . 42
1.12 Indices de sensibilité du premier ordre (E) et totaux (A) . . . . . . . . . . . . . 46
1.13 Indices de sensibilité du second ordre pour les paramètres x1 à x6 . . . . . . . . 47
2.1 Assemblage de trois sous-structures . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.2 Plaque raidie par un profilé en U . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.3 Erreurs relatives sur les fréquences propres de la plaque raidie pour différentes
méthodes de synthèse modale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4 Erreurs relatives sur les vecteurs propres de la plaque raidie pour différentes
méthodes de synthèse modale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Évolution des erreurs relatives sur les fréquences et vecteurs propres de la plaque
raidie en fonction du nombre de réponses . . . . . . . . . . . . . . . . . . . . . . 65
2.6 Erreurs relatives sur les fréquences propres de la plaque raidie sur [0 ; 1400 Hz] 66
2.7 Erreurs relatives sur les fréquences propres de la plaque raidie pour CB, MA,
KLCB et KLMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.8 Erreurs relatives sur les fréquences et vecteurs propres de la plaque raidie pour
MA, MAG, KL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
vii
Liste des figures
2.9 Matrice de MAC entre les modes du modèle initial de la plaque raidie et ceux
du modèle perturbé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.10 Erreurs relatives sur les fréquences propres de la plaque raidie avec les bases
initiales et robustes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.11 Erreurs relatives sur les vecteurs propres de la plaque raidie avec les bases ini-
tiales et robustes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.12 Erreurs relatives sur les vecteurs propres de la plaque raidie pour CBE, MAE,
KLE, KLCBE et KLMAE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.13 Moteur d’avion étudié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.14 Sous-structures : (a) SS1 , (b) SS2, (c) SS3, (d) SS4 , (e) SS5, (f) SS6,(g) SS7 , (h) SS8 71
2.15 Erreurs relatives sur les fréquences propres du moteur pour différentes mé-
thodes de synthèse modale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.16 Erreurs relatives sur les vecteurs propres du moteur pour différentes méthodes
de synthèse modale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.17 (a) Comparaison des FRFs ; (b) zoom sur les FRFs ; (c) comparaison des diffé-
rences par rapport à la référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.18 Matrice de MAC entre les modes du modèle initial du rotor et ceux du modèle
perturbé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.19 (a) Comparaison des FRFs du système perturbé ; (b) et(c) Zooms sur les FRFs . 76
2.20 Résultats du filtrage pour SS1 : (a) Ipartν , (b) Ieff
ν . . . . . . . . . . . . . . . . . . . . 83
2.21 Résultats du filtrage pour SS2 : (a) Ipartν , (b) Ieff
ν . . . . . . . . . . . . . . . . . . . . 83
2.22 Résultats du filtrage pour SS3 : (a) Ipartν , (b) Ieff
ν . . . . . . . . . . . . . . . . . . . . 83
2.23 Résultats du filtrage pour SS5 : (a) Ipartν , (b) Ieff
ν . . . . . . . . . . . . . . . . . . . . 84
2.24 (a) Matrice de MAC entre les modes de la référence et ceux obtenus avec CB
avant filtrage, (b) Matrice de MAC entre les modes du modèle condensé avant
et après filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.25 Localisation des erreurs du modèle condensé après filtrage . . . . . . . . . . . . 85
2.26 Déformées des résidus de SS1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.27 Localisation d’erreur après correction . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.28 Matrice de MAC après optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.29 Localisation d’erreur après filtrage trop sévère . . . . . . . . . . . . . . . . . . . . 87
2.30 Comparaison des modes 87, 88 et 89 de SS5 avec les résidus . . . . . . . . . . . . 87
2.31 Équerre divisée en trois sous-structures . . . . . . . . . . . . . . . . . . . . . . . . 90
2.32 Évolution des solutions obtenues avec la décomposition QR . . . . . . . . . . . 91
2.33 Évolutions des solutions de l’AG pour : (a) SS1 , (b) SS2, (c) SS3 . . . . . . . . . . 92
3.1 Problème inverse et prise de décision . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 La conjonction de l’information issue de la théorie Θ(d,m) (a) et de l’informa-
tion a priori ρ(d,m) (b) permet d’obtenir l’information a posteriori σ(d,m) (c) . 99
3.3 Modèle du moteur d’avion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.4 (a) Moyennes sur les indices de Morris ; (b) évolution de µM∗
kaprès classement
des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.5 Éléments finis associés aux paramètres d’intérêt . . . . . . . . . . . . . . . . . . 106
3.6 Critères : R2 (a), ERAM (b), MERA (c) . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.7 Évolutions de µtns
pour (a) x1 et (b) x25 ; évolutions de Stns
pour (c) x1 et (d) x25 . 108
viii
Liste des figures
3.8 Résultats de l’identification pour les paramètres (a) x7, (b) x39, (c) x6, (d) x20,
(e) x3, (f) x1, (g) x27, (h) x5, (i) x25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.9 Diagramme de dispersion a posteriori entre (a) x5 et x6, entre (b) x20 et x25,
entre (c) x3 à x27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.10 Densité de probabilité a posteriori sur les observations pour (a) d1 à d6, (b) d7
à d9, (c) d10 à d13 et (d) d14 à d22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.11 (a) UKL(d,η1) = 0,78 et UPloc(d,η1) = 0,24, (b) UKL(d,η2) = 0,78 et UPloc(d,η2) =0,37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.12 Système étudié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.13 Les huit configurations du système . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.14 UKL(d,η) en fonction de ηi pour (a) A1, (c) A2 et (e) A3 ; UPloc(d,η) en fonction
de ηi pour (b) A1, (d) A2 et (f) A3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.15 UjointKL (d,η) en fonction de ηi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3.16 Évolution des fonctions d’utilité pour la deuxième configuration : (a) UKL(d,η),
(b) UjointKL (d,η) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3.17 (a) FBH ; (b) FBH-PS ; (c) points de mesures de FBH ; (d) points de mesures de
FBH-PS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.18 Éléments finis associé aux paramètres utilisés pour recaler FBH . . . . . . . . . 123
4.1 Pour la méthode borne, AG et BFGS : (a) fonction robustesse ; (b) fonction op-
portunité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2 (a) Évolution de R(q) pour q ∈ [(1−α)q ; (1+α)q] ; (b) projection sur (kr ,R(q)) . 132
4.3 (a) : MEF de plaque ; (b) : MEF et points de mesure . . . . . . . . . . . . . . . . . 133
4.4 Fonction robustesse : (a) recalage par sensibilité, (b) recalage par CRE . . . . . . 134
4.5 (a) : MEF de la structure HRG ; (b) : MEF et points de mesure . . . . . . . . . . . 134
4.6 Fonctions robustesse en fonction du type de recalage : (a) PELAS1, (b) PELAS2 135
4.8 α(p,c) en fonction de rc pour deux conceptions de passerelle . . . . . . . . . . . 137
4.9 (a) Courbes de robustesse en vue 2-D pour différentes valeurs de p ; (b) zoom
sur la vue 2-D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.10 Courbes de robustesse en vue 3-D pour différentes valeurs de p . . . . . . . . . 139
4.11 α(p,c) en fonction de p pour rc = 9,1 . . . . . . . . . . . . . . . . . . . . . . . . . 139
ix
Liste des tableaux
1.1 Valeurs nominales des paramètres de conception . . . . . . . . . . . . . . . . . . 36
2.1 Composition des bases de condensation de la plaque raidie (ddls) . . . . . . . . 64
2.2 Erreurs relatives moyennes de la plaque raidie . . . . . . . . . . . . . . . . . . . . 64
2.3 Erreurs relatives moyennes de la plaque raidie en fonction du nombre de modes
retenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.4 Composition des bases de condensation enrichies de la plaque raidie (ddls) . . 69
2.5 Composition des bases de condensation du rotor (ddls) . . . . . . . . . . . . . . 72
2.6 Erreurs relatives moyennes du rotor . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.7 Composition des bases de condensation enrichies du rotor (ddls) . . . . . . . . 75
2.8 Relations entre la localisation d’erreur de modélisation et la localisation d’er-
reur de condensation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.9 Comparaison de la première fréquence propre obtenue pour 15 ddls maîtres
internes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.10 f ic avant et après optimisation par l’AG . . . . . . . . . . . . . . . . . . . . . . . . 92
2.11 Comparaison de la précision de « Guyan QR » et de « Guyan AG » . . . . . . . . . 93
3.1 Erreurs d’estimation pour la configuration η1 . . . . . . . . . . . . . . . . . . . . 119
3.2 Erreurs du krigeage sur la base de test . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.3 Gain d’information pour les observations simulées . . . . . . . . . . . . . . . . . 124
3.4 Gain d’information pour les observations expérimentales . . . . . . . . . . . . . 125
3.5 Erreurs sur les fréquences pour différents ensembles de paramètres . . . . . . . 125
xi
Liste des notations et abréviations
Abréviations
AG Algorithme génétique
ANOVA ANalyse Of VAriances
BED Bayesian Experimental Design
CA Combined Approximations
CB Craig-Bampton
COMAC Coordinate Modal Assurance Criterion
Cusum Cumulative sums
ddl(s) Degré(s) de liberté
DKL Décomposition de Karhunen-Loève
DVS Décomposition en Valeurs Singulières
ERDC Erreur en Relation De Comportement
G Guyan
FRF(s) Fonction(s) de Réponse Fréquentielle
i.i.d indépendant(e)s identiquement distribué(e)s
KL Karhunen-Loève ou Kullback-Leibler (suivant le contexte)
KLD Kullback-Leibler Distance
MAC Modal Assurance Criterion
MA MArtinez et al.
MCMC Markov Chain Monte Carlo
MDRE Minimum Dynamic Residuals Expansion
MECE Minimization of Errors in Constitutive Equations
MEF(s) Modèle(s) Éléments Finis
MKL Martinez-Karhunen-Loève
NSGA Non Sorting Genetic Algorithm
PCA Principal Component Analysis
PMC Perceptron Multi-Couches
POD Proper Orthogonal Decomposition
POM Proper Orthogonal Mode
OAT One factor At Time
SCA Système Conservatif Associé
SCI Single Composite Input
xiii
Liste des notations et abréviations
ss Sous-structure
Notations générales
AT Transposée complexe conjuguée de A
(·)−1 Inverse d’une matrice carrée
(·)† Pseudoinverse d’une matrice
‖·‖ Norme euclidienne d’un vecteur ou d’une matrice
diag(·) Diagonale d’une matrice
tr(·) Trace d’une matrice
⟨·⟩ Opérateur moyen
(·, ·) Produit scalaire défini sur l’espace Ω :( f , g ) =∫
Ω
f T g dΩ
N Nombre de ddls total du modèle
c Nombre de ddls mesurés
i Nombre des ddls de jonction
j Nombre des ddls internes
m Nombre des ddls maîtres
s Nombre des ddls esclaves
q Ddls généralisés
Inn Matrice identité d’ordre n
K Matrice de raideur
M Matrice de masse
∆K, ∆M Matrices de correction en raideur et en masse
Zν Matrice de raideur dynamique du mode ν : Zν = (K−λν M)
∆Zν Matrice de correction en raideur dynamique du mode ν
Φ Matrice modale
Λ Matrice spectrale
R Matrice de vecteurs résiduels
Mr r Matrice de corps rigide
L Matrice de localisation des ddls observés
y Vecteur de déplacements
f Vecteur de forces
q Vecteur des coordonnées généralisées
λν, φν Valeur et vecteur propre du mode ν
ων Pulsation propre du mode ν (rad.s−1), λν =ω2ν
fν Fréquence propre du mode ν (Hz), λν = (2π fν)2
c yexpν Vecteur propre sur les c ddls observés
yexpν Vecteur propre du mode ν issu d’une procédure d’expansion
rν Résidu en déplacement relatif au mode ν
γ coefficient de confiance dans les mesures
Tss Matrice de transformation d’une sous-structure ss
xiv
Liste des notations et abréviations
Kc Matrice de raideur condensée par sous-structuration
Mc Matrice de masse condensée par sous-structuration
(Meff
j j
)νMatrice de masse modale effective relative au mode ν de ddls de jonction j
∆fν Résidu en force relatif au mode ν
e (ss)ν Résidu en énergie relatif au mode ν et à la sous-structure ss
Ipartν Indicateur de participation modal relatif au mode ν
Ieffν Indicateur relatif au mode ν et associé aux masses modales effectives
Ienrν Indicateur de localisation en énergie relatif au mode ν
Iprojν Indicateur de localisation par projection relatif au mode ν
E(x) Espérance mathématique de la variable aléatoire x
x Moyenne arithmétique de la variable aléatoire x
C Matrice de covariance de la variable aléatoire x
σ(x) Écart-type de la variable aléatoire x
V(x) Variance de la variable aléatoire x
N(µ,σ2) Loi normale d’espérance µ et variance σ2
E Module d’Young (N.m−1)
ν Coefficient de Poisson
ρ Masse volumique (kg.m−3)
m Ensemble des paramètres du modèle
d Ensemble des données observables
ρM (m) Fonction de densité de probabilité a priori sur m
ρD(d) Fonction de densité de probabilité associée aux données expérimentales
Θ(d,m) Fonction de densité de probabilité représentant les incertitudes théoriques
L(m) Fonction de vraisemblance
σM (m) Fonction de densité de probabilité a posteriori sur m
σD(d) Fonction de densité de probabilité a posteriori sur d
η Protocole expérimental
p Vecteur des paramètres de conception
c Vecteur des paramètres incertains
q Vecteur des paramètres de conception et incertains
α Horizon d’incertitude
U(α,c0) Modèle info-gap enveloppe
α(p,rc ) Fonction robustesse
β(p,rc ) Fonction opportunité
R(q) Mesure de performance
rc Valeur critique liée à R(q)
rw Valeur souhaitée liée à R(q)
xv
Introduction générale
Contexte de l’étude
La maîtrise du calcul prévisionnel du comportement dynamique de structures méca-
niques demeure un enjeu majeur pour les industriels tant sur le plan de la compréhension
de certains phénomènes physiques que sur le plan de l’amélioration de la conception en
présence de facteurs mal maîtrisés. Parmi ces facteurs, les nombreuses sources d’incerti-
tudes, la grande taille des modèles éléments finis, les grandes quantités de données, etc.,
sont des problèmes reconnus comme déterminants dans une phase de conception. De la
prise en compte de ces incertitudes lors de la phase de conception, est née la conception
robuste. Nous présentons dans les deux paragraphes suivants, quelques concepts associés
aux incertitudes et à la conception robuste.
De l’incertitude et de ses modélisations
Il n’existe pas un seul type d’incertitudes. Bien que suivant les auteurs [100, 132, 154], la
classification ou les noms associés aux incertitudes diffèrent, on distinguera deux catégories
d’incertitudes :
– les incertitudes réductibles qui résultent d’un manque de connaissances des méca-
nismes mis en jeu et peuvent donc être diminuées par une augmentation de la quan-
tité d’information. Elles interviennent par exemple lors d’une méconnaissance des
relations de comportement des matériaux ou encore des phénomènes intervenant
aux raccordement entre sous-structures. Ces incertitudes sont aussi souvent qualifiées
d’épistémiques.
– les incertitudes irréductibles qui sont dues à la variabilité intrinsèque du système étu-
dié et de son environnement [154]. Elles sont au mieux caractérisées par un modèle
mathématique tel que ceux exposés ci-après mais ne peuvent pas être réduites. Elles
résultent par exemple de la variabilité des propriétés matériaux, de la variabilité de la
température, de la variabilité dans l’assemblage des composantes, etc. Ces incertitudes
affectent la structure mécanique elle-même, mais aussi les instruments de mesures.
Ces incertitudes sont souvent qualifiées dans la littérature d’incertitudes aléatoires ou
stochastiques.
Oberkampf et al. [154] font une distinction supplémentaire en séparant les erreurs des in-
certitudes. Ils définissent une erreur comme une imprécision identifiable qui n’est pas due à
un manque de connaissance. Les erreurs peuvent être volontaires, par exemple lors d’une
1
Introduction générale
simplification de maillage destinée à accélérer les calculs, ou involontaires, par exemple
lors d’étourderies dans la programmation. Pour peu que l’analyste ou toute autre personne
prenne le temps de vérifier son travail, les erreurs involontaires sont théoriquement iden-
tifiables. Les erreurs involontaires étant réductibles, on pourra tout de même considérer
qu’elles se classent dans la catégorie des incertitudes épistémiques.
Dans tous les cas, il est nécessaire de formaliser mathématiquement ces incertitudes.
Diverses modélisations de l’incertitude ont été proposées afin de répondre à une grande
variété de problèmes. Sans prétendre être exhaustif, nous citerons notamment :
– l’approche probabiliste ou stochastique utilisant la théorie des probabilités afin de re-
présenter les incertitudes. On retrouve dans cette approche deux points de vue. La vi-
sion fréquentiste se veut objective, seule la fréquence d’occurrence d’un événement
est utilisée pour calculer la probabilité. La vision bayésienne est plus subjective, la pro-
babilité est calculée à partir d’un état d’information a priori. L’approche stochastique
est la plus couramment utilisée [180, 181] ;
– l’approche intervalle où les paramètres sont bornés par des intervalles déterministes
[48, 145] ou aléatoires [44, 183]. Ce dernier cas s’intègre dans le cadre de la théorie des
preuves ou evidence theory. Cette théorie utilise une mesure de croyance – la somme
des preuves en faveur de l’occurrence d’un événement – et de plausibilité – le complé-
ment de la somme des preuves qui vont à l’encontre de l’occurrence de l’événement –
afin de définir les bornes d’un événement [165] ;
– la théorie des ensembles flous [132, 210] qui permet de modéliser les incertitudes en
utilisant des données subjectives. Une fonction d’appartenance permet d’associer à un
nombre flou – le paramètre incertain – borné par un support, un degré d’appartenance
compris entre 0 et 1. De la valeur du degré d’appartenance va dépendre le jugement sur
l’incertitude du paramètre. À partir de cette théorie, a aussi été développée la théorie
des possibilités [51, 211]. Dans un formalisme proche de la théorie des croyances, cette
approche utilise une mesure de possibilité pour décrire l’occurrence d’un événement
et une mesure de nécessité pour indiquer le degré auquel l’occurrence d’un événement
est attendue ;
– l’approche convexe ou info-gap [16] dont le principe sera exposé dans le chapitre 4 ;
– la théorie des méconnaissances [106, 165] où à chaque sous-ensemble incertain d’une
structure est associée une variable interne contenue dans un intervalle dont les bornes
sont stochastiques.
Les approches intervalle, ensembles flous ou encore convexe sont par opposition à l’ap-
proche stochastique, des méthodes non-stochastiques. Dans sa théorie généralisée de l’in-
formation, Klir [100] a proposé un cadre pour réunir et comparer les approches stochas-
tiques et non-stochastiques.
L’approche classique de modélisation consiste à représenter un système mécanique à
l’aide d’un modèle éléments finis (MEF) déterministe. À une entrée correspond une unique
réponse déterministe. La modélisation stochastique permet de prendre en compte les in-
certitudes dans la structure du modèle. À une entrée correspond une réponse aléatoire. Les
incertitudes sont introduites dans le modèle :
– soit par une approche paramétrique. On retrouve principalement la méthode des élé-
2
Introduction générale
ments finis stochastiques où l’on distingue l’approche spectrale [61] et l’approche par
perturbation [214] ;
– soit par une approche non-paramétrique [4, 33, 190, 191]. Les incertitudes sont in-
troduites directement sur les matrices globales du modèle à travers un paramètre de
dispersion.
La conception robuste
La conception robuste cherche à minimiser l’impact des sources d’incertitude vis-à-vis
de la performance du système modélisé. Un des pionniers en la matière fut Taguchi qui
dès les années cinquante développa une méthodologie permettant d’appliquer des concepts
statistiques afin d’obtenir une conception de qualité. Selon lui [32], plutôt que « d’éliminer
ou de réduire les causes de variabilité de la performance d’un produit, il est préférable d’ajus-
ter sa conception afin de la rendre insensible aux causes de variations ». Pour bien formuler
un problème de conception robuste il est nécessaire de faire une distinction entre [32] :
– les paramètres de conception du modèle tels que les paramètres matériaux ou les di-
mensions ;
– les paramètres de conception environnementaux tels que la température, la pression
ambiante ou encore l’utilisateur ;
– les fonctions performances du système.
L’approche conception robuste au sens de Taguchi repose sur l’utilisation :
– d’une fonction perte permettant de quantifier la perte de qualité subie par le produit à
cause d’une mauvaise conception ;
– du ratio signal/bruit qui mesure l’effet de la variation des paramètres de conception
du modèle et environnementaux sur les fonctions performances. Sa définition varie
suivant le problème étudié mais il s’agit toujours d’une fonction de la forme
RSB=−10 log10(SB).
Généralement, on cherche à maximiser ce ratio en prenant SB =σ2/µ2, où σ et µ sont
respectivement l’écart type et la variance de la fonction performance.
Les effets de la variabilité des paramètres de conception sont étudiés aux moyens de plans
d’expériences où les paramètres de conception appelés facteurs prennent un nombre limité
de valeurs appelées niveaux. Une fois trouvée la conception permettant de maximiser le ra-
tio signal/bruit, la moyenne de la fonction performance est ajustée sur la réponse voulue
en faisant varier les paramètres de conception ayant peu d’influence sur la variance de la
performance.
Cette démarche est très largement utilisée dans les entreprises – au point d’être une
marque déposée – car très bien documentée, facile à mettre oeuvre et, dans la cas de la si-
mulation numérique, demandant peu de calculs. Cette approche a cependant ses limites.
On lui reproche notamment de mal prendre en compte les interactions entre les paramètres
à cause de l’emploi de plans d’expériences orthogonaux [159]. L’augmentation de la puis-
sance des ordinateurs a permis le développement de techniques de conception robuste plus
coûteuses en temps de calcul mais plus justes du point de vue statistique. Ces techniques
reposent principalement sur des techniques d’optimisation déterministes ou stochastiques.
3
Introduction générale
Dans tous les cas, l’objectif de l’optimisation est de minimiser sous contraintes la moyenne
et la variance des fonctions performances.
Pour un aperçu des applications des approches de conception robuste en dynamique, on
pourra se référer à l’article de Zang et al. [212]. Dans ce même article, se trouve une repré-
sentation intéressante des différents types de variations d’une fonction performance. Nous
nous permettons d’en proposer une adaptation dans les figures ci-dessous. Sur chaque fi-
gure, la distribution est associée aux réponses du modèle dont la dispersion est représentée
par les petites cercles. Le gros cercle localise la valeur cible de la fonction performance. Le
but de la conception robuste est d’aboutir à un système dont les réponses sont celles du cas
illustré figure 1d.
(a) (b)
(c) (d)
Fig. 1 – Différents types de variations de la fonction performance : (a) réponses en dehors dela cible avec une faible variation ; (b) réponses dans la cible avec une forte variation ;(c) réponses en dehors de la cible avec une forte variation ; (d) réponses dans la cibleavec une faible variation
Problématique et contenu du mémoire
Problématique
Cette étude s’est initialement inscrite dans le cadre du Projet Supersonique 2003-2006.
Nous nous sommes intéressés à la mise en oeuvre de méthodologies facilitant la prise de
décision dans un contexte de conception robuste en dynamique des structures. Les incerti-
tudes sur les paramètres de conception, les incertitudes sur les mesures ou encore l’impact
4
Introduction générale
des modifications ont été pris en compte par l’approche probabiliste ou l’approche info-gap.
Les analyses employées lors de la conception étant diverses et variées, nous nous sommes
attaché à développer plusieurs outils touchant au processus de conception robuste. Ces ou-
tils concernent
– la synthèse modale ;
– la réanalyse approchée ;
– l’identification paramétrique ;
– la planification d’essais ;
– le recalage.
Contenu du mémoire
En sus de l’introduction, de la conclusion et des annexes, ce mémoire est organisé com-
me suit.
Le chapitre 1 présente différents outils d’analyse utilisés tout au long de ce travail. Le
modèle dynamique utilisé est tout d’abord précisé, puis le problème de l’approximation des
réponses dynamiques d’un système mécanique est abordé sous la forme d’une revue de dif-
férentes méthodes d’approximation basées sur la réduction modale et sur les métamodèles.
Nous étudions aussi le problème de la réanalyse approchée après modifications structurales.
Enfin, nous discutons de la paramétrisation de modèle et présentons quelques méthodes de
sensibilité et de localisation d’erreurs de modélisations.
Dans le chapitre 2, nous étudions le potentiel d’une méthode de synthèse modale basée
sur l’utilisation des modes propres orthogonaux et notamment son application à la conden-
sation robuste. Nous proposons aussi une méthodologie de vérification et d’optimisation de
super-éléments. Enfin, nous montrons qu’un algorithme génétique peut permettre une sé-
lection optimale des coordonnées physiques dans les méthodes de réduction type Guyan.
Le chapitre 3 concerne le problème inverse de l’identification paramétrique des struc-
tures mécaniques à partir d’observations incertaines ainsi que la quantification de l’infor-
mation susceptible d’être obtenue grâce à des mesures expérimentales. Nous utilisons dans
cette étude une formulation probabiliste des problèmes inverses qui combine, sous forme de
distribution de probabilité, les informations a priori sur les paramètres, les modèles d’incer-
titudes sur les mesures réelles ou simulées et les incertitudes sur le modèle. La planification
d’essais en vue d’un gain d’information est basée sur l’utilisation des plans d’expériences
bayésiens.
Enfin, dans le chapitre 4, l’approche de modélisation non-probabiliste info-gap, est utili-
sée pour deux problèmes. Nous appliquons la méthode info-gap afin d’évaluer la robustesse
aux incertitudes de deux méthodes de recalage de paramètres incertains non utilisés dans la
procédure de recalage. Cette méthode nous permet aussi de vérifier pour un modèle élasto-
dynamique que, dans un environnement incertain et pour un critère de performance donné,
il peut être préférable de choisir un modèle sous-optimal mais « satisfaisant » plutôt qu’un
modèle optimal.
5
Chapitre 1Méthodes approchées en analyse modale
Sommaire1.1 Modèle linéaire d’un système dynamique . . . . . . . . . . . . . . . . . . . . . 8
1.2 Méthodes de condensation et de synthèse modale . . . . . . . . . . . . . . . 10
1.2.1 Bases de représentation du mouvement . . . . . . . . . . . . . . . . . . 11
1.2.2 Classification des méthodes de sous-structuration . . . . . . . . . . . . 14
1.2.3 Couplage des sous-structures . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Méthodes de sous-structuration . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Réanalyse approchée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Réanalyse approchée paramétrique . . . . . . . . . . . . . . . . . . . . . 20
1.4 Méthodes d’approximation par métamodèles . . . . . . . . . . . . . . . . . . 24
1.4.1 Surfaces de réponse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.2 Le krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4.3 Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.4 Choix d’une méthode d’approximation . . . . . . . . . . . . . . . . . . . 33
1.5 Paramétrisation de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.5.1 Analyse de sensibilité en présence d’incertitudes . . . . . . . . . . . . . 39
1.5.2 Localisation d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Ce chapitre aborde différents outils d’analyse utilisés dans ce travail. Après avoir précisé
le modèle dynamique utilisé, nous abordons le problème de l’approximation des réponses
dynamiques d’un système mécanique. Une revue non exhaustive de différentes méthodes
d’approximation basées sur la réduction modale et sur une approche par métamodèles est
réalisée. Nous étudions aussi le problème de la réanalyse approchée après modifications
structurales. Enfin, nous discutons de la paramétrisation de modèle et présentons quelques
méthodes de sensibilité et de localisation.
7
Chapitre 1. Méthodes approchées en analyse modale
1.1 Modèle linéaire d’un système dynamique
Pour faciliter la lecture de ce mémoire, nous présentons la formulation du modèle dyna-
mique linéaire utilisée.
Nous considérons ici l’étude dynamique d’un système mécanique à comportement li-
néaire. Le système étant modélisé par la méthode des éléments finis, le comportement dy-
namique de la structure sera représenté dans le domaine temporel par le système différentiel
d’ordre 2 et de dimension N
M y(t )+B y(t )+K y(t ) = f(t ). (1.1)
Les matrices de masse M, d’amortissement B et de raideur K sont supposées carrées
d’ordre N, symétriques à valeurs réelles. De plus, la matrice M est supposée définie positive,
et les matrices B et K définies non-négatives. Les vecteurs y(t ), y(t ) et y(t ) ∈ℜN,1 contiennent
respectivement les déplacements, vitesses et accélérations sur les degrés de liberté – ddls –
du maillage élément finis. Le vecteur des entrées contenant les excitations extérieures est
noté f(t ) ∈ℜN,1.
Nous considérons désormais que la matrice d’amortissement est nulle et donc que le
système est conservatif. Nous nous plaçons en régime harmonique stationnaire. Dans ce
cas, f(t ) = fe jωt et y(t ) = y e jωt avec f et y respectivement les vecteurs complexes des exci-
tations extérieures et des déplacements à une pulsation d’excitation ω et j 2 = −1. Dans ces
conditions, l’équation d’équilibre du système conservatif associé – SCA – s’écrit
(K−ω2 M
)y = f. (1.2)
Cette expression peut aussi être écrite en fonction de la raideur – ou impédance – dyna-
mique Z(ω) et ainsi
Z(ω)y = f. (1.3)
L’équation caractéristique du système homogène correspondant au régime libre est don-
née par (K−ω2
ν M)φν = 0. (1.4)
Ce système linéaire admet N valeurs propres réelles positives λν =ω2ν et N vecteurs pro-
pres associés φν ∈ ℜN,1 aussi appelés modes normaux. En regroupant les valeurs propres
dans la matrice spectrale diagonale Λ = diag(ω2
1,ω22, · · · ,ω2
N
)∈ ℜN,N et les vecteurs propres
dans la matrice modale Φ=[φ1φ2 . . . φN
]∈ ℜN,N, nous pouvons écrire le problème aux va-
leurs propres généralisé
KΦ−MΦΛ= 0. (1.5)
Par rapport aux matrices M et K, les vecteurs propres satisferont les propriétés d’ortho-
gonalité
ΦT KΦ=Λ et ΦT MΦ= INN, (1.6)
où INN est la matrice identité d’ordre N.
Le calcul de la réponse forcée de l’équation (1.3) à une pulsation donnée, nécessite l’in-
version de Z(ω). Par exemple, lors du calcul d’une fonction de réponse fréquentielle – FRF
–, l’inversion directe de cette matrice en chaque point fréquentiel entraînerait d’importants
8
1.1 Modèle linéaire d’un système dynamique
efforts de calcul. Pour cette raison, le calcul des réponses par superposition modale est en
général préféré au calcul direct. Cette approche consiste à projeter la réponse y sur la base
modale Φ. Ainsi
y =Φq, (1.7)
et compte tenu des relations de norme (1.6) en prémultipliant par ΦT
(Λ−ω2 INN
)q =ΦT f. (1.8)
q est un vecteur de coordonnées généralisées.
À noter que pour le calcul d’une FRF, le terme (−i ωβq) – avec i 2 = −1 – est ajouté dans
l’équation afin de représenter un amortissement généralisé, β étant une matrice d’amor-
tissement généralisé diagonale. Le système obtenu n’est toutefois pas équivalent au sys-
tème 1.1.
Le système (1.5) étant de taille N, il est théoriquement possible d’extraire N solutions pro-
pres. Cependant, nous nous intéressons généralement au comportement basses fréquences
de la structure et donc seules les m premières solutions propres nécessitent d’être calcu-
lées. En général m ≪ N et par ailleurs, le MEF cesse d’être valide à partir d’une fréquence
limite au-delà de laquelle les modes deviennent non-physiques. Pour des MEF de grandes
tailles, la technique usuelle pour résoudre le système (1.5) est d’utiliser une procédure itéra-
tive où seules les m premières solutions propres ou les m solutions propres comprises dans
une bande de fréquence donnée sont calculées. Pour un système comportant des matrices
symétriques, la méthode de Lanczos [43, 111] s’avère une des techniques les plus efficaces
d’un point de vue numérique.
Considérons une bande fréquentielle d’analyse [0 ; Ω]. Les m modes propres compris
dans cette bande sont calculés. La base modale se réduit donc à Φm =[φ1φ2 · · ·φm
]∈ℜN,m ,
de matrice spectrale Λm . Soient ΦN−m et ΛN−m leurs matrices complémentaires, telles que
Φ=[Φm ΦN−m
]et Φ=
[Λm 0
0 ΛN−m
]
. (1.9)
Si nous utilisons la superposition modale, y est cette fois projetée sur Φm . Les modes de
ΦN−m n’étant pas pris en compte, l’utilisation de cette base incomplète induit une erreur
sur les réponses calculées dans la bande d’analyse, notamment en très basses fréquences et
aux antirésonances. Il peut alors convenir de calculer et d’utiliser les modes compris dans
une bande fréquentielle étendue. Il est généralement conseillé d’extraire les modes compris
dans une bande fréquentielle de 1,5 à 3 fois Ω.
Une autre approche consiste à appliquer une procédure de correction statique [69]. Φm
se limitant aux modes compris dans la bande d’analyse, la contribution des modes non
considérés est approximée par des résidus statiques. En utilisant l’équation (1.8) et la re-
lation (1.7), nous obtenons la réponse
y =Φm
(Λm −ω2 Imm
)−1ΦT
m f+ΦN−m
(ΛN−m −ω2 IN−mN−m
)−1ΦT
N−m f. (1.10)
9
Chapitre 1. Méthodes approchées en analyse modale
Les termes d’inerties associés aux modes non calculés sont négligés et alors
y =Φm
(Λm −ω2 Imm
)−1ΦT
m f+ΦN−m Λ−1N−mΦT
N−m f. (1.11)
Le terme ΦN−m Λ−1N−m
ΦTN−m
est appelé flexibilité statique résiduelle. Nous la noterons R
puisqu’il contient les résidus recherchés. La base R est calculée à l’aide des modes retenus
par
R =ΦN−m Λ−1N−mΦT
N−m = K−1 −Φm Λ−1m ΦT
m . (1.12)
Nous verrons au paragraphe 1.2.1 comment réaliser ce calcul dans le cas où K est singulière.
La réponse sera alors approchée par
y =Φm qm +R f. (1.13)
Le vecteur des excitations f n’ayant que f composantes non-nulles correspondant aux
points d’excitation, on constate que seules les f colonnes correspondantes de R ∈ ℜN,N né-
cessitent d’être calculées. La réponse sera projetée sur [Φm R f ] avec R f ∈ ℜN, f , base des f
modes de flexibilité résiduelle. Puisque que le coût de calcul des résidus statiques est limité,
cette méthode est en général préférée à l’usage d’une base modale étendue.
1.2 Méthodes de condensation et de synthèse modale
Les méthodes de synthèse modale sont basées sur la méthode de Rayleigh-Ritz et peu-
vent être regroupées en trois familles très étroitement liées :
– les méthodes utilisant les coordonnées généralisées ;
– les méthodes de condensation sur des ddls physiques ;
– les méthodes de sous-structuration dynamique.
Dans les méthodes utilisant les coordonnées généralisées, le système d’équation est ré-
duit en utilisant une base tronquée de vecteurs devant satisfaire les conditions limites en
force et en déplacement. Comme nous l’avons vu dans la section précédente, cette base peut
être formée par les modes normaux du système.
La deuxième famille contient les méthodes où le modèle est divisé en ddls maîtres et en
ddls esclaves, ces derniers étant réduits par condensation statique ou dynamique.
Enfin, viennent les méthodes de sous-structuration sur lesquelles nous allons nous at-
tarder désormais. Elles consistent à diviser le système en sous-structures, à les analyser et
les réduire séparément, puis les coupler en respectant les contraintes aux interfaces pour
obtenir un modèle réduit global. La sous-structuration a l’avantage de permettre la prépara-
tion et la vérification des modèles des sous-structures indépendamment les uns des autres.
Ceci prend toute son importance pour l’étude des structures complexes – voitures, avions,
véhicules spatiaux, etc. – dont les études des sous-ensembles sont confiées à différents sous-
traitants. De plus, des modifications dans la conception d’une sous-structure n’entraînent
pas nécessairement l’analyse de la structure complète. Quand la sous-structure est consti-
tuée de sous-ensembles identiques répétitifs, cette méthode permet de minimiser la prépa-
ration des données et le temps de calcul. Les vecteurs de base choisis pour chaque sous-
structure sont des modes de déformation statique et des modes propres avec des conditions
aux limites fixes, libres ou hybrides.
10
1.2 Méthodes de condensation et de synthèse modale
La synthèse modale consiste à approximer le comportement dynamique de chaque sous-
structure par une combinaison linéaire de k vecteurs formant une base de Ritz T. Le nombre
de ddls de la sous-structure est alors réduit à k. Pour chaque sous-structure de dimension N,
la relation de passage entre le vecteur y des N coordonnées physiques et le vecteur q des k
coordonnées généralisées s’exprime par
y = T q. (1.14)
Les matrices condensées de masse, de raideur ainsi que le vecteur condensé des excita-
tions extérieures sont construits à partir des relations
Kc = TT K T,
Mc = TT M T et
fc = TT f.
(1.15)
Il reste ensuite à assembler les matrices de masse et de raideur condensées des diffé-
rentes sous-structures – voir paragraphe 1.2.3.
Les différentes méthodes de sous-structuration ne diffèrent que par des choix particu-
liers des vecteurs composants T. Les types de modes les plus couramment utilisé en syn-
thèse modale sont présentés dans le paragraphe suivant. Ici, seules les bases de Ritz sont
utilisées, mais il faut tout de même noter qu’il existe des approches utilisant d’autres types
de vecteurs, par exemple les vecteurs de Krylov [6, 9, 40, 42].
1.2.1 Bases de représentation du mouvement
Dans la suite de cet exposé, nous serons amenés à répartir les ddls d’une sous-structure
en :
– ddls de jonction désignés par l’indice j , correspondant aux ddls assurant la connexion
avec les autres sous-structures ;
– ddls internes désignés par l’indice i , complémentaires aux ddls de jonction (i⊕
j = N) ;
– ddls maîtres désignés par l’indice m, comprenant les ddls de jonction et certains ddls
internes ;
– ddls esclaves désignés par l’indice s, complémentaires aux ddls maîtres (m⊕
s = N) ;
– ddls de corps rigide désignés par l’indice r (r ≤ 6), regroupant les ddls permettant de
rendre isostatique une structure présentant des modes de corps rigide et choisis de
préférence parmi les ddls internes ;
– ddls de corps déformable désignés par l’indice d , complémentaires aux ddls de corps
rigide (r⊕
d = N).
Modes normaux
Ces modes sont des vecteurs propres qui, suivant la nature des conditions limites du mo-
dèle ou de la sous-structure, seront classés en modes normaux à interface libre, fixe, chargée
ou mixte.
11
Chapitre 1. Méthodes approchées en analyse modale
Modes normaux à interface libre. Les modes normaux à interface libre sont les modes
élastiques obtenus en respectant les conditions aux limites naturelles. Si la sous-structure est
en condition limite libre-libre, la base Φ issue de la résolution du problème homogène (1.5)
possède r modes de corps rigide à pulsations nulles. Les N−r modes élastiques de Φ consti-
tueront la base modale Φe des modes à interface libre.
Modes normaux à interface fixe. Ces modes sont associés à l’ensemble i des ddls in-
ternes de la sous-structure, les ddls de jonction j étant considérés comme fixes. Ils sont ob-
tenus par la résolution du problème homogène :
Ki i Φi i −Mi i Φi i Λi i = 0, (1.16)
avec ΦTi i
Ki i Φi i =Λi i et ΦTi i
Mi i Φi i = Ii i .
La base complète des modes à interface fixe Φf
is’exprime selon
Φf
i=
[0
Φi i
]
. (1.17)
Modes normaux à interface chargée. L’analyse modale est réalisée sur la sous-structu-
re libre perturbée par adjonction de masse ou de raideur sur certains ddls de jonction. Pour
des chargements convenablement choisis, les modes obtenus sont proches des modes de la
structure assemblée et constituent ainsi une excellente base de représentation.
Modes normaux à interface mixte. Les modes normaux à interface mixte sont obtenus
par blocage de certains ddls de jonction. Les déformées modales correspondent alors à un
mélange entre les modes à interface libre et les modes à interface fixe.
Modes contraints et modes de corps rigide
Modes contraints. Les modes contraints – ou modes statiques de jonction – sont des
modes de déformation correspondant à des déplacements d’interface imposés. Ils corres-
pondent aux réponses statiques des ddls internes lorsque des déplacements unitaires sont
appliqués successivement sur chacun des ddls de jonction, les autres ddls de l’interface res-
tant bloqués. Ils forment la matrice Ψ j solution de
[K j j K j i
Ki j Ki i
]
Ψ j =[
F j j
0
]
, (1.18)
où F j j est la matrice constituée des efforts de réaction dus aux déplacements imposés.
L’expression des modes contraints est alors donnée par
Ψ j =[
I j j
Ψ j j
]
=[
I j j
−K−1i i
Ki j
]
. (1.19)
Il est facilement démontrable que
Φf
iKΨ j = 0. (1.20)
12
1.2 Méthodes de condensation et de synthèse modale
Dans une base de projection, ces modes permettent d’assurer une prise en compte exacte
de la partie statique du comportement issu de chargements dynamiques appliqués sur les
ddls internes.
Modes de corps rigide. Dans le cas d’une structure libre, les modes de corps rigide sont
des modes de déplacement d’ensemble à énergie de déformation nulle. Ce sont des modes
normaux mais ils peuvent aussi être vus comme un cas particulier des modes contraints. Ils
peuvent être obtenus par la résolution du système
[Kr r Kr d
Kdr Kdd
]
Ψr =[
0
0
]
. (1.21)
La deuxième ligne de l’équation (1.21) permet d’obtenir la relation
Ψr =[
Ir r
Ψdd
]
=[
Ir r
−K−1dd
Kdr
]
. (1.22)
La matrice de masse de corps rigide Mr r est aussi définie par
Mr r =ΨTr MΨr . (1.23)
Les ddls de corps rigide r doivent être judicieusement choisis afin de rendre isostatique
la structure sous l’action de forces d’auto-équilibre appliquées au droit de ces ddls. L’appli-
cation d’une procédure d’élimination de Gauss à la matrice de raideur peut servir à cet effet.
Les ddls de corps rigide sont alors associés aux ddls correspondant à des pivots nuls [68].
Modes d’attache
Les modes d’attache – ou modes de flexibilité statique – sont obtenus en appliquant suc-
cessivement des forces unitaires sur les ddls d’interface j . Ils forment la matrice S j solution
de
K S j =[
I j j
0
]
. (1.24)
Si la sous-structure est libre elle possèdent des modes de corps rigide. La matrice K est
alors singulière et n’est donc pas inversible. Une méthode pour s’affranchir de ce problème
est d’opérer un filtrage des modes de corps rigide [37, 68]. Pour cela, une matrice Pr de fil-
trage des modes de corps rigide est construite telle que
Pr = INN −MΨTr M−1
r r ΨTr . (1.25)
Après avoir calculé la matrice
G =[
0 0
0 K−1dd
]
, (1.26)
matrice de flexibilité de la structure rendue isostatique par blocage des ddls de corps rigide,
13
Chapitre 1. Méthodes approchées en analyse modale
la matrice de pseudo-flexibilité S j est obtenue par la relation
S j = PTr G Pr
[I j j
0
]
. (1.27)
Lorsque le nombre de ddls de la sous-structure est élevé, l’application de cette méthode
peut représenter un effort de calcul important. Dans l’équation (1.24), il est donc alors préfé-
rable de remplacer la matrice K par K+αM, avec α pris égal à une fraction de la valeur propre
associée au premier mode flexible λflex [11] – par exemple λflex/10≤ α≤ λflex [22]. Les modes
d’attache « décalés » ainsi obtenus s’avèrent de très bonnes approximations des modes d’at-
tache exacts.
Les modes d’attache calculés incluent les contributions de tous les modes propres de la
sous-structure et en particulier les modes basses fréquences. Si ceux-ci ont déjà été inclus
dans la base de projection, il est nécessaire de retirer des modes d’attache la contribution de
ces modes. Les modes d’attache résiduels composent la base R j calculés par
R j = S j −(Φe
k Λ−1k
(Φe
k
)T)[
I j j
0
]
, (1.28)
où Φek
est la matrice modale tronquée composée des modes à interface libre retenus pour la
sous-structure et Λk la matrice spectrale associée.
1.2.2 Classification des méthodes de sous-structuration
Les méthodes de sous-structuration peuvent être classées en :
– méthodes avec interface fixe ;
– méthodes avec interface libre ;
– méthodes de substitution modale ;
– méthodes hybrides.
Méthodes avec interface fixe. Hurty [81] a développé une méthode pour l’analyse dy-
namique des sous-structures avec interfaces fixes. Craig et Bampton [38] ont présenté une
variante de cette méthode plus intéressante sur le plan pratique. Cette méthode utilise com-
me modes de sous-structures les modes contraints et les modes propres à interface fixe.
Nous reviendrons en détail sur cette méthode au paragraphe 1.2.4. Bamford [12] a montré
que la prise en compte de modes d’attache améliorait la convergence de la procédure.
Méthodes avec interface libre. Les premières méthodes avec interfaces libres dévelop-
pées par Goldman [63] ou encore Hou [78], sont connues pour leurs mauvaises propriétés de
convergence. MacNeal [127] et Rubin [170] ont montré que l’utilisation de la correction de
flexibilité résiduelle, c’est-à-dire la prise en compte de l’effet statique des modes tronqués,
permettait une amélioration significative de la précision de ces méthodes. Martinez [131] –
voir paragraphe 1.2.4 – propose une variante des méthodes de MacNeal et Rubin permet-
tant d’exprimer la matrice de transformation sous la même forme que celle obtenue par la
méthode de Craig et Bampton.
14
1.2 Méthodes de condensation et de synthèse modale
Méthodes de substitution modale. Benfield et Hrurda [20] ont mis au point une mé-
thode dite de substitution modale qui constitue une généralisation de la méthode des « bran-
ch modes » de Gladwell [62]. Ce type de méthode convient au cas d’une structure constituée
d’une sous-structure principale et de sous-structures secondaires appelées « branches ». Cet-
te méthode permet divers choix des modes propres du constituant principal : modes avec in-
terface libre ou modes avec interface chargée, cette dernière option améliorant notablement
la convergence.
Méthodes hybrides. MacNeal [127] a développé une méthode hybride de synthèse mo-
dale avec différentes corrections destinées à minimiser les effets de troncature modale. Hintz
[73] a également présenté une méthode hybride avec d’excellentes propriétés de conver-
gence. Enfin, la méthode de Craig et Chang [39] est une procédure générale de couplage de
sous-structures permettant de formuler différentes méthodes sous une forme unifiée.
Il existe de nombreuses techniques de synthèse modale et il n’est pas facile de conclure
quant au choix de la technique à retenir. Nous pouvons cependant dégager quelques carac-
téristiques indispensables à l’obtention de résultats acceptables :
– il convient de choisir a priori un nombre de modes normaux dans la base de condensa-
tion de chaque sous-structure selon son importance ou sa contribution dans le com-
portement dynamique de la structure complète. Une structure souple nécessite une
base de projection relativement large – modes normaux en nombre important – alors
qu’une structure très raide peut être représentée à l’aide d’une base uniquement con-
stituée de réponses statiques ;
– le nombre de modes composants d’une sous-structure doit être adapté en fonction de
la bande d’analyse désirée ;
– les efforts externes et les efforts de liaison appliqués à la sous-structure nécessitent
l’inclusion, dans la base de condensation de la sous-structure, de réponses statiques
calculées pour des ddls concernés. Le modèle réduit sera ainsi statiquement exact.
1.2.3 Couplage des sous-structures
Les modèles réduits doivent être assemblés en respectant les équations de compatibilité
des efforts et déplacements aux frontières sur les ddls de jonction. Pour p sous-structures
devant être connectées sur une même interface, les deux contraintes employées lors de l’as-
semblage sont :
– la continuité des déplacements à l’interface, exprimée par
y1j = ·· · = yk
j = ·· · = yp
j; (1.29)
– l’équilibre des efforts de jonction, exprimé par
p∑
k=1
fkj = 0. (1.30)
Une approche assez générale pour assembler les sous-structures est d’employer les mul-
tiplicateurs de Lagrange. Ceux-ci sont associés aux équations de contraintes sur les dépla-
15
Chapitre 1. Méthodes approchées en analyse modale
cements à l’interface telles que (1.29) ou à d’autres équations spécifiques à la méthode de
condensation utilisée. L’emploi des équations de Lagrange et le partitionnement des ddls
généralisés en ddls dépendants et linéairement indépendants permet d’aboutir à l’équation
du mouvement régissant le système couplé [37, 39].
Si les ddls généralisés contiennent les ddls de jonction des sous-structures – c’est le cas
des méthodes utilisées pour ce travail – cette procédure conduit simplement à un assem-
blage explicite sur les ddls de jonction similaire à une procédure d’assemblage élémentaire.
La mise en oeuvre numérique est alors grandement facilitée mais en contre partie, tous les
ddls de jonctions doivent être conservés. Dans les cas d’une structure complexe, la taille du
modèle réduit final peut alors demeurer importante. Cependant, des stratégies existent pour
surmonter ce problème. Par exemple, Brahmi [26] propose une méthode de condensation à
deux niveaux où le deuxième niveau s’attache à réduire le nombre de ddls de jonction.
Si l’on souhaite éliminer complétement les ddls de jonction, on pourra utiliser des tech-
niques de synthèse modale telles que les méthodes de MacNeal [127] ou de Rubin [170],
méthodes où le couplage est réalisé par élimination des efforts de liaison résiduels et dont le
modèle condensé final est exempt des coordonnées relatives aux ddls de jonction.
1.2.4 Méthodes de sous-structuration
Dans la suite de ce mémoire, nous serons amenés à utiliser quelques méthodes de sous-
structuration parmi les plus populaires. Nous allons donc exposer brièvement les méthodes
de sous-structuration de Guyan, de Craig-Bampton et de Martinez. Pour plus de généralité,
le partitionnement en ddls maîtres et esclaves sera adopté pour chaque sous-structure. Les
ddls maîtres se composent des ddls de jonction et de ddls internes choisis suivant certains
critères ou imposés pour répondre à des besoins spécifiques tels que la confrontation essais-
calculs, la visualisation des modes propres ou la prise en compte statique de sollicitations
extérieures. Suivant ce partitionnement, l’équation d’équilibre dynamique en coordonnées
physiques s’écrit
([Kmm Kms
Ksm Kss
]
−ω2
[Mmm Mms
Msm Mss
])[ym
ys
]
=[
fm
0
]
, (1.31)
où le vecteur fm contient les forces de réaction f j résultant des déplacements des ddls de
jonction y j et les éventuels chargements extérieurs.
Méthode de Guyan
Dans la sous-structuration de Guyan ou Guyan-Irons [67, 80], la matrice de passage en
coordonnées généralisées est uniquement constituée par des modes contraints tels que dé-
finis par l’équation (1.19). Ici les déplacements sont imposés sur des ddls maîtres m qui se-
ront donc conservés, les ddls complémentaires dits esclaves s étant éliminés. La matrice de
réduction de Guyan TG de chaque sous-structure est alors
TG =Ψm =[
Imm
Ψsm
]
=[
Imm
−K−1ss Ksm
]
. (1.32)
16
1.2 Méthodes de condensation et de synthèse modale
Le système d’équation résultant de la transformation du système 1.31 est
(Kc
G −ω2ν Mc
G
)ym = fm , (1.33)
avec
KcG = Kmm +Kms Ψsm et
McG = Mmm +Mms Ψsm +Ψms (Msm +Mss Ψsm ) .
(1.34)
Du choix des ddls maîtres dépend principalement la qualité des solutions du modèle
réduit. Nous reviendrons plus en détails sur ce sujet en section 2.3.
Méthode de Craig-Bampton
La méthode de Craig-Bampton [37, 38] permet d’étendre le domaine de validité de la
transformation de Guyan en enrichissant la base des modes contraints par des modes nor-
maux à interface fixe. Bien que celle-ci soit classiquement définie sur les ensembles des ddls
de jonction j et internes i , elle sera ici exprimée sur m et s. Les coordonnées généralisées
associées à cette méthode sont composées de coordonnées physiques ym associées aux ddls
maîtres – qui peuvent se réduire aux ddls de jonction – et de coordonnées modales qk as-
sociées à k modes de la base des modes normaux à interface fixe Φfs . Au paragraphe 2.2.1,
seront présentés des indicateurs permettant de faciliter le choix de ces modes. La matrice de
transformation de Craig-Bampton TCB est définie par
TCB =[
Imm 0
Ψsm Φsk
]
. (1.35)
Le problème aux valeurs propres condensé s’écrit
([Kc
G 0
0 Λkk
]
−ω2
[Mc
G Lmk
Lkm Ikk
])[ym
qk
]
=[
fm
0
]
, (1.36)
avec
Lmk = (Mms +Ψms Mss ) Φsk . (1.37)
On notera l’absence de couplage statique entre les ddls maîtres et les coordonnées mo-
dales. La précision des approximations obtenues et sa facilité de mise en oeuvre en font une
méthode très utilisée dans l’industrie.
Méthode de Martinez et al.
Cette technique de synthèse modale [131] exploite les formulations proposées par Mac-
Neal [127] et Rubin [170] mais se différencie par sa mise en oeuvre. Toujours en respectant
la partition ddls maîtres et esclaves, les éventuels modes de corps rigide Ψr , la base tron-
quée Φek
des modes normaux à interface libre et les modes d’attache résiduels de Rm sont
combinés pour obtenir la matrice de transformation de Rubin. Le passage des coordonnées
17
Chapitre 1. Méthodes approchées en analyse modale
physiques aux coordonnées généralisées est défini par
[ym
ys
]
=[
Rmm Ψmr Φmk
Rsm Ψsr Φsk
]
fm
qr
qk
=[
Rmm Φmk
Rsm Φsk
][fm
qr+k
]
, (1.38)
où fm est le vecteur des coordonnées de type efforts éliminé au profit de ym afin d’obtenir
une matrice de transformation TMA de la même forme que celle de Craig-Bampton. La rela-
tion 1.38 devient alors[
ym
ys
]
=[
Imm 0
Rsm R−1mm Φsk −Rsm R−1
mm Φmk
][ym
qr+k
]
= TMA
[ym
qr+k
]
. (1.39)
Après calculs, compte tenu de la norme employée, nous pouvons obtenir le problème
réduit associé [131]
([R−1
mm −R−1mm Φmk
−Φkm R−1mm Λkk + Φkm R−1
mm Φmk
]
−ω2
[Jmm −Jmm Φmk
−Φkm Jmm Ikk + Φkm J−1mm Φmk
])[ym
qr+k
]
=[
fm
0
]
,
(1.40)
où Jmm = R−1mm RT
m M Rm R−1mm est une matrice de couplage dynamique.
Le modèle réduit préserve le comportement dynamique et statique du modèle initial de
la sous-structure dans la bande fréquentielle correspondant aux modes libres inclus dans la
base de transformation.
Avantages et inconvénients
Les trois méthodes ont l’avantage d’être faciles à mettre en oeuvre. En préservant les ddls
de jonction, ces techniques facilitent l’assemblage des super-éléments. En contrepartie, si le
nombre de ddls d’interface est élevé, le modèle réduit peut rester de taille conséquente.
La méthode de Guyan-Irons est réservée au domaine basses fréquences et sa précision
dépend fortement du choix des ddls maîtres. La méthode de Craig-Bampton est la méthode
de sous-structuration la plus utilisée. Elle s’adapte à la plupart des structures et donne des
résultats très satisfaisants et stables. Elle est peu compatible avec des données expérimen-
tales car elle nécessiterait des modes à interface fixe expérimentaux difficiles à mesurer. Les
modes libres étant plus faciles à mesurer, la méthode de Martinez permet plus facilement
d’utiliser des modes expérimentaux. Cette méthode est aussi un peu plus précise que la mé-
thode de Craig-Bampton mais a l’inconvient de demander plus de précautions lors notam-
ment du calcul des modes d’attache résiduels pour des sous-structures libres.
1.3 Réanalyse approchée
Le concept de réanalyse approchée est attaché aux modifications structurales de mo-
dèles numériques. Les méthodes de réanalyse cherchent à approximer les réponses de la
structure modifiée en se basant seulement sur les solutions du modèle original. Les modi-
fications apportées peuvent être d’ordre topologiques – modifications de formes, ajouts de
raidisseurs, modifications des conditions limites, etc. – ou paramétriques telles que des mo-
difications globales ou locales de propriétés physiques de masse, de raideur, d’épaisseur, etc.
18
1.3 Réanalyse approchée
Nous n’aborderons ici que les modifications paramétriques. On pourra cependant trouver
dans [36] une méthode originale de modification structurale dynamique permettant de trai-
ter à partir de mesures expérimentales des structures subissant des ajouts ou retraits d’ap-
pendices ou encore des modifications de conditions limites.
En ce qui concerne l’amplitudes des modifications, nous distinguerons :
– les perturbations paramétriques faibles, les variations d’un paramètre concernent seu-
lement un faible pourcentage de la valeur de référence et n’entraînent généralement
pas une modification de la nature des modes de la structure modifiée ;
– les perturbations paramétriques fortes, les variations peuvent aller au-delà du double
des valeurs initiales, la nature des modes peut alors être fortement changée.
Dans le paragraphe suivant, nous présentons succinctement différentes approches cou-
ramment appliquées pour la réanalyse par sous-structuration de modèles devant être mo-
difiés paramétriquement. Nous nous plaçons dans l’hypothèse d’un amortissement nul et
donc le MEF initial ou un sous-ensemble seront représentés par les seules matrices de rai-
deur et de masse K0 et M0. Les matrices de modifications structurales respectivement asso-
ciées seront notées ∆K et ∆M. Ces matrices sont aussi appelées matrices de correction. Les
matrices modifiées seront notées Km = K0 +∆K et Mm = M0 +∆M.
Le système initial étant caractérisé par l’équation (1.3), l’équilibre dynamique d’une sous-
structure modifiée soumise aux seules forces de jonction f j s’écrit
(Z(ωm)+∆Z(ωm))ym = f j , (1.41)
avec Z(ωm) = K0 −ω2m M0 et ∆Z(ωm ) =∆K−ω2
m ∆M.
En utilisant la base de condensation T0 obtenue à partir du système initial, la réponse ym
du système modifié s’exprime
ym = T0 q+δym , (1.42)
où q est le vecteur des coordonnées généralisées et δym un terme de correction.
En général, les modifications concernent des zones plus ou moins larges du système et
portent sur un sous-ensemble de paramètres de conception identifiés comme étant impor-
tants au regard du problème étudié. La détermination de ces paramètres est communément
appelée paramétrisation du modèle. Dans le cadre d’une procédure d’optimisation, des mé-
thodes de sensibilité locale ou globale sont généralement employées. Des méthodes de loca-
lisation d’erreurs sont aussi utilisées en complément dans les procèdures de recalage. Nous
reviendrons plus en détails sur ces méthodes en section 1.5.
Réécrivons ∆K et ∆M sous la forme
∆K =np∑
i=1Kzone∆xi
et ∆M =np∑
i=1Mzone
∆xi, (1.43)
avec xi un des np paramètres modifié dont la variation est ∆xi . Kzone∆xi
et Mzone∆xi
sont des ma-
trices creuses où seuls les coefficients associés aux ddls des éléments d’une zone subissant
des modification sont non nuls. Il est aussi possible et préférable de factoriser ces matrices
afin de les exprimer sous la forme d’une somme pondérée de matrices ne dépendant pas du
paramètre [8, 133]. Ainsi, en utilisant des coefficients de correction adimensionnels, Kzone∆xi
19
Chapitre 1. Méthodes approchées en analyse modale
peut être factorisée sous la forme
Kzone∆xi
=∆xi
xi
nα∑
j=1α j x
α j
iKzone
i , (1.44)
où Kzonei
est le pendant de Kzone∆xi
mais sans modification. Les paramètres xi pouvant inter-
venir non-linéairement dans les matrices de correction, des coefficients α j sont introduits.
C’est le cas par exemple pour les modèles plaques ou coques, où il convient de décomposer
la matrice de raideur élémentaire globale en matrice de raideur de membrane Kzonem , flexion
Kzonef
et de couplage membrane-flexion si le cisaillement transversal est considéré. Dans la
formulation de Kirchhoff-Love, l’épaisseur e a une contribution linéaire en membrane et cu-
bique en flexion. D’après l’équation (1.44), une variation d’épaisseur ∆e entraîne donc une
variation de raideur
Kzone∆e =
∆e
e
(e Kzone
m +3 e3 Kzonef
). (1.45)
1.3.1 Réanalyse approchée paramétrique
Les méthodes présentées ici utilisent la base de réduction du modèle original pour dé-
terminer les réponses du système modifié.
Dans un premier temps, il est toujours utile de vérifier si la base de réduction initiale ne
pourrait pas être employée pour condenser le MEF modifié. En effet, il se peut que celle-
ci soit suffisamment robuste vis-à-vis des modifications apportées au modèle. C’est le cas
lorsque le niveau de perturbation représente un faible pourcentage, la nature des modes
n’est quasiment pas modifiée et par conséquent le terme δym de l’équation (1.42) peut être
négligé. Toutefois, nous avons déjà fait remarquer que les modifications peuvent être asso-
ciées à de forts niveaux de perturbations. La base de réduction initiale est aussi robuste lors
de modifications globales, la structure subissant une perturbation linéaire globale de masse
et/ou de raideur. Dans ce cas, les valeurs propres et amplitudes des modes propres varient
mais la forme des modes propres du système perturbé reste inchangée. Cependant, dans les
autres cas, la base de réduction initiale s’avèrent beaucoup moins performante. Étendre la
base en conservant un plus grand nombre de modes normaux peut éventuellement amélio-
rer la prédiction mais la convergence est très lente.
L’utilisation de la décomposition en série de Taylor est une approche couramment utili-
sée en réanalyse approchée [14, 133, 208]. Au premier ordre, nous obtenons
ym = y0 +np∑
i=1
∂y0
∂xi
∆xi +np∑
i=1O(∆x2
i ). (1.46)
y0 est la réponse du système initial pouvant être calculée à l’aide de la base de réduction
associée et ∂y0/∂xi la sensibilité à l’ordre un du vecteur réponse par rapport au paramètre
modifié xi . La difficulté réside dans le calcul des dérivées partielles. Ces dernières sont gé-
néralement calculées en utilisant des méthodes utilisant les différences finies, des méthodes
analytiques ou des méthodes semi-analytiques combinant les deux premières approches.
Le coût de calcul de cette méthode peut devenir prohibitif si le nombre de paramètres est
important et/ou si les dérivées d’ordre un ou deux ne suffissent pas pour représenter cor-
20
1.3 Réanalyse approchée
rectement la réponse ym . C’est le cas notamment pour des modifications paramétriques de
niveau important. Cette méthode de perturbation est donc plutôt utilisée pour le calcul de
réponses stochastiques dans le cadre par exemple des éléments finis stochastiques [66].
L’enrichissement de la base de réduction initiale par des vecteurs judicieusement choi-
sis est une autre approche. Par exemple, Balmès [8, 9] calcule les bases de condensation
d’un échantillon de modèles – un modèle correspondant à des valeurs particulières des pa-
ramètres de conception – puis les combine pour obtenir la base de réduction finale. Le ré-
sultat est alors précis pour chacune des valeurs échantillonnées et très bon pour les points
intermédiaires. Néanmoins, la méthode semble limitée aux cas où peu de paramètres sont
considérés. Dans le cas contraire, le nombre d’échantillons et donc de calculs devient pro-
hibitif. Le nombre de vecteurs de la base de réduction devient alors important, augmentant
ainsi la taille du modèle réduit.
La méthode proposée au LMARC [21, 24, 122, 133] consiste à compléter la base de réduc-
tion initiale par une base de taille minimale approximant l’effet statique des modes négligés
et prenant en compte une information a priori sur les modifications réalisées. En introdui-
sant la notion de forces f∆ associées aux modifications ∆Z(ωm ) du modèle, l’équation (1.41)
est interprétée comme l’équation d’équilibre dynamique du modèle initial soumis aux solli-
citations f∆ et ainsi
Z(ωm)ym = f∆+ f j , (1.47)
avec
f∆ =−∆Z(ωm )ym . (1.48)
La réponse du système dynamique modifié s’exprime à l’aide d’une base de condensation B
obtenue à partir du système initial enrichie de résidus statiques R∆. Les résidus statiques R∆
sont associés à une suite de chargements statiques représentatifs des modifications ∆Z(ω).
Une base de réduction enrichie TE commune au système initial et modifié est alors construi-
te telle que
TE =[
B R∆
]. (1.49)
La base B n’est pas nécessairement la base de condensation initiale complète. Par exemple,
elle peut être la base des modes normaux à interface fixe dans le cadre de la méthode de
Craig-Bampton, la base des modes normaux à interface libre pour la méthode de Martinez,
ou tout simplement la base modale tronquée dans le cadre d’une condensation directe.
D’après la relation (1.48), le vecteur d’effort f∆ associé aux modifications ∆Z(ω) dépend
de la réponse ym du système modifié. Cette réponse étant inconnue, le vecteur force f∆ ne
peut donc être déterminé exactement. En première approximation, la réponse ym du sys-
tème modifié peut être remplacée par la réponse y0 du système initial de sorte que les forces
de modifications s’expriment par
f0∆ ≃−∆Z(ωm)y0 =−∆Z(ωm)B q. (1.50)
Une base de forces F∆ représentative du sous-espace associé à l’ensemble des modifi-
cations potentielles est ensuite générée à partir de l’équation (1.50). Pour un paramètre pi
21
Chapitre 1. Méthodes approchées en analyse modale
intervenant linéairement dans les matrices de masse et de raideur, la sous-base F∆piest dé-
finie par l’expression
F∆pi=
[FK∆pi
FM∆pi
], (1.51)
avec
FK∆pi
= Kzone∆pi
B et FM∆pi
= Mzone∆pi
BΛ. (1.52)
Finalement, la base de forces F∆ représentative de l’ensemble des modifications ∆Z(ω)
est construite par concaténation. Pour np paramètres intervenant linéairement – j = 1 et
α j = 1 dans l’expression 1.44 – la base est donnée par
F∆ =[
FK∆p1
FM∆p1
· · · FK∆pnp
FM∆pnp
]. (1.53)
Comme indiqué par l’équation (1.45), dans le cas d’un paramètre intervenant non-linéai-
rement, il convient de découpler chaque effet et de construire autant de sous-bases du type
F∆piqu’il y a de coefficients α j .
La dernière étape est la construction d’une série de vecteurs de réponses statiques qui
compléteront la base de condensation initiale T0. Ces vecteurs sont calculés de manière clas-
sique par
R∗∆ = K−1
0 F∆. (1.54)
Dans le cas où K−1 serait singulière, les méthodes indiquées au paragraphe 1.2.1 dans le
calcul des modes d’attaches seront appliquées. De plus, si B se réduit à une base tronquée
de modes normaux déjà inclus dans la base T0, il est préférable de retirer la contribution de
ces derniers. Si les méthodes de Craig-Bampton et de Martinez sont utilisées, nous avons
respectivement
B =[
0
Φsk
]
et B = Φk . (1.55)
Les résidus seront alors
R∗∆ = K−1 F∆−
(BΛ−1
k BT)F∆. (1.56)
Une décomposition en valeurs singulières est ensuite appliquée à la matrice R∗∆ afin de
garantir une parfaite indépendance linéaire des colonnes de la matrice. Cette procédure nu-
mérique très couramment utilisée sera abordée plus en détail en section 2.1. Ainsi, R∗∆ se
décompose sous la forme suivante
R∗∆ = UΣVT, (1.57)
où U et V sont deux matrices réelles orthonormales etΣ est une matrice diagonale composée
des n valeurs singulières de R∗∆. En choisissant les n1 plus grandes valeurs singulières, nous
obtenons la réduction R∆ de la sous-base R∗∆ telle que
R∆ = U1Σ1. (1.58)
Le choix du nombre n1 de valeurs singulières, et donc du nombre de colonnes à retenir,
est fixé arbitrairement ou par un ratio associé à un conditionnement seuil fixé a priori. Les
résidus obtenus sont ensuite normalisés par rapport à la matrice de masse du système initial
et constituent la matrice de résidus R∆ recherchée. La base de réduction T précisée équa-
22
1.3 Réanalyse approchée
tion (1.49) est alors de rang maximum et de faible conditionnement.
Si la méthode de Martinez est utilisée, les résidus sont ajoutés avant la transformation.
En vue d’éviter l’obtention de modèles réduits trop importants, Masson et al. [133, 134]
ont proposé une condensation à deux niveaux permettant d’éliminer l’ensemble des coor-
données généralisées associées aux vecteurs statiques résiduels. Cette méthode est cepen-
dant réservée à la technique de Craig-Bampton et s’applique lorsqu’au moins une modi-
fication en raideur est réalisée. Bouazizi et al. [23] proposent une extension de ce type de
condensation enrichie aux cas de structures présentant des non-linéarités localisées.
Dans les méthodes utilisant une base de condensation, Kirsch propose la méthode des
approximations combinées – Combined Approximations (CA) [34, 97–99]. Bien qu’initiale-
ment proposée pour la réanalyse de problèmes statiques linéaires, cette méthode a vu son
utilisation étendue à la réanalyse en dynamique. Considérons les équations caractéristiques
des systèmes homogènes correspondant au régime libre du système initial
K0φν0 = λν0 M0φν0 , (1.59)
et du système modifié
Km φνm = λνm Mm φνm . (1.60)(λν0 , φν0
)est un couple valeur propre-vecteur propre du système initial et
(λνm , φνm
)est le
couple associé au système modifié. Le vecteur propre φνm du système modifié est obtenu
grâce à une base Vν et se calcule par la relation
φνm = Vν qν, (1.61)
qν étant un vecteur de coordonnées généralisées. Le premier vecteur v1 de Vν est calculé
selon
v1 = K−10 Mm φν0 . (1.62)
Les vecteurs additionnels sont les termes de la série binomiale. Ainsi
v2 =−B v1, . . . , vk =−B vk−1, . . . , (1.63)
où B = K−10 ∆K.
Ces vecteurs sont ensuite normalisés par rapport à la masse puis orthogonalisés par la
méthode de Gram-Schmidt afin d’améliorer le conditionnement. Le nombre de vecteurs à
retenir dépend de la précision souhaitée mais généralement deux ou trois vecteurs suffisent
pour obtenir une bonne approximation. Cette base est ensuite utilisée pour réduire le sys-
tème (1.60). qν est alors le premier vecteur propre de ce système et λνm la valeur propre as-
sociée, l’équation (1.61) permettant de calculer le vecteur propre complet. Le processus est
ensuite reconduit pour chaque solution propre d’intérêt afin d’obtenir les solutions propres
du système modifié.
À notre connaissance, la méthode CA a seulement été employée dans le cadre de la con-
densation directe. Son extension à la synthèse modale semble être une perspective de re-
cherche intéressante. Cette méthode permet aussi de traiter des problèmes de modifications
23
Chapitre 1. Méthodes approchées en analyse modale
topologiques [98, 169].
1.4 Méthodes d’approximation par métamodèles
L’avantage des méthodes de réduction est qu’après analyse du modèle réduit, il est pos-
sible de reconstruire la déformé complète du système étudié, la « physique » du modèle étant
conservée. Lorsque le problème ne requiert qu’un nombre limité de sorties, par exemple
les fréquences propres du MEF, l’amplitude du déplacement en un nombre réduit de ddls
ou encore sa masse, il peut être plus avantageux d’utiliser des métamodèles. De plus, les
méthodes de réduction linéaires sont généralement mal adaptées aux structures présentant
des non-linéarités contrairement aux métamodèles qui permettent de prédire les réponses
de problèmes linéaires ou non-linéaires. Dans les paragraphes suivants sont présentés trois
approches couramment utilisées pour la construction de modèles approchés, à savoir la ré-
gression polynomiale, le krigeage et les réseaux de neurones. Il existe évidemment d’autres
méthodes d’approximation qui ne seront pas abordées dans cette étude. On citera de ma-
nière non exhaustive la méthode MARS – Multivariate Adaptative Regression Splines – [59],
l’approximation à l’aide de fonctions radiales de base [52, 70], les modèles linéaires généra-
lisés [137], les machines à vecteurs de support vectoriel [200], les arbres de régression [198],
etc.
1.4.1 Surfaces de réponse
Le principe des méthodologies de surfaces de réponse est de construire une fonction
reliant un paramètre de sortie y à des paramètres d’entrées indépendants xk . Nous nous
plaçons ici dans le cas où la réponse y est obtenue à partir d’une simulation. Elle peut donc
être considérée comme une expérience déterministe sans erreur de mesure.
Si x = [x1 x2 · · · xnp ]T ∈ X est le vecteur des np paramètres d’entrées, la relation exacte
entre la réponse y et les paramètres d’entrées x est donnée par
y = f (x). (1.64)
Dans le cas où y est issue de données expérimentales, il convient en général de remplacer
y = f (x) par y = f (x)+ǫ, où ǫ représente l’erreur liée à l’expérimentation.
La fonction f étant en fait inconnue, celle-ci est approchée par une fonction f qui permet
d’obtenir la réponse approximée y = f (x). Ainsi, la réponse réelle s’écrit
y = f (x)+ε, (1.65)
où ε est l’erreur résiduelle entre la réponse réelle et la réponse approchée. Le but est donc de
trouver un modèle mathématique tel que ε soit minimale.
La méthode la plus utilisée, car la plus simple à mettre en oeuvre, consiste à utiliser un
polynôme pour f (x). Les coefficients de ce polynôme sont alors estimés à partir de la mé-
thode des moindres carrés. Pour un modèle quadratique, l’équation (1.65) devient
y = β0 +np∑
i=1βi xi +
∑
1≤i< j≤np
βi j xi x j +ε. (1.66)
24
1.4 Méthodes d’approximation par métamodèles
Les coefficients βi et βi j sont déterminés après avoir évalué la réponse y en différents
points de l’espace X . Si ns est le nombre de ces évaluations, les couples(x(k), y (k)
)condui-
sent à mettre l’équation (1.66) sous la forme matricielle
y = Xβ+ε, (1.67)
avec
y =
y (1)
y (2)
...
y (ns )
; β=
β0
β1...
βnβ
; ε=
ε(1)
ε(2)
...
ε(ns )
(1.68)
et
X =
1 x(1)1 x(1)
2 · · · x(1)np
(x(1)
1
)2x(1)
1 x(1)2 · · · x(1)
1 x(1)np
(x(1)
2
)2x(1)
2 x(1)3 · · ·
(x(1)
np
)2
1 x(2)1 x(2)
2 · · · x(2)np
(x(2)
1
)2x(2)
1 x(2)2 · · · x(2)
1 x(2)np
(x(2)
2
)2x(2)
2 x(2)3 · · ·
(x(1)
np
)2
......
......
......
......
......
......
...
1 x(ns )1 x
(ns )2 · · · x
(ns )np
(x
(ns )1
)2x
(ns )1 x
(ns )2 · · · x
(ns )1 x
(ns )np
(x
(ns )2
)2x
(ns )2 x
(ns )3 · · ·
(x
(ns )np
)2
.
(1.69)
Dans la méthode des moindres carrés ordinaires, on considère que le vecteur des erreurs
ε est de moyenne nulle et que la variance des erreurs est constante. Les erreurs sont alors
dites homoscédastiques. La matrice de covariance des erreurs Σε est Σε =σ2 Ins ns , où σ2 est
la variance inconnue a priori. Les nβ =(np +1
)(np +2
)/2 coefficients de régression consti-
tuant β sont alors estimés de manière à minimiser εTε. À condition que ns ≥ nβ et que la
matrice X soit de rang maximum, l’estimateur des moindres carrés ordinaires β de β est ob-
tenu par
β=(XTX
)−1XTy. (1.70)
Le vecteur β contient donc les coefficients du polynôme qui sera utilisé comme sur-
face de réponse. L’étude des résidus εr = y−X β permet ensuite de juger si le modèle ainsi
construit décrit correctement la réponse étudiée.
Si l’hypothèse d’erreurs non-corrélées et de variance uniforme s’avère peu réaliste, il est
possible d’utiliser la méthode des moindres carrés pondérés. On suppose alors que Σε =σ2 W, où W est une matrice non-singulière de pondération connue. Dans ce cas, le vecteur
des coefficients de régression est obtenu par
β=(XTW−1 X
)−1XTW−1 y. (1.71)
La matrice W est en général l’inverse de la matrice de covariance des réponses y, com-
plète ou restreinte à sa diagonale.
Les ns échantillons de l’espace X sont communément obtenus à partir d’un plan d’expé-
rience. Le propos de ces plans d’expérience est d’éviter des évaluations inutiles à la construc-
tion du modèle et ainsi diminuer les temps de calcul. Les variables sont au préalable norma-
lisées ou codées pour appartenir par exemple à l’intervalle [−1 ; 1], puis suivant l’approche,
un plan d’expérience complet ou partiel à plusieurs niveaux est construit.
25
Chapitre 1. Méthodes approchées en analyse modale
Pour plus de détails sur la méthodologie des surfaces de réponse on pourra se référer à
l’ouvrage de Myers et Montgomery [151].
1.4.2 Le krigeage
Le krigeage est une méthode issue de la géostatistique destinée à l’origine à l’interpo-
lation spatiale [135]. Dans la démarche adoptée par Sacks et al. [171], la réponse y simulée
grâce au MEF est considérée comme la combinaison d’un modèle de régression et d’un pro-
cessus stochastique ξ ayant une structure connue de corrélation entre les observations [179].
Le modèle de krigeage de y s’écrit alors
y =µ(x)+ξ(x). (1.72)
Le terme µ(x) représente une approximation globale de f (x) alors que ξ(x) crée des dé-
viations locales permettant d’interpoler les échantillons de l’espace X considérés.
Les trois types de krigeage les plus utilisés sont [7] :
– le krigeage simple où µ(x) = m est une constante connue ;
– le krigeage ordinaire où µ(x) = β0 est une constante inconnue ;
– le krigeage universel où µ(x) =∑nβ
i=0 fi (x)βi est une combinaison linéaire des nβ + 1
fonctions fi (x) constituant la base de régression.
Dans le cas du krigeage universel, l’équation (1.72) se met sous la forme [89]
y = f (x)T β+ξ(x), (1.73)
avec f (x) = [ f0(x) · · · fnβ(x)]T et β(x) = [β0 · · · βnβ
]T.
Le processus ξ(x) est classiquement considéré comme gaussien de moyenne nulle et de
fonction de covariance Σ(x(i ),x( j )
)=σ2 r
(x(i ),x( j )
), où x(i ) et x( j ) sont deux points de l’espace
X , σ2 est la variance du processus et r(x(i ),x( j )
)la fonction de corrélation.
Comme pour les surfaces de réponses, l’espace X est échantillonné en ns points x(k)
correspondant aux réponses y (k) regroupées dans le vecteur y défini comme dans l’équa-
tion (1.68). De plus, le vecteur f (x) est évalué en chacun de ces points pour former la matrice
F = [ f(x(1)
)· · · f
(x(ns )
)]. La matrice de corrélation R de ξ(x) s’écrit
R =
r(x(1),x(1)
)· · · r
(x(1),x(ns )
)
.... . .
...
r(x(ns ),x(1)
)· · · r
(x(ns ),x(ns )
)
. (1.74)
Il reste à choisir une fonction de corrélation aussi appelée covariogramme. Parmi les dif-
férents choix possibles [171], le modèle de type gaussien est le plus employé. Il s’exprime
par
r(x(i ),x( j )
)= exp
(
−np∑
k=1
θk
∣∣∣x(i )k
−x( j )k
∣∣∣2)
. (1.75)
Les paramètresθk > 0 sont remplacés par les estimateurs du maximum de vraisemblance
obtenus à partir de la minimisation sans contraintes par rapport aux θk de
1
2
(ns ln
(σ2)+ ln(|R|)
), (1.76)
26
1.4 Méthodes d’approximation par métamodèles
avec σ2 l’estimation de σ2 obtenue par
σ2 =1
ns
(y−F β
)TR−1 (
y−F β)
. (1.77)
L’estimation β de β est calculée suivant
β=(FTR−1 F
)−1FTR−1 y. (1.78)
Une fois les θk déterminés, la réponse approchée y de y en un point x non échantillonné
est
y = f (x) β+rT(x)R−1 (y−F β
), (1.79)
avec le vecteur de corrélation
rT(x) =[
r(x,x(1)
)· · · r
(x,x(ns )
)]T. (1.80)
En fait, le terme rT(x)R−1(y−F β
)de équation (1.79) est l’interpolation des résidus du
modèle de régression f (x) β [89].
Le département d’informatique de l’université technique du Danemark propose une tool-
box libre permettant l’utilisation de cette méthode avec le logiciel Matlabr [123, 136].
1.4.3 Les réseaux de neurones
e1
e2
ene
Σ
b1
f s
w11
w12
w1ne1
Fig. 1.1 – Représentation d’un neurone
La majorité de ce qui va être présenté dans ce paragraphe se base sur [50] et [158]. L’ap-
proche par réseaux de neurones est une méthode très populaire s’inspirant des neurones
biologiques [138]. Un réseau de neurones est constitué de processus élémentaires appe-
lés neurones. Comme défini dans [50], chaque neurone est une fonction algébrique non-
linéaire, paramétrée, à valeurs bornées. La figure 1.1 montre la représentation classique d’un
neurone. Ce neurone réalise une somme pondérée de ses entrées plus un biais b1 suivie
d’une transformation par une fonction d’activation f . On note e = [e1 · · · ene ]T le vecteur des
ne variables d’entrées, s la sortie du neurone, w = [w11 · · · w1ne ]T le vecteur des poids du
neurones – aussi appelés poids synaptiques. w1 j est le poids qui relie la j e entrée à l’unique
neurone. La fonction d’activation f est classiquement une fonction seuil ou une fonction
linéaire pour des problèmes linéaires et une fonction à forme sigmoïde pour les autres cas.
27
Chapitre 1. Méthodes approchées en analyse modale
En utilisant la fonction tangente hyperbolique, version symétrique de la fonction sigmoïde,
la relation entre les entrées et la sortie d’un neurone s’écrit
s = f (v1) = tanh
(
b +ne∑
k=1
w1k ek
)
= tanh(b1 +wT e
), (1.81)
où v1 = b1+wT e est le « potentiel » du neurone. Le biais b1 permet un décalage horizontal de
la fonction d’activation.
Il est aussi possible d’envisager de mettre tous les poids à 1, d’annuler le biais et d’utiliser
une fonction d’activation paramétrée. C’est le cas lorsque l’on utilise les fonctions radiales
de base – en anglais Radial Basis Functions, RBF – [79, 144]. Bien que différentes classes
de fonctions radiales existent, on donnera seulement en exemple le modèle gaussien qui
conduit à la relation
s = exp
(
−1
2
∑ne
k=1
(ek −µk
)2
σ2
)
. (1.82)
Les paramètres du réseau sont alors les coordonnées µk du centre de la gaussienne et σ son
écart-type. Ce type de neurone est utilisé dans les réseaux RBF que nous ne traiterons pas ici.
La manière dont les neurones sont connectés entre eux détermine l’architecture du ré-
seau de neurones. Le choix de celle-ci dépend de l’application. On distingue deux types de
réseaux de neurones : les réseaux bouclés et les réseaux non bouclés [50]. Les réseaux bou-
clés ou récurrents possèdent un graphe de connexion cyclique où le temps est explicitement
pris en considération. Dans le deuxième type, les neurones sont assemblés de sorte à ce que
le graphe de connexion ne comporte aucun cycle, l’information se propageant uniquement
des entrées vers les sorties. Parmi les topologies les plus utilisées, on trouve les perceptrons
multi-couches – PMC. Il s’agit de réseaux non-bouclés à couches. Un exemple d’architecture
d’un PMC à trois couches est présenté figure 1.2. On remarque que chaque couche de neu-
rones est totalement connectée à la couche suivante. Les np paramètres xk ∈X sont reliés à
la première couche qui est elle même connectée à la deuxième couche. Ces deux premières
couches, possédant respectivement nc1 et nc2 neurones, sont appelées couches cachées car
les sorties de celles-ci ne sont pas visibles à l’extérieur du réseau, on ne peut donc pas juger si
leurs sorties sont adéquates. Les couches cachées possèdent des fonctions d’activation non-
linéaires. En effet, l’emploi de fonctions d’activation linéaires s’avèrent inutile puisque la
combinaison de plusieurs couches à fonctions d’activation linéaires peut toujours se rame-
ner à une seule couche linéaire équivalente. La dernière couche cachée est reliée à la dernière
couche du neurone, appelée couche de sortie qui possède ici un seul neurone de fonction
d’activation linéaire. Dans d’autres problèmes, cette couche de sortie pourrait très bien com-
porter plusieurs neurones à fonctions d’activation linéaires ou non-linéaires. Dans le cadre
d’approximation de réponse, il est préférable d’utiliser en sortie des fonctions d’activation
linéaires de manière à ne pas borner la valeur de la sortie du réseau. Si la fonction tangente
hyperbolique est utilisée comme fonction d’activation, la réponse approchée y produite par
ce réseau est donnée par la relation non-linéaire
y = g (x,p)= b[3]1 +
nc2∑
k=1
w [3]1k
f [2]k
, (1.83)
28
1.4 Méthodes d’approximation par métamodèles
avec
f (2)k
= tanh
(
b[2]k
+nc1∑
j=1w [2]
k jf [1]
j
)
,
f (1)j
= tanh
(
b[1]j
+np∑
i=1w [1]
j ixi
)
,
(1.84)
et p le vecteur de l’ensemble des npr paramètres du réseau constitué par tous les poids et
biais du réseau.
x1
xi
xnp
b[1]1
f [1]1
f [1]j
b[1]nc1
f [1]nc1
b[2]1
f [2]1
b[2]k
f [2]k
b[2]nc2
f [2]nc2
b[3]1
g (x,w) y
1w
[1]11
w[1]j 1
1
w[1]nc1 1
w[1]1i
w[1]j i
w[1]nc1 i
w[1]1np
w[1]j np
w[1]nc1 np
b[1]j 1
1
w[2]11
1
w[2]k1
1
w[2]nc2 1
w[2]1 j
w[2]k j
w[2]nc2 j
w[2]1nc1
w[2]knc1
w[2]nc2 nc1
1
w[3]11
w[3]1k
w[3]1nc2
Fig. 1.2 – Architecture d’un PMC à deux couches cachées et un neurone de sortie linéaire
La détermination des paramètres du réseau a lieu lors d’une phase dite d’apprentissage
ou d’entraînement. Dans le cas du PMC, cet apprentissage est supervisé, c’est-à-dire que le
réseau est forcé à converger vers un état final connu a priori. Nous nous plaçons dans le cas
général où aux paramètres x correspondent non pas une réponse unique y mais ny réponses
regroupées dans le vecteur y. La première étape est la constitution d’une base d’apprentis-
sage constituée de couples entrée-sortie(x(i ),y(i )
)résultants de la simulation du vecteur des
réponses y en ns points de X . Les paramètres du réseau – ici les poids et les biais regroupés
dans le vecteur p – sont obtenus par la minimisation d’une fonction coût représentative de
l’écart entre les réponses simulées y(i ) et les réponses y(i ) issues du réseau à partir de x(i ).
On parle alors d’apprentissage par correction de l’erreur. La fonction coût représentant la
29
Chapitre 1. Méthodes approchées en analyse modale
performance du réseau est en général l’erreur quadratique moyenne
F(p) =1
ns
ns∑
i=1
(ǫ(i )
)Tǫ(i ), (1.85)
avec l’erreur
ǫ(i ) = y(i ) − y(i ). (1.86)
Lorsque la minimisation de cette fonction coût tient compte simultanément de tous les
couples de la base d’apprentissage, on parle d’apprentissage non-adaptatif ou par groupage
– batch training. Lorsque les paramètres sont modifiés en fonction de la minimisation de la
fonction Ji (p) =(ǫ(i )
)Tǫ(i ) associée à chaque couple i , on parle d’apprentissage adaptatif –
on-line training. Cette dernière technique est utilisée lorsque l’on souhaite réaliser l’appren-
tissage au fur et à mesure de la disponibilité des échantillons.
Nous nous plaçons ici dans le cas d’un apprentissage par groupage. La minimisation de
la fonction coût est réalisée en modifiant les paramètres en fonction du gradient de cette
fonction. Une manière économique d’évaluer ce gradient est d’utiliser la technique dite de
rétropropagation du gradient de l’erreur. Partant de la dernière couche, les sensibilités de la
fonction coût par rapport aux potentiels des neurones sont calculées récursivement à travers
les couches du réseau jusqu’à la première couche. Quant à la technique de minimisation à
choisir parmi la pléthore d’algorithmes existants, il est conseillé de ne pas utiliser la méthode
du gradient simple et ses variantes car celles-ci convergent trop lentement pour la plupart
des problèmes. On préférera plutôt des méthodes du second ordre dérivées de la méthode de
Newton telles que la méthode du gradient conjugué, l’algorithme BFGS [29] ou encore l’al-
gorithme de Levenberg-Marquardt [114]. Ce dernier s’avère particulièrement rapide mais
reste limité à des réseaux ne possédant pas plus de quelques centaines de paramètres. En
effet, cette méthode nécessite des inversions de matrices dont les tailles croissent avec la
complexité du réseau. Des précisions sur la rétropropagation du gradient et l’algorithme de
Levenberg-Marquardt sont fournies en annexe B.
Le critère d’arrêt principal du processus d’apprentissage est en général une borne in-
férieure sur la fonction à minimiser. Comme dans tout problème d’optimisation, il est aussi
important d’utiliser un critère d’arrêt secondaire en imposant par exemple un nombre maxi-
mal de périodes d’entraînement. Ce second critère permet ainsi de stopper l’algorithme en
cas de non-convergence. Cependant, la satisfaction du critère choisi ne garantit pas la capa-
cité de généralisation du réseau de neurones obtenu, c’est-à-dire sa capacité à prédire des
réponses autres que celles utilisées dans la base d’apprentissage. En effet, l’erreur quadra-
tique peut être faible si elle est calculée sur l’ensemble d’apprentissage mais élevée si elle
est calculée sur des nouvelles données. Ce phénomène dit de « surajustement » apparaît en
général lorsque le nombre de couches et de neurones cachés est trop important par rapport
aux nombres de données disponibles pour l’apprentissage. Les figures 1.3a et 1.3b montrent
l’approximation de la fonction en pointillés avec deux architectures neuronales. Dans les
deux cas, l’erreur quadratique est faible sur les réponses de la base d’apprentisage repré-
sentées pour les points épais. Seul le réseau de la figure 1.3a est pourtant capable de prédire
correctement des sorties en dehors de la base d’apprentisage. Ce réseau généralise bien alors
que l’autre non.
30
1.4 Méthodes d’approximation par métamodèles
(a) (b)
Fig. 1.3 – Illustration du phénomène de surajustement : (a) réseau généralisant bien, (b) ré-seau généralisant mal
Pour se prévenir du surajustement, on pourra utiliser les techniques suivantes :
1. une procédure de validation croisée où les données disponibles sont divisées en trois
sous-ensembles distincts : la base d’apprentissage, la base de validation et la base de
test – dans des proportions conseillées de 50−20−30 % respectivement. La figure 1.4
illustre cette procédure. Au cours de l’apprentissage, le critère d’erreur est calculé sur
la base d’apprentissage – erreur d’apprentissage – et sur la base de validation – erreur
de validation. Lorsque l’erreur de validation cesse de s’améliorer pendant plusieurs
périodes d’entraînement, l’apprentissage est stoppé, les paramètres du réseau retenus
étant ceux associés à la période où l’erreur de validation est minimale. La base de test
est utilisée pour la comparaison de réseaux ayant différentes architectures ;
2. une méthode de régularisation où la fonction à minimiser n’est plus l’erreur quadra-
tique moyenne mais
F(p) = γ1
ns
ns∑
i=1
(ǫ(i )
)Tǫ(i ) + (1−γ)
1
npr
npr∑
j=1p2
j , (1.87)
où p j représente l’un des npr paramètres du réseau – poids ou biais – et γ le paramètre
de régularisation. Le second terme de l’équation (1.87) permet de diminuer la valeur
des paramètres et d’obtenir une réponse du réseau plus lisse et moins surajustée.
On notera toutefois que si le nombre ns d’échantillons de la base d’apprentissage est très
supérieur aux nombres de paramètres du réseau – dix fois plus semble être la règle heuris-
tique communément appliquée [158] – alors le risque de surajustement est très faible. Ce-
pendant, suivant la taille du MEF dont on veut approximer les réponses, le temps de calcul
de la constitution des données nécessaires à l’apprentissage peut être plus ou moins long.
Lorsque l’on dispose seulement d’un nombre réduit d’échantillons, le ré-échantillonnage
par boostrapping peut être couplé avec la procédure de validation croisée [50]. Dans l’al-
gorithme utilisé, les données disponibles sont ré-échantillonées B fois par la technique du
boostrap [53], B apprentissages sont effectués sur les données obtenues, les erreurs d’ap-
prentissage et de validation sont analysées pour choisir un nombre de périodes d’entraîne-
ment optimal Noptc et un apprentissage est ensuite effectué sur l’ensemble des données pour
31
Chapitre 1. Méthodes approchées en analyse modale
Noptc périodes d’entraînement.
La méthode de régularisation introduit un paramètre γ auquel il faut donner une valeur.
Comme il est difficile a priori de déterminer la valeur optimale de γ, MacKay [126] et Fo-
rese et Hagan [58] proposent une technique de régularisation automatique basée sur une
approche bayésienne. Cette approche est détaillée en annexe B.
Fig. 1.4 – Illustration de la validation croisée
Lorsque les réseaux de neurones sont utilisés dans le cadre de la fouille de données, on
emploie un apprentissage non supervisé où contrairement à l’apprentissage supervisé l’état
final n’est pas connu a priori. Une application importante est la construction des cartes auto-
organisatrices de Kohonen [102] permettant l’analyse et la visualisation en faibles dimen-
sions de données multidimensionnelles.
Lors de la création d’un PMC, se posent les questions suivantes : combien de couches
cachées, combien de neurones par couche, quelles fonctions d’activation faut-il choisir ? La
réponse n’est pas simple et dépend évidemment du problème étudié. Néanmoins, il a été
montré qu’il est possible d’approcher avec une précision arbitraire n’importe quelle fonc-
tion avec un PMC constitué d’une seule couche cachée de neurones à fonctions d’activation
de type sigmoïdes et d’une couche de sortie de neurones à fonctions d’activation linéaires, à
condition de disposer suffisamment de neurones sur la couche cachée [76]. Dans la pratique,
deux voires trois couches cachées sont utilisées. Plus le réseau possède de neurones plus
le nombre de paramètres à estimer est important. Si le nombre d’échantillons disponibles
pour l’apprentissage est faible alors le phénomène de surajustement évoqué précédemment
risque de survenir facilement. Le modèle doit être construit de manière à comporter le moins
de paramètres, à être « parcimonieux ».
Nous finirons cette description des réseaux de neurones par quelques mots sur le pré-
traitement des données et l’initialisation des poids et biais au début de l’algorithme d’ap-
prentissage. Les paramètres d’entrée pouvant posséder des unités différentes, il est indis-
pensable de normaliser les entrées avant le début de l’apprentissage pour leur permettre
d’avoir une importance égale pendant l’apprentissage. En ce qui concerne les sorties, il ap-
paraît que les algorithmes d’apprentissage donnent de meilleurs résultats lorsque celles-ci
32
1.4 Méthodes d’approximation par métamodèles
sont aussi normalisées. Il faut alors noter que la fonction coût de l’apprentissage est calcu-
lée sur des sorties normalisées. Pour l’initialisation des paramètres du réseau, la méthode de
Nguyen-Widrow [153] est une possibilité.
Dans les approximations par réseaux de neurones réalisées dans cette étude, nous avons
créé les PMC avec les programmes Matlabr de la Neural Network Toolbox [136]. Le nombre
de couches cachées et le nombre de neurones sont choisis en fonction de la quantité de don-
nées utilisés pour l’apprentissage. Ces données sont obtenues par un échantillonnage hyper-
cubes latins [82, 140].Si des bases de validation et de test sont utilisées, celles-ci proviennent
d’échantillonnages indépendants. La fonction d’activation utilisée pour les neurones cachés
est la fonction tangente hyperbolique. Pour minimiser le nombre de paramètres, les réseaux
possèdent un seul neurone en couche de sortie de fonction d’activation linaire. L’utilisation
de la régularisation bayésienne associée à l’algorithme de Levenberg-Marquardt permet de
trouver les poids et biais optimum du réseau tout en évitant le surajustement.
1.4.4 Choix d’une méthode d’approximation
Nous avons présenté dans les sections précédentes trois grandes classes de méthodes
utilisées pour la construction de métamodèles. Dans ce paragraphe, nous comparons la per-
formance de ces méthodes pour une fonction non-régulière à deux variables puis sur les
réponses d’un MEF de rotor.
Pour une première comparaison, nous utilisons la fonction « peaks » de Matlab [136]
f (x) =3 (1−x1)2 exp(−x2
1 − (1+x2)2)−10(x1
5−x3
1 −x52
)exp
(−x2
1 −x22
)
−1
3exp
(− (1+x1)2 −x2
2
).
(1.88)
500 échantillons des deux variables x1 et x2 sont obtenus par un échantillonnage hy-
percubes latins uniforme sur l’intervalle [−3 ; 3] et les réponses correspondantes sont calcu-
lées afin de constituer la base d’apprentissage. Après construction du métamodèle, la perfor-
mance est évaluée sur une base test de 2 500 valeurs simulées résultant du maillage régulier
50×50 du domaine d’étude.
Les résultats obtenus pour les trois méthodes sont présentés figure 1.5. La sous-figu-
re 1.5a est la surface de réponse tracée sur les points de la base test avec un modèle quadra-
tique tel que celui de l’équation (1.66). La figure 1.5b est le diagramme de dispersion entre
les réponses simulées de la base test et les réponses estimées par le modèle quadratique.
La droite de régression linéaire sur ces données apparaît en trait rouge continu. Les autres
sous-figures correspondent au cas des modèles krigeage et réseau de neurones. Le krigeage
est universel avec la fonction de corrélation gaussienne 1.75. Le réseau de neurones possède
deux couches cachées de cinq neurones et a été entraîné avec la régularisation bayésienne. Il
est évident que pour une fonction aussi irrégulière, l’approche polynomiale n’est pas adap-
tée. Le critère R2 calculé entre les valeurs simulées test et leurs estimées est de 0,1722. Ce
critère dont la définition est donnée en annexe A, vaut 1 lorsque la prédiction est parfaite. Le
résultat n’est que très faiblement amélioré avec l’emploi de modèles à l’ordre trois ou quatre.
En comparaison, le modèle krigeage donne une valeur parfaite de 1 et le réseau de neurones
donne une valeur elle aussi remarquable de 0,9996.
33
Chapitre 1. Méthodes approchées en analyse modale
(a) Polynôme (b) Polynôme : R2 = 0,1722
(c) Krigeage (d) Krigeage : R2 = 1
(e) Réseau de neurones (f) Réseau de neurones : R2 = 0,9996
Fig. 1.5 – Comparaison de la performance de différentes méthodes d’approximation sur unefonction non-régulière
Il ressort de cet exemple que le krigeage et les réseaux de neurones sont de très bons ou-
tils de prédiction de réponses fortement non-linéaires. Cependant, les calculs associés s’avé-
rant plus lourds que pour une simple approche par régression polynomiale, il est légitime de
se demander si la construction de ces modèles est toujours nécessaire. Pour une réponse fai-
blement non-linéaire, un modèle polynomial donne sûrement des résultats similaires pour
un temps de construction moindre. Lorsque le problème possède deux paramètres, il est
aisé d’évaluer la complexité de la réponse en examinant des figures telles que 1.5a, 1.5c et
34
1.4 Méthodes d’approximation par métamodèles
1.5e construites en un nombre suffisant de points de l’espace. Pour des problèmes de di-
mension supérieure, cette visualisation n’est plus possible, une évaluation de la régularité
peut éventuellement être faite par des calculs de gradient sur différents points de l’espace
mais cela n’est en général pas réalisable simplement. Pour un problème à np paramètres, il
est plus facile d’en fixer (np −2), de calculer les réponses correspondant aux variations des
deux paramètres restants, de tracer la représentation 3-D et de répéter le processus pour les
différents couples possibles. Nous appliquerons cette technique avant l’approximation de
différents types de réponses de la structure représentée figure 1.6.
−→Y (v,θz )
−→XΩ−→
Z(w,θy
)
ky ycy y
B1
L1
D1
L2
D2d
L3
D3
L4
ky ycy y
B2
Fig. 1.6 – Modèle du rotor
La structure considérée est un rotor simplifié tiré de l’ouvrage [108]. Ce rotor est modé-
lisé par un arbre, trois disques D1, D2, D3 et deux paliers B1, B2. L’arbre d’axe suivant−→X est
discrétisé en treize éléments finis poutre identiques, en flexion dans les plans (XY) et (XZ).
Les trois disques sont modélisés par des masses et inerties localisées aux noeuds 3, 6 et 11.
Des éléments ressorts linéaires et amortisseurs visqueux modélisent, dans les deux plans de
flexion, les paliers B1 et B2 supposés identiques. Ces éléments sont localisés entre le noeud
1 et le repère fixe pour B1 et entre le noeud 14 et le repère fixe pour B2. De plus, un balourd
de masse mb est placé à la distance d du centre géométrique de l’arbre sur le disque D2,
dans le plan (XY). Chaque noeud i possédant quatre ddls(v, w,θy ,θz
)par noeuds, le mo-
dèle éléments finis de ce rotor comporte 56 ddls. Les différents paramètres et leurs valeurs
nominales sont reportés tableau 1.1.
Le comportement dynamique du rotor est caractérisé par l’équation du mouvement
M y(t )+ (Cb +ΩCg ) y(t )+K y(t ) = f(t ), (1.89)
où Ω est la vitesse de rotation de l’arbre, Cb la matrice d’amortissement symétrique associée
aux paliers, Cg la matrice gyroscopique antisymétrique et f(t ) le vecteur des forces générées
par le balourd. Ce vecteur a pour seules composantes non-nulles les deux ddls v et w du
noeud 6 de valeur −mb d Ω2 [sin(Ω t ) cos(Ω t )]T.
Neuf paramètres sont considérés comme incertains : le rayon de l’arbre Ra , les trois
rayons extérieurs des disques ReD1
, ReD2
et ReD3
, les masses volumiques de l’arbre ρa et des
disques ρD, le module d’Young de l’arbre Ea , les raideurs ky y et kzz des deux paliers sup-
posés identiques. Les valeurs de ces paramètres varient dans un intervalle compris entre
0,5 fois et 1,5 les valeurs nominales fournies tableau 1.1, soit une variation de ±50 %. Nous
nous intéressons à prédire les sept premières vitesses critiques du rotor, les dix premières
35
Chapitre 1. Méthodes approchées en analyse modale
Tab. 1.1 – Valeurs nominales des paramètres de conception
Paramètres Valeur nominale
Positions des disques (m) L1 = 0,2 ; L2 = L4 = 0,3 ; L3 = 0,5Épaisseurs des disques (m) e1 = e2 = 0,05 ; e3 = 0,06Rayon extérieur arbre (m) Ra = 0,05Rayons extérieurs des disques (m) Re
D1= 0,12 ; Re
D2= Re
D3= 0,2
Masse volumique (arbre et disques)(kg.m−3)
ρa,D = 7 800
Module d’Young arbre (N.m−2) Ea = 2,1×1011
Coefficient de Poisson ν= 0,3Raideurs paliers (N.m−1) ky y = 5×107 ; kzz = 7×107 ; kyz = kz y = 0Amortissements paliers (N.m−1.s−1) cy y = 5×102 ; czz = 7×102 ; cyz = cz y = 0Balourd (g.mm) mb d = 200
fréquences propres du rotor au repos et les dix premières fréquences propres du rotor à une
vitesse de rotation de 5 000 tr.min−1. Pour construire les métamodèles, sont calculés 1 000
couples entrées-réponses pour la base d’apprentissage et 600 couples pour la base de test.
Deux tirages hypercubes latins uniformes sont réalisés pour obtenir ces données. Comme
nous le disions précédemment, il est possible de se donner une idée de la complexité de la
réponse en projetant les résultats sur deux paramètres. Pour chaque réponse, il existe trente-
six combinaisons possibles. Six des surfaces obtenues pour la troisième vitesse critique sont
présentées figure 1.7. Elles montrent que la réponse est assez régulière et devrait donc pou-
voir être prédite correctement par un modèle polynomial. Les autres réponses présentent
sensiblement le même degré de régularité.
(a) (b) (c)
(d) (e) (f)
Fig. 1.7 – Observation de la régularité pour la troisième vitesse critique
Avec les données disponibles, des métamodèles polynomiaux, krigeage et réseaux de
neurones sont calculés pour les vingt-sept réponses. Les polynômes sont d’ordre deux, le kri-
36
1.4 Méthodes d’approximation par métamodèles
geage est universel avec une fonction de corrélation gaussienne et les réseaux de neurones
sont à deux couches cachées de dix neurones. Les figures 1.8a, 1.8b et 1.8c représentent res-
pectivement le critère R2, l’erreur relative absolue moyenne ERAM et le maximum de l’erreur
relative absolue MERA pour les trois approches. Les deux derniers critères sont définis en an-
nexe A. En ce qui concerne les réseaux de neurones, notons qu’un apprentissage débutant
par une initialisation aléatoire des poids et biais du réseau, tout apprentissage effectué avec
une même base d’apprentissage mais avec des conditions initiales différentes conduit à une
performance qui lui est propre. Ainsi, pour chaque réponse, l’apprentissage du réseau de
neurones a été réalisé dix fois. Le réseau donnant l’erreur relative moyenne la plus faible a
été retenu.
Sur l’ensemble des réponses et critères évalués, les réseaux de neurones se démarquent
des autres méthodes par une meilleure précision, devançant respectivement les modèles kri-
geage et les modèles polynomiaux à l’ordre deux. Pour le critère R2, les méthodes krigeage et
réseau de neurones conduisent à des bonnes valeurs supérieures à 0,99. Les valeurs R2 des
modèles polynomiaux sont elles aussi excellentes mais sensiblement inférieures. Sur l’er-
reur relative absolue moyenne, les réseaux de neurones de neurones sont clairement plus
performants puisque les erreurs maximales sont inférieures à 2 % alors que les modèles kri-
geage ont des erreurs situées autour de 2 % et les polynômes entre 3 % et 6 %. Le maximum
de l’erreur relative absolue représenté figure 1.8c permet de constater que les métamodèles
peuvent conduire à des erreurs importantes dans certaines régions de l’espace bien que les
indices R2 et ERAM soient excellents. Là encore, les réseaux de neurones sont meilleurs que
les autres types de métamodèles mais le niveau d’erreur est encore assez important.
La figure 1.9 présente schématiquement le domaine d’application et le temps de créa-
tion associés aux trois approches étudiés. Les polynômes ont l’avantage d’être calculés assez
rapidement mais ont une capacité prédictive diminuant lorsque la complexité de la réponse
augmente. La technique du krigeage demande plus de calculs puisque la construction du
modèle nécessite la détermination des paramètres de la fonction de corrélation par une
méthode de minimisation. Cependant, ce type de modèle permet d’estimer des fonctions
beaucoup plus irrégulières. Enfin, les réseaux de neurones ont l’inconvénient de nécessi-
ter un temps d’apprentissage et du « tâtonnement » lors du choix du nombre de couches et
de neurones, mais s’adaptent à beaucoup plus de situations que les deux autres approches.
Des revues et comparaisons plus exhaustives sur les métamodèles pourront être trouvées
dans [84, 187].
Étant donnée la simplicité du calcul d’un modèle polynomial, celui-ci devrait toujours
être calculé en premier avant de se lancer dans le calcul de modèles plus complexes. Pour les
techniques de ce mémoire utilisant des métamodèles, nous avons souvent fait le choix des
réseaux de neurones dans les cas où la régression polynomiale ne donnait pas satisfaction.
Dans nos applications, un réseau de neurones est toujours associé à une seule réponse et
comporte rarement plus de dix paramètres d’entrées. Le nombre de couples entrée-sortie
de la base d’apprentissage et de test dépend du MEF mais ne nécessite en général pas plus
de 1 500 calculs exacts. Ceci ne représente pas plus d’une journée de calcul sur un ordina-
teur de puissance moyenne pour un MEF à quelques dizaines de milliers de ddls. Le temps
d’apprentissage des réseaux utilisés ne dépasse que rarement le quart d’heure ce qui nous
semble un temps de calcul raisonnable. Nous avons déjà précisé en fin du paragraphe 1.4.3 le
37
Chapitre 1. Méthodes approchées en analyse modale
(a) (b)
(c)
Fig. 1.8 – Critères : R2 (a), ERAM (b), MERA (c)
type de réseau utilisé. Précisons que lorsque le temps le permet, il est toujours préférable de
réaliser plusieurs apprentissages à partir de différentes initialisations et de choisir le modèle
ayant la plus grande précision.
Surfacesde réponse
Krigeage
Réseauxde neurones
Faible Élevée
Faible
Élevé
Irrégularitéde la réponse
Temps de création
Fig. 1.9 – Domaines et temps de création des différents métamodèles
38
1.5 Paramétrisation de modèle
1.5 Paramétrisation de modèle
La paramétrisation du modèle numérique étudié est toujours une étape indispensable
à la réalisation d’un recalage ou d’une optimisation. Dans ce type d’analyse, les paramètres
considérés sont les propriétés physiques et géométriques associées à un groupe d’éléments
finis du modèle. Les caractéristiques matériaux telles que le module d’Young, la masse volu-
mique ou le coefficient de Poisson constituent les propriétés physiques les plus utilisées. Les
dimensions d’un élément telles que la longueur ou l’aire de la section d’un élément poutre,
l’épaisseur d’une plaque ou d’éventuels offsets sont des exemples de paramètres géomé-
triques. Cette étape de paramétrisation consiste à déterminer les paramètres influençant le
plus les réponses du système ou encore à identifier les paramètres responsables des écarts
essais-calculs. Dans le premier cas, si nous supposons que les paramètres sont incertains,
des méthodes de sensibilité globales sont utilisées. C’est l’objet du premier paragraphe de
cette section. Dans le deuxième cas, il s’agit d’une localisation de défauts dominants de mo-
délisation. Nous abordons ce sujet dans le deuxième paragraphe.
1.5.1 Analyse de sensibilité en présence d’incertitudes
Tout comme au paragraphe 1.4.1, nous désignerons par x = [x1 x2 · · · xnp ]T ∈X le vecteur
des np paramètres candidats, X représentant l’espace de variation des paramètres. X ca-
ractérise donc le domaine d’incertitude des paramètres. Nous ne faisons pas ici d’hypothèse
sur le modèle d’incertitude associé à chaque paramètre. La relation exacte entre la réponse
y et les paramètres d’entrées x est y = f (x). Le nombre de paramètres susceptibles d’être
étudiés dans un MEF étant en général très important, le choix des paramètres initiaux avec
lesquels seront réalisées les analyses de sensibilité est souvent du ressort du jugement de
l’analyste. De par son expérience et ses connaissances, il jugera s’il est intéressant de retenir
tel ou tel paramètre. Il existe cependant des approches qualitatives permettant d’analyser les
effets d’un grand nombre de paramètres.
Analyse qualitative
Par analyse qualitative nous entendons le type d’analyse réalisé par les méthodes dites
de screening. Dans ces méthodes, l’approche OAT – One Factor At Time – est utilisée afin
d’établir une hiérarchie au sein des variables d’entrée en fonction de leur influence sur la
variabilité de la réponse. Ces méthodes restent qualitatives car elles ne quantifient pas l’im-
portance d’un paramètre par rapport à un autre comme le font les méthodes quantitatives.
Nous nous focalisons ici sur une de ces techniques de screening, la méthode de Morris [146].
Cette méthode que l’on peut rapprocher à un plan d’expérience, permet de classer les
paramètres – aussi appelés facteurs – en trois groupes, selon que leurs effets soient (a) négli-
geables, (b) linéaires et sans interactions avec d’autres facteurs ou (c) non-linéaires ou avec
interactions. L’espace des paramètres X est tout d’abord discrétisé régulièrement afin que
chaque paramètre xk puisse prendre une valeur choisie parmi nl . Ces valeurs sont appelées
niveaux. Les paramètres peuvent suivre n’importe quelle distribution mais il est en pratique
recommandé d’effectuer une transformation afin que les paramètres sur lesquels l’analyse
sera réalisée soient uniformément distribués sur [0 ; 1]. Soit x(i ) un échantillon de l’espace
39
Chapitre 1. Méthodes approchées en analyse modale
X ∈ℜnp×nl . Pour cet échantillon, l’effet élémentaire du paramètre xk est défini par
EE(i )k
=f(x(i ) ±∆ek
)− f
(x(i )
)
±∆, (1.90)
où ek est un vecteur unitaire dont toutes les composantes sont nulles exceptée la ke. ∆ est
une valeur choisie parmi 1/(nl −1), . . . ,1−1/(nl −1). Il est conseillé de prendre un nombre
pair pour le nombre de niveau nl et de choisir ∆ égal à nl /(2nl −2) [30, 146]. r échantillon-
nages – ou expériences – sont réalisés, permettant de construire r trajectoires de (np + 1)
points dans l’espace X′. X
′ est une réduction de X telle que x(i ) +∆ soit toujours dans
X . Pour un échantillon x(i ), la trajectoire est construite à partir d’une matrice d’orientation
O ∈ℜ(np+1)×np selon [31]
O = Xrep +∆
2((2 B− J)D+ J) . (1.91)
Xrep est une matrice dont chaque ligne est le vecteur x(i ), J ∈ ℜ(np+1)×np est une matrice de
1, B ∈ ℜ(np+1)×np est une matrice strictement triangulaire inférieure et enfin D ∈ ℜnp×np
est une matrice diagonale dont les éléments ont une probabilité égale de prendre la va-
leur 1 ou -1. Dans la matrice O ainsi obtenue, chaque colonne d’indice j possède deux
lignes ne différant que pour la j e composante. La trajectoire est construite en suivant dans
l’ordre les valeurs relevées sur les lignes de O. Généralement, quatre à dix trajectoires sont
construites. La figure 1.10 représente l’exemple de trois trajectoires obtenues pour trois fac-
teurs et quatre niveaux. Comme np = 3, nl = 4, ∆= nl /(2 nl −2) = 2/3 et que les paramètres
doivent prendre des valeurs discrètes parmi 0 ; 1/3 ; 2/3 ; 1, pour que x(i ) soit toujours dans
X , les valeurs initiales des paramètres sont choisies aléatoirement parmi 0 ; 1/3. Consi-
dérons par exemple la trajectoire apparaissant en rouge sur la figure 1.10. Pour ce chemin,
x(i ) = [0 1/3 1/3]T a été tiré et nous obtenons les matrices
Xrep =
0 1/3 1/3
0 1/3 1/3
0 1/3 1/3
0 1/3 1/3
, B =
0 0 0
1 0 0
1 1 0
1 1 1
et D =
−1 0 0
0 1 0
0 0 1
. (1.92)
La matrice de permutation est calculée suivant l’équation (1.91) et a pour valeur
O =
2/3 1/3 1/3
0 1/3 1/3
0 1 1/3
0 1 1
. (1.93)
Les effets élémentaires correspondants sont
EE(i )1 =
f (0,1/3,1/3)− f (2/3,1/3,1/3)
−∆,
EE(i )2 =
f (0,1,1/3)− f (0,1/3,1/3)
∆et
EE(i )3 =
f (0,1,1)− f (0,1,1/3)
∆.
(1.94)
r trajectoires étant construites, le calcul de ces indices nécessite au final r (np + 1) éva-
40
1.5 Paramétrisation de modèle
Fig. 1.10 – Trajectoires associées à la méthode de Morris
luations de la fonction d’intérêt. Pour chaque paramètre xk , les mesures de sensibilité de la
méthode de Morris sont la moyenne µMk= E (EEk) et l’écart type σM
k= σ (EEk) des r indices
EE(i )k
. La mesure de sensibilité proprement dite est donnée par µMk
, une forte valeur absolue
indiquant un facteur dont l’influence sur la réponse est importante sous toutes ses formes et
une faible valeur absolue indiquant le contraire. « Sous toutes ses formes » signifie que cette
mesure ne permet pas de distinguer si la sensibilité est due au paramètre seul ou à l’inter-
action de celui-ci avec les autres paramètres. Cependant, des informations supplémentaires
sont obtenues par l’observation de σMk
. Si l’indice |µMk| est haut et σM
kest faible alors le para-
mètre influe linéairement et additivement sur la réponse, c’est-à-dire que son effet s’ajoute à
ceux des autres paramètres de façon homogène sur son intervalle de variation. Si les indices
|µMk| et σM
ksont forts alors le paramètre influe non-linéairement ou par ses interactions avec
les autres facteurs. Le paramètre influe de lui-même de façon non-homogène sur la réponse
ou bien l’influence vient des interactions avec les autres facteurs, sans toutefois pouvoir dé-
terminer lesquelles.
Néanmoins, comme les effets élémentaires peuvent prendre des valeurs positives ou né-
gatives, des variables influentes peuvent conduire à des valeurs µM faibles. Lorsque le mo-
dèle possède plusieurs réponses, il est exclu pour la même raison de réaliser une moyenne
globale sur l’ensemble des effets élémentaires de toutes les réponses. Pour remédier à cela, il
est proposé dans [30] de compléter l’analyse en calculant un indiceµM∗
k= E (|EEk |), moyenne
de la valeur absolue des effets élémentaires. Cet indice est calculé pour estimer l’effet des
paramètres sur chacune des réponses mais aussi leurs effets sur l’ensemble des réponses en
calculant µM∗
ket σM
ksur tous les effets élémentaires obtenus.
Comme dans l’article de Campolongo et al. [30], nous utilisons la fonction test de Mor-
ris [146] afin d’illustrer les résultats pouvant être obtenus avec cette méthode. Cette fonction
41
Chapitre 1. Méthodes approchées en analyse modale
à vingt paramètres est définie par
y =β0 +20∑
i=1βi wi +
∑
1≤i< j≤20βi , j wi w j +
∑
1≤i< j<k≤20
βi , j ,k wi w j wk
+∑
1≤i< j<k<l≤20
βi , j ,k,l wi w j wk wl ,(1.95)
avec wi = 2(xi −0,5) sauf pour i = 3,5,7 où wi = 2(1,1 xi /(xi +0,1)−0,5). Chaque variable
xi est uniformément distribuée sur [0 ; 1]. En ce qui concerne les coefficients, βi = 20 pour
i = 1, . . . ,10, βi , j = −15 pour i , j = 1, . . . ,6, βi , j ,k = −10 pour i , j ,k = 1, . . . ,5 et βi , j ,k,l = 5 pour
i , j ,k, l = 1, . . . ,4. Les coefficients associés aux termes restants du premier et du second ordre
sont indépendants identiquement distribués – i.i.d – à partir de la loi normale N(0,1) et ceux
associés aux termes restants du troisième et quatrième ordre sont nuls. Il est évident que ce
type de fonction n’est pas caractéristique des relations que l’on rencontre en dynamique des
structures, mais elle permet d’illustrer les différentes influences exposées précédemment.
La figure 1.11 représente µM∗
ken fonction de σM
kpour chacun des vingt paramètres. Les in-
dices ont été calculés pour nl = 4 et r = 10 soit 210 simulations. Il y apparaît clairement trois
groupes :
– un premier groupe composé des paramètres x11 à x20 dont les effets sont très faibles ;
– un deuxième groupe composé des paramètres x8, x9 et x10 dont les effets sont impor-
tants mais linéaires ;
– un troisième groupe composé des paramètres x1 à x7 dont les effets non-linéaires
et/ou interactions sont importants.
Fig. 1.11 – Analyse de sensibilité de la méthode de Morris
La méthode de Morris est donc une méthode d’analyse efficace permettant d’estimer
avec un nombre raisonnable de calculs les paramètres les moins influents d’un ensemble
important tout en apportant quelques informations sur la nature des effets des paramètres
auxquels la réponse est sensible. Pourtant, comme il est remarqué dans [30], les exemples
de son application sont rares dans la littérature. Nous présenterons au paragraphe 3.2.5 de
ce mémoire, les résultats obtenus pour une étude conduite sur un modèle de rotor de taille
42
1.5 Paramétrisation de modèle
significative.
Les méthodes de screening sont des analyses de sensibilité pouvant être appliquées à tout
type de domaines, mathématique, physique, ingénierie, économie, etc. En ce qui concerne
la mécanique et en particulier l’analyse modale, une analyse qualitative plus spécifique est
l’observation des énergies de déformation et cinétique. Intuitivement, si un mode propre un
élément – poutre, plaque, etc. – possède proportionnellement aux autres une grande éner-
gie de déformation ou cinétique, il y a de fortes chances que les paramètres associés à cet
élément aient une influence notable sur la fréquence et vecteur propre de ce mode. Pour un
élément de matrices de raideur Ke et de masse Me , la sensibilité des réponses aux paramètres
est évaluée par le calcul des vecteurs
edef =1
2diag
(ΦT Ke Φ
)et ecin =
1
2diag
(ΦT Me ΦΛ
)(1.96)
dont les composantes contiennent respectivement les énergie de déformation et cinétique
associés aux différents modes de la base modales Φ. Chaque élément appartient en général
à un groupe d’éléments paramétrés dont les énergies seront évaluées en sommant les effets
élémentaires. À partir des seuls calculs de edef et de ecin, il est possible de comparer les éner-
gies des différents ensembles d’éléments. Les ensembles avec les plus fortes énergies pos-
sèdent les paramètres les plus influents. Cependant, cette analyse est locale et déterministe
puisque réalisée pour des valeurs fixées des données du modèle. Comme nous le remarque-
rons dans le paragraphe suivant, l’analyse locale n’est pas une approche satisfaisante pour
aborder les problèmes de sensibilité en présence d’incertitudes.
Quelles que soient les analyses qualitatives choisies, celles-ci s’avèrent indispensables
dans le processus de paramétrisation afin de réduire le nombre de variables. Une fois ce
travail réalisé, une analyse cette fois quantitative doit être conduite afin d’affiner l’analyse et
éventuellement fixer d’autres paramètres.
Analyse quantitative
Nous avons vu que les analyses de sensibilité qualitatives permettent seulement de clas-
ser les paramètres selon leurs influences sur la variabilité de la réponse. Avec l’analyse quan-
titative, nous allons pouvoir en plus quantifier l’importance d’un facteur par rapport à un
autre ou l’importance des interactions.
Sensibilité locale La méthode la plus couramment utilisée dans l’analyse de sensibi-
lité est l’étude de sensibilité autour d’une valeur particulière x(0) contenant par exemple
les valeurs nominales des paramètres du modèle. L’approche OAT est utilisée afin de cal-
culer des indices basés sur les dérivés partielles ∂ f /∂xi de f . Cependant, comme il est sou-
ligné dans [174], ce type d’analyse n’est réellement justifié que pour des modèles linéaires.
Lorsque les paramètres sont associés à un modèle d’incertitude, on préférera l’analyse de
sensibilité globale. Là où la sensibilité locale s’intéresse à la valeur de la réponse, la sensi-
bilité globale s’intéresse à la variabilité de cette réponse. On notera aussi que l’étude des
dérivées peut être vue comme un cas spécial de la méthode de Morris où ∆ serait faible et
r = 1. La méthode de Morris a toutefois l’avantage de couvrir l’ensemble de l’espace des pa-
43
Chapitre 1. Méthodes approchées en analyse modale
ramètres. Dans ce sens, elle peut être classée parmi les mesures de sensibilité globale qui
allons désormais aborder.
Sensibilité globale La sensibilité globale a pour objet l’étude des effets de la variation
de x dans X sur la réponse y . Dans [173] est réalisée un revue des nombreuses techniques
associées, techniques qui sont regroupées en méthodes fiabilistes, méthodes bayésiennes,
méthodes graphiques et méthodes basées sur l’analyse de la variance. Nous nous sommes
plus particulièrement intéressés à cette dernière classe.
Tout d’abord, précisons que ces méthodes sont à classer parmi les méthodes de Monte
Carlo, elles nécessitent donc de nombreuses simulations. Suivant la complexité du modèle,
il se peut que l’évaluation exacte de la relation y = f (x) rende le calcul des indices de sensi-
bilité impossible dans un temps raisonnable. En vue de faciliter le calcul, il conviendra alors
d’utiliser des métamodèles tels que ceux présentés section 1.4.
L’approche la plus simple à mettre en oeuvre est la simulation de Monte Carlo. Les tirages
peuvent résulter d’un échantillonnage aléatoire classique ou d’une autre méthode telle que
par exemple l’échantillonnage hypercube latin. Sur le plan qualitatif, à partir des simula-
tions, il est courant de tracer des figures du style diagramme de dispersion – ou scatterplot
en anglais – afin de visualiser les relations entrées-sorties. Sur le plan quantitatif, il est aussi
courant de calculer des indices basés sur les coefficients de régression ou de corrélation tels
que les indices SRC – Standardized Regression Coefficient – ou PCC – Partial Correlation Coef-
ficient. Le calcul de ces indices nécessite tout de même l’hypothèse de linéarité sur le modèle.
Si le modèle n’est pas linéaire mais monotone par rapport à chacune des variables lorsque
les autres sont fixées [83], les indices SRC et PCC sont calculés à partir des simulations réor-
données après une transformation basée sur les rangs pour obtenir les indices SRRC – Stan-
dardized Rank Regression Coefficient – et PRCC – Partial Rank Correlation Coefficient [175].
Ces hypothèses peuvent être vérifiées lorsqu’un polynôme d’ordre faible est utilisé pour si-
muler la réponse, mais l’on préférera souvent des méthodes plus générales ne nécessitant
pas d’hypothèses sur le modèle. C’est le cas des méthodes de type ANOVA – ANalysis Of VA-
riances.
Ces méthodes reposent sur la décomposition de la variance de la réponse
V(y) = V(E(y |xi )
)+E
(V(y |xi )
). (1.97)
V(y) est la variance de la réponse y , E(y |xi ) et V(y |xi ) sont respectivement l’espérance et
la variance conditionnelles de y sachant xi , xi étant fixé à une valeur de son intervalle de
variation. La variance de l’espérance conditionnelle V(E(y |xi )
)= Vi est considérée comme
une bonne mesure de la sensibilité de y à xi , Vi étant grande si le paramètre xi est important.
Après normalisation, l’indice de sensibilité quantifiant la part de la variance de y due à xi est
donné par
Si =Vi
V(y). (1.98)
Sobol’ [189] appelle cet indice dont la valeur varie entre 0 et 1, indice de sensibilité du pre-
mier ordre. Pour obtenir des indices d’ordres plus élevés rendant compte des effets des in-
teractions paramétriques sur la réponse, il suffit de généraliser la décomposition donnée
44
1.5 Paramétrisation de modèle
équation (1.97) par la décomposition de Sobol’ [189]
V(y) =np∑
i=1Vi +
∑
1≤i< j≤np
Vi j +∑
1≤i< j<k≤np
Vi j k + . . .+V1...np (1.99)
avec
Vi j = V(E(y |xi , x j )
)−Vi −V j ,
Vi j k = V(E(y |xi , x j , xk )
)−Vi j −Vi k −Vi −V j −Vk ,
. . .
V1...np = V(y)−∑
1≤i< j≤np
Vi j − . . .−∑
1≤i<...≤np
V1...np−1.
(1.100)
À partir de ces termes, nous pouvons définir des indices de sensibilité à l’ordre deux
Si j = Vi j /V(y), à l’ordre trois Si j k = Vi j k /V(y), etc. Par exemple, les np (np − 1)/2 indices
Si j quantifient la part de la variance de y due à l’interaction des paramètres xi et x j qui
n’est pas prise en compte dans l’effet des variables seules. Il est théoriquement possible de
calculer 2np −1 indices de sensibilité mais dans la pratique seuls les termes du premier et se-
cond ordre sont estimés. Le calcul de tous les indices serait en effet fastidieux et par ailleurs,
comme il est souligné dans [172, 174], les interactions d’ordres supérieurs sont assez rares.
L’analyse peut être enfin complétée par le calcul d’indices de sensibilité totaux comme
proposé dans [75]. L’indice de sensibilité total STi
relatif au paramètre xi est défini comme la
somme de tous les indices relatifs à la variable xi . Ainsi, si x = [x1 x2 x3 x4]T, alors l’indice de
sensibilité total relatif à x2 est
ST2 = S2 +S12 +S23 +S24 +S123 +S124 +S234 +S1234. (1.101)
On notera que si seuls les indices d’ordre un et deux ont été calculés, il est possible d’ap-
précier l’influence des interactions d’ordres supérieurs en soustrayant les indices calculés à
l’indice de sensibilité total. Si le reste est faible, alors nous pouvons conclure que les interac-
tions paramétriques d’ordre trois et plus n’ont quasiment pas d’effet, dans le cas contraire,
ces interactions ont une influence et il peut convenir de calculer au moins les indices d’ordre
trois.
Les indices étant définis, il reste désormais à les calculer ou plutôt les estimer car sauf
dans le cas d’une fonction f simple, il n’est pas envisageable de les déterminer analytique-
ment. Parmi les techniques existantes, les plus couramment utilisées sont les méthodes de
Sobol’ [189], FAST [41, 178] et de McKay [139]. La méthode FAST consiste à décomposer la
variance de y en utilisant la transformée de Fourier. La méthode originale permet seulement
d’estimer les indices du premier ordre mais la version étendue proposée dans [176] permet
d’obtenir les indices de sensibilité totaux. Dans la méthode de McKay, les indices du premier
ordre sont estimés à partir d’échantillonnages hypercubes latins répliqués. Enfin, la méthode
de Sobol’ permet d’obtenir tous les indices de sensibilité présentés précédemment à partir
d’échantillonnages aléatoires. Bien que demandant plus de calculs que les deux autres, la
méthode de Sobol’ est plus complète car tous les indices sont susceptibles d’être calculés.
Elle a de plus l’avantage d’être facile à mettre en oeuvre. On trouvera dans [172], une dé-
marche permettant d’estimer efficacement les indices du premier et du second ordre ainsi
45
Chapitre 1. Méthodes approchées en analyse modale
que les indices totaux.
La décomposition (1.99) n’est valable que si l’on suppose que les paramètres d’entrée
sont indépendants. Dans le cas de dépendances connues entre variables, il est nécessaire
d’adapter la méthode [83, 172].
Reprenons la fonction définie par l’équation (1.95). L’analyse par la méthode de Morris
a fait ressortir que les paramètres x11 à x20 ont des effets très faibles, que les paramètres x8,
x9 et x10 ont des effets significatifs mais linéaires et qu’enfin les paramètres x1 à x7 ont des
effets non-linéaires importants et/ou avec interactions. Nous allons appliquer la méthode
de Sobol’ pour les paramètres jugés influents par la méthode de Morris. Les paramètres x11
à x20 sont fixés à une valeur aléatoire comprise entre 0 et 1. Les valeurs des indices de sen-
sibilité du premier ordre et totaux obtenues pour 10 000 simulations sont représentées figu-
re 1.12. Nous constatons que pour les paramètres x7 à x10 les deux indices ont pratiquement
la même valeur, indiquant que les interactions entre ces facteurs n’ont pas d’effets sur la
variabilité de la réponse. Pour les paramètres x8 à x10, ceci confirme l’information donnée
par la méthode de Morris. Le paramètre x7 avait été classé dans le groupe des paramètres
avec effets non-linéaires et/ou avec interactions, après cette nouvelle analyse nous pouvons
conclure que l’effet de x7 est non-linéaire. Les paramètres x1 à x6 ont des faibles indices
d’ordre un mais de forts indices totaux, ce qui signifie que l’effet de ces paramètres est dû
seulement à leurs interactions. Là encore, l’analyse par la méthode de Morris est correcte.
Les valeurs des indices Si j non nuls sont utilisées pour construire le graphique figure 1.13.
Les paramètres x1, x2 et x4 interagissent le plus avec les autres, les plus fortes interactions
étant x1 −x2, x1 −x4 et x2 −x4. Nous pouvons aussi constater que les paramètres x3, x5 et x6
interagissent peu avec les autres. En vue de réduire le nombre de paramètres, il paraît donc
raisonnable de les fixer.
Fig. 1.12 – Indices de sensibilité du premier ordre (E) et totaux (A)
Cet exemple montre que cette méthode est très complète, elle permet de classer les va-
riables suivant leurs importances, d’étudier les interactions et de fixer les moins influentes.
Cependant, le coût numérique est élevé, la convergence des indices de sensibilité deman-
46
1.5 Paramétrisation de modèle
Fig. 1.13 – Indices de sensibilité du second ordre pour les paramètres x1 à x6
dant un nombre de simulations supérieur à 103. C’est pourquoi, comme évoqué précédem-
ment l’utilisation de métamodèles peut s’avérer indispensable. Il faut remarquer que la con-
struction du métamodèle demande elle aussi un nombre non-négligeable de calculs. Nous
pensons qu’il s’agit du prix à payer pour obtenir une analyse de qualité.
Il est mentionné dans les travaux de Liu et al. [119, 120] que les méthodes basées sur
l’analyse de la variance supposent que la variance soit suffisante pour décrire la variabilité
de la réponse. Ces méthodes perdent de leurs précisions lorsque la variabilité des paramètres
amène une réponse avec une densité de probabilité à fort coefficient d’assymétrie – queue de
distribution très étalée – ou à fort coefficient d’aplatissement – forme très aplatie. Les auteurs
proposent une méthode de sensibilité basée sur la distance de Kullback-Lieber [104]. Cette
distance, qui sera définie au paragraphe 3.3.1, permet de calculer un indice de sensibilité
au premier ordre et un indice de sensibilité total s’affranchissant des problèmes évoqués. La
méthode peut aussi être appliquée dans une analyse de sensibilité fiabiliste.
1.5.2 Localisation d’erreurs
Les méthodes de localisation d’erreurs de modélisation sont couramment utilisées com-
me une étape préalable à une procédure de recalage. Elles consistent à confronter des résul-
tats expérimentaux aux résultats de simulations numériques et permettent de sélectionner
les paramètres du modèle qui devront être corrigés afin d’améliorer la prédiction du modèle
dynamique. Une revue de différentes méthodes de localisation applicables dans le domaine
modal pourra être trouvée en [143]. Les méthodes peuvent être regroupées en deux catégo-
ries. La première catégorie utilise des critères pointant des ddls. Parmi ceux-ci, on notera
l’utilisation du critère COMAC – Coordinate Modal Assurance Criterion [117]– pour mesurer
la corrélation entre un mode expérimental et son apparié numérique [156] ou encore le cri-
tère des forces résiduelles [56, 205]. Les ddls présentant des écarts essais-calculs sont ainsi
détectés. D’une manière générale, ces méthodes s’avèrent peu fiables. On leur préférera la
seconde catégorie à savoir les méthodes dont les critères pointent sur des éléments. Nous
47
Chapitre 1. Méthodes approchées en analyse modale
pouvons distinguer les méthodes basées sur la sensibilité – au sens de dérivée – [109, 213] et
les méthodes basées sur des critères énergétiques. Pour ces dernières, nous citerons sous les
méthodes utilisant l’erreur en relation de comportement – ERDC – [45, 105], la minimum dy-
namic residual expansion – MDRE – [10] et la minimization of errors in constitutive equations
– MECE [161, 162]. Ces techniques possédent des développements très proches.
Puisque la méthode MDRE sera utilisée sous une forme adaptée en section 2.2, nous pré-
sentons ici une partie de son développement.
Soient N le nombre de ddls du MEF et yν le νe vecteur propre du MEF. Des mesures ex-
périmentales effectuées en c points de la structure permettent d’obtenir le νe vecteur propre
expérimental c yexpν de valeur propre λ
expν . Cependant, le nombre de points de mesures est
en général très inférieur au nombre de ddls du modèle. En particulier, les ddls de rotations
ou ddls internes ne sont pas observables expérimentalement. Pour rendre compatibles ces
observations avec le MEF, une solution est d’effectuer une expansion sur les ddls du MEF.
Nous devons donc reconstituer r = N− c ddls. Soit yexpν le νe vecteur propre obtenu par un
processus d’expansion. Dans le cas de l’expansion MDRE, yexpν est obtenu en résolvant le
système [Zν γLT Kr L
K −Zν
][rν
yexpν
]
=[γLT Kr
c yexpν
0
]
(1.102)
où K est la matrice de raideur du modèle, Zν= K−λexpν M est la matrice de raideur dynamique
du mode ν, Kr est la matrice de raideur réduite aux ddls observés dans l’expérience, L ∈ℜc,N
est la matrice de localisation des ddls observés et γ est un coefficient de confiance dans les
mesures. Nous obtenons donc yexpν et rν, vecteur des déplacements résiduels relatif au mode
ν, calculé en résolvant
rν = K−1∆fν, (1.103)
avec ∆fν = Zν yexpν les forces résiduelles issues du processus d’expansion. Dans le cas où le
nombre de ddls serait très important, il est aussi possible de réaliser le calcul en utilisant
une base de condensation [47, 143].
La localisation des éléments défaillants en raideur est effectuée à partir du critère de
l’énergie élémentaire
e (el )ν = rT
ν L(el ) K(el )(L(el )
)Trν, (1.104)
où K(el ) est la matrice de raideur associée à un élément (el ) et L(el ) la matrice de localisation
des ddls de cet élément. Il s’agit pour l’instant d’un critère valable pour l’élément et le mode
considérés. Les éléments possédant une valeur de e (el )ν très élevée par rapport aux autres
sont susceptibles de présenter un défaut de modélisation en raideur. Un MEF pouvant pos-
séder des milliers d’éléments, il paraît plus raisonnable de localiser les erreurs au niveau de
sous-domaines. Les sous-domaines sont généralement définis de sorte à regrouper les élé-
ments possédant des paramètres identiques. Pour un sous-domaine d’indice (ss), le critère
à considérer sera alors e (ss)ν =
∑el∈ss e (el )
ν . Si l’on souhaite évaluer la contribution sur tous les
modes, on utilisera le critère e (ss) =∑
ν e (ss)ν .
En fait, les critères que nous venons de définir ne sont pas utilisés directement sous cette
forme. Une pondération est en effet nécessaire afin de permettre les comparaisons. Pour une
discussion sur les différents choix possible on se référera à [143]. On remarquera aussi que ce
développement localise des erreurs en raideur. La méthode ERDC telle qu’elle est présentée
48
1.5 Paramétrisation de modèle
dans [45] et dans l’annexe D, permet d’étendre ce type de critère à la localisation d’erreur en
masse.
Il faut tout de même remarquer que la localisation des défauts de modélisation domi-
nants par la méthode MDRE ou tout autre méthode n’est pas garantie. Compte tenu des
limitations de la méthode utilisée ou des incertitudes de modélisation et de mesure, il est
aussi important de pouvoir déterminer dans quelle mesure les résultats de la localisation
sont fiables. Pour tenter de répondre à ce problème, Michot [143] a développé des indica-
teurs dits de visibilité et discernabilité dont les buts sont de s’assurer avant de lancer le pro-
cessus de localisation, que les sous-domaines étudiés sont localisables et qu’un défaut dans
un des sous-domaines est discernable des défauts dans les autres sous-domaines. La varia-
bilité des résultats en fonction du niveau d’incertitude estimé sur les données y est aussi
étudiée.
49
Chapitre 2Aide à la décision en synthèse modale
Sommaire2.1 Utilisation des modes propres orthogonaux en synthèse modale . . . . . . . 52
2.1.1 Décomposition en modes propres orthogonaux . . . . . . . . . . . . . . 52
2.1.2 Adaptation à la sous-structuration . . . . . . . . . . . . . . . . . . . . . . 56
2.1.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2 Qualification des super-éléments . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.1 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.2.2 Localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.2.3 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.2.4 Application au moteur d’avion . . . . . . . . . . . . . . . . . . . . . . . . 82
2.2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.3 Choix optimal des degrés de liberté maîtres . . . . . . . . . . . . . . . . . . . 88
2.3.1 Méthode d’optimisation proposée . . . . . . . . . . . . . . . . . . . . . . 89
2.3.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Dans ce chapitre sont proposées différentes méthodes permettant de faciliter la prise de
décision en sous-structuration. Nous présentons en premier lieu une méthode de synthèse
modale basée sur l’utilisation des modes propres orthogonaux et notamment son applica-
tion à la condensation robuste. Ensuite, nous décrivons une méthodologie de vérification de
modèles construits par sous-structuration. La dernière section de ce chapitre concerne une
technique utilisant les algorithmes génétiques afin de choisir les ddls maîtres « optimaux »
lors de la condensation de type Guyan ou Craig-Bampton.
51
Chapitre 2. Aide à la décision en synthèse modale
2.1 Utilisation des modes propres orthogonaux en synthèse
modale
La décomposition orthogonale en modes propres – ou communément POD de l’anglais
Proper Orthogonal Decomposition – est une méthode d’analyse permettant d’extraire les in-
formations essentielles d’un ensemble de données. Il en résulte des modes propres orthogo-
naux – POM – pouvant être utilisés comme base de représentation des données.
L’idée de la POD peut être trouvée dans les travaux de Kosambi [103], Loève [124], Ka-
rhunen [87], Pougachev [164] ou encore Obukhov [155]. Les formes les plus populaires de
la POD sont la décomposition de Karhunen-Loève – DKL –, l’analyse en composante princi-
pale – ACP ou plus couramment PCA – et la décomposition en valeurs singulières – DVS. Il est
démontré dans [116, 207] que ces trois méthodes sont équivalentes lorsque la POD est appli-
quée à des vecteurs aléatoires discrets. La PCA introduite par Hotelling [77], a pour objet de
réduire la dimension de l’espace des variables aléatoires corrélées tout en en maximisant la
variance. La DKL a été développée indépendamment par Karhunen [87] et Loève [124] afin
de décomposer un processus temporel stochastique continu en une série optimale de fonc-
tions. Elle permet d’étendre la PCA au cas des espaces à dimensions infinies. Si discrétisée,
elle est équivalente à la PCA d’un vecteur aléatoire [116]. Enfin, la DVS, dont les premiers
développement remontent aux années 1870 avec les travaux de Beltrami et Jordan, est un
procédé d’algèbre linéaire permettant d’étendre la décomposition en valeurs propres à toute
matrice rectangulaire. Nous obtenons une base de vecteurs identique à celle obtenue par la
PCA et donc par la DKL sous sa forme discrétisée, ce qui, comme nous le verrons plus loin,
s’avère très important du point de vue pratique.
La POD a été exploitée dans un grand nombre de domaines tels que par exemple la turbu-
lence [27, 74, 188] ou encore le transfert de chaleur [152]. Son application en dynamique des
structures est désormais assez répandue, avec notamment un emploi pour la construction
de modèles réduits de systèmes linéaires et non-linéaires [5, 86, 90, 91, 95] ou l’identification
et le recalage de modèles non-linéaires [90, 91, 113].
Kim propose dans [95] d’utiliser les POMs comme base de représentation en synthèse
modale. Nous étudions ici le potentiel de cette technique. Dans l’article original, la mé-
thode est appliquée sur des modèles dont la taille ne dépasse pas 126 ddls. Nous proposons
d’étendre l’analyse à des modèles plus conséquents. Nous montrerons qu’il est aussi possible
d’enrichir la base obtenue pour la réanalyse approchée lors de modifications structurales.
2.1.1 Décomposition en modes propres orthogonaux
L’idée est de décrire un ensemble statistique donné avec un minimum de modes. Soit
y(x, t ) la réponse d’un système sur un espace Ω où x est un paramètre spatial aléatoire et t le
temps. Nous considérons que l’espace Ω est discrétisé en m points et que donc y = y(x, t ) est
un vecteur aléatoire appartenant à ℜN,1. Dans la pratique, y n’est connue qu’en un nombre
fini de points temporels. Ainsi, au temps tk , correspond l’échantillon yk = y(x, tk ). Ces échan-
tillons sont concaténés dans la matrice Y = [y1 · · · yk · · · ym]. Supposons que nous possédions
m échantillons linéairement indépendants. De plus, considérons que y est ergodique, c’est-
à-dire que sur une période finie T, la valeur moyenne temporelle de y est égale à son espé-
52
2.1 Utilisation des modes propres orthogonaux en synthèse modale
rance E(y). E(y) sera alors exprimée et approximée par
E(y)= limT→∞
1
T
T∫
0
y(x, t )dt = limm→∞
1
m
m∑
k=1
yk ≃1
m
m∑
k=1
yk . (2.1)
Si la moyenne des échantillons n’est pas nulle, il est nécessaire de leurs soustraire E(y). Ainsi,
pour k = 1, . . . ,n, yk devient yk −E(y). Nous considérons par la suite que cette centralisation
a été réalisée et que donc E(y) = 0.
Puisque c’est la situation rencontrée en pratique, nous exposons dans ce qui suit la DKL
sous sa forme discrète [116]. Soit Φ une base arbitraire de vecteurs orthonormaux φi ∈ℜN,1.
Dans cette base, y s’exprime
y =N∑
i=1qi φi =Φq, (2.2)
q étant un vecteur de coordonnées généralisées.
L’objectif est de trouver une base orthonormale déterministe la plus représentative de
l’ensemble des réponses échantillonnées. Si l’on veut approcher un échantillon en utilisant
seulement une base de l premiers vecteurs, alors on souhaite que yk =∑l
i=1 qi φi soit la
meilleur approximation de yk . L’erreur au sens des moindres carrés peut être exploitée à
ce propos. Nous cherchons alors à résoudre le problème de minimisation sous contrainte
minφi
ε2 = E(∑N
i=1 qi φi − yk
)2
avec φTiφ j = δi j i , j = 1, . . . ,N.
(2.3)
La condition permet de s’assurer de l’unicité de la base.
L’expression de ε2 peut être simplifiée sous la forme
ε2 = E
(N∑
i=l+1qi φi
)2
. (2.4)
Comme φTiφ j = δi j , nous avons
ε2 = E
(N∑
i=l+1
q2i
)
=N∑
i=l+1
E(q2
i
). (2.5)
En remarquant que qi =φTi
y et E(y) = 0, nous obtenons
ε2 =N∑
i=l+1
E(φT
i y yT φi
)=
N∑
i=l+1
φTi E
((y−E(y)
)(y−E(y)
)T)φi
=N∑
i=l+1
φTi Σyφi ,
(2.6)
Σy = E((
y−E(y))(
y−E(y))T
)est la matrice de covariance de taille N×N associée à y. Compte
tenu de l’hypothèse (2.1) et que E(y) = 0, cette matrice sera calculée par
Σy =1
mY YT. (2.7)
53
Chapitre 2. Aide à la décision en synthèse modale
Le problème d’optimisation (2.3) devient
minφi
ε2 =∑N
i=l+1φTiΣyφi
avec φTiφ j = δi j i , j = l +1, . . . ,N
(2.8)
Nous résolvons ce problème en construisant le lagrangien
L =N∑
i=l+1
φTi Σyφi +
N∑
i=l+1
N∑
j=l+1
µi j
(φT
i φ j −δi j
), (2.9)
où µi j sont les multiplicateurs de Lagrange.
Pour i = l +1, . . . ,N, la minimisation sans contrainte de L par rapport à φi se traduit alors
par la condition de stationnarité
∂L
∂φi
= 0
2(Σyφi −ΦN−l µi
)= 0,
(2.10)
avec ΦN−l la base réduite au N− l derniers vecteurs de Φ et µi = [µl+1 i µl+2 i · · · µNi ]T.
En étendant l’équation (2.10) à l’ensemble des vecteurs de ΦN−l , nous obtenons que les
vecteurs Φi satisfaisant l’équation (2.8) doivent vérifier
ΣyΦN−l =ΦN−l MN−l , (2.11)
où M = [µl+1 µl+2 · · · µN]. Il nous reste désormais à obtenir ΦN−l et MN−l .
En multipliant à gauche la dernière équation par ΦTN−l
, il vient
MN−l =ΦTN−l ΣyΦN−l
=ΦTN−l E
((y−E(y)
)(y−E(y)
)T)ΦN−l
= E((ΦT
N−l y−E(ΦTN−l y)
)(ΦT
N−l y−E(ΦTN−l y)
)T)
= E((
qN−l −E(qN−l ))(
qN−l −E(qN−l ))T
),
(2.12)
avec qN−l =ΦTN−l
y, c’est-à-dire le vecteur des N−l dernières composantes de q =ΦT y. Nous
constatons que MN−l est la matrice de covariance de qN−l et que donc il s’agit d’une matrice
symétrique réelle définie positive. Si ΛN−l et ΨN−l sont respectivement la matrice diagonale
des valeurs propres et la base de vecteurs propres orthonormale de MN−l , nous obtenons à
partir de sa décomposition propre
ΛN−l =ΨTN−l MN−l ΨN−l , (2.13)
expression qui, si nous utilisons la première ligne de (2.12), devient
ΛN−l = (ΦN−l ΨN−l )T Σy (ΦN−l ΨN−l ) . (2.14)
Nous constatons avec cette expression que la diagonale de ΛN−l contient N− l valeurs pro-
pres de Σy et que les N− l vecteurs propres correspondants forment la base ΦN−l ΨN−l que
54
2.1 Utilisation des modes propres orthogonaux en synthèse modale
nous noterons ΥN−l .
En remarquant que∑N
i=l+1φTiΣyφi = tr
(ΦT
N−lΣyΦN−l
), ΦN−l =ΥN−l Ψ
TN−l
et en utilisant
la commutativité de la trace, ε2 devient
ε2 = tr(ΦT
N−l ΣyΦN−l
)= tr
(ΨN−l Υ
TN−l ΣyΥN−l Ψ
TN−l
)
= tr(ΥT
N−l ΣyΥN−l ΨTN−l ΨN−l
)= tr
(ΥT
N−l ΣyΥN−l
)
= tr(ΛN−l ) .
(2.15)
Pour que l’erreur ε2 soit minimale, il faut que les valeurs propres composant ΛN−l soient
les plus petites possibles. Les vecteurs de ΦN−l sont donc les vecteurs propres de Σy corres-
pondant aux plus petites valeurs propres. Par conséquent, il convient d’ordonner les valeurs
de propres λi de Σy tel que λ1 > λ2 > ·· · > λl > ·· · > λN > 0. Ces valeurs propres sont les
valeurs propres orthogonales – POV. Rappelons que notre objectif était de trouver la base
optimale de l vecteurs permettant de satisfaire le problème (2.3). Cette base est Φm que
nous noterons désormais Φ∗m . Les vecteurs à choisir sont donc les vecteurs associés aux l
plus grandes valeurs propres de la matrice de covariance Σy. Ainsi, Φ∗m = [φ∗
1 φ∗2 · · ·φ∗
l]. Ces
vecteurs sont les POMs. Si nous ne devions retenir qu’un vecteur pour caractériser les don-
nées de Y, se serait φ∗1 . Si nous ne devions en retenir que deux, se seraient φ∗
1 et φ∗2 , et ainsi
de suite. Plus l est grand plus ε2 sera faible et plus la quantité∑l
i=1 qi φ∗i
sera proche de y. Le
nombre de vecteur à retenir va dépendre de la précision voulue, mais la plupart des auteurs
proposent de choisir les l premiers modes suivant un critère de coupure tels que
l∑
i=1λi /
m∑
i=1λi ≥ κ, (2.16)
avec le critère κ de l’ordre de 0,999.
Le calcul des POMs nécessite la construction de la matrice de covariance Σy, puis le cal-
cul des solutions propres de cette matrice. Cette matrice étant de taille N×N, ceci peut être
coûteux lorsque N est grand. Pour pallier à ce problème, Sirovitch [188] a proposé la méthode
dite des « snapshots ». Les snapshots sont les m réponses échantillonnées yk . La méthode
consiste à supposer que les POMs peuvent être représentés par une combinaison linéaire
des échantillons, ce qui se traduit pour un POM φ∗i
par
φ∗i =
M∑
k=1
αk,i yk = Yαi . (2.17)
On peut alors montrer que les αi sont les vecteurs propres de YT Y, matrice m ×m. Ces
vecteurs calculés, on en déduit les POMs. Comme en général m ≪ N, le calcul est alors fa-
cilité. Pour être parfaitement justifié, l’utilisation de cette approche nécessite que les diffé-
rentes réponses yk soient non-corrélées. C’est rarement le cas dans la pratique puisque des
réponses à des pas de temps proches possèdent une degré de corrélation plus ou moins im-
portant. Malgré cela, l’utilisation de cette méthode même avec des réponses possédant de la
corrélation donne de bons résultats.
Pour accélérer les calculs, il est plus intéressant d’utiliser la DVS de Y. Comme nous
l’avons fait remarquer en introduction, la DVS produit la décomposition orthogonale en
55
Chapitre 2. Aide à la décision en synthèse modale
modes propres. L’énoncé traditionnel de la DVS consiste à considérer une matrice réelle ou
complexe A de taille a×b et dire qu’il existe une factorisation de la forme
A = UΣVT. (2.18)
Dans cette factorisation, U est une matrice orthonormale a × a dont les vecteurs colonnes
sont les vecteurs singuliers de gauche, V est une matrice orthonormale b×b dont les vecteurs
colonnes sont les vecteurs singuliers de droite et Σ est une matrice pseudo-diagonale a ×b
dont les composantes diagonales sont les valeurs singulières de A.
Nous avons vu au paragraphe 1.3.1 que cette technique peut être utilisée dans le cas
où A est une base de vecteurs que l’on voudrait orthonormaliser. Lorsque A est une ma-
trice d’échantillonnage telle que Y, il peut être montré [90, 92] que les vecteurs singuliers de
gauche sont les POMs. Les POVs, quant à elles, sont les racines des valeurs singulières di-
visées par le nombre d’échantillons. Celles-ci étant au nombre de b, seuls les b premiers
vecteurs de U sont utiles et ils correspondent aux vecteurs obtenus par la méthode des
snapshots. Depuis le premier algorithme proposé par Golub et Kahan en 1965 [64, 65], la
DVS est largement implantée dans les environnement de développement numérique tel que
Matlabr qui utilise les algorithmes de la librairie Fortran LAPACK [112].
Le moyen le plus rapide pour déterminer les POMs est donc d’effectuer une DVS de Y.
Nous finirons ce paragraphe en abordant l’interprétation physique des POMs. Les ré-
ponses auxquelles nous nous intéressons dans ce travail sont des champs de déplacements
mesurés en différents points d’une structure ou associés à un MEF. En dynamique des struc-
tures, l’interprétation des POMs a fait l’objet de plusieurs investigations [54, 90, 92]. En consi-
dérant les POMs comme les valeurs propres de la matrice de covariance, Feeny et Kappa-
gantu [54] montrent que dans le cas d’un système libre linéaire sans amortissement ou avec
amortissement modal et de matrice de masse proportionnelle à la matrice identité, les POMs
convergent vers les modes propres de la structure. Kerschen et Golinval [90, 92] arrivent à la
même conclusion en traitant le problème avec la DVS, et rajoutent que les premiers vec-
teurs propres singuliers de droite sont les modulations temporelles normalisées des modes
propres. Ils montrent aussi que pour un système linéaire sans amortissement en réponse
forcée, le premier POM capture la réponse forcée harmonique.
2.1.2 Adaptation à la sous-structuration
Une méthode de synthèse modale basée sur l’utilisation des POMs comme base de Ritz,
est proposée dans [95]. Le problème est résolu en utilisant la méthode dans le domaine fré-
quentiel. Dans cette procédure, les modes optimaux sont extraits des réponses forcées fré-
quentielles de chaque sous-structure. La base obtenue permet alors de calculer les modèles
réduits des sous-structures qui sont ensuite assemblés.
Soit y(ω) la réponse d’une sous-structure à la fréquence ω obtenue par la résolution du
système conservatif (K−ω2 M
)y(ω) = f(ω). (2.19)
Sur le domaine de fréquentiel utile [0 ; Ω] de la structure complète, m réponses sont cal-
56
2.1 Utilisation des modes propres orthogonaux en synthèse modale
culées aux m fréquences ω1, . . . ,ωm échantillonnées dans ce domaine. Ces réponse forment
la matrice d’échantillonnage Y = [y1 · · · ym]. À partir de cette matrice, sont extraits les POMs
comme décrit précédemment. La base de réduction de la sous-structure est alors constituée
par les l premiers POMs φi .
La relation de condensation de chaque sous-structure en coordonnées généralisées q
s’exprime par
y = TKL q, (2.20)
avec
TKL =[φ∗
1 · · · φ∗l
]=Φ∗
l , l ≪ m. (2.21)
Nous avons choisi d’utiliser l’indice KL en référence à l’article [95] où la POD est désignée
par méthode de Karhunen-Loève.
Dans le cas où la structure possède des modes de corps rigides, il convient de les inclure
dans la base et alors
TKL =[Ψ∗
r Φ∗l
]= Φ∗
l . (2.22)
Il n’existe pas de critère de sélection optimal a priori permettant de choisir le nombre
de POMs à conserver. Un critère tel que celui présenté équation (2.16) peut par exemple
être utilisé mais n’assure pas la précision fixée a priori. Kim suggère dans [95] de retenir un
nombre de POMs égal au rang de la matrice de covariance Σy, mais dans le cas où l’on utilise
la DVS, cela oblige à calculer cette matrice. De plus, nos différentes applications n’ont pas
confirmé la validité de ce critère.
Calcul a priori des réponses des sous-structures
Cette méthode est non causale, c’est-à-dire que les modes ne peuvent être obtenus sans
qu’une réponse ne soit connue a priori [94]. Pour cette raison, il est primordial d’échan-
tillonner une réponse qui soit la plus représentative du système dynamique considéré. Dans
cette méthode de sous-structuration, les forces de jonction étant inconnues, il est difficile de
déterminer les différents chargements à appliquer aux jonctions de chaque sous-structure
pour obtenir les réponses fréquentielles du système. Nous proposons ici deux approches
permettant d’obtenir des réponses représentatives. La première [95] utilise une force d’exci-
tation appelée la SCI pour Single-Composite-Input. Nous introduisons une deuxième tech-
nique tirant partie d’une analyse modale du système global.
Excitation par la SCI
Pour un système dynamique linéaire soumis à plusieurs excitations – ici les efforts de
réaction à l’interface en quantité égale au nombre de ddls de jonction –, Kim [96] a mon-
tré qu’il est possible de calculer la réponse à une fréquence pour seulement une excitation
représentative, la SCI, au lieu de la calculer pour chaque excitation.
Pour une fréquence ωk , il est proposé d’utiliser [95] comme force d’excitation
f(ωk ) =[
f j (ωk )
0
]
, (2.23)
57
Chapitre 2. Aide à la décision en synthèse modale
où le vecteur f j (ωk ) ∈ℜ j×1 est de la forme
f j (ωk ) =[∣∣∣ 1
iωk−iΩ1
∣∣∣∣∣∣ 1
iωk−iΩ2
∣∣∣ · · ·∣∣∣ 1
iωk−iΩ j
∣∣∣]T
(i 2 =−1). (2.24)
Les fréquences Ωk sont choisies arbitrairement dans la plage d’échantillonnage [0 ; Ω] mais
telles que Ωk 6=ωk .
Utilisation des réponses globales
Le but de la synthèse modale est évidemment d’éviter de réanalyser de la structure com-
plète. Cependant, nous nous plaçons plutôt dans l’optique d’obtenir une base de condensa-
tion du système nominal et ensuite d’effectuer des réanalyses approchées à partir de cette
base. Dans ce cas, il paraît raisonnable de supposer que l’analyse modale du système global
de référence ait été réalisée. Si les fréquences et vecteurs propres du système global sont dis-
ponibles, nous proposons de calculer dans un premier lieu les réponses forcées pour le MEF
de la structure complète. Ce calcul est effectué avec les matrices réduites à l’aide d’une base
modale tronquée de la structure comme décrit section 1.1.
L’excitation porte donc sur tous les ddls du MEF. Si m modes normaux sont calculés,
la réponse forcée de la structure complète est calculée pour des forces unitaires à chaque
fréquence ωk selon
y(g )(ωk) =Φ(g )m
(Λ
(g )m −ω2
k Imm
)−1Φ
(g )T
m IN1. (2.25)
Pour une sous-structure, la réponse constituant la ke colonne de la matrice d’échan-
tillonnage Y sera la restriction de y(g ) aux ddls de cette sous-structure. Ce processus inverse
permet de s’affranchir du problème consistant à déterminer un vecteur de forces proches
des forces réelles d’interface.
Après adaptation, ce type de substitution peut aussi s’appliquer aux autres méthodes de
synthèse modale. Par exemple, pour la méthode de Martinez, il suffit de remplacer les modes
normaux à interface libre Φek
par la restriction des modes normaux de la structure complète
aux ddls des sous-structures. Pour Craig-Bampton, la structure complète doit être analysée
avec tous les ddls de jonctions fixés.
Avec cette approche, l’analyse modale de la structure est nécessaire. Rappelons encore
une fois que nous proposons ce type de méthode uniquement dans le cas où l’on envisage la
réanalyse de la structure. En ce concerne qui la POD, si cette analyse complète n’est pas pos-
sible, il peut convenir d’employer l’approche proposée par Kim. Le calcul des réponses né-
cessite alors l’utilisation d’une boucle de m itérations, et ce, pour chaque sous-structure. Au
final, pour des sous-ensembles de tailles importantes, le calcul s’avère plus coûteux. Comme
nous le verrons dans la première application, les résultats sont aussi moins précis.
Une autre approche consiste à réaliser l’analyse avec une méthode classique telle que
par exemple Craig-Bampton ou Martinez, puis d’utiliser la base modale du modèle complet
obtenue après restitution pour calculer les réponses comme indiqué équation (2.25). Avec
cette dernière approche, nous verrons dans les applications suivantes que la précision des
modes est égale à celle de la méthode d’origine.
58
2.1 Utilisation des modes propres orthogonaux en synthèse modale
Assemblage des sous-structures
Lors de nos investigations, nous nous sommes aperçus que la qualité des résultats fi-
naux dépend fortement de la méthode d’assemblage utilisée. Nous proposons ici deux alter-
natives possédant chacune ses avantages et ses inconvénients. Nous présentons également
une méthode de condensation que nous qualifierons d’hybride.
Assemblage explicite et méthode hybride
Nous avons évoqué au paragraphe 1.2.3 que l’assemblage explicite sur les ddls de jonc-
tion permet une mise en oeuvre numérique aisée de l’assemblage. Nous utilisons cette ap-
proche pour coupler les sous-structures obtenues par la condensation à l’aide de la base TKL.
Pour cela, cette base de réduction doit subir une transformation. En partitionnant selon les
ddls maîtres m, contenant les ddls de jonctions et certains ddls internes dont on souhaite
conserver le sens physique, et les ddls esclaves s complémentaires, nous avons
TKL =[Φ∗
ml
Φ∗sl
]
. (2.26)
On ne confondra pas le m des ddls maîtres avec le m du nombre de réponses échantillon-
nées.
Afin de pouvoir assembler explicitement sur les ddls de jonctions, nous utilisons cette
matrice pour obtenir la nouvelle relation de passage
[ym
ys
]
=[
Imm
Φ∗slΦ∗†
ml
]
ym . (2.27)
L’exposant † désigne la pseudo-inverse de Moore-Penrose. Cette notation est utilisée dans
le cas où m < l . Lorsque m = l , Φ∗†
mldevient Φ∗−1
ml. Le cas m > l est à éviter car alors Φ∗
ml
n’est pas de rang maximum, contrairement aux deux autres cas. On retrouve cette approche
dans [35], où les modes normaux des sous-structures sont utilisés. Bien que potentiellement
intéressante, l’application de cette technique sur différentes structures a conduit à des ma-
trices condensées non définies positives ou très mal conditionnées. L’extraction finale des
valeurs propres est alors compromise. Nous optons donc pour une méthode hybride s’ins-
pirant de la méthode de Martinez.
À partir des modes d’attache de Sm et de la base Φ∗l
des POMs contenant éventuellement
les modes de corps rigide, nous partons de la relation
[ym
ys
]
=[
Smm Φ∗ml
Ssm Φ∗sl
][fm
qr+l
]
. (2.28)
Il n’est pas nécessaire de considérer les modes d’attaches résiduels puisqu’aucun mode nor-
mal n’est pris en compte pour compléter la base. Les coordonnées de type efforts du vecteur
fm sont éliminées au profit des coordonnées ym afin d’obtenir une matrice de transforma-
59
Chapitre 2. Aide à la décision en synthèse modale
tion TMKL utilisée dans la relation
[ym
ys
]
=[
Imm 0
Ssm S−1mm Φ∗
sl−Ssm R−1
mm Φ∗ml
][ym
qr+l
]
= TMKL
[ym
qr+l
]
. (2.29)
Après cette transformation, l’assemblage devient alors élémentaire.
Assemblage par couplage global
La méthode d’assemblage proposée par Kim [95] consiste à employer une matrice de
couplage globale. Pour illustrer cette approche, considérons le système représenté figure 2.1.
Fig. 2.1 – Assemblage de trois sous-structures
Le système est composé de trois sous-structures notées α, β, γ de vecteurs déplacement
yα, yβ, yγ. Nous considérons que les ddls maîtres se réduisent aux ddls de jonctions, nous
avons donc m = j . Les sous-structures β et γ possèdent des ddls communs avec α. Ces
ddls d’interface sont notés respectivement jαβ et jαγ. Selon les contraintes définies para-
graphe 1.2.3, nous avons
yαjαβ
= yβ
jαβet yα
jαγ= yγ
jαγ. (2.30)
À partir de la relation
yα
yβ
yγ
=
yαjαβ
yαjαγ
yαiα
yβ
jαβ
yβ
iβ
yγ
jαγ
yγ
iγ
=
I jαβ 0 0 0 0
0 I jαγ 0 0 0
0 0 Iiα 0 0
I jαβ 0 0 0 0
0 0 0 Iiβ 0
0 I jαγ 0 0 0
0 0 0 0 Iiγ
yαjαβ
yαjαγ
yαiα
yβ
iβ
yγ
iγ
, (2.31)
60
2.1 Utilisation des modes propres orthogonaux en synthèse modale
la relation de couplage globale s’exprime par
yα
yβ
yγ
= T(g )KL
qα
qβ
qγ
, (2.32)
avec
T(g )KL =
Φ∗α
jαβ0 0
Φ∗α
jαγ0 0
Φ∗α
iα0 0
Φ∗β
jαβ0 0
0 Φ∗β
iβ0
Φ∗γ
jαγ0 0
0 0 Φ∗γ
iγ
. (2.33)
Soient Kα, Kβ et Kγ les matrices de raideur des sous-structures et Mα, Mβ et Mγ leurs
matrices de masse. Les matrices condensées de raideur et de masse du système global se
calculent alors par
Kc = T(g )T
KL
Kα 0 0
0 Kβ 0
0 0 Kγ
T(g )KL et Mc = T(g )T
KL
Mα 0 0
0 Mβ 0
0 0 Mγ
T(g )KL . (2.34)
Avec cette approche, nous pouvons nous affranchir complètement du nombre de ddls
de jonction. Les matrices condensées finales sont alors en général de tailles plus petites que
celles obtenues par la méthode hybride proposée. De plus, les résultats sont plus précis.
L’inconvénient majeur est qu’elle nécessite des multiplications de matrices peuvant être de
tailles importantes et impliquant l’emploi d’un calculateur aux ressources mémoires suffi-
santes.
Condensation robuste
Nous finirons cette présentation de l’utilisation des POMs en synthèse modale par son
application en condensation robuste. La robustesse est définie ici au sens de robustesse vis-
à-vis des modifications structurales.
Dans cette méthode, pour chaque sous-structure, nous disposons à la suite du calcul des
POMs du système initial, de m réponses y(0)1 , . . . ,y(0)
m aux m fréquences ω1, . . . ,ωm .
Nous pouvons donc tout simplement réutiliser l’équation (1.50) pour déterminer la base
de force F∆. Pour chaque fréquence ωk , nous calculons
f∆k=−
(∆K−ω2
k ∆M)
y(0)(ωk ). (2.35)
Ensuite, la concaténation des f∆knous permet d’obtenir la base de forces F∆
F∆ =[
f∆1 · · · f∆M
]. (2.36)
Les résidus R∆ associés aux forces de modifications sont ensuite calculés suivant l’équa-
61
Chapitre 2. Aide à la décision en synthèse modale
tion (1.54) et ajoutés à la base de condensation initiale pour obtenir la base de transforma-
tion enrichie robuste TMKLE ou TKLE.
2.1.3 Applications
La méthode proposée est illustrée sur deux applications. Dans la première, nous utilisons
une structure de type plaque raidie par un profilé en U dont le MEF comporte 3 240 ddls.
Dans la deuxième, nous utilisons un modèle de rotor d’avion à 39 330 ddls. La condensa-
tion Karhunen-Loève sera appliquée sur les modèles initiaux et modifiés. Les modifications
structurales introduites concernent des perturbations locales en masse et en raideur. Pour
valider l’efficacité de la procédure, nous comparerons les résultats avec ceux obtenus par la
méthode de Craig-Bampton ou de Martinez. Dans le cas de la première application, nous
utiliserons également les méthodes de MacNeal [127] et de Rubin [170], méthodes utilisant
les modes d’attaches résiduels. Le couplage est ici réalisé par élimination des efforts de liai-
son résiduels. L’assemblage associé à ces approches étant difficile à systématiser, celles-ci ne
seront pas utilisées pour la deuxième application.
Structure académique
Fig. 2.2 – Plaque raidie par un profilé en U
Condensation déterministe Nous nous intéressons à une plaque raidie par un profilé
en U représentée figure 2.2. La plaque constitue la sous-structure SS1 et le profilé en U la
sous-structure SS2. Les deux sous-structures sont encastrées à leur base commune. La struc-
ture est modélisée par 120 éléments coques à 6 ddls par noeuds représentant un total de
3 420 ddls actifs répartis en 1 980 ddls actifs pour SS1, 1 380 pour SS2 et 120 ddls de jonction.
La bande fréquentielle d’intérêt est [0 ; 900 Hz]. La fréquence utile est donc fu = 900 Hz.
Dans cette bande, le modèle de référence possède 61 solutions propres.
Les solutions obtenues par six méthodes de synthèse modale sont comparées aux so-
lutions du modèle exact. Les critères choisis sont les erreurs relatives sur les fréquences
propres ǫ f et sur les vecteurs propres ǫy . Ces erreurs sont définies en annexe A. Parmi les
six méthodes, quatre techniques classiques sont utilisées, à savoir les méthodes de Craig-
Bampton (CB), de Martinez (MA), de MacNeal (MN) et de Rubin (R), utilisant respectivement
les matrices de transformation TCB, TMA, TMN et TR. Ces deux dernières, dont on trouvera le
62
2.1 Utilisation des modes propres orthogonaux en synthèse modale
principe dans [127, 170], emploient les modes normaux à interface libre et les modes d’at-
tache résiduels, la méthode de Rubin se différenciant par l’ajout d’un résidu dynamique aux
modes d’attache. Elles permettent d’obtenir un modèle condensé final exempt de coordon-
nées associées aux ddls de jonction.
Suivant la méthode, il est nécessaire de fixer le nombre de modes normaux à interface
fixe ou libre à conserver. Pour cela nous utilisons un critère de fréquence de coupure. Pour
chaque sous-structure, le nombre de modes retenus est égal au nombre de modes à inter-
face libre dont la fréquence maximale est inférieure ou égale à 2× fu . Le récapitulatif de la
composition des bases de réduction de chaque sous-structure et de chaque méthode est
fourni tableau 2.1.
Les deux autres méthodes sont les réductions utilisant la POD. La première est la mé-
thode hybride de base de condensation TMKL. La deuxième combine les bases TKL pour
construire la base de condensation et couplage globale T(g )KL . Pour chaque sous-structure,
les POMs ont été calculés à partir de 200 réponses obtenues à partir des réponses globales
de la structure complète. Ces dernières sont obtenues à partir d’une base modale contenant
les 61 modes couvrant le domaine [0 ; 900 Hz]. On se reportera au tableau 2.1 pour le nombre
de POMs retenus.
Les résultats obtenus sont présentés figures 2.3 et 2.4 et dans le tableau 2.2. Nous re-
viendrons plus loin sur la signification des courbes correspondant à la légende KLsci. Nous
constatons que les méthodes classiques donnent de bons résultats, mais ceux-ci se dégra-
dent clairement à mesure que la fréquence augmente, contrairement aux méthodes utili-
sant les POMs. En ce qui concerne les erreurs sur les vecteurs propres, les quatre méthodes
finissent par dépasser 1 %, avec des erreurs allant jusqu’à 66 % pour MN. Les méthodes MA
et R donnent des résultats à peu près équivalent qui sont donc difficilement dissociable sur
les figures. À taille égale, la méthode hybride donne des résultats bien meilleurs que pour CB
et MA. Malgré un modèle réduit de 124 ddls, le couplage direct KL conduit à des résultats
très supérieurs. Dans le cas de la méthode hybride, les résultats sont du même ordre que
ceux de la méthode MA ou R. Cependant, le modèle est de taille inférieure. En prenant 99
POMs pour SS1 et 56 pour SS2 afin d’obtenir un modèle réduit comparable à celui obtenu
avec la méthode MA, l’erreur moyenne sur les fréquences passe à 1,7×10−4 % et celle sur les
vecteurs à 3,35×10−2 %.
Considérons désormais l’approche la plus performante, à savoir la technique utilisant la
base TKL. Nous allons discuter des différents aspects spécifiques à cette méthode.
Pour l’obtention des POMs il est nécessaire de calculer m réponses approchées – ou
exactes si le système le permet – de la structure complète. Le premier problème est donc de
fixer a priori le nombre m. Nous ne proposerons pas de critère pour ce choix, mais seulement
des indications. On remarquera que pour un sous-ensemble, le nombre maximal de POMs
calculable est m. La taille des sous-structures à condenser peut donc donner une idée d’un
nombre minimum. Dans notre application, 200 réponses ont été calculées. Pour un nombre
de modes fixé à 62 pour SS1 et SS2, la figure 2.5 montre l’évolution des erreurs moyennes
en fonction de m. Il apparaît qu’à partir d’une centaine d’échantillon, les erreurs ne dimi-
nuent plus beaucoup. Il est difficile de généraliser, mais nous pensons qu’il est inutile de
calculer un grand nombre de réponses. Un maximum de quelques centaines est en général
nécessaire pour obtenir une bonne précision.
Une fois les POMs extraits, se pose la sempiternelle question, combien de modes faut-il
63
Chapitre 2. Aide à la décision en synthèse modale
Tab. 2.1 – Composition des bases de condensation de la plaque raidie (ddls)
TCB TMA TMN TR TMKL TKL
SS1
Modes contraints 120 - - - - -Modes d’attache résiduels - 120 120 120 - -Modes d’attache - - - - 120 -Modes à interface fixe 99 - - - - -Modes à interface libre - 99 - - - -POMs - - - - 62 62
SS2
Modes contraints 120 - - - - -Modes d’attache résiduels - 120 120 120 - -Modes d’attache - - - - 120 -Modes à interface fixe 56 - - - - -Modes à interface libre - 56 - - - -POMs - - - - 62 62
Taille du modèle réduit 275 275 155 155 244 124
Fig. 2.3 – Erreurs relatives sur les fréquences propres de la plaque raidie pour différentes mé-thodes de synthèse modale
Tab. 2.2 – Erreurs relatives moyennes de la plaque raidie
TCB TMA TMN TR TMKL TKL
ǫ f (%) 3,37×10−2 2,41×10−3 9,33×10−2 3,27×10−3 2,25×10−3 4,21×10−11
ǫy (%) 2,82 0,34 6,71 0,37 0,41 2,32×10−9
conserver ? Pour les méthodes classiques, un critère de fréquence de coupure est utilisé la
plupart du temps. Dans le cas des POMs, rappelons que les vecteurs retenus sont souvent les
64
2.1 Utilisation des modes propres orthogonaux en synthèse modale
Fig. 2.4 – Erreurs relatives sur les vecteurs propres de la plaque raidie pour différentes mé-thodes de synthèse modale
Fig. 2.5 – Évolution des erreurs relatives sur les fréquences et vecteurs propres de la plaqueraidie en fonction du nombre de réponses
l premiers modes tels quel∑
i=1λi /
m∑
i=1λi ≥ κ.
Quelle valeur donner à κ ? Le tableau 2.3 contient les valeurs des erreurs moyennes obtenues
en fonction de κ. Nous constatons que dès κ= 0,9999 les résultats sont excellents. La valeur
κ= 0,9999 semble être un bon seuil pour donner une estimation raisonnable du nombre de
modes à conserver. Si la précision n’est pas satisfaisante, il suffit d’augmenter κ d’un « 9 ».
Nous avons vu au paragraphe 2.1.2 que nous pouvons calculer les réponses des sous-
structures de deux façons. Dans notre application, nous avons utilisé l’approche consistant
à partir des réponses approchées du système global. Nous pouvons constater que les résul-
tats sont excellents. Cette analyse requiert les fréquences et vecteurs sur la bande d’analyse
ou au-delà. Si ces données ne sont pas disponibles, l’autre approche est d’utiliser la SCI pour
calculer les réponses de chaque sous-structure. Sur les figures 2.3 et 2.4, les courbes corres-
pondant à la légende KLsci ont été obtenues avec cette méthode. En considérant les POMs
tels que κ= 0,99999, 197 modes pour SS1 et 187 pour SS2 ont été utilisés. Malgré un modèle
65
Chapitre 2. Aide à la décision en synthèse modale
Tab. 2.3 – Erreurs relatives moyennes de la plaque raidie en fonction du nombre de modesretenus
κ= 0,999 κ≥ 0,9999
POMs SS1 61 62POMs SS2 59 62ǫ f 3,40×10−5 4,21×10−11
ǫy 1,07×10−2 2,32×10−9
à 384 ddls, les résultats sont moins bons qu’avec l’autre approche. L’utilisation de la SCI peut
cependant donner de bons résultats sur une bande fréquentielle comportant peu de modes.
Les réponses ont été calculées sur [0 ; 900 Hz]. Avec les mêmes bases, les solutions ont
été recalculées sur [0 ; 1 400 Hz]. La figure 2.6 représente l’évolution des erreurs sur les fré-
quences propres pour les différentes méthodes. Il apparaît clairement que le domaine de va-
lidité de la méthode KL est strictement limité au domaine d’échantillonnage des réponses. La
dégradation est moins brutale pour la méthode hybride, mais elle est tout de même impor-
tante. Les POMs sont optimaux seulement sur la bande fréquentielle où ils ont été calculés.
Avant de réaliser l’analyse, il est donc primordial de déterminer précisément son domaine
d’intérêt.
Fig. 2.6 – Erreurs relatives sur les fréquences propres de la plaque raidie sur [0 ; 1400 Hz]
Comme évoqué paragraphe 2.1.2, il est envisageable de calculer les réponses de la struc-
ture globale avec les modes obtenus par une autre méthode de réduction. Prenons par exem-
ple les solutions propres du modèle réduit par les méthodes CB et MA. Étendons les bases
modales à l’ensemble des ddls pour obtenir Φ(g )m approximation de Φ
(g )m . Les réponses ap-
prochées de l’équation (2.25) sont calculées avec les Φ(g )m des deux méthodes puis les POMs
sont déterminés. La figure 2.7 représente l’évolution des erreurs sur les fréquences propres
sur [0 ; 1 400 Hz] pour CB, MA, KL à partir des solutions de CB (KLCB) et KL à partir de MA
(KLMA). Le nombre de modes constituant les bases est toujours le même. Jusqu’au mode 61,
les solutions de KLCB et CB sont confondues, de même pour KLMA et MA. Au-delà, c’est-
à-dire après le domaine d’échantillonnage, la dégradation de KLCB et KLMA est la même
que celle observée sur la figure 2.6 pour KL. Sur le domaine utile, les bases de réduction de
66
2.1 Utilisation des modes propres orthogonaux en synthèse modale
KLCB et KLMA ont l’avantage d’être plus petites. Il est apparemment possible avec les POMs
de réduire la taille des bases de réduction de n’importe quelle méthode sans en altérer la
précision.
Fig. 2.7 – Erreurs relatives sur les fréquences propres de la plaque raidie pour CB, MA, KLCBet KLMA
Les bases de réduction de KL sont obtenues à partir des modes exacts de la structure
complète. Il est possible d’utiliser ces solutions pour d’autre méthodes de synthèse modale.
Nous nous intéressons ici à la méthode de Martinez. Les modes normaux à interface libre Φek
sont remplacés par la restriction des modes normaux de la structure complète aux ddls des
sous-structures. Nous noterons cette approche MAG. Nous utilisons les 61 premiers modes
propres. Les bases de réduction MAG de SS1 et SS2 contiennent donc 61 modes restreints.
Nous avons reporté sur la figure 2.8 les erreurs sur les fréquences en traits continus et les
erreurs sur les vecteurs propres en traits interrompus pour MA, MAG et KL. Sur le domaine
utile, MAG est plus précis que MA mais se dégrade rapidement en dehors. La méthode KL
reste cependant plus précise.
Fig. 2.8 – Erreurs relatives sur les fréquences et vecteurs propres de la plaque raidie pour MA,MAG, KL
67
Chapitre 2. Aide à la décision en synthèse modale
Condensation robuste Nous introduisons désormais des perturbations localisées con-
cernant la masse volumique et le module d’Young. La zone de SS1 perturbée en raideur est
indiquée en bleu sur la figure 2.2 et les zones de SS1 et SS2 perturbées en masse sont indi-
quées en rouge. Les zones en rouge voient leur module d’Young passer de 2,1×1011 N.m−2 à
1,05×1011 N.m−2, soit une variation de 50 %. La masse volumique de la zone bleue passe de
7 800 kg.m−3 à 23 400 kg.m−3, soit une variation de 200 %. Ces variations ne sont pas justifiées
mais ont pour but d’évaluer l’efficacité de notre approche. La matrice de MAC de la figure 2.9
montre l’impact des modifications introduites. Nous constatons qu’au-delà des six premiers
modes les distances en forme sur les 61 premiers modes sont assez importantes. Les 61
modes du système perturbé couvrent désormais le domaine [0 ; 800 Hz]. Nous considérons
dans ce paragraphe les méthodes CB, MA, MKL et KL. Les bases de réduction du modèle ini-
tial sont enrichies par des résidus tel que décris aux paragraphes 1.3.1 et 2.1.2 pour obtenir
les bases de réduction enrichies TCBE, TMAE, TMKLE et TKLE. Pour choisir le nombre de rési-
dus à utiliser pour chaque sous-structure, nous utilisons le critère∑l
i=1σi /∑m
i=1σi ≥ κ, avec
σi les valeurs singulières de la DVS. κ= 0,9999 pour CB et MA, pour MKL et KL κ= 0,99999.
Les valeurs choisies sont reportées tableau 2.4. Sur les figures 2.10 et 2.11, sont représen-
tées en traits interrompus les erreurs obtenues avec les bases enrichies. Ces dernières sont
comparées à des bases de réduction du modèle non-perturbé dont le nombre de vecteurs
est égal à ceux des bases enrichies. À tailles identiques, nous constatons que les bases enri-
chies conduisent aux meilleurs résultats. Ici, la méthode KLE ne se démarque plus des autres
méthodes. Cependant, avec une précision acceptable, la taille du modèle réduit correspon-
dant est moins importante que pour les autres méthodes. MKLE donne de meilleurs résultats
mais le modèle réduit est plus important. Pour ces deux méthodes, les bases non-enrichies
sont moins précises que pour les méthodes CB et MA. Il apparaît donc que les méthodes KL
et MKL soient moins robustes que CB et MA. Malgré tout, l’enrichissement avec des résidus
permet d’obtenir des résultats convenables.
Fig. 2.9 – Matrice de MAC entre les modes du modèle initial de la plaque raidie et ceux dumodèle perturbé
Pour la condensation déterministe, nous avions formé les bases de réduction TKLCB et
TKLMA, bases calculées à partir des réponses de la structure globale déterminées avec les
modes obtenus par les méthodes CB et MA. L’évolution des erreurs sur les vecteurs propres
68
2.1 Utilisation des modes propres orthogonaux en synthèse modale
Tab. 2.4 – Composition des bases de condensation enrichies de la plaque raidie (ddls)
TCBE TMAE TMKLE TKLE
SS1
Vecteurs initiaux 219 219 182 62Vecteurs résiduels 60 53 24 53
SS2
Vecteurs initiaux 176 176 182 62Vecteurs résiduels 57 70 34 70
Taille du modèle réduit 392 398 302 247
Fig. 2.10 – Erreurs relatives sur les fréquences propres de la plaque raidie avec les bases ini-tiales et robustes
Fig. 2.11 – Erreurs relatives sur les vecteurs propres de la plaque raidie avec les bases initialeset robustes
pour CBE, MAE, KLE, KLCBE et KLMAE est représentée figure 2.12. Pour un nombre égal
de résidus, les erreurs obtenues pour KLCBE et KLMAE sont très proches de celles de KLE,
69
Chapitre 2. Aide à la décision en synthèse modale
voire égales pour KLE et KLCBE. Il est donc intéressant de noter que contrairement au cas
déterministe, utiliser cette approche ne dégrade pas les résultats. Là encore, les bases de
réduction de KLCBE et KLMAE sont plus petites que pour CBE et MAE. La méthode MAE est
cependant plus précise.
Fig. 2.12 – Erreurs relatives sur les vecteurs propres de la plaque raidie pour CBE, MAE, KLE,KLCBE et KLMAE
Structure industrielle
Condensation déterministe La structure présentée figure 2.13 est un moteur d’avion
en condition limite libre-libre. Ce modèle à 39 330 ddls actifs est essentiellement constitué
d’éléments coques à quatre noeuds et d’éléments poutres. Le système est divisée en huit
sous-structures indiquées par les zones colorées sur la figure 2.13 et détaillées figure 2.14.
Dans le détail, la sous-structure SS1 comporte 2 604 ddls dont 288 communs avec SS2, SS2
comporte 1 740 ddls dont 288 communs avec SS1 et 288 avec SS3, SS3 comporte 8 070 ddls
dont 288 communs avec SS2 et 288 avec SS4, SS4 comporte 10 542 ddls dont 288 communs
avec SS3, 288 communs avec SS5 et 288 communs avec SS6, SS5 comporte 4 326 ddls dont
288 communs avec SS4, SS6 comporte 4 038 ddls dont 288 communs avec SS4 et 288 com-
muns avec SS7, SS7 comporte 4 158 ddls dont 288 ddls communs avec SS6 et 60 avec SS8, et
enfin SS8 comporte 5 860 ddls dont 60 communs avec SS7.
La fréquence utile est fixée à fu = 300 Hz. Le domaine fréquentiel contient 64 modes élas-
tiques pour le modèle de référence. La condensation est réalisée avec les méthodes CB, MA,
KL, KLCB et KLMA. Bien qu’elle pourrait être appliquée, la méthode MKL n’est pas considé-
rée pour plus de clarté. Dans les deux premières techniques, le nombre de modes retenus est
égal au nombre de modes dont la fréquence est inférieure ou égale à 2× fu pour les modes à
interface libre et 3× fu pour les modes à interface fixe. Lorsqu’aucun ou trop de modes ne se
trouvaient dans cette bande, le domaine a été élargi ou diminué. Pour les POMs, nous nous
basons sur le critère κ= 0,9999. Ces POMs sont obtenus à partir d’un échantillonnage régu-
lier de 200 réponses. Le récapitulatif de la composition des bases de réduction est fourni ta-
bleau 2.5. À noter que les modes de corps rigide des sous-structures sont compris dans les
modes à interface libre et les POMs.
70
2.1 Utilisation des modes propres orthogonaux en synthèse modale
Fig. 2.13 – Moteur d’avion étudié
(a) (b) (c) (d)
(e) (f) (g)
(h)
Fig. 2.14 – Sous-structures : (a) SS1 , (b) SS2, (c) SS3, (d) SS4 , (e) SS5, (f) SS6,(g) SS7 , (h) SS8
La taille du modèle réduit obtenu avec la dernière méthode est bien inférieure aux autres.
Comme dans l’application précédente, les erreurs relatives sur les fréquences et vecteurs
propres sont calculées et présentées figures 2.15 et 2.16 et tableau 2.6. On remarque que la
méthode KL donne les meilleurs résultats. Nous constatons tableau 2.6 que la méthode MA
71
Chapitre 2. Aide à la décision en synthèse modale
Tab. 2.5 – Composition des bases de condensation du rotor (ddls)
TCB TMA TKL, TKLCB, TKLMA
SS1-SS2-SS3-SS4
Modes contraints 288-576-576-864 - -Modes d’attache résiduels - 288-576-576-864 -Modes à interface fixe 18-6-34-7 - -Modes à interface libre - 26-22-16-24 -POMs - - 57-60-62-70
SS5-SS6-SS7-SS8
Modes contraints 288-576-348-60 - -Modes d’attache résiduels - 288-576-348-60 -Modes à interface fixe 153-3-3-22 - -Modes à interface libre - 166-15-16-28 -POMs - - 70-62-53-49
Taille du modèle réduit 2 034 2 101 483Taux de réduction -94,8 % -94,6 % -98,7 %
possède des résultats comparables en ce qui concerne l’erreur relative moyenne sur les vec-
teurs, mais le modèle réduit associé à KL a l’avantage d’être plus petit, ce qui facilite évidem-
ment son évaluation. Pour CB, le calcul des erreurs a été effectué sur les 63 premiers modes
élastiques, au lieu de 64 pour les autres, cr le dernier mode n’est apparié avec aucun mode de
la structure de référence. L’inconvénient de la méthode KL est qu’elle nécessite la connais-
sance a priori des modes du modèle complet. Si l’on ne possède pas cette information, les
méthodes KLCB et KLMA peuvent être utilisées à partir des données issues de CB ou MA. Les
résultats montrent que les précisions de KLCB et KLMA sont alors les mêmes que CB et MA.
L’avantage est que le modèle réduit est beaucoup plus petit. Nous présentons figures 2.17a
et 2.17b une comparaison des FRFs calculées – pour un point choisi arbitrairement dans la
structure – avec la base de référence et les modes restitués pour CB, MA et KL. Les FRFs as-
sociées à KLCB et KLMA ne sont pas représentées puisque les courbes seraient confondues
avec celles de CB et MA. La figure 2.17c représente les différences par rapport à la réponse
de référence. La moins bonne précision de la FRF associée à CB est due au fait que le 64e
mode obtenu avec cette méthode n’est pas bon. Dans l’ensemble, les résultats associés à la
réduction par POMs sont de qualité supérieure.
Tab. 2.6 – Erreurs relatives moyennes du rotor
TCB TMA TKL TKLCB TKLMA
ǫ f 0,11 2,19×10−3 1,64×10−5 0,10 2×10−3
ǫy 5,42×10−2 1,71×10−3 1,34×10−3 5,24×10−2 2,33×10−3
72
2.1 Utilisation des modes propres orthogonaux en synthèse modale
Fig. 2.15 – Erreurs relatives sur les fréquences propres du moteur pour différentes méthodesde synthèse modale
Fig. 2.16 – Erreurs relatives sur les vecteurs propres du moteur pour différentes méthodes desynthèse modale
73
Chapitre 2. Aide à la décision en synthèse modale
(a)
(b)
(c)
Fig. 2.17 – (a) Comparaison des FRFs ; (b) zoom sur les FRFs ; (c) comparaison des diffé-rences par rapport à la référence
74
2.1 Utilisation des modes propres orthogonaux en synthèse modale
Condensation robuste Des perturbations sur deux sous-structures du rotor sont in-
troduites. SS1 est perturbée en masse dans son ensemble. La masse volumique passe de
4 705 kg.m−3 à 23 525 kg.m−3, soit une variation de 500 %. Les ailettes de SS3 sont elles assou-
plies. Elles voient leur module d’Young passer de 1,15×1011 N.m−2 à 5,75×1010 N.m−2, soit
une variation de 50 %. L’effet des modifications introduites est visible sur la matrice de MAC
de la figure 2.18. Nous nous intéressons à la prédiction des 64 premiers modes élastiques
du système modifié. Ces modes couvrent le domaine [0 ; 271 Hz]. Les bases de réduction
initiales sont enrichies par des résidus statiques pour obtenir les bases de réduction TCBE,
TMAE, TKLE. Nous constatons dans le tableau 2.7 que le nombre de résidus retenus pour KL
est plus important que pour CB et MA. Pour ces deux dernières méthodes, le nombre maxi-
mum de résidus dépend du nombre de vecteurs de la base utilisée pour les former. Pour KL,
le nombre maximum dépend du nombre de réponses échantillonnées. En ce qui concerne le
choix du nombre de résidus, les deux approches ne peuvent donc pas conduire à des quan-
tités comparables. Les 64 modes de la structure complète sont calculés et utilisés pour tracer
les FRFs des figures 2.19a, 2.19b et 2.19c. Les FRFs les plus précises sont obtenues avec MA
et KL. MA donne des résultats un peu plus précis mais KL a toujours l’avantage d’un modèle
condensé beaucoup moins important.
Fig. 2.18 – Matrice de MAC entre les modes du modèle initial du rotor et ceux du modèleperturbé
Tab. 2.7 – Composition des bases de condensation enrichies du rotor (ddls)
TCBE TMAE TKLE
Vecteurs résiduels pour SS1 17 20 46
Vecteurs résiduels pour SS3 30 10 60
Taille du modèle réduit 2 081 2 131 589
75
Chapitre 2. Aide à la décision en synthèse modale
(a)
(b) (c)
Fig. 2.19 – (a) Comparaison des FRFs du système perturbé ; (b) et(c) Zooms sur les FRFs
2.1.4 Conclusion
Les simulations numériques montrent que les POMs peuvent s’appliquer efficacement à
la synthèse modale et s’adaptent à la prédiction du comportement dynamique de structures
soumises à des modifications structurales. Diverses approches ont été proposées.
Dans le cas déterministe, la précision de cette méthode est généralement supérieure aux
méthodes classiques utilisant des bases de Ritz. Cependant, pour l’approche la plus efficace,
l’obtention des réponses fréquentielles nécessite un calcul des modes et vecteurs propres de
la structure complète. Ce problème peut être contourné en utilisant les solutions d’autres
méthodes de synthèse modale. Dans le cadre de la condensation robuste, l’utilisation des
POMs ne permet pas d’obtenir des résultats supérieurs aux autres méthodes. De par l’assem-
blage utilisé, l’avantage de la méthode KL est tout de même que les modèles réduits associés
sont de tailles très inférieures à celles obtenues avec les méthodes de type Craig-Bampton.
Un autre avantage est la connaissance a priori du domaine de validité fréquentielle du
modèle réduit par cette méthode. De plus, le choix des modes composants est simplifié. En
effet, nous savons que les premiers POMs calculés sont toujours les plus importants. Dans
la méthode CB par exemple, certains modes à interface fixe de la base de réduction sont
souvent inutilement inclus. L’optimisation du choix des modes composants est par ailleurs
l’objet des deux prochaines sections.
76
2.2 Qualification des super-éléments
Cette méthode trouvera peut-être son réel intérêt dans la réanalyse de systèmes non-
linéaires où jusqu’à présent les études sur des bases robustes sont limitées à traiter des
structures possédants des non-linéarités localisées. Dans un stade de développement moins
avancés, la méthode proposée a été utilisée dans [66] pour la synthèse modale de telles struc-
tures.
2.2 Qualification des super-éléments
En dynamique des structures, les méthodes de condensation les plus utilisées sont les
méthodes avec assemblage explicite sur les ddls de jonction, telles que les méthodes de
Craig-Bampton ou de Martinez. Le principal objectif de cette section est de présenter des
outils capables de localiser les super-éléments dont la base modale est inadaptée afin d’en-
treprendre des mesures correctives. La méthodologie proposée contient différents indica-
teurs d’aide à la décision et se déroule en trois phases :
– un filtrage des modes normaux peu influents ;
– un localisation des sous-structures mal condensées ;
– un correction des super-éléments déficients.
2.2.1 Filtrage
La sélection des modes composants de la base tronquée des modes à interface fixe est
généralement basée sur un critère empirique de fréquence de coupure. En pratique, cette
fréquence est choisie deux ou trois fois plus grande que la plus grande fréquence d’intérêt
du système complet. Même si cette méthode de sélection a priori donne généralement de
bons résultats, elle conduit à retenir des modes qui n’interviennent pas significativement
dans le comportement dynamique global du système ou à négliger des modes importants
ayant des fréquences supérieures à celle de coupure.
Partant de k modes retenus à partir d’une fréquence de coupure, l’objectif de cette pre-
mière phase est de filtrer les modes des sous-structures qui ont les plus faibles participations
dans les modes globaux. Ceci doit permettre de réduire les temps de calcul mais sans perte
de précision dans la bande d’analyse. À cette fin, nous utilisons deux indicateurs : un in-
dicateur basé sur l’observation de la composition des modes et un indicateur réservé à la
méthode de Craig-Bampton utilisant les masses effectives.
Observation de la composition des modes
La méthode de réduction de Craig-Bampton consiste à représenter le comportement de
la structure globale en effectuant une combinaison linéaire des modes des différentes sous-
structures et à y ajouter la contribution des déplacements aux jonctions. Chaque mode de
chaque sous-structure participe donc différemment à une déformée donnée. Pour chaque
sous-structure, il est possible de comparer la participation d’un mode à celle des autres
modes. Nous allons calculer des taux de participation qui permettent de comparer l’influen-
ce des modes d’une même sous-structure.
77
Chapitre 2. Aide à la décision en synthèse modale
Pour chaque sous-structure (ss), la relation de passage entre le vecteur des coordonnées
physiques y(ss) et les coordonnées généralisées est
y(ss) = T(ss)CB
[y(ss)
jss
q(ss)kss
]
. (2.37)
y(ss)jss
sont les coordonnées physiques des jss ddls de jonction de (ss) et q(ss)kss
sont les coordon-
nées généralisées associées aux kss modes normaux à interface fixe retenus pour construire
T(ss)CB .
Pour la structure complète composée de n super-éléments, la relation s’exprime par
y(c) = T(c)CB
y(tot)jtot
q(1)k1...
q(n)kn
= T(c)
CB q, (2.38)
avec y(tot)jtot
l’ensemble des déplacements aux jonctions.
Soient
p q =
p y(tot)jtot
p q(1)k1
...
p q(n)kn
et p q(ss)
kss=
p q (ss)1...
p q (ss)ν...
p q (ss)kss
. (2.39)
p q est le pe mode du système complet restitué après condensation et p q(ss)kss
les coordonnées
généralisées provenant de la sous-structure ss.
Pour chaque sous-structure (ss), il est possible d’évaluer la participation d’un mode à
interface fixe ν au mode global p q avec l’indicateur défini par
p Iν =
∣∣∣p q (ss)ν
∣∣∣∑kss
v=1
∣∣∣p q (ssv
∣∣∣. (2.40)
Pour une base modale de P vecteurs propres la participation du mode ν aux P vecteurs
propres sera estimée par
Ipartν = max
p∈P
(p Iν
). (2.41)
Masse modale effective
En dynamique des structures, les masses modales effectives peuvent être utilisées pour
sélectionner les modes dont les réactions à une interface rigide sont importantes. Lorsqu’el-
les sont utilisées pour des tests avec excitations à la base [182], l’interface rigide est la base
de la structure où agit l’excitateur et lorsqu’elles sont utilisées dans le cadre de la méthode de
Craig-Bampton [85], l’interface est définie par les ddls de jonction reliant la sous-structure
étudiée avec le reste de la structure.
À partir de l’équation (1.36), nous pouvons obtenir la relation liant le déplacement y j à
78
2.2 Qualification des super-éléments
l’interface et le vecteur des efforts f j correspondant,
f j =(
KcG −ω2
[
McG +
k∑
ν=1
1(ων
ω
)2 −1Lν LT
ν
])
y j . (2.42)
Précisons que Lν est la νe colonne de la matrice des facteurs de participation modale L j k
donnée équation (1.37). Cette relation permet de distinguer deux composantes de la ma-
trice de masse réduite aux ddls de jonction : une matrice de corps rigide relative aux ddls de
jonction McG et une matrice de masse dynamique Mapp
j j– ou matrice de masse apparente – et
obtenue par
Mappj j
=k∑
ν=1
1(ων
ω
)2 −1
(Meff
j j
)ν. (2.43)
Les termes(Meff
j j
)ν= Lν LT
ν sont les matrices de masse modale effective.
De l’équation (2.42), nous constatons que les masses effectives permettent de caractéri-
ser la contribution des différents modes aux forces d’inertie f j générées par les déplacements
aux interfaces y j . De plus, on peut montrer que si k = i , la somme de toutes les masses ef-
fectives estk=i∑
ν=1
(Meff
j j
)ν= Mc
G −Meqj j
, (2.44)
où Meqj j= M j j −M j i M−1
i iMi j est la matrice de masse équivalente aux ddls de jonction. Dans la
pratique Meqj j
est considérée comme nulle. De plus, dans le cadre de la réduction de modèle,
k est très inférieur à i . La matrice résiduelle résultant de la troncature est alors
Mresj j = M j j −
i∑
ν=k+1
(Meff
j j
)ν. (2.45)
L’importance de la masse effective par rapport à la masse de corps rigide constitue le cri-
tère de globalité du mode considéré. En effet, un mode dont la masse effective aux jonctions
est significative devrait favoriser les couplages par transmission d’énergie de déformation
dans les autres sous-structures. Les matrices de masses effectives étant de dimension j × j ,
le concept de masse effective est attaché à une direction de déplacement donnée. Cela si-
gnifie qu’un mode peut avoir une masse effective importante dans une direction et faible
dans une autre. Pour cela, étant donnée une direction a, les termes(Meff
aa
)νde la diagonale
de(Meff
j j
)νsont confrontés aux termes correspondants de Mc
G en utilisant le ratio
(Reff
aa
)ν=
(Meff
aa
)ν
Mcaa
. (2.46)
Dans la pratique, les masses effectives sont calculées pour un noeud auquel les noeuds
d’interface sont reliés par des liaisons rigides. Pour chaque mode ν, nous disposons d’une
matrice(Meff
66
)νde taille 6× 6 correspondant aux trois ddls de translation et aux trois ddls
de rotation. Un mode normal à interface fixe sera donc considéré comme global si au moins
une des valeurs des masses effectives correspondant aux j directions d’excitation représente
au moins 1 % à 10 % de la masse de corps rigide.
Une autre méthode pour évaluer la contribution du mode ν est de calculer le rapport de
79
Chapitre 2. Aide à la décision en synthèse modale
traces [85]
Ieffν =
tr((
Meffj j
)ν)
tr(Mc
G
) . (2.47)
Nous obtenons alors un scalaire représentatif de l’importance au comportement global.
L’utilisation des masses modales effectives doit être prise avec précaution car elle peut
conduire à éliminer des modes qui ne sont pas locaux. En effet, il se peut que le couplage
d’une sous-structure avec le reste de la structure puisse avoir lieu par transmission d’inertie
mais aussi par une importante énergie de déformation à l’interface.
2.2.2 Localisation
Nous avons vu au paragraphe 1.5.2 que les méthodes de localisation de modélisation
consiste à confronter des résultats de calculs numériques à des mesures expérimentales afin
de résoudre par exemple des problèmes de recalage de modèles. La non-concordance des
résultats expérimentaux et des résultats issus de la simulation témoigne alors d’un modèle
imparfait. Si au préalable le modèle a été réparti en sous-structures, la localisation permet-
trait de localiser la ou les super-éléments erronés. La méthode de localisation des erreurs
appliquée ici est basée sur la minimisation des résidus en énergie MDRE développée par
Balmes [10] et dont le principe a été présenté au paragraphe 1.5.2.
Nous utilisons cette démarche dans le cadre de la sous-structuration afin de localiser
les sous-structures condensées dont la base modale a été réduite trop sévèrement. Nous
réalisons en quelque sorte une location des erreurs de condensation.
Précisons tout d’abord quelques notations :
– M et K sont les matrices de masse et de raideur de la structure physique globale ;
– Mc et Kc sont les matrices de masse et de raideur de la structure obtenues par conden-
sation ;
– M(ss) et K(ss) sont les matrices de masse et de raideur de la sous-structure ss du pro-
blème physique.
Les matrices Mc et Kc permettent d’obtenir les solutions propres du système condensé. Les
vecteurs propres obtenus sont ensuite projetés sur les ddls du modèle physique afin obtenir
des vecteurs propres yν ∈ ℜN,1. La localisation de super-éléments défaillants est formulée
par analogie avec la localisation d’erreur de modélisation. Les relations sont présentées ta-
bleau 2.8.
L’étude des énergies résiduelles sert donc à déterminer les sous-structures mal conden-
sées sans avoir à calculer les solutions propres du modèle non condensé.
Pour une meilleur comparaison entre les sous-structures, il est nécessaire de pondérer
les énergies résiduelles. En divisant l’énergie résiduelle de la sous-structure (ss) par l’énergie
résiduelle totale, nous obtenons le critère
Ienrν =
e (ss)ν
yTν K(ss) yν
. (2.48)
De grandes valeurs pour Ienrν indiquent que le modèle réduit possède d’importantes er-
reurs de condensation.
80
2.2 Qualification des super-éléments
Tab. 2.8 – Relations entre la localisation d’erreur de modélisation et la localisation d’erreurde condensation
Erreur de modélisation Erreur de condensation
Critère d’erreur Modélisation CondensationModèle à représenter Structure expérimentale K, MReprésentation K, M Kc , Mc
Cible de la localisation K(el ) K(ss)
Vecteur propre utilisé yν yν
Forces résiduelles ∆fν Zν yν Zν yν
Déplacements résiduels rν K−1∆fν K−1∆fνÉnergie résiduelle rT
ν L(el ) K(el )(L(el )
)Trν rT
ν L(ss) K(ss)(L(ss)
)Trν
Information apportée K(el ) bien ou mal modélisée K(ss) bien ou mal condensée
Le principal inconvénient de cette méthode est qu’elle nécessite l’inversion de la matrice
de raideur du modèle complet. Ce calcul peut être très coûteux pour des modèles de grande
taille.
Bien que ces indicateurs permettent de localiser les super-éléments déficients, ils ne
donnent aucune indication directe sur l’information manquante.
Une propriété intéressante des résidus est apparue : il arrive que certains d’entre eux
aient des géométries proches des déformées des modes manquants. Cette propriété a été
exploitée afin d’identifier l’information manquante et de la réinjecter dans la ou les super-
éléments défaillants en vue de les corriger. C’est l’objet de la section suivante.
2.2.3 Correction
La méthode de correction généralement utilisée consiste à recalculer les super-éléments
erronés avec des bases modales plus étendues. Dans l’approche proposée ici, nous ajoutons
des vecteurs statiques à la base modale des sous-structures. Cette méthode corrige le super-
élément sans avoir à refaire l’analyse modale. L’information réinjectée est issue des calculs
de localisation et compense au mieux l’information manquante.
Dans le cas de la troncature modale, plusieurs modes de rang élevé peuvent manquer.
De plus, c’est bien souvent leurs actions conjuguées qui sont significatives. Le but n’est donc
pas d’apporter une correction à partir du résidu extrait d’un seul mode mais de prendre en
compte le résidu de chaque mode. Chaque mode de la structure globale utilisé pour effec-
tuer la localisation permet de calculer un vecteur résiduel. Nous calculons ensuite quelques
vecteurs représentatifs de l’ensemble.
Soit R = [r1 r2 · · · ] la base des vecteurs résiduels obtenus pendant l’étape de localisation.
Pour la méthode de Craig-Bampton ou Martinez, nous pouvons supposer que les déplace-
ments statiques sont déjà correctement représentés. Il convient alors de considérer
R = R−B R j , (2.49)
où R j est la restriction de R aux ddls de jonction. B est la base de modes à interface fixe pour
Craig-Bampton et la base de modes d’attache résiduels pour Martinez.
81
Chapitre 2. Aide à la décision en synthèse modale
La base obtenue n’est pas nécessairement orthogonale puisque chaque mode d’une sous-
structure peut participer à différents modes de la structure globale. Par conséquent, ils peu-
vent apparaître dans plusieurs résidus. Il est donc préférable d’effectuer une décomposition
en valeurs singulières de la matrice des résidus. Nous nous contentons ensuite d’extraire les
vecteurs singuliers de gauche correspondant aux m plus grandes valeurs singulières.
Une fois l’information manquante isolée, nous la réinjectons dans le modèle. Elle est
associée aux vecteurs de la base modale en tant que base de vecteurs statiques. Une nouvelle
base enrichie remplaçant la base de transformation initiale TCB est alors définie par
TCBE =[
TCB U1 · · · Um
]. (2.50)
2.2.4 Application au moteur d’avion
La structure présentée figure 2.13 au paragraphe 2.1.3 est utilisée pour illustrer la métho-
dologie. La bande de fréquence d’analyse du modèle complet est fixée à [0 ; 300 Hz]. Dans
cette application, seules les sous-structures SS1 à SS5 sont assemblées. Le MEF possède alors
28 590 ddls. La sous-structure SS4 ne sera pas réduite mais jouera le rôle de structure rési-
duelle. Il est en effet souvent nécessaire de ne pas réduire une sous-structure afin que celle-ci
puisse servir de support aux éléments que l’on ne souhaite pas condenser. Pour déterminer
le nombre de modes à retenir pour les super-éléments de chaque sous-structure, nous uti-
lisons le critère consistant à inclure les modes contenus dans une bande fréquentielle deux
fois plus grande que la bande d’étude du modèle complet. Après une analyse de chaque
sous-structure sur [0 ; 600 Hz], 8 modes sont retenus pour SS1, 4 modes pour SS2, 4 modes
pour SS3 et 153 modes pour SS5. Le modèle réduit final est alors de 8 157 ddls.
Filtrage des modes
L’analyse modale du modèle réduit est réalisée. Nous appliquons ensuite à chaque sous-
structure la procédure de filtrage décrite paragraphe 2.2.1 pour éliminer les modes ne par-
ticipant pas au comportement dynamique global de la structure assemblée. Les résultats
obtenus sont présentés figures 2.20, 2.21, 2.22 et 2.23. Il apparaît que les deux indicateurs ne
sont pas toujours en accord, un compromis est ainsi fait mais toujours en privilégiant l’indi-
cateur Ipartν calculé à partir de l’observation de la composition des modes. En se basant sur
ces critères, nous décidons de conserver 4 modes pour SS1 – modes 1 à 4 –, tous les modes
pour SS2, 3 modes pour SS3 – modes 1 à 3 – et 47 modes pour SS5 – modes 1 à 42, 46, 47
et 87 à 89. Même si des modes « utiles » sont éliminés, l’information manquante sera res-
tituée grâce à l’étape de correction présentée paragraphe 2.2.3. Le nouveau modèle réduit
comporte désormais de 8 046 ddls.
Sur la matrice de MAC, donnée figure 2.24a, entre les modes du modèle de référence
et ceux du modèle réduit par la méthode de Craig-Bampton avant filtrage, nous pouvons
constater que le modèle réduit est loin d’être exact. Les super-éléments auront besoin d’être
enrichis. Pour nous assurer que nous n’avons pas éliminé d’informations importantes, nous
avons comparé les modèles avant et après filtrage. La figure 2.24b montre que malgré l’éli-
mination de 110 modes sur 169, aucune détérioration n’est à signaler quant à la précision
des déformées modales.
82
2.2 Qualification des super-éléments
(a) (b)
Fig. 2.20 – Résultats du filtrage pour SS1 : (a) Ipartν , (b) Ieff
ν
(a) (b)
Fig. 2.21 – Résultats du filtrage pour SS2 : (a) Ipartν , (b) Ieff
ν
(a) (b)
Fig. 2.22 – Résultats du filtrage pour SS3 : (a) Ipartν , (b) Ieff
ν
83
Chapitre 2. Aide à la décision en synthèse modale
(a) (b)
Fig. 2.23 – Résultats du filtrage pour SS5 : (a) Ipartν , (b) Ieff
ν
(a) (b)
Fig. 2.24 – (a) Matrice de MAC entre les modes de la référence et ceux obtenus avec CB avantfiltrage, (b) Matrice de MAC entre les modes du modèle condensé avant et aprèsfiltrage
84
2.2 Qualification des super-éléments
Localisation des sous-structures défaillantes
La localisation nous permet d’identifier les sous-structures qui entraînent les plus fortes
erreurs dans le modèle global condensé. Dans le cas présent, nous identifions SS1 comme
étant à l’origine des principales erreurs du modèle global. Le rapport énergétique de l’équa-
tion (2.48) est de l’ordre de 10−2 pour plusieurs modes de cette structure et à une valeur
maximale de 0,0856. Ce résultat est significatif puisqu’il correspond à une erreur de l’ordre
de 8,56 %. Les erreurs dans les autres structures sont inférieures à 0,5 %.
Fig. 2.25 – Localisation des erreurs du modèle condensé après filtrage
Correction
Pour corriger SS1, nous utilisons les vecteurs résiduels issus de la localisation par éner-
gies résiduelles. Nous les réinjectons en tant que vecteurs statiques dans sa base de modes
aux jonctions bloquées. La décomposition en valeurs singulières permet de choisir les vec-
teurs à réinjecter. Les deux premiers résidus sont conservés. La figure 2.26 montre l’aspect
des déformations des résidus retenus. Nous avons aussi comparé la base modale de la sous-
structure aux résidus. Ces derniers correspondent à deux modes tronqués : les modes 11
et 12. Les fréquences associées à ces modes doubles sont respectivement de 664,153 Hz et
664,157 Hz. Comme la fréquence de coupure est 600 Hz, ils n’avaient donc pas été pris en
compte.
Fig. 2.26 – Déformées des résidus de SS1
85
Chapitre 2. Aide à la décision en synthèse modale
Comparaison au modèle de référence
Suite à la correction de SS1, nous avons effectué l’analyse modale du modèle optimisé
sur la bande de fréquence [0 ; 300 Hz]. Nous obtenons 63 modes. La localisation par éner-
gies résiduelles est réalisée sur le modèle optimisé pour qualifier la qualité du modèle (fi-
gure 2.27). Les rapports d’énergie sont plus faibles que lors de la première localisation. Le
plus important est de 0,0173 soit 1,73 %. Nous pouvons donc considérer que le modèle ob-
tenu est valide dans la bande de fréquence d’étude.
Fig. 2.27 – Localisation d’erreur après correction
La matrice de MAC 2.24a indique que le modèle condensé initial n’est pas assez prédictif.
Plusieurs modes ne sont pas appariés. La matrice 2.28 indique que le modèle optimisé avec
des bases modales réduites et quelques vecteurs statiques corrèle correctement le MEF de
référence. Tous les modes sont désormais appariés.
Fig. 2.28 – Matrice de MAC après optimisation
Seconde analyse
Pour tester la capacité de la méthode à compenser l’élimination de modes importants,
nous effectuons une seconde analyse, où durant l’étape de filtrage nous retirons les mêmes
86
2.2 Qualification des super-éléments
modes plus les modes 87 à 89 pour SS5. Ainsi, trois modes qui semblaient globaux sont
maintenant manquants. La figure 2.29 montre les erreurs de localisation. Comme attendu les
super-éléments SS1 et SS5 sont identifiés comme erronés. Nous améliorons donc les bases
SS1 et SS5 avec des vecteurs résiduels. Après observation des valeurs singulières, deux vec-
teurs sont retenus pour SS1 et SS5. Pour SS1, ces résidus sont les mêmes que précédemment.
Une comparaison des deux résidus de SS5 avec les modes 87, 88 et 89 est présentée figu-
re 2.30. Nous constatons que le deuxième résidu corrèle avec le mode 89 et que le premier
résidu appartient au sous-espace formé par les vecteurs propres des deux modes doubles 87
et 88. L’information utile est donc retrouvée avec l’étape de correction. L’analyse modale du
nouveau modèle donne les mêmes résultats que ceux montrés figure 2.28.
Fig. 2.29 – Localisation d’erreur après filtrage trop sévère
Fig. 2.30 – Comparaison des modes 87, 88 et 89 de SS5 avec les résidus
2.2.5 Conclusion
Le besoin initialement identifié était de développer des outils capables de localiser les
super-éléments défaillants d’un système sous-structuré afin d’entreprendre des mesures cor-
rectives. Dans la méthode proposée, des énergies résiduelles sont calculées pour chaque
87
Chapitre 2. Aide à la décision en synthèse modale
sous-structure à partir des modes complets issus de la réduction. Plus l’énergie résiduelle
est importante, plus l’erreur sur le mode observé est grande.
Nous avons ensuite étudié la possibilité de corriger les super-éléments identifiées com-
me erronés. La mesure de correction la plus naturelle est de recalculer les sous-structures
concernées, mais déterminer a priori le nombre de modes à retenir n’est pas aisé. Nous
avons montré qu’il est possible d’utiliser les résidus des méthodes de localisation et de les
réinjecter, après quelques modifications, dans les bases modales des sous-structures. La mé-
thode de correction proposée est efficace et s’applique à différentes méthodes de synthèse
modale.
En étape préalable, nous avons également proposé des méthodes de filtrage des modes
constituant les bases modales des sous-structures d’un modèle. Ces filtrages permettent
d’identifier les modes ne participant pas à un comportement global dans la bande de fré-
quences d’étude.
La méthodologie a été appliquée à une réduction de Craig-Bampton mais peut égale-
ment s’appliquer à d’autres méthodes du même type. Cette approche s’est avérée aussi effi-
cace pour la méthode de Martinez.
2.3 Choix optimal des degrés de liberté maîtres
Nous avons présenté paragraphe 1.2.4 la formulation de la réduction de Guyan et précisé
que le domaine de validité du modèle condensé dépend essentiellement du choix des ddls
maîtres retenus. Ce problème concerne également la méthode de Craig-Bampton puisque
celle-ci utilise une base de transformation constituée de modes contraints enrichis par des
modes normaux à interface fixe.
Parmi les premiers auteurs à proposer des indicateurs de sélection des ddls maîtres, Levy
et Guyan [115] recommandent les ddls ayant une grande amplitudes de déplacement dans la
bande fréquentielle utile ou les ddls ayant une masse importante. Ramsden et Stocker [167]
sélectionnent les ddls associés à de grandes masses et raisonnablement flexibles vis-à-vis
des autres ddls. Ces critères sont considérés comme étant inadéquats par Downs [49] puis-
qu’ils demandent une connaissance a priori de la solution, c’est à dire qu’il est nécessaire
de connaître une sous-base modale du système où les ddls maîtres sont fixés. Il propose de
restreindre le choix aux ddls de translations et, dans le cas de structures complexes, de sé-
lectionner les ddls situés dans les régions les plus flexibles. Popplewed et al. [163] présentent
un critère quantitatif reposant sur la sélection des ddls maîtres dans les zones à fortes éner-
gies de déformations et contribuant fortement à l’énergie cinétique totale. Dans les travaux
de Henshell et Ong [72] ou encore de Shah et Raymund [184], sont conservés les ddls dont le
ratio ki i /mi i des termes diagonaux des matrices de raideur et de masse est minimum. Ce cri-
tère est bien adapté aux structures dont la géométrie et les caractéristiques mécaniques sont
relativement uniformes. Si la distribution en masse est irrégulière, le risque est de concentrer
les ddls maîtres dans les régions à fortes masses. Dans le cadre de la sous-structuration, Bou-
haddi et Fillod [25] proposent une méthode de sélection a priori basée sur les propositions
de Levy et Downs, c’est-à-dire que sont retenus les ddls internes de translations ayant les
plus grands déplacements. La sélection est faite ddl par ddl avec une procédure exploitant à
chaque pas, une réanalyse approchée de chaque sous-structure.
Pour finir, soulignons que la décomposition QR permet de sélectionner efficacement et à
88
2.3 Choix optimal des degrés de liberté maîtres
moindre coup les ddls maîtres. Lallement et Ramanitranja [110, 166] utilisent cette méthode
pour obtenir une matrice de Guyan employée lors d’une sélection des positions d’observa-
tion d’une structure lors d’essais dynamiques permettant de minimiser les erreurs dues à
l’expansion des réponses mesurées. La procédure s’adapte aussi à la sous-structuration et
se déroule comme suit. Les ddls candidats à la sélection sont les ddls internes de transla-
tions. Nous avons en effet constaté que la procédure est plus efficace lorsque seuls les ddls
de translations sont considérés. Ceci correspond par ailleurs à la proposition de Downs. Soit
Φf
ila base complète des modes à interface fixe. Soit c le nombre de ddls candidats et m
le nombre de ddls à retenir, nous nous intéressons alors à Φf
ic m∈ ℜc×m , base tronquée des
modes à interface fixe restreinte aux ddls candidats. Notons que c et m doivent être tels que
c > m. La décomposition QR porte sur la transposée de Φf
ic met conduit à la factorisation [65]
(Φ
f
ic m
)TΠ= Q R. (2.51)
Q est une matrice orthogonale m ×m, R est une restriction d’une matrice triangulaire supé-
rieure m ×c dont les valeurs absolues des termes diagonaux sont décroissantes et Π est une
matrice de permutation c×c des colonnes de(Φ
f
ic m
)T. Cette matrice de permutation localise
les colonnes les plus indépendantes. Les m premiers colonnes de cette matrice indiquent les
m ddls maîtres internes à retenir.
Le domaine de validité d’un modèle réduit par la méthode de Guyan est limité aux basses
fréquences. Ce domaine de validité fréquentiel peut être obtenu à l’aide de la résolution pour
chaque sous-structure du problème aux valeurs propres du système restreint aux ddls es-
claves (Kss −ω2
ν Mss
)ys = 0. (2.52)
Wright et Miles [206] et Bouhaddi et Fillod [25] estiment que le modèle réduit donne des
résultats acceptables dans la bande fréquentielle [0 ; fcmin /3], où fcmin correspond à la plus
petite des premières fréquences propres obtenues pour chaque sous-structure.
Nous proposons dans cette section une méthode de sélection des ddls maîtres basée sur
l’utilisation d’un algorithme génétique – AG – nous permettant de trouver une famille opti-
male de ddls maîtres, ces ddls étant choisis de manière à maximiser la fréquence de coupure
fcmin .
2.3.1 Méthode d’optimisation proposée
Nous devons résoudre un problème d’optimisation où les variables sont les ddls maîtres
dont le nombre est fixé a priori. Pour chaque sous-structure, la fonction objectif à minimiser
est (− f ic ), première fréquence propre du système esclave (2.52) associé à la configuration des
ddls maîtres d’une sous-structure i . On peut aussi envisager de minimiser | fcmin −3× fmax|,avec fcmin = min( f 1
c , . . . , f ic , . . .) et fmax la borne supérieure du domaine de validité souhaitée
pour le système réduit complet.
Un algorithme génétique est utilisé à cet effet [142] puisqu’il s’agit d’une méthode d’op-
timisation efficace pour traiter des problèmes à variables discrètes. L’inconvénient est que,
comme dans beaucoup de problèmes d’optimisation, un nombre important d’évaluations
89
Chapitre 2. Aide à la décision en synthèse modale
de la fonction objectif est nécessaire. Nous avons d’abord tenté de coupler cet algorithme
avec une méthode de réanalyse approchée afin de prédire la première fréquence propre en
fonction de la position de ddls internes bloqués. Pour d’autres problèmes, ce type de cou-
plage a été utilisé dans des travaux tels que [79, 93, 192]. Ait Brik [2, 3] utilise notamment
les PMC dans des problèmes d’optimisation multi-objectifs utilisant un algorithme NSGA –
Non Sorting Genetic Algorithm. Quel que soit le type de métamodèle – polynômes, PMC, kri-
geage, etc. – la précision du modèle approché n’a jamais été suffisante pour conduire à des
résultats corrects. L’objectif a alors été de minimiser le temps de recherche de l’AG. Pour cela,
plutôt qu’une population initiale aléatoire, nous utilisons les solutions obtenues à l’aide de
la méthode QR comme point de départ de l’algorithme. Par exemple, si l’on choisit d’utiliser
npop populations initiales et que m ddls internes sont recherchés, la première population
est constituée des ddls indiqués par les m premières colonnes de Π, la deuxième par les co-
lonnes 1 et 3 à m+1, et ainsi de suite jusqu’à construire npop populations. Ceci permet d’avoir
des populations variées mais dont un certain nombre conduisent à de bonnes solutions. La
convergence de l’algorithme vers une bonne solution est alors grandement améliorée. No-
tons aussi que les ddls concernés pour la recherche sont les ddls internes de translations.
Pour initialiser l’AG, notre choix s’est porté sur la décomposition QR car les résultats se
sont avérés bien meilleurs que les autres méthodes « simples ». Considérons dès maintenant
le système illustré figure 2.31. Cette structure libre est composée de trois sous-structures
notées SS1, SS2 et SS3, assemblées sur les mêmes ddls de jonction. Une modélisation avec
des éléments coques à 6 ddls par noeud conduit à MEF complet à 4 272 ddls répartis en
1 050 ddls internes pour SS1, 792 ddls internes pour SS2, 2 280 ddls internes pour SS3 et
150 ddls de jonction. Les valeurs des premières fréquences propres f ic des différentes sous-
structures bloquées aux ddls contraints et maîtres sont reportées dans le tableau 2.9. Quinze
ddls maîtres internes ont été recherchés parmi les ddls de translations internes par les ap-
proches ki i /mi i et QR. La décomposition QR surpasse l’autre méthode pourtant très utilisée.
Nous continuons dans la section suivante l’analyse de cette structure.
Fig. 2.31 – Équerre divisée en trois sous-structures
90
2.3 Choix optimal des degrés de liberté maîtres
Tab. 2.9 – Comparaison de la première fréquence propre obtenue pour 15 ddls maîtres in-ternes
ki i /mi i QR
SS1 1 544,5 Hz 2 631,9 HzSS2 794,5 Hz 7 296,6 HzSS3 479,3 Hz 1 111,8 Hz
2.3.2 Application
Nous nous intéressons ici à la condensation des sous-structures du système de plaques
assemblées en formes d’équerre présenté figure 2.31 à partir de la seule transformation de
Guyan. Nous souhaitons un modèle réduit prédictif pour les dix premiers modes, soit une
bande fréquentielle allant jusqu’à environ 850 Hz. Pour déterminer le nombre de ddls maî-
tres à retenir, nous réalisons, en partant d’un seul ddl, des analyses QR en augmentant à
chaque pas d’un ddl jusqu’à 2 800 Hz. Les évolutions des solutions obtenues sont illustrées
figure 2.32. Nous remarquons que bien qu’irrégulière la fréquence augmente globalement
avec le nombre de ddls. À partir de ces résultats, nous choisissons de rechercher 15 ddls
maîtres internes pour SS1, 3 pour SS2 et 30 pour SS3.
Fig. 2.32 – Évolution des solutions obtenues avec la décomposition QR
Parmi les populations initiales construites à partir de la matrice de permutation de la dé-
composition QR, les meilleures premières fréquences propres du système esclave sont res-
pectivement 2 631,9 Hz pour SS1, 2 662,6 Hz pour SS2 et 2 752,87 Hz pour SS3. À ce stade
de la sélection, le modèle réduit serait théoriquement prédictif jusqu’à 2 631,9/3= 877,3 Hz.
Examinons si l’AG permet d’améliorer les résultats sans augmenter le nombre de ddls.
L’AG est paramétré avec 20 individus par génération, une probabilité de croisement de
0,8 et une probabilité de mutation de 0,05. Pour chaque sous-structure, la fonction à mi-
nimiser est (− f ic ). Les évolutions de min(− f i
c ) en fonction du nombre de générations sont
présentées figure 2.33. Les fréquences f ic obtenues avant et après optimisation sont repor-
tées tableau 2.10. Nous constatons une forte amélioration pour SS1 et une augmentation
de l’ordre de 200 Hz pour SS2 et SS3. Malheureusement, comme le domaine de validité est
gouverné par fcmin = min( f SS1c , f SS2
c , f SS3c ), la forte augmentation de f SS1
c n’a que peu d’effet
91
Chapitre 2. Aide à la décision en synthèse modale
sur l’extension du domaine validité. Après optimisation, nous avons fcmin = 2 821,6 Hz, donc
le domaine utile du modèle réduit passe de 2 631,9/3 = 877,3 Hz à 2 821,6/3 = 940,5 Hz.
La « borne » fcmin/3 n’étant évidemment par stricte, le domaine de validité n’est pas étendu
même après cette optimisation. Le tableau 2.11 confirme ceci.
(a) (b)
(c)
Fig. 2.33 – Évolutions des solutions de l’AG pour : (a) SS1 , (b) SS2, (c) SS3
Tab. 2.10 – f ic avant et après optimisation par l’AG
Avant Après
SS1 (15 ddls internes) 2 631,9 Hz 3 458,3 HzSS2 (5 ddls internes) 2 662,6 Hz 2 821,6 HzSS3 (30 ddls internes) 2 752,9 Hz 3 022,1 Hz
La réduction de Guyan est ensuite réalisé sur les ddls maîtres sélectionnés. Le tableau 2.11
permet de comparer les solutions propres obtenues avec le modèle exact et réduit pour les
onze premières fréquences non nulles. Nous constatons que le domaine de validité n’a pas
augmenté après optimisation mais que par contre le modèle réduit après optimisation est
légèrement plus précis. Au vu des résultats de cet exemple, le coût de calcul de l’AG – en-
viron deux heures – ne semble pas vraiment justifié. Cependant, nous observons qu’il est
possible d’améliorer les résultats de la décomposition QR avec un AG.
92
2.3 Choix optimal des degrés de liberté maîtres
Tab. 2.11 – Comparaison de la précision de « Guyan QR » et de « Guyan AG »
Modes Fréquence Exact Guyan QR Guyan AG
ǫ f ǫy MACy ǫ f ǫy MACy
7 151,83 0,065 0,006 99,99 0,039 0,004 99,998 263,86 0,232 0,015 99,97 0,176 0,012 99,989 325,45 0,298 0,018 99,96 0,131 0,010 99,99
10 342,45 0,252 0,015 99,97 0,181 0,012 99,9811 535,61 0,623 0,029 99,91 0,653 0,031 99,9012 579,36 0,717 0,045 99,80 0,649 0,031 99,9013 652,07 1,491 0,069 99,52 0,794 0,046 99,7814 664,83 0,751 0,043 99,81 0,727 0,045 99,7915 732,16 1,156 0,060 99,63 0,765 0,038 99,8516 840,35 1,562 0,072 99,48 1,029 0,055 99,6917 935,04 1,516 0,071 99,50 2,073 0,096 99,08
2.3.3 Conclusion
Nous avons proposé dans cette section une méthodologie consistant à optimiser le choix
des ddls maîtres de la condensation de Guyan. Parmi les méthodes simples permettant de
choisir judicieusement ces ddls, la décomposition QR réalisée sur la base modale réduite
aux ddls de translations internes a montré la plus grande efficacité. Bien que déjà excellents,
nous avons montré qu’il est possible d’améliorer ces résultats en utilisant une méthode d’op-
timisation permettant de travailler avec des variables discrètes. L’approche AG a été considé-
rée dans ce travail. L’exemple proposé utilise la simple condensation de Guyan, mais la mé-
thode peut évidemment être appliquée à Craig-Bampton. La méthodologie concerne aussi
la condensation sans sous-structuration.
93
Chapitre 3Aide à la décision pour l’identification et la
planification d’essais
Sommaire3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2 Identification paramétrique avec données incertaines . . . . . . . . . . . . . 97
3.2.1 Théorie générale des problèmes inverses . . . . . . . . . . . . . . . . . . 97
3.2.2 Analyse de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.2.3 Remarques sur la convergence . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.4 Utilisation des métamodèles . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.2.5 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.3 Planification d’essais pour le gain d’informations . . . . . . . . . . . . . . . . 113
3.3.1 Plan d’expérience bayésien . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.3.2 Traitement numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.3.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Nous présentons dans ce chapitre des techniques permettant de faciliter la résolution de
problèmes inverses. Dans un premier temps, la formulation du problème inverse utilisée est
présentée puis employée pour l’identification paramétrique. Dans un deuxième temps, la
planification d’essais en vue d’un gain d’information sur les paramètres d’intérêt est abor-
dée. Pour cela, nous proposons d’utiliser les plans d’expérience bayésiens.
95
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
3.1 Introduction
Le comportement de structures mécaniques réelles peut être étudié en détail via des si-
mulations basées sur un modèle numérique de la structure considérée. Cependant, la cré-
dibilité de ces résultats doit être établie au préalable et éventuellement être améliorée en
utilisant des mesures expérimentales sur le système réel de façon à valider le modèle pour
une application spécifique. Si les prédictions du modèle sont significativement différentes
de celles observées sur la structure réelle, il est nécessaire d’essayer de localiser et de com-
prendre ce qui est mal représenté dans le modèle pour ensuite essayer de le corriger. La
première étape consiste donc à localiser les erreurs de modélisation et/ou à déterminer les
paramètres influents. Différentes méthodes ont été présentées dans le premier chapitre de
ce mémoire afin de déterminer un ensemble de paramètres influents. Ensuite, nous sommes
face à un problème inverse, où étant données des mesures issues par exemple de l’analyse
modale expérimentale, nous cherchons une meilleure estimation des valeurs des paramètres
du modèle. Ces mesures expérimentales contiennent en général des incertitudes dues, par
exemple, aux conditions environnementales, à la précision des instruments de mesures ou
bien à l’expérimentateur lui-même.
Nous avons précisé dans l’introduction générale que la structure du modèle peut être
déterministe ou stochastique. Nous nous intéressons ici aux modèles dont la structure est
déterministe. La même distinction peut être faite en ce qui concerne la résolution du pro-
blème inverse. Nous ferons ainsi la différence entre :
– le problème inverse déterministe où les paramètres du modèle sont ajustés afin de
rendre les prédictions du modèle en accord avec les mesures expérimentales. On re-
trouve ici les méthodes classiques de recalage de modèle dont le principe repose en
général sur la minimisation d’une fonction coût. Nous discuterons un peu plus en dé-
tails de ces méthodes en section 4.2 ;
– le problème inverse probabiliste où l’on cherche à identifier une distribution de pro-
babilité sur les paramètres du modèle.
Bien que les méthodes de recalage déterministe puissent prendre en compte les incer-
titudes expérimentales, en appliquant par exemple un coefficient de pondération sur les
termes de la fonction coût [193] ou en rajoutant dans la fonction coût un terme de régu-
larisation [1, 129], l’approche probabiliste sera utilisée dans cette étude puisqu’elle nous
semble plus adaptée à l’identification dans un environnement incertain. L’approche pro-
babiliste du problème inverse en mécanique est par ailleurs un axe de recherche très ac-
tuel [15, 57, 88, 130, 150, 157].
Une formulation probabiliste sur les données et les paramètres du modèle est donc né-
cessaire. Dans cette étude, nous utilisons la théorie générale des problèmes inverses dé-
veloppée par Tarantola [196]. Cette théorie n’est pas strictement basée sur le théorème de
Bayes mais sur la notion de conjonction d’état d’information. L’information a priori sur les
paramètres du modèle, l’information expérimentale mais aussi l’information sur la théorie
sont combinées pour obtenir un densité de probabilité a posteriori sur les données et sur les
paramètres du modèle. Le résultat de l’analyse sera donc une densité de probabilité sur ces
paramètres. La philosophie générale de la résolution du problème inverse choisie est illus-
trée par la figure 3.1 tirée de [177].
96
3.2 Identification paramétrique avec données incertaines
Modèleréel m
Donnéesobservables d
ProbabilitéP(m)
Décisions
Autresconnaissances
Problème
direct
Problèmeinverse
Fig. 3.1 – Problème inverse et prise de décision
Puisque nous avons besoin de données expérimentales et que les essais expérimentaux
peuvent coûter chers, il est important d’évaluer a priori quels tests seraient les plus utiles,
c’est-à-dire, les plus informatifs. Comme nous l’avons déjà évoqué, les mesures sont sou-
vent bruitées. Par conséquent, nous devons résoudre deux problèmes, à savoir, concevoir
des expérimentations informatives et prendre en compte les incertitudes expérimentales.
Proposés à l’origine par Lindley [118], les plans d’expérience bayésiens ou Bayesian ex-
perimental design (BED), offrent un cadre pour résoudre notre problème. En effet, le but des
BED est de maximiser le gain d’information d’une expérience dont les résultats sont décrits
par une fonction de densité de probabilité. Une fonction d’utilité décrivant le but de l’ex-
périence, en fait le gain d’information, est définie, et nous cherchons l’expérience maximi-
sant cette fonction d’utilité. La connaissance a priori sur les paramètres est combinée avec
la densité de probabilité des sorties du test via le théorème de Bayes [13] pour obtenir une
densité a posteriori sur les paramètres. Classiquement, la fonction d’utilité utilise une me-
sure d’information telles que l’entropie de Shannon [185] ou bien la distance de Kullback-
Leibler [104]. Plus de généralités sur les BED peuvent être trouvées dans [201]. Les BED ont
été appliqués dans divers domaines, comme la géophysique [199], la physique nucléaire [55]
ou encore l’économétrie [128]. L’utilisation des BED dans la cadre de la planification d’essais
dynamiques est l’objet de la seconde section.
3.2 Identification paramétrique avec données incertaines
3.2.1 Théorie générale des problèmes inverses
Nous entendons par problème inverse la démarche qui consiste à identifier des para-
mètres caractéristiques m d’un système physique à partir de mesures d effectuées sur ce
système. Nous adoptons dans cette étude la formulation des problèmes inverses dévelop-
pée par Tarantola depuis une vingtaine d’année [196]. Bien que principalement développée
autour de problèmes géophysiques, cette formulation s’applique à tous les systèmes phy-
97
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
siques en général. Habituellement, la vision probabiliste des problèmes inverses est une vi-
sion bayésienne basée sur les probabilités conditionnelles. Si P(m) est la densité de probabi-
lité a priori sur les paramètres m, si P(d|m) est la probabilité conditionnelle de d sachant m
alors la probabilité conditionnelle a posteriori de m sachant d est donnée selon le théorème
de Bayes [13] par
P(m|d) =P(m)P(d|m)∫
M
P(m)P(d|m)dm=
P(m)P(d|m)
P(d). (3.1)
Dans un contexte expérimental, P(d|m) décrit les incertitudes sur les données observées.
P(d|m) est plus généralement appelée fonction de vraisemblance – likelihood function – et
mesure la distance entre les données réelles et les données réellement observées.
Tarantola montre dans ses travaux que cette approche conventionnelle qui consiste à uti-
liser les densités de probabilités conditionnelles peut conduire à certaines difficultés notam-
ment lorsque l’on travaille dans des espaces non-linéaires. Il a donc développé une notion
plus générale basée sur la notion de conjonction de probabilités où le théorème de Bayes ap-
paraît comme un cas particulier. Cette formulation peut être vue comme une adaptation de
la théorie mathématique aux problèmes de la physique [160]. Ajoutons que Tarantola [197]
juge préférable de ne pas déduire les modèles à partir des observations mais plutôt d’inven-
ter un ensemble de modèles à partir de son intuition ou de ses connaissances a priori et
d’utiliser les observations pour écarter les modèles non acceptables.
Nous n’entrerons pas ici dans les détails de la théorie mais nous exposerons les éléments
s’appliquant à notre étude. Les notations choisies dans cette présentation sont fortement
inspirées de celles utilisées par Tarantola.
Supposons que nous soyons en mesure de modéliser un système mécanique par un mo-
dèle mathématique. Dans notre cas, ce modèle sera un MEF. Soit m = m1,m2, . . . ,mnm ∈M
un ensemble de nm paramètres mk décrivant le MEF. Soit d = d1,d2, . . . ,dnd ∈ D un en-
semble de nd données observables dk . Ces données observables sont les mesures que l’on
envisage de réaliser expérimentalement mais qui pourront aussi être simulées par un MEF
de référence. x = d,m = d1, . . . ,dnd,m1, . . . ,mnm ∈ X = D ×M est l’ensemble de tous ces
paramètres.
Le problème direct, c’est-à-dire l’application reliant les variables d’entrées m aux va-
riables de sorties d peut être exprimé par
d = g(m). (3.2)
L’opérateur direct g(·) représente le modèle mathématique du système étudié. Dans notre
contexte, g(·) est l’analyse modale du MEF modélisant le système physique.
Comme dans le problème inverse bayésien classique, nous traduisons la connaissance a
priori sur m par une densité a prioriρM (m) et les données bruitées mesurées par une densité
ρD(d). Cependant, une incertitude supplémentaire peut être prise en compte. En effet, le
modèle représenté par g(·) peut ne pas être parfait puisque le processus de modélisation
peut ne pas représenter des propriétés du système. Par conséquent, il apparaît nécessaire de
décrire les incertitudes de modélisation. Ainsi, la densité Θ(d,m) représente les incertitudes
sur la théorie dans la relation entre m et d.
L’information a priori sur x peut être exprimée dans l’espace X par la densité de proba-
98
3.2 Identification paramétrique avec données incertaines
bilité conjointe
ρ(x)= ρ(d,m) = ρD(d)ρM (m). (3.3)
Nous supposons ici que l’information a priori sur m est indépendante des mesures.
Finalement, nous avons deux sortes d’information dans l’espace X : la densité a priori
ρ(d,m) représentant l’information obtenue sur les données observables d ainsi que la con-
naissance a priori sur m, et la densité sur la théorie Θ(d,m). Tarantola combine ces deux
états d’information pour obtenir l’état d’information a posteriori. À une constante de nor-
malisation près, cette conjonction d’état d’information est représentée par une densité de
probabilité σ(d,m) définie par
σ(d,m) ∝ρ(d,m)Θ(d,m)
µ(d,m). (3.4)
Cette conjonction d’information est illustrée par la figure 3.2.
(a) (b) (c)
Fig. 3.2 – La conjonction de l’information issue de la théorie Θ(d,m) (a) et de l’informationa priori ρ(d,m) (b) permet d’obtenir l’information a posteriori σ(d,m) (c)
Dans l’équation (3.4), µ(d,m) représente l’état d’information homogène. La densité de
probabilité homogène µ(u) d’un paramètre u ∈ U est « la densité de probabilité qui associe
à chaque région de l’espace une probabilité proportionnelle au volume de la région » [148].
La densité de probabilité homogène dépend de la métrique définie sur l’espace des para-
mètres. En pratique, nous considérons que les espaces M , D et X sont vectoriels et donc
les densités homogènes sont constantes sur ces espaces. Comme nous supposons que m
et d sont indépendants, il en résulte que µ(d,m) = µD(d)µM (m), où µD(d) et µM (m) sont
respectivement la densité homogène de d et de m.
L’intégration de l’équation (3.4) sur D donne la densité de probabilité marginale a poste-
riori sur les paramètres du modèle
σM (m) =∫
D
σ(d,m)dd. (3.5)
Si on suppose que la théorie mathématique ne fournit pas d’information sur les para-
mètres du modèle m mais de l’information sur d sachant m, alors Θ(d,m) peut être écrite
Θ(d,m) = θ(d|m)µM (m). (3.6)
99
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
Ainsi, après simplification, l’équation (3.5) devient
σM (m) ∝ ρM (m)∫
D
ρD(d)θ(d|m)
µD (d)dd. (3.7)
Cette expression peut être réécrite
σM (m) ∝ ρM (m)L(m). (3.8)
L(m) est la fonction vraisemblance telle que
L(m) =∫
D
ρD(d)θ(d|m)
µD(d)dd. (3.9)
Nous rappelons que L(m) mesure la distance entre les données prédites par le modèle et les
données réellement observées.
Parrenin [160] explicite aussi le cas de la densité de probabilité marginale a posteriori sur
les données observables. Il trouve
σD(d) ∝ρD(D)
µD(d)
∫
M
ρM (m)θ(d|m)dm. (3.10)
Nous allons maintenant définir les deux cas qui se présentent dans notre étude. Si les
incertitudes de modélisation sont négligeables, alors la théorie est exacte et
θ(d|m) = δ(d−g(m)), (3.11)
où δ est la fonction de Dirac. Considérant que µD(d) est constante, la nouvelle expression
pour l’équation (3.7) est
σEM
(m) ∝ ρM (m)ρD(d). (3.12)
L’équation (3.10) devient [160]
σED
(D) ∝ ρD(D)∫
M
ρM (m)δ(d−g(m))dm. (3.13)
On remarquera ici que nous sommes dans le cas classique de l’inférence bayésienne et
que σEM
(m) représente la probabilité conditionnelle de m sachant les observations d.
Le second cas apparaît lorsque les incertitudes sur les expériences et sur le modèle sont
gaussiennes. Soient dobs les valeurs observées sur un ensemble de points de mesures. En
considérant que les incertitudes dues aux mesures sont indépendantes des vraies données
observables d, dobs est liée à d par la relation
dobs = d+ε, (3.14)
où ε est un vecteur d’erreurs décrit par la densité f (ε). Dans ce cas
ρD(d) = f (ε) = f (dobs −d). (3.15)
100
3.2 Identification paramétrique avec données incertaines
Pour des erreurs gaussiennes avec une moyenne nulle et covariance Cd , l’équation (3.15)
devient
ρD(d) ∝ exp
(−
1
2
(d−dobs
)TC−1
d
(d−dobs
)). (3.16)
De plus, si l’on considère que les incertitudes sur la théorie sont gaussiennes avec une ma-
trice de covariance Ct ,
θ(d|m) ∝ exp
(−
1
2
(d−g(m)
)T C−1t
(d−g(m)
)). (3.17)
Dans ce cas, il est démontré dans [196] que
σGM
(m) ∝ ρM (m) exp
(−
1
2
(g(m)−dobs
)TC−1
D
(g(m)−dobs
)), (3.18)
avec CD = Ct +Cd .
Si M =M1 ×M2 × . . .×Mnm , la densité marginale a posteriori σmk(mk ) du paramètre du
modèle mk est
σmk(mk) =
∫
M1
. . .∫
Mk−1
∫
Mk+1
. . .∫
Mnm
σM (m)dm1 . . . dmk−1 dmk+1 . . .dmnm . (3.19)
De même, la densité marginale a posteriori σdk(dk) de la donnée observable dk est obte-
nue par l’intégration
σdk(dk ) =
∫
D1
. . .∫
Dk−1
∫
Dk+1
. . .∫
Dnd
σD(d)dd1 . . .ddk−1 ddk+1 . . .ddnd. (3.20)
Il reste ensuite à déterminer ces densités a posteriori. Nous constatons que les expres-
sions (3.19) ou encore (3.20) impliquent des intégrations multiples sur l’espace du modèle et
des données. Nous n’aurons pas en général une expression explicite de σmk(mk ). Le calcul
direct étant souvent impossible, il est préférable de travailler avec des échantillons approxi-
mativement distribués selon σmk(mk) ou σdk
(dk). Ceci peut être effectué par une méthode
de Monte Carlo que nous présentons dans le paragraphe suivant.
3.2.2 Analyse de Monte Carlo
Les densités a posteriori peuvent être estimées grâce à une simulation de Monte Carlo
utilisant les chaînes de Markov – Markov Chain Monte Carlo (MCMC). Une méthode MCMC
pour la simulation d’une densité f (x) est une méthode produisant une chaîne de Markov
ergodique dont la distribution stationnaire est f (x). Une chaîne de Markov est une séquence
où chaque valeur dépend seulement de la précédente valeur.
Comme proposé dans [148], un algorithme de type Metropolis-Hastings [141] est uti-
lisé dans ce travail. Cet algorithme échantillonne les densités σM (m) et σD(d). L’idée est de
réaliser une marche aléatoire sur l’espace des paramètres du modèle M en utilisant une
règle probabiliste pour modifier cette marche. En acceptant ou en rejetant le déplacement
proposé, la marche aléatoire échantillonne la densité cible. L’algorithme échantillonnant la
101
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
densité a posteriori σM (m) est le suivant :
1. Initialiser à un modèle arbitraire mn . Calculer ρmn = ρM (mn), dn = g(mn) et Lmn =L(mn).
2. Générer un nouveau modèle mc = mn + δ, où δ est un pas aléatoire. Calculer ρmc =ρM (mc).
3. Si ρmc ≥ ρmn , accepter le modèle. Si ρmc < ρmn , décider aléatoirement d’accepter le mo-
dèle avec une probabilité d’acceptation ρmc /ρmn . Dans le cas contraire aller à l’étape
2. Si le modèle est accepté, poser mn = mc , ρmn = ρmc et aller à l’étape 4.
4. Calculer dc = g(mc ) et Lmc = L(mc ). Si Lmc ≥ Lmn , le modèle est accepté. Si Lmc <Lmn , décider aléatoirement d’accepter le modèle avec une probabilité d’acceptation
Lmc /Lmn . Dans le cas contraire aller en 2. Si le modèle est accepté, poser Lmn = Lmc ,
sauver mn et aller en 2.
On trouvera l’organigramme de cet algorithme en annexe C.
Il est montré dans [148] que cet algorithme permet d’obtenir :
– des échantillons
m(1),m(2), . . . ,m(ns )
de σM (m) ;
– des échantillons
d(1),d(2), . . . ,d(ns )
de σD(d).
Chaque d(k) correspond aux paramètres de modèle m(k). Chaque m( j ) est un ensemble de
paramètres du modèle m( j )1 ,m
( j )2 , . . . ,m
( j )nm
. Les échantillons m(1)k
, . . . ,m( j )k
, . . . ,m(ns )k
sont
obtenus de σmk(mk ) en collectant chaque m
( j )k
de l’ensemble m( j ).
Étant donnée la séquence m(1)k
, . . . ,m( j )k
, . . . ,m(ns )k
, nous estimonsσmk(mk ) d’un manière
non-paramétrique avec la fonction ksdensity.mde Matlabr [136] basée sur un noyau gaus-
sien et une fenêtre de lissage optimale pour l’estimation de densités normales. De la même
manière, les densités σdk(dk ) pourront aussi être calculées.
3.2.3 Remarques sur la convergence
Avec l’utilisation d’un algorithme de MCMC, le problème est de savoir quand la conver-
gence est rencontrée. Pouvons nous contrôler la convergence de l’algorithme facilement ?
La réponse est clairement non. On pourra constater dans [168] que diverses méthodes de
contrôle existent pour vérifier les trois critères de convergence généraux, (i) la convergence
vers la distribution cible, (ii) la convergence vers les moyennes comme l’équation (3.39) et
(iii) la convergence vers des échantillons i.i.d.
Le contrôle de la convergence des moyennes (ii) est généralement fait en observant la
convergence du graphe de la moyenne empirique pour les mk ,
µtns
=1
t
t∑
i=1m(i )
k, t = 1, . . . ,ns . (3.21)
En plus de ce contrôle, nous utilisons dans nos applications une seconde méthode gra-
phique pour tester la convergence (ii), la méthode des sommes cumulatives ou cumulative
sums (Cusum) proposée dans [209]. Si µnsns
est la moyenne finale, nous pouvons détecter des
problèmes de convergence en traçant les différences partielles
Stns
=t∑
i=1
(m(i )
k− µ
nsns
), t = 1, . . . ,ns . (3.22)
102
3.2 Identification paramétrique avec données incertaines
Qualitativement, une évolution irrégulière et centrée autour de zéro de Stns
en fonction de
t indique une convergence rapide de la chaîne. Un graphe lisse avec de longues excursions
loin de zéro indique une convergence lente. Par graphe lisse, nous entendons une juxtapo-
sition de segments de pentes voisines. Par graphe irrégulier, nous entendons une juxtapo-
sition de segments de pentes alternativement positives et négatives [28]. Quantitativement,
Brooks [28] propose un indice de « hairiness » en définissant pour 2 ≤ t ≤ ns et i = 1, . . . ,ns −1
di =
1 si Si−1
ns> Si
nset Si
ns< Si+1
ns
0 autrement. (3.23)
Ensuite, l’indice
Dtns
=1
t
t−1∑
i=1di , 2 ≤ t ≤ ns (3.24)
est calculé. Dtns
prend la valeur 0 pour un graphe totalement lisse et la valeur 1 pour un
graphe irrégulier. L’observation de l’évolution de Dtns
donne des informations intéressantes
sur la convergence de la chaîne.
Les évolutions des moyennes et des graphes Cusum nous aident donc à déterminer si la
convergence est atteinte. Quand celle-ci semble atteinte depuis un grand nombre d’échan-
tillons, comme conseillé dans [147], nous observons l’évolution de la fonction de vraisem-
blance L(m,η) en vue de décider quels échantillons retenir. En effet, l’algorithme de Monte
Carlo présenté ne produit pas des échantillons strictement i.i.d. Nous verrons plus loin que
ces échantillons sont utilisés pour calculer des intégrales. Il est donc nécessaire que ces
échantillons soient i.i.d ou quasi-i.i.d. Pour sélectionner approximativement des m(k) quasi-
i.i.d, nous procédons comme suit. Les N derniers échantillons tirés sont retenus. Dans une
boucle, un fonction Matlabr [136] est utilisée pour tester l’aléatoire de la séquence d’obser-
vation. Initialement, les N échantillons sont proposés. Si l’hypothèse de séquence aléatoire
n’est pas vérifiée, seul un échantillon sur deux est proposé. Avec cette nouvelle séquence, si
l’hypothèse n’est encore pas vérifiée, seul un échantillon sur trois est proposés et ainsi de
suite, jusqu’à ce que l’hypothèse soit vérifiée. Les m(k) retenus sont ensuite utilisés pour les
calculs envisagés. Avec cette méthode, l’indépendance des échantillons n’est pas totalement
garantie. Comme la précision des calculs n’est pas fondamentale dans cette étude, cette ap-
proche nous paraît suffisante.
Le dernier point de cette discussion est le problème de la maximisation de l’efficacité de
l’algorithme. Ici, le paramètre à optimiser est la taille des perturbations durant la marche
aléatoire. En effet, la longueur du pas aléatoire influence le taux d’acceptation des règles
de Metropolis et l’efficacité de l’algorithme. Si le taux d’acceptation est grand, l’espace du
modèle est décrit trop lentement ; s’il est petit, nous passons du temps à tester des modèles
qui sont rejetés. Comme aucune règle générale ne peut être donnée, quelques simulations
sont effectuées avec un petit nombre d’échantillons et le pas est réglé de façon à retenir
un pourcentage acceptable de modèles proposés. [60] propose un taux d’acceptation entre
23 % pour un grand nombre de paramètres et 44 % pour un seul paramètre. Le pas aléatoire
sera généré dans nos calculs à partir d’une densité gaussienne avec une moyenne nulle et
une matrice de covariance diagonale. Aucune corrélation entre les paramètres n’est donc
103
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
introduite.
3.2.4 Utilisation des métamodèles
Le nombre de calculs est le principal inconvénient avec les simulations de Monte Carlo.
Pour obtenir une approximation de la convergence, beaucoup d’itérations sont nécessaires
avec une ou plusieurs analyses modales du MEF pour chaque itération. Quand le nombre
de ddls du MEF est élevé ou pour des problèmes complexes comme l’analyse non-linéaire,
la méthodologie proposée est pratiquement inapplicable et ce malgré la puissance des or-
dinateurs actuels. À titre d’exemple, si à chaque pas de l’algorithme l’analyse du MEF prend
trois minutes, 100 000 itérations peuvent durer plus de six mois. Il est alors indispensable
de remplacer l’analyse exacte du MEF par une approche par métamodèle pour réduire les
temps de calcul. Une présentation de diverses approches a été réalisée section 1.4.
Si un métamodèle est utilisé, les incertitudes sur la théorie indiquées dans le paragra-
phe 3.2.1 sont naturellement introduites. Ainsi, si des incertitudes gaussiennes sont sup-
posées à la fois pour les données expérimentales et la théorie, l’équation (3.18) est utilisée
comme densité a posteriori. Elle peut être réécrite
σGM
(m) ∝ ρM (m) exp
(−
1
2
(g(m,η)−dobs
)TC−1
D
(g(m)−dobs
)). (3.25)
Rappelons que CD = Ct +Cd avec Cd la matrice de covariance des incertitudes expérimen-
tales et CT la matrice de covariance des incertitudes sur la théorie. Ct est construite avec les
données d’apprentissage qui contiennent différents couples entrées-réponses. Les erreurs
entre les sorties de référence et les valeurs prédites par le réseau après sa création sont uti-
lisées pour décrire la statistique des incertitudes sur la théorie. Pour chaque couple entrée-
réponse (m(k),d (k)i
) de la base d’apprentissage, la prédiction du métamodèle d (k)i
de d (k)i
sert
à calculer l’erreur εi = d (k)i
−d (k)i
. Ct est une matrice diagonale dont les éléments sont les
variances εi . Généralement, l’hypothèse gaussienne sur les incertitudes est théoriquement
bien adaptée.
Si le MEF peut être rapidement évalué, il n’est alors pas nécessaire d’utiliser un métamo-
dèle et la théorie est exacte. Dans ce cas, l’équation (3.12) sera exploitée
σEM
(m) ∝ ρM (m)ρD(d).
3.2.5 Application
Nous allons illustrer la méthode d’identification inverse sur un MEF de moteur d’avion.
Le modèle présenté figure 3.3 est composé de deux rotors basse et haute pression modélisés
par des poutres de sections circulaires sur lesquelles sont disposées des masses représentant
les aubages. Les carters sont modélisés par des éléments coques. Le modèle contient 11 459
éléments finis dont 544 éléments masses ponctuelles, 29 éléments poutres, 966 éléments
ressorts et 9 920 éléments coques. Le modèle comporte 60 507 ddls actifs.
Nous étudions ici le comportement dynamique du modèle sans rotation des rotors. Une
étude de sensibilité est réalisée au préalable avec la méthode de Morris présentée paragra-
phe 1.5.1. Pour cela, 80 paramètres sont considérés : 36 épaisseurs associées à des propriétés
104
3.2 Identification paramétrique avec données incertaines
Fig. 3.3 – Modèle du moteur d’avion
d’éléments coques, 1 paramètre de raideur, 1 paramètre d’amortissement, 27 sections asso-
ciées à des propriétés d’éléments poutres et 15 masses ponctuelles. Le domaine de variation
de chaque paramètre xi est limité à [0,5×x(0)i
; 1,5×x(0)i
]. Pour appliquer la méthode de Mor-
ris nous choisissons un nombre de niveau nl = 4 et r = 10 trajectoires. 810 simulations ont
donc été nécessaires. Les réponses d’intérêt sont les fréquences comprises dans la bande de
fréquence [0 ; 200 Hz]. Dans cette zone, le modèle nominal possède 22 modes élastiques.
À noter qu’ici et comme dans toutes nos études de ce type, nous nous intéressons aux fré-
quences sans nous soucier de l’appariage des modes mais il est tout à fait envisageable de
prendre en compte ce facteur. Une fois l’échantillonnage réalisé, nous calculons les indices
µM∗
ket σM
kpour l’ensemble des paramètres et des réponses. Des moyennes sont ensuite cal-
culées sur l’ensemble des réponses. Les moyennes de σMk
en fonction des moyennes de µM∗
k
sont représentées figure 3.4a. Les paramètres x7 et x39 sont clairement identifiés comme in-
fluents. La position des points sur la diagonale indique que les effets des paramètres concer-
nés sont non-linéaires et/ou sont en interaction. Les autres paramètres sont moins influents
mais certains seront sélectionnés. La figure 3.4a représente µM∗
ken fonction du nombre de
paramètre, les paramètres ayant été reclassés afin que les valeurs de µM∗
ksoient décrois-
santes. En se basant sur ces résultats, nous décidons que neuf paramètres sont assez in-
fluents. Par ordre décroissant de µM∗
k, ces paramètres sont x7, x39, x6, x20, x3, x1, x27, x5 et
x25. La variable x39 régit l’aire d’éléments poutres, les autres paramètres régissent l’épaisseur
d’éléments coques.
Les éléments finis concernés sont représentés sur la figure en coupe 3.5. Le vecteur des
paramètres de modèle m est composé donc de ces neuf paramètres.
Le MEF composé des valeurs nominales m(0) de ces paramètres est utilisé pour simuler
les données expérimentales. 22 fréquences propres non nulles étant présentes dans la bande
[0 ; 200 Hz], les données observables sont dobs = d obs1 , . . . ,d obs
k,d obs
22 , où d obsk
représente la
ke fréquence mesurée. Un bruit gaussien simule les incertitudes sur les mesures. ρD(d) est
une densité gaussienne avec une moyenne dobs et une matrice de covariance diagonale. Elle
s’écrit
ρD(d) =22∏
k=1
ρdk(dk ) ∝ exp
−1
2
22∑
k=1
(dk −d obs
k
σobsk
)2
, (3.26)
où σobsk
= 0,02×d obsk
est l’écart type du bruit.
105
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
(a) (b)
Fig. 3.4 – (a) Moyennes sur les indices de Morris ; (b) évolution de µM∗
kaprès classement des
paramètres
Fig. 3.5 – Éléments finis associés aux paramètres d’intérêt
Nous choisissons a priori une densité uniforme ρM (m) de la forme
ρM (m) =9∏
k=1
ρmk(mk ), (3.27)
avec
ρmk(mk ) =
1Bsup
k−Binf
k
pour Binfk
≤ mk ≤ Bsupk
0 autrement, (3.28)
où Binfk
= 0,5×m(0)k
et Bsupk
= 1,5×m(0)k
.
En appliquant la démarche exposée précédemment, notre objectif est de déterminer les
densités de probabilité a posteriori des différents paramètres en utilisant les données « expé-
rimentales » simulées.
Étant donné le nombre de paramètres, il est évident que l’algorithme d’échantillonnage
doit comporter un grand nombre d’itérations. Les calculs utilisant le MEF complet ne sont
donc pas envisageables. Nous avons choisi les réseaux de neurones pour cette application.
Un échantillonnage de type hypercube latin uniforme a été réalisé afin d’obtenir 800 échan-
tillons de m dans son espace de variation. L’analyse modale du MEF est effectuée pour cha-
106
3.2 Identification paramétrique avec données incertaines
que échantillon afin d’obtenir la base d’apprentissage des réseaux de neurones. Une base
de test de 200 échantillons a aussi été construite. Avec l’aide de cette dernière, nous éva-
luons la capacité de généralisation des réseaux construits. Les critères R2, ERAM et MERA
sont calculés pour les 22 observations et reportés sur les figures 3.6a à 3.6c. Les résultats sont
globalement bons, les valeurs de R2 sont toutes supérieures à 0,97 et celles de ERAM, l’erreur
relative absolue moyenne, sont inférieures à 0,73 %. On notera toutefois une dégradation en
fonction du rang de la fréquence. Le maximum de l’erreur relative absolue est lui un critère
plus sévère. Nous constatons sur la figure 3.6c, que la valeur de MERA peut être assez impor-
tante. Pour d obs10 , celle-ci atteint 17,7 %. Les bonnes valeurs de R2 et de ERAM nous incitent
cependant à faire confiance aux métamodèles utilisés.
(a) (b)
(c)
Fig. 3.6 – Critères : R2 (a), ERAM (b), MERA (c)
Avec un point de départ aléatoire, l’algorithme présenté paragraphe 3.2.2 est exécuté
durant 800 000 itérations. La convergence est évaluée par les méthodes évoquées paragra-
phe 3.2.3.
Les figures 3.7a et 3.7b représentent respectivement les évolutions de µtns
pour x7 et
x25. Sur ces figures, la ligne droite signale les valeurs associées au modèle nominal. Les fi-
gures 3.7c et 3.7d sont les graphes Cusum. Alors que visuellement la convergence semble
atteinte pour x7, c’est beaucoup moins évident pour x25. La moyenne n’évolue pas vraiment
vers une valeur fixe. Le graphe Cusum semble quant à lui suffisamment irrégulier. Doit-on
faire évoluer l’algorithme un peu plus loin ? Nous ne le pensons pas. En effet, l’observation
de l’évolution de µtns
ne prend réellement son sens que lorsque la distribution de la variable
observée est paramétrée avec la valeur moyenne, comme c’est le cas pour une distribution
107
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
gaussienne. Si ce n’est pas le cas, le nombre d’itérations sera énorme avant d’observer une
réelle convergence. Nous choisissons donc de stopper l’échantillonnage lorsque des évolu-
tions telles que celles des figures 3.7a et 3.7c sont observées pour quelques paramètres. Au
regard des évolutions associées à tous les paramètres, nous jugeons que l’échantillonnage
est suffisant pour cette simulation.
(a) (b)
(c) (d)
Fig. 3.7 – Évolutions de µtns
pour (a) x1 et (b) x25 ; évolutions de Stns
pour (c) x1 et (d) x25
Sous une plate-forme Linux, un PC Pentium IV cadencé à 3,4 GHz, avec 1 Gb de RAM,
les 800 000 itérations nécessitent 32 heures de calcul. Nous obtenons 215 154 modèles a
posteriori. Seuls les derniers modèles sont considérés. 800 échantillons quasi-i.i.d sont sé-
lectionnés pour estimer les densités a posteriori.
Les densités de probabilité associées sont représentées figure 3.8. Sur ces figures, les dis-
tributions uniformes a priori apparaissent en pointillés. Les trait verticaux indiquent les va-
leurs nominales des paramètres de m(0), valeurs à partir desquelles les observations de dobs
ont été simulées.
Nous constatons que l’information sur les paramètres a fortement évolué pour l’ensem-
ble des paramètres. L’évolution n’est cependant pas la même suivant le paramètre considéré.
On remarquera que les fortes évolutions ne concernent pas forcement les paramètres poin-
tés comme les plus influents lors de l’analyse de Morris. Nous indiquerons dans la section
suivante comment quantifier ce gain d’information. Lorsque les densités semblent « coller »
aux densités classiques telle que par exemple la gaussienne, il est facile d’estimer les pa-
ramètres associés à ces lois. Pour des formes moins classiques, les échantillons serviront à
caractériser leurs lois. Nous parlerons alors de distribution empirique.
Nous avions supposé a priori que les paramètres n’étaient pas corrélés. Qu’en est-il a
108
3.2 Identification paramétrique avec données incertaines
posteriori ? Les diagrammes de dispersion permettent de détecter simplement d’éventuelles
corrélations entre les paramètres. Après observation de tous les couples possibles, il est ap-
paru qu’a posteriori il existe désormais des corrélations entre x5 et x6, entre x20 et x25 et entre
x3 et x27. Les nuages de points ainsi que les droites de régression linéaire sont représentés
figures 3.9a, 3.9b et 3.9c. Les échantillons sont les mêmes que ceux utilisés pour tracer les
densités de probabilité. Il semble au vu de ces figures que les corrélations ne soient pas li-
néaires. À titre indicatif, les coefficients de corrélation linéaire associés à ces diagrammes de
dispersion sont respectivement 0,79, 0,59 et 0,68.
De la même façon que nous avons déterminé les distributions a posteriori pour les pa-
ramètres, nous pouvons obtenir les distributions a posteriori pour les données observables.
Pour observer le comportement de la réponse lorsque les paramètres de modèle varient se-
lon les lois de probabilité identifiées, il n’est pas nécessaire de refaire des simulations. Les
figures 3.10a à 3.10d montrent en traits continus les densités a posteriori obtenues pour les
observations d1 et d22. En pointillés, apparaissent les densités ρdk(dk ). A posteriori, les den-
sités sur les données ne sont évidemment pas les mêmes que les densités expérimentales.
Cependant, il est clair que les modèles de paramètres identifiés permettent d’obtenir des
réponses en accord avec nos mesures pseudo-expérimentales.
109
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
(a) (b) (c)
(d) (e) (f)
(g) (h) (i)
Fig. 3.8 – Résultats de l’identification pour les paramètres (a) x7, (b) x39, (c) x6, (d) x20, (e) x3,(f) x1, (g) x27, (h) x5, (i) x25
110
3.2 Identification paramétrique avec données incertaines
(a) (b)
(c)
Fig. 3.9 – Diagramme de dispersion a posteriori entre (a) x5 et x6, entre (b) x20 et x25, entre(c) x3 à x27
111
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
(a) (b)
(c) (d)
Fig. 3.10 – Densité de probabilité a posteriori sur les observations pour (a) d1 à d6, (b) d7 àd9, (c) d10 à d13 et (d) d14 à d22
112
3.3 Planification d’essais pour le gain d’informations
3.3 Planification d’essais pour le gain d’informations
3.3.1 Plan d’expérience bayésien
D’une manière générale, étant donné un protocole expérimental η choisi dans l’espace
de paramètres d’expériences H et étant donnée une fonction d’utilité U(d,η) représentant
le but de l’expérience avec le protocole η, l’objectif d’un plan d’expérience bayésien est de
maximiser le critère
EU(η) =∫
D
P(d|η)U(d,η)dd, (3.29)
appelé utilité espérée.
La solution bayésienne de la planification est donnée par le protocole η∗ maximisant
l’équation (3.29), c’est-à-dire
EU(η∗) = maxη∈H
∫
D
P(d|η)U(d,η)dd. (3.30)
Ici, nous avons une marginalisation sur toutes les futures données appropriées représentées
par une densité de probabilité P(d|η). P(d|η) est la vraisemblance que la mesure d sera ob-
tenue avec l’expérience. En fait, nous choisissons dans ce travail de simplifier le problème à
la maximisation de U(d,η). Ainsi, le but de notre BED est de trouver U(d,η∗). Nous verrons
plus loin ce qu’un protocole η peut être. Nous avons déjà vu paragraphe 3.2.1 que dans la
formulation probabiliste classique des problèmes inverses, une information a priori sur les
paramètres du modèle représentés par une densité P(m) est combinée via le théorème de
Bayes avec une densité P(d|m).
Pour introduire les fonctions d’utilité, nous rappelons que Shannon [185] a montré que la
valeur de l’information peut être associée à une source représentée par une variable aléatoire
discrète X en calculant l’entropie correspondante. Soient x1, . . . , xN les événements de X
avec la distribution de probabilité correspondante p1, . . . , pN, l’entropie associée avec cette
distribution discrète est
H(X) =−N∑
i=1pi log pi . (3.31)
Comme H(X) augmente avec les incertitudes sur X, l’entropie quantifie l’information as-
sociée avec l’ensemble des mesures. Si un second événement y1, . . . , yN de X a une entropie
inférieure à x1, . . . , xN, y1, . . . , yN, alors y1, . . . , yN a un plus petit niveau d’incertitude et
ainsi contient plus d’information sur X. De la même manière, pour une variable aléatoire
continue X de densité de probabilité pX(x), nous pouvons écrire l’entropie différentielle
Hd (X) =−∫
χ
pX(x) log pX(x)dx. (3.32)
Étant donnée la densité a posteriori P(m|d,η), les fonctions d’utilité quantifiant le gain
d’information résultant d’une expérience peuvent être
UIG(d,η) = Hd (m,η)−Hd (m|d,η)
=−∫
M
P(m,η) log(P(m,η)
)−P(m|d,η) log
(P(m|d,η)
)dm et
(3.33)
113
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
UKL(d,η) =∫
M
P(m|d,η) log
(P(m|d,η)
P(m)
)dm. (3.34)
UIG(d,η) est l’information mutuelle entre m et d. C’est le gain d’information en d. La seconde
fonction d’utilité UKL(d,η) est la distance de Kullback-Leibler [104] (KLD) entre la densité a
posteriori et la densité a priori de m. Ces mesures ne sont pas réellement de vraies distances,
mais donnent toujours une mesure du gain de l’information positive. En fait, elles sont équi-
valentes et seule UKL(d,η) sera considérée par la suite. Si on utilise le logarithme en base 2,
ces fonctions sont mesurées en bits.
En se basant sur la théorie générale des problèmes inverses présentée paragraphe 3.2.1,
nous proposons pour mesurer l’information portée par une expérience d’utiliser les fonc-
tions d’utilité
UKL(d,η) =∫
Mk
σmk(mk ,η) log
(σmk
(mk ,η)
ρmk(mk ,η)
)dmk et (3.35)
UPloc(d,η) =∫
Mlock
σmk(mk ,η)dmk . (3.36)
Ainsi, pour chaque expérience caractérisée par un protocole η et les données observées
d associées, ces fonctions d’utilité sont calculées pour chaque paramètre du modèle mk en
utilisant la densité a posteriori σmk(mk ,η) résultant de la théorie générale des problèmes
inverses. UKL(d,η) est la KLD entre la densité a posteriori σmk(mk ,η) et la densité a priori
ρmk(mk ,η) sur tout l’intervalle de variation de mk .
UKL(d,η) est complétée avec UPloc(d,η), la probabilité que mk soit contenue dans une
région Mlock
⊆Mk . Cette fonction est utile pour juger de la qualité de l’identification et éven-
tuellement choisir entre des protocoles expérimentaux avec la même valeur de UKL(d,η). Les
figures de 3.11 illustrent un cas avec deux protocoles η1 et η2. Sur ces figures, la ligne en trait
interrompu est la densité de probabilité a priori de mk , la ligne en trait continu est la densité
de probabilité a posteriori. Le trait central indique la valeur nominale de mk que l’on consi-
dère comme la vraie valeur. Les deux traits fins délimitent Mlock
. Pour les deux protocoles
UKL(d,η1,2) = 0,78 mais UPloc(d,η1) = 0,24 et UPloc(d,η2) = 0,37. Par conséquent, η2 sera pré-
féré à η1 puisque pour un même gain d’information, η2 conduit à identifier des valeurs de
mk dont la probabilité d’être la vraie valeur est plus grande que celle identifiée avec η1.
Les deux fonctions d’utilité proposées sont associées à un paramètre mk . Pour quantifier
l’information de l’ensemble des paramètres m nous proposons d’utiliser
UjointKL (d,η) =
∫
M
σM (m,η) log
(σM (m,η)
ρM (m,η)
)dm. (3.37)
UjointKL (d,η) est la KLD entre la densité de probabilité conjointe σM (m,η) et la densité de
probabilité conjointe a priori ρM (m,η).
Dans nos applications, les protocoles expérimentaux η sont les types de mesures, de
configurations ou les conditions limites appliquées au MEF. Par exemple, la plage des fré-
quences de l’analyse modale peut être considérée comme un protocole, une analyse modale
d’une poutre libre-libre peut être une expérience avec un protocole η1 = « libre-libre » et une
114
3.3 Planification d’essais pour le gain d’informations
(a) (b)
Fig. 3.11 – (a) UKL(d,η1) = 0,78 et UPloc(d,η1) = 0,24, (b) UKL(d,η2) = 0,78 et UPloc(d,η2) =0,37
analyse de la poutre encastrée-libre peut être une seconde expérience avec un protocole η2 =« encastrée-libre ».
Une stratégie pour construire un plan d’expériences bayésien pour des essais dynami-
ques peut être la suivante. Après la modélisation d’un MEF de référence du système d’inté-
rêt, nous définissons un ensemble de protocoles η = η1,η2, . . . ,ηnη ∈ H . Pour chaque pro-
tocole ηk un MEF ou un type d’analyse sont associés. Une expérience consiste en une ana-
lyse modale du MEF de référence. Les données observées de l’expérience sont les fréquences
propres, les vecteurs propres, les FRFs, etc. Ensuite, du bruit est ajouté à ces données pour si-
muler les incertitudes expérimentales et nous évaluons les fonctions d’utilité (3.35) et (3.36).
Finalement, avec l’observation des résultats nous pouvons déterminer les protocoles η∗ ma-
ximisant le gain d’information. Il faut noter que suite aux hypothèses faites lors de la mo-
délisation des incertitudes expérimentales ou à une mauvaise connaissance a priori, une
expérience qui semblait judicieuse en théorie peut être en fait inutile. Par conséquent, les
résultats doivent être pris avec précaution.
Puisque l’évaluation des fonctions d’utilité peut être très coûteuse pour de grands mo-
dèles, la section suivante traite des difficultés liées aux calculs numériques.
3.3.2 Traitement numérique
Les équations (3.35)et (3.36) peuvent être exprimées sous la forme générale
U =∫
ℵ
f (x)h(x)dx = E(h(x)) (3.38)
Supposons que h(x) et f (x) soient telles que f (x)h(x) est intégrable sur l’espace ℵ, et que
f (x) est une fonction de densité satisfaisant∫ℵ f (x)dx = 1.
L’équation (3.38) peut être évaluée en utilisant des échantillons aléatoires x(1), . . . , x(ns )
de x générés à partir de la densité f (x). En effet, d’après la loi des grands nombres, la moyen-
115
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
ne empirique
U =1
ns
ns∑
k=1h(x(k)) (3.39)
converge presque sûrement vers E(h(x)) = U.
Ainsi, pour chaque protocole ηk , nous pouvons évaluer les équations (3.35), (3.36) et
(3.37) en générant des échantillons de f (x) = σmk(mk ,η) par la méthode présentée au pa-
ragraphe 3.2.2. Puisque σmk(mk ,η) est une densité normalisée sur Mk , c’est-à-dire
∫
Mk
σmk(mk ,η)dmk = 1,
les équations (3.35) et (3.36) peuvent être approximées par
UKL(d,η) =1
ns
ns∑
i=1log
(σmk
(m(i )k
,η)
ρmk(m(i )
k,η)
)
≈ UKL(d,η) et (3.40)
UPloc(d,η) =nombre de m(i )
k∈M
lock
n≈ UPloc(d,η). (3.41)
Nous rappelons que pour une séquence m(1)k
, . . . ,m(ns )k
, la densité σmk(m(i )
k) est estimée
avec une fonction MATLABr.
Pour obtenir une approximation UjointKL (d,η) de Ujoint
KL (d,η), nous procédons comme suit.
Tout d’abord, réécrivons équation (3.8) sous la forme
σM (m,η) =ρM (m,η)L(m,η)∫
MρM (m,η)L(m,η)dm
. (3.42)
En introduisant l’équation (3.42) dans l’équation (3.37), nous obtenons
UjointKL (d,η) =
∫
M
σM (m,η) log
(L(m,η)
Ic
)dm, (3.43)
avec Ic =∫M
ρM (m,η)L(m,η)dm.
La première étape est d’évaluer la constante d’intégration Ic . Comme nous utilisons des
densités de probabilité standards pour ρM (m), il est facile de générer un grand nombre N
d’échantillons m(i ) de ρM (m). Ainsi
Ic =1
N
N∑
i=1L(m(i ),η) ≈ Ic . (3.44)
Finalement, les échantillons m(1),m(2), . . . ,m(ns ) de σM (m,η) obtenus avec la simula-
tion de Monte Carlo sont utilisés pour calculer
UjointKL (d,η) =
1
ns
ns∑
i=1log
(L(m(i ),η)
Ic
)≈ Ujoint
KL (d,η). (3.45)
La plus grande tâche est l’échantillonnage de σM (m,η) qui nous fournit des échantillons
de chaque paramètre du modèle mk . En général, comme décrit paragraphe 3.2.4, nous utili-
sons les métamodèles pour réaliser cet échantillonnage.
116
3.3 Planification d’essais pour le gain d’informations
3.3.3 Applications
Exemple académique
Les considérations précédentes sont illustrées sur un exemple académique composé de
trois poutres encastrées-libres connectées avec deux ressorts S1 et S2 comme représenté fi-
gure 3.12. La première poutre est discrétisée avec douze éléments poutres, la seconde avec
huit éléments poutres et la troisième avec dix. Avec deux ddls par noeud et trois noeuds en-
castrés, le nombre total de ddls est de 60. Le but de la simulation est de trouver les essais
dynamiques maximisant le gain d’information sur les trois sections d’aires, A1, A2 et A3. Ces
paramètres n’ont pas été choisis à partir d’une étude de sensibilité, mais de part leur locali-
sation. L’ensemble des paramètres du modèle est donc m = A1, A2, A3.
•••••••••••••
•••••••••
•••••••••••
A1
A2
A3
Fig. 3.12 – Système étudié
Pour construire le plan d’expérience bayésien nous utilisons un plan factoriel à deux ni-
veaux. Dans la méthodologie classique des plans d’expérience, les facteurs sont les variables
d’intérêt expérimentales. Un niveau est le degré ou l’intensité d’un facteur. Ici, les facteurs
seront les différentes parties de la structure, à savoir les trois poutres, et les niveaux seront les
conditions limites des extrémités des poutres. Le niveau est mis à 0 si l’extrémité est libre ou
mis à 1 si l’extrémité est encastrée. Comme nous avons seulement 2 niveaux et 3 facteurs, un
plan factoriel complet de 23 = 8 expériences peut être construit. Une expérience correspond
à une configuration particulière du système. Les huit configurations sont représentées figu-
re 3.13. Le protocole η j , avec j = 1, . . . ,8, est l’analyse modale du MEF de la j e configuration.
Pour des valeurs de référence des paramètres de modèle m(0) = A(0)1 , A(0)
2 , A(0)3 , les six
premières fréquences propres sont les données observées dobs = d obs1 , . . . ,d obs
6 . Un bruit
gaussien simule les incertitudes sur les mesures. ρD(d,η j ) est une densité gaussienne avec
moyenne dobs et une matrice de covariance diagonale. Elle s’écrit
ρD(d,η j ) ∝ exp
−1
2
6∑
k=1
(dk −d obs
k
σobsk
)2
, (3.46)
où σobsk
= 0,02×d obsk
est l’écart type du bruit.
117
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
η1 = [000] η2 = [001] η3 = [010] η4 = [011]
η5 = [100] η6 = [101] η7 = [110] η8 = [111]
Fig. 3.13 – Les huit configurations du système
La densité a priori ρM (m) uniforme est
ρM (m) =3∏
k=1
ρmk(mk ), (3.47)
avec
ρmk(mk ) =
1Bsup
k−Binf
k
pour Binfk
≤ mk ≤ Bsupk
0 autrement, (3.48)
où Binfk
= 0,1× A(0)k
et Bsupk
= 3× A(0)k
. Puisque la construction des matrices et l’analyse mo-
dale demandent peu de temps, les fonctions d’utilité sont calculées aussi bien avec le mo-
dèle exact qu’avec des métamodèles construits avec les surfaces de réponse, les réseaux de
neurones ou le krigeage. Les polynômes sont d’ordre trois, les modèles de krigeage ont une
fonction de corrélation gaussienne et les réseaux de neurones possèdent deux couches ca-
chées de trois neurones. Les critères R2, les erreurs ERAM et MERA sur la prédiction des six
fréquences propres de la première expérience sont reportées dans le tableau 3.1. Ces critères
sont calculés sur une base de test de 500 couples entrées-sorties. Les réseaux de neurones et
le krigeage donnent les meilleurs résultats. Même si globalement les résultats sont satisfai-
sants, on note que pour les trois derniers modes l’erreur MERA est importante. Ceci signifie
que localement le métamodèle peut être beaucoup moins prédictif. Les niveaux de précision
pour les autres configurations sont sensiblement les mêmes.
118
3.3 Planification d’essais pour le gain d’informations
Tab. 3.1 – Erreurs d’estimation pour la configuration η1
R2
Mode 1 2 3 4 5 6
Polynôme 0,99 0,99 0,99 0,98 0,84 0,63
Réseau 0,99 0,99 0,99 0,99 0,93 0,99
Krigeage 0,99 0,99 0,99 0,99 0,92 0,90
ERAM
Mode 1 2 3 4 5 6
Polynôme 0,63 0,11 0,34 1,10 1,38 1,26
Réseau 5,68×10−2 2,34×10−2 5,68×10−2 0,37 0,48 7,68×10−2
Krigeage 1,59×10−2 1,10×10−3 1,60×10−3 0,32 0,44 0,37
MERA
Mode 1 2 3 4 5 6
Polynôme 5,62 0,97 2,32 5,13 11,58 27,53
Réseau 0,61 9,57×10−2 0,14 0,32 0,44 3,61
Krigeage 0,86 3,92×10−2 3,54×10−2 6,86 15,92 17,10
L’algorithme de Monte Carlo est lancé pour 200 000 itérations, le point de départ étant
m(0).
Pour chaque expérience, les échantillons sont utilisés pour calculer les fonctions (3.40)
et (3.41). Les résultats sont regroupés dans la figure 3.14. Dans chaque cas, entre 1 000 et
2 000 échantilons quasi-i.i.d sont sélectionnés. Les valeurs de UKL(d,η) en fonction des huit
protocoles ηi sont reportées dans le première colonne, les valeurs de UPloc(d,η) sont repor-
tées dans la deuxième colonne. Les plus grandes valeurs de KLD sont celles associées au
plus grand gain d’information. Plus UKL(d,η) est élevée, plus le niveau d’incertitude est di-
minué. Nous retrouvons sur les figures, les résultats de calculs réalisés avec les MEF exacts,
les polynômes, les réseaux de neurones et les modèles de krigeage. Les prédictions des ré-
seaux et krigeage sont très proches de celles obtenues avec le modèle exact. Les modèles
polynomiaux n’ont pas le même niveau de précision mais fournissent à peu près les bonnes
tendances. Ces résultats tendent à montrer que lorsqu’un métamodèle représente correcte-
ment la réponse d’intérêt, les résultats peuvent être considérés comme fiables.
Selon l’expérience, le gain d’information est différent. Pour tous les protocoles expéri-
mentaux une bonne information est obtenue pour le paramètre A1. Ceci semble normal
puisque ce paramètre possède toujours une forte énergie de déformation. Pour les mêmes
raisons, le gain d’information est plus important pour A3 quand l’élément est encastré. Ainsi,
nous pouvons conclure que A1 ou A3 seront plus identifiables avec une condition limite
d’encastrement près de l’élément, l’énergie de déformation de l’élément étant augmentée
dans ces conditions. A2 est au milieu de la seconde poutre, pour les protocoles η1 à η8, le
gain est plus ou moins sensible à la configuration. Au regard des résultats, il semble que
les protocoles η2 et η8 donnent un bon gain d’information sur les trois paramètres. La figu-
re 3.15, où sont tracées les KLD des densités de probabilité conjointes UjointKL (d,η), confirme
119
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
que ces deux protocoles apportent le plus d’information sur l’ensemble des paramètres du
modèle et m = A1, A2, A3.
La probabilité UPloc(d,η) que mk appartienne à une région centrée autour de m(0)k
est
un complément à UKL(d,η). Ici, l’évolution de UPloc(d,η) confirme celle de UKL(d,η). Cette
tendance n’est cependant pas généralisable.
(a) (b)
(c) (d)
(e) (f)
Fig. 3.14 – UKL(d,η) en fonction de ηi pour (a) A1, (c) A2 et (e) A3 ; UPloc(d,η) en fonction deηi pour (b) A1, (d) A2 et (f) A3
120
3.3 Planification d’essais pour le gain d’informations
Fig. 3.15 – UjointKL (d,η) en fonction de ηi
Les configurations η2 et η8 apportent sensiblement le même gain d’information. Si l’ob-
jectif est d’effectuer un minimum de test, nous pouvons de réaliser un de ces deux proto-
coles.
Puisque le protocole η2 donne de bons résultats, nous le choisissons et définissons main-
tenant les protocoles expérimentaux comme le nombre de fréquences propres utilisées com-
me données observables. Six ont été prises précédemment, l’analyse est conduite pour deux
à treize fréquences propres. Le protocole η j est maintenant la mesure des j + 1 premières
fréquences propres. Les évolutions des fonctions d’utilités UKL(d,η) et UjointKL (d,η) pour un
protocole donné sont représentées figure 3.16. Les calculs ont été réalisés avec le MEF exact.
Après le protocole η7, le gain d’information évolue peu. Par conséquent, la mesure des huit
premières fréquences propres semble suffisante pour obtenir un bon niveau d’information.
(a) (b)
Fig. 3.16 – Évolution des fonctions d’utilité pour la deuxième configuration : (a) UKL(d,η), (b)
UjointKL (d,η)
Bien qu’académique, cet exemple illustre que certaines configurations peuvent être plus
121
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
informatives que d’autres mais aussi que le gain d’information peut être « saturé ». Multiplier
les expériences n’est donc pas toujours utile.
Carter de moteur
(a) (b)
(c) (d)
Fig. 3.17 – (a) FBH ; (b) FBH-PS ; (c) points de mesures de FBH ; (d) points de mesures deFBH-PS
Dans cette application, nous nous intéressons au comportement dynamique de la sous-
structure SS3 du rotor présenté figure 2.13. Des données expérimentales sont disponibles
pour deux configurations de cette structure. Les figures 3.17a et 3.17c représentent respec-
tivement le MEF de FBH en condition libre-libre et les points de mesures. La figure 3.17b
représente la structure FBH en condition libre-libre mais chargée par un arbre. Le système
sera appelé FBH dans la première configuration et FBH-PS dans la deuxième. Les points de
mesures sur FBH-PS sont reportés figure 3.17d. De l’analyse modale expérimentale de ces
deux configurations sur [0 ; 900 Hz], respectivement onze et douze fréquences et vecteurs
propres sont extraits pour FBH et FBH-PS. Le MEF de FBH est plus raffiné que celui utilisé
lors de la condensation du rotor. Ce MEF contient 18 144 ddls.
Seules les onzes premières fréquences propres sont considérées. Supposons que nous
cherchions à calibrer les deux MEFs vis-à-vis des fréquences expérimentales. Au préalable
une étude de sensibilité de type Morris est réalisées. 47 paramètres, des épaisseurs d’élé-
ments coques et des aires d’éléments poutres, sont sélectionnés pour être analysés. Pour
tous les paramètres, les valeurs varient entre 0,5 et 1,5 fois les valeurs nominales. Après ana-
lyse, dix paramètres sont retenus. Les éléments finis concernés sont représentés figure 3.18.
Une analyse de sensibilité dans la seconde configuration n’est pas exécutée. Peut être que les
122
3.3 Planification d’essais pour le gain d’informations
paramètres influents sont différents. Notre but est de déterminer quelles sont les meilleures
données pour recaler les deux MEFs avec les mêmes paramètres et ensuite de vérifier les
résultats avec les mesures expérimentales. Les fréquences propres des deux configurations
sont-elles assez informatives pour identifier les paramètres ? Avec la méthodologie présentée
dans cette étude, nous allons quantifier l’information de ces deux protocoles expérimentaux.
Fig. 3.18 – Éléments finis associé aux paramètres utilisés pour recaler FBH
Tout d’abord, pour chaque configuration, les données observées sont simulées avec les
valeurs nominales du MEF. Pour FBH et FBH-PS, les deux protocoles expérimentaux sont la
mesure des onzes premières fréquences propres. Les données observées sont donc
dobs =
f1, f2 . . . , f11=
d obs
1 ,d obs2 , . . . ,d obs
11
. Les deux protocoles sont respectivement notés
ηFBH et ηFBH-PS. Un bruit gaussien est encore utilisé pour simuler les incertitudes expérimen-
tales. Pour j = FBH; FBH-PS, nous avons
ρD(d,η j ) ∝ exp
−1
2
11∑
i=1
(di −d obs
i
σobsi
)2
, (3.49)
avec σobsi
= 0,02×d obsi
.
m = m1,m2, . . . ,m10 contient les paramètres sélectionnés. L’ensemble nominal est noté
m(0) =
m(0)1 ,m(0)
2 , . . . ,m(0)10
. La densité a priori est uniforme et ces bornes sont Binf
k= 0,5×
m(0)k
et Bsupk
= 1,5×m(0)k
.
Le calcul exact n’étant pas possible, le krigeage est utilisé pour prédire les réponses du
MEF. Les métamodèles sont construits avec une base d’apprentissages de 1 000 couples
entrées-sorties, les paramètres prenant des valeurs entre 0,5 et 1,5 fois leurs valeurs nomi-
nales. Une base de test de 200 données est aussi calculée avant de tester les métamodèles.
Le tableau 3.2 montre les résultats des comparaisons entre les sorties de la base de données
et les sorties des modèles de krigeage. Les résultats sont excellents pour FBH-PS et FBH. La
différence de précision est sûrement due à la plus faible variabilité des réponses de FBH-PS
comparée à celles de FBH. Par conséquence, l’approximation est plus facile pour FBH-PS.
Avec m(0) comme point de départ, la simulation de Monte Carlo est fixée à 500 000 itéra-
tions.
123
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
Tab. 3.2 – Erreurs du krigeage sur la base de test
FBH FBH-PS
Mode R2 ERAM MERA R2 ERAM MERA
1 0,99 7,19×10−2 0,65 0,99 5,84×10−3 2,11×10−2
2 0,99 6,68×10−2 0,32 0,99 5,54×10−3 2,56×10−2
3 0,99 6,68×10−2 0,30 0,99 5,53×10−3 2,56×10−2
4 0,95 0,44 4,92 0,99 2,14×10−2 7,36×10−2
5 0,99 6,76×10−2 0,33 0,99 2,37×10−2 8,56×10−2
6 0,99 0,32 3,51 0,99 5,99×10−3 3,08×10−2
7 0,97 0,60 5,52 0,99 1,41×10−3 6,82×10−3
8 0,97 0,62 2,80 0,99 1,40×10−3 6,81×10−3
9 0,96 0,71 3,63 0,99 1,86×10−2 7,79×10−2
10 0,96 0,69 5,11 0,99 1,86×10−2 7,79×10−2
11 0,98 0,37 2,78 0,99 3×10−2 0,11×10−2
Les fonctions d’utilité UKL(d,η) et UjointKL (d,η) sont calculées avec 1 000 échantillons qua-
si-i.i.d. Les valeurs sont reportées dans le tableau 3.3. Nous observons que le gain d’informa-
tion est plus important pour la première configuration. Pour l’identification paramétrique,
les onzes premières fréquences propres de FBH semblent donc les plus appropriées.
Tab. 3.3 – Gain d’information pour les observations simulées
FBH
m1 m2 m3 m4 m5 m6 m7 m8 m9 m10
UKL(d,ηFBH) 0,45 0,34 0,06 0,61 0,01 0 0 0 0 0,06
UjointKL (d,ηFBH) 3,43
FBH-PS
m1 m2 m3 m4 m5 m6 m7 m8 m9 m10
UKL(d,ηFBH-PS) 0 0 0 0 0 0 0 0 0,11 0,49
UjointKL (d,ηFBH-PS) 0,85
L’analyse est maintenant réalisée avec les observations expérimentales. La simulation de
Monte Carlo est exécutée de la même manière et après convergence. Les résultats du ta-
bleau 3.4 montrent que, comparées à celles obtenues avec les données simulées, les valeurs
de fonctions d’utilité sont supérieures mais que ηFBH est toujours le protocole le plus infor-
matif. Avec ηFBH-PS, seuls les trois derniers paramètres ont une information non nulle. Les
valeurs moyennes des échantillons retenus ont été utilisées pour l’analyse modale de FBH et
FBH-PS. L’ensemble des paramètres est noté mFBH pour FBH et mFBH-PS pour FBH-PS.
Dans le tableau 3.5, les erreurs relatives sont calculées pour les modes appariés ou quasi
appariés. Avant et après analyse, le nombre de modes appariés est le même. Cela semble
normal puisque seules les fréquences propres ont été utilisées pour l’identification. Avec
mFBH, les erreurs sont diminuées de manière significative pour toutes les fréquences de FBH
et pour sept modes de FBH-PS. Avec mFBH-PS, peu ou pas d’améliorations sont à noter.
Ces résultats confirment la conclusion de la première analyse, à savoir que la mesure des
124
3.3 Planification d’essais pour le gain d’informations
Tab. 3.4 – Gain d’information pour les observations expérimentales
FBH
m1 m2 m3 m4 m5 m6 m7 m8 m9 m10
UKL(d,ηFBH) 1,97 0,48 1,39 1,55 0,13 0,07 0,80 0,11 0,50 0,49
UjointKL (d,ηFBH) 8,51
FBH-PS
m1 m2 m3 m4 m5 m6 m7 m8 m9 m10
UKL(d,ηFBH-PS) 0 0,06 0 0,06 0 0 0,15 2,63 2,86 1,51
UjointKL (d,ηFBH-PS) 6,74
fréquences propres provenant de FBH est importante pour calibrer les MEFs.
Tab. 3.5 – Erreurs sur les fréquences pour différents ensembles de paramètres
FBH
Mode Expérimental ǫ f avec m(0)FBH ǫ f avec mFBH ǫ f avec mFBH-PS
1 254,06 × × ×2 331,27 10,71 0,16 11,163 335,42 11,61 1,05 12,034 632,83 11,93 0,36 9,395 639,24 12,82 0,64 10,296 650,98 × × ×7 881,86 10,27 1,80 7,908 887,86 11,73 0,07 7,699 928,32 5,79 2,19 5,9310 932,72 6,23 2,65 6,3711 951,04 8,04 3,20 7,06
FBH-PS
Mode Expérimental ǫ f avec m(0)FBH ǫ f avec mFBH ǫ f avec mFBH-PS
1 188,77 × × ×2 233,00 8,66 14,19 7,413 237,12 6,76 12,20 5,544 367,31 19,47 9,96 19,885 371,87 20,28 10,75 20,656 457,19 2,61 4,67 2,237 486,62 3,59 1,66 3,958 636,62 12,46 0,23 9,939 640,83 13,03 0,89 10,5210 883,35 10,43 1,64 7,3011 887,66 11,77 0,02 8,51
125
Chapitre 3. Aide à la décision pour l’identification et la planification d’essais
3.4 Conclusion
Nous avons présenté dans ce chapitre une formulation générale du problème inverse
permettant de combiner les informations a priori sur les observations et les paramètres avec
d’éventuelles incertitudes sur le modèle afin d’obtenir une information a posteriori compa-
tible avec les mesures. Cette procédure demande un algorithme d’échantillonnage dont le
coût a été significativement réduit par l’utilisation de métamodèles.
Une approche bayésienne des plans d’expérience a été aussi utilisée pour estimer le
contenu informatif des mesures expérimentales. Nous proposons dans cette étude d’utiliser
un MEF de référence basé sur la connaissance du concepteur et de s’en servir pour simu-
ler des données bruitées. Des densités de probabilités a posteriori associées avec les para-
mètres d’intérêt sont ensuite estimées par la théorie des problèmes inverses et finalement
les fonctions d’utilité sont calculées. Le processus est répété pour diverses configurations ou
conditions limites du MEF pour trouver les expériences maximisant le gain d’information.
126
Chapitre 4Aide à la décision par approche info-gap
Sommaire4.1 La théorie info-gap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.2 Le modèle info-gap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.3 Les fonctions robustesse et opportunité . . . . . . . . . . . . . . . . . . 129
4.1.4 Calcul de courbes de robustesse et d’opportunité . . . . . . . . . . . . . 129
4.2 Évaluation de la robustesse des méthodes de recalage . . . . . . . . . . . . . 132
4.2.1 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.3 De la robustesse des modèles optimaux . . . . . . . . . . . . . . . . . . . . . . 135
4.3.1 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Dans ce dernier chapitre, la théorie info-gap est exploitée pour la résolution de pro-
blèmes de conception robuste. Après la présentation de cette formulation, la méthode info-
gap est appliquée pour évaluer la robustesse de deux méthodes de recalage. Dans la dernière
section, nous étudierons la robustesse d’un modèle optimal pour un problème d’identifica-
tion.
127
Chapitre 4. Aide à la décision par approche info-gap
4.1 La théorie info-gap
4.1.1 Présentation
Proposée au début des années 90 par Ben-Haim et Elishakoff [19], la théorie info-gap
a été développée afin de traiter des problèmes de décision en présence de très grandes in-
certitudes. L’incertitude info-gap peut être vue comme une combinaison de l’incertitude de
Knight et du concept de rationnalité limitée [194]. L’incertitude de Knight [101] décrit un
risque pour lequel il n’existe pas de mesure objective de probabilité. Le concept de rationa-
lité limitée développé par Simon [186], s’applique lorsque la rationalité de l’individu face à
un choix est restreinte de par ses limites intellectuelles et son manque d’information. Face
à des situations où l’information est manquante, incertaine, douteuse, où par exemple les
ressources informatiques sont limitées, le décideur est invité à trouver une solution satisfai-
sante plutôt qu’une solution optimale. C’est là tout l’esprit de l’approche info-gap.
Un modèle info-gap définit l’écart – gap – entre ce qui est connu, la valeur nominale
des paramètres dans notre cas, et l’information que nous avons besoin de connaître afin de
satisfaire un critère de conception donné. C’est une quantification non-probabiliste de l’in-
certitude. Ce type de modèle sera présenté dans le paragraphe suivant.
Les applications de la théorie info-gap couvrent désormais un large panel de disciplines
scientifiques. En ce qui concerne l’étude de modèles élastodynamiques, des travaux ont déjà
concerné le recalage [18, 71], la fiabilité [202, 204], le positionnement optimal de capteurs et
d’excitateurs [203] ou encore la conception de structures sismiques [195].
4.1.2 Le modèle info-gap
Lorsque les données sur les incertitudes sont limitées, une description probabiliste des
incertitudes peut ne pas être fiable voire impossible à définir. La formulation info-gap per-
met de représenter de façon non-probabiliste ces incertitudes. Un modèle convexe info-gap
définit l’écart entre le degré d’incertitude d’une variable incertaine autour de sa valeur no-
minale. Cet écart est caractérisé par un paramètre α, appelé horizon d’incertitude.
De nombreux modèles info-gap existent [16]. Nous nous contentons ici de présenter le
modèle dit info-gap enveloppe. Si c est le vecteur de m paramètres incertains et c(0) celui des
valeurs nominales de ces paramètres, alors une définition du modèle enveloppe est
U(α,c(0))=
c :
∣∣∣∣c−c(0)
c(0)
∣∣∣∣≤ wα
, α≥ 0, c ∈ℜm×1, w ∈ℜm×1, (4.1)
avec w un vecteur de coefficients de pondération permettant d’affecter une valeur d’incer-
titude différente aux paramètres. Les valeurs de chaque paramètre ci varient donc entre
(1−wi α)c(0)i
et (1+wi α)c(0)i
.
Pour des paramètres c dont on souhaiterait limiter la variation à l’intervalle [cmin ; cmax],
on peut utiliser le modèle
U(α,c(0))=
c : (1−wα)c(0) +wαcmin ≤ c ≤ (1−wα)c(0) +wαcmax
,
α≥ 0, c ∈ℜm×1, w ∈ℜm×1.(4.2)
128
4.1 La théorie info-gap
Pour des paramètres de variation logarithmique, nous proposons le modèle
U(α,c(0))=
c :
∣∣∣log( c
c(0)
)∣∣∣≤ wα
, α≥ 0, c ∈ℜm , w ∈ℜm . (4.3)
Les modèles info-gap U(α,c(0)
)suivent la propriété d’inclusion, c’est-à-dire que
α≤ α′ ⇒ U(α,c(0)
)∈U
(α′,c(0)) . (4.4)
Le degré d’incertitude augmente donc lorsque le paramètre incertain α augmente.
4.1.3 Les fonctions robustesse et opportunité
Soit p le vecteur des paramètres de conception à ne pas confondre avec les paramètres
incertains c dont l’incertitude est représentée par exemple par les équations (4.1) ou (4.3).
Soit q un vecteur réunissant les paramètres de conception et les paramètres incertains. Soit
R(q) une mesure de performance et rc la valeur critique liée à celle-ci. Par exemple, R(q) peut
être l’erreur relative absolue par rapport à la valeur nominale des paramètres.
La formulation info-gap repose principalement sur l’utilisation de fonctions de robus-
tesse et d’opportunité.
La fonction robustesse exprime le plus grand niveau d’incertitude pour lequel aucune
défaillance ne peut avoir lieu [16]. La définition utilisée dans cette étude est
α(p,rc ) = max
α : max
c∈U(α,c(0))R(q) ≤ rc
. (4.5)
La robustesse représente ici le plus grand niveau d’incertitude pour lequel la valeur critique
rc de la mesure de performance ne peut être dépassée. Nous obtenons des courbes de ro-
bustesse en traçant l’évolution de α(p,rc ) en fonction de rc .
La fonction opportunité exprime le plus faible niveau d’incertitude pour lequel une per-
formance espérée peut se produire. En effet, les incertitudes peuvent avoir de effets néfastes
mais aussi bénéfiques sur la performance d’un système. Le pendant de l’équation (4.5) pour
l’opportunité est
β(p,rc ) = min
α : min
c∈U(α,c(0))R(q) ≤ rw
. (4.6)
L’opportunité représente ici le plus faible niveau d’incertitude pour lequel une valeur rêvée
rw de la mesure de performance ne peut être atteinte.
Les courbes de robustesse et d’opportunité sont des fonctions monotones. Pour les défi-
nitions proposées ici, ces courbes sont respectivement croissante et décroissante.
Nous n’avons considéré ici qu’un seul critère de performance. Il est cependant possible
d’étendre cette approche à des problèmes nécessitant la prise en compte de plusieurs me-
sures de performances [202, 204].
4.1.4 Calcul de courbes de robustesse et d’opportunité
Des équations (4.5) et (4.6), il découle que des calculs d’optimisation sont nécessaires
pour l’obtention des courbes de robustesse et d’opportunité. Prenons par exemple la fonc-
129
Chapitre 4. Aide à la décision par approche info-gap
tion robustesse. Si l’on souhaite déterminer α(p,rc ) pour une valeur critique rc donnée, il
faut résoudre un problème non-linéaire pour lequel bien souvent aucune solution analy-
tique simple n’existe. Un algorithme itératif permettant de résoudre ce problème est décrit
dans [202, 204]. Partant d’une valeur de α empirique, cet algorithme combine interpolations
et optimisations afin d’aboutir itérativement au rc désiré et au α(p,rc ) correspondant. Cette
approche est très coûteuse. Dans la pratique, ce n’est pas rc que l’on fixe mais α. Ainsi, une
série de valeurs α1, . . . ,αi , . . . ,αnα est définie pourα, puis, pour chaque αi , le problème d’op-
timisation
rc,αi= max
c∈U(α,c(0))R(q) (4.7)
est résolu dans le cas de l’équation (4.5).
Pour l’équation (4.6), l’optimisation porte sur
rw,αi= min
c∈U(α,c(0))R(q). (4.8)
Cette approche reste encore très coûteuse. De plus, il reste à savoir si l’on peut faire confiance
à l’algorithme d’optimisation utilisé. Là encore, une incertitude mériterait d’être introduite.
Une autre approche sera utilisée dans ce travail. Elle consiste à démarrer avec α0 = 0,
calculer la mesure de performance correspondante R(q,α0), puis incrémenterα0 d’une faible
valeur, calculer la mesure de performance pour toutes les combinaisons où les paramètres
pi ∈ p atteignent leurs bornes, et ainsi de suite.
Prenons par exemple un système masse-ressort de raideur kr et de masse mr de valeurs
nominales k(0)r = 2,7×106 N.m−1 et m(0)
r = 4 kg. La fréquence propre du système est donnée
par
fp =1
2π
√kr
mr. (4.9)
Ici, nous considérons les deux paramètres incertains et donc q = c = [kr mr ]T . La fonction de
performance est
R(q) = 100×
∣∣∣ f refp − fp
∣∣∣
f refp
, (4.10)
où f refp = 900 Hz est par exemple une mesure expérimentale. Le modèle info-gap choisi est
le modèle enveloppe.
Le premier pas est le calcul de R(q) pourα0 = 0. Nous obtenons R(q,α0) = 8,71 %. Ensuite,
nous incrémentons α0 d’un pas de 0,025 pour obtenir α1 = 0,025 et calculons R(q,α1) pour
kr = (1−α)k(0)r = 2,6325×106 N.m−1 et mr = (1−α)m(0)
r = 3,9 kg,
kr = (1−α)k(0)r = 2,6325×106 N.m−1 et mr = (1+α)m(0)
r = 4,1 kg,
kr = (1+α)k(0)r = 2,7675×106 N.m−1 et mr = (1−α)m(0)
r = 3,9 kg,
kr = (1+α)k(0)r = 2,7675×106 N.m−1 et mr = (1+α)m(0)
r = 4,9 kg.
(4.11)
Pour ces quatre modèles, les valeurs de R(q,α1) sont respectivement 8,7129 %, 10,967 %,
6,4015 % et 8,7129 %. Pour la courbe de robustesse, le maximum est retenu et donc rc,α1 =10,967 %. Pour la courbe d’opportunité, le minimum est retenu et donc rw,α1 = 6,4015 %.
130
4.1 La théorie info-gap
Le calcul est ensuite poursuivit par incrément progressif de α afin d’obtenir les courbes de
robustesse et d’opportunité. Les figures 4.1a et 4.1b montrent les courbes obtenues par cette
méthode – que nous désignerons par méthode « borne » –, une méthode d’optimisation par
algorithme génétique – AG – et une méthode d’optimisation itératif de type BFGS [29, 136].
Les courbes ont été construites pour des valeurs de α allant de 0 à 0,6 avec des pas de
0,025, soit 25 valeurs de α. Nous remarquons que pour la courbe de robustesse, seule la
méthode borne permet d’aboutir à des résultats corrects. De plus, la méthode borne a né-
cessité 1+ 24× 22 = 97 calculs, contre 965 pour l’AG et 793 pour l’optimisation BFGS. Par
contre, pour la courbe d’opportunité la méthode borne s’avère moins performante. Pour
comprendre pourquoi, observons les figures 4.2a et 4.2b. Ces surfaces représentent l’évolu-
tion de R(q) en fonction des variations de q sur [(1−α)q ; (1+α)q]. Les points marquent les
couples (kr ,mr ) évalués durant les itérations de la méthode borne. La projection 4.2b sur le
plan (kr ,R(q)) montre qu’il n’est pas possible avec la méthode borne d’atteindre le minimum
de R(q). C’est pourquoi, cette méthode est inadaptée pour le calcul des courbes d’opportu-
nité telles que définies équation (4.6).
Dans cette étude, seules des courbes de robustesse sont calculées. Des tests sur plusieurs
applications nous ont conduit à préférer la méthode borne pour le calcul des fonctions ro-
bustesse.
(a)
(b)
Fig. 4.1 – Pour la méthode borne, AG et BFGS : (a) fonction robustesse ; (b) fonction oppor-tunité
131
Chapitre 4. Aide à la décision par approche info-gap
(a) (b)
Fig. 4.2 – (a) Évolution de R(q) pour q ∈ [(1−α)q ; (1+α)q] ; (b) projection sur (kr ,R(q))
4.2 Évaluation de la robustesse des méthodes de recalage
Le recalage de modèle élastodynamique a fait l’objet de nombreuses recherches. Cette
procédure consiste à modifier certains paramètres d’un modèle numérique pour que celui-
ci approche au mieux le comportement dynamique de la structure qu’il représente. De nom-
breuses méthodes de recalage ont été développées ces dernières années [149]. Elles peuvent
être classées généralement en deux types. Les méthodes directes agissent directement sur
les matrices de raideur et de masse et proposent souvent des solutions non-physiques. Les
méthodes itératives, les plus utilisées, utilisent les données modales ou les réponses fréquen-
tielles pour minimiser une fonction coût. Elles demandent souvent plus de calculs mais ont
l’avantage de laisser son caractère physique au modèle. Nous nous intéresserons ici à cette
deuxième classe de méthodes.
Nous pouvons être amenés à nous demander comment les incertitudes inhérentes à la
modélisation affectent la précision du recalage. La question est alors de savoir si la méthodo-
logie de recalage utilisée est robuste vis-à-vis des incertitudes sur certains paramètres non
pris en compte dans le processus de recalage. Pour tenter de répondre à cette question, la
formulation info-gap est utilisée dans cette étude. Deux méthodes de recalage seront tes-
tées : une méthode classique de recalage par sensibilité et une méthode de recalage basée
sur l’erreur en relation de comportement [45–47]. On trouvera en annexe D le détail de ces
deux procédures.
Avant de présenter deux applications, précisons que nous nous plaçons dans le contexte
où nous possédons un MEF à N ddls et des mesures expérimentales effectuées en c points
de la structure que le modèle représente. Les vecteurs propres expérimentaux doivent être
étendus par une méthode telle que par exemple l’expansion MDRE présentée au paragra-
phe 1.5.2. On pourra trouver dans [10, 45] plus de précisions sur les méthodologies d’expan-
sion.
132
4.2 Évaluation de la robustesse des méthodes de recalage
(a) (b)
Fig. 4.3 – (a) : MEF de plaque ; (b) : MEF et points de mesure
4.2.1 Applications
Plaque
La première structure étudiée est une plaque représentée figures 4.3a et 4.3b. La struc-
ture est modélisée par un MEF comportant 614 éléments coques et 38 éléments ressorts soit
un total de 4 206 ddls. Les ressorts présents à la base représentent grossièrement un bou-
lonnage de la structure sur un socle rigide. Ces éléments qui apparaissent en traits rouges
sur les figures 4.3a et 4.3b, ont une propriété élastique commune PELAS de valeur nominale
1011 N.m−1. Deux propriétés PSHELL sont associées aux éléments coque, PSHELL1 pour les
éléments apparaissant en gris sur la figure 4.3a et PSHELL2 pour les éléments apparaissant
en jaunes. Les épaisseurs nominales associées à ces deux propriétés sont respectivement
0,02 m et 0,05 m. Les mesures expérimentales sont simulées à partir du modèle nominal.
Les 50 ddls mesurés sont représentés par les points roses sur la figure 4.3b.
Le paramètre à recaler est p = PSHELL2. La valeur de départ est 0,02 m. Le paramètre
incertain est c = PELAS et le modèle info-gap associé est donné par l’équation (4.3). La fonc-
tion performance R(q) est l’erreur relative absolue entre la valeur nominale de p et sa va-
leur après recalage. Pour les deux méthodes exposées en annexe D et pour douze solutions
propres, les courbes de robustesse sont déterminées pour α= 0,1,2,3,4,5,6. Les évolutions
de la robustesse en fonction du critère sur la fonction performance sont fournies figures 4.4a
et 4.4b.
On constate que le recalage basé sur l’ERDC est plus robuste que celui basé sur la sensi-
bilité des solutions propres. En effet, pour une même valeur de robustesse α(p,c), la valeur
critique rc associée à la méthode par sensibilité est plus importante que pour la méthode
par ERDC. Ainsi, bien que le paramètre c ne soit pas pris en compte dans la procédure de
recalage, la méthode par ERDC est moins influencée par les variations de c que le recalage
par sensibilité. Par exemple, pour une robustesse de 4, c’est-à-dire d’après l’équation (4.3)
107 N.m−1 ≤ c ≤ 1015 N.m−1, les figures 4.4a et 4.4b montrent que l’erreur relative maximale
sera la valeur critique rc = 10,1 % pour le recalage par sensibilité mais seulement rc = 2,6 %
pour le recalage par CRE.
133
Chapitre 4. Aide à la décision par approche info-gap
(a) (b)
Fig. 4.4 – Fonction robustesse : (a) recalage par sensibilité, (b) recalage par CRE
Structure HRG
(a) (b)
Fig. 4.5 – (a) : MEF de la structure HRG ; (b) : MEF et points de mesure
Nous nous intéressons ici à l’instrument HRG du satellite SPOT 5 – figure 4.5a. Le MEF
de cette structure est composé de 3 096 éléments coques, 64 éléments volumiques, 689 élé-
ments poutres, 39 éléments barres, 148 masses ponctuelles et 289 éléments ressorts, soit un
total de 16 950 ddls. Une étude de sensibilité a amené à s’intéresser à trois propriétés no-
mées PELAS1, PELAS2 et PELAS3 associées chacune à quatre éléments ressorts localisés par
les flèches rouges figure 4.5a. Les raideurs nominales de ces propriétés sont respectivement
108 N.m−1, 107 N.m−1 et 107 N.m−1. Les paramètres à recaler sont p = [PELAS1 PELAS2]T et
c = PELAS3 est un paramètre incertain. Le modèle info-gap associé à ce paramètre est donné
équation (4.1). Là encore, les mesures expérimentales sont simulées à partir du modèle no-
minal. Les 80 ddls mesurés sont représentés par les points roses sur la figure 4.5b.
Avant recalage, les valeurs des paramètres sont égales à deux fois les valeurs nominales de
p. L’évolution des fonctions robustesses associées aux différentes procédures sont fournies
134
4.3 De la robustesse des modèles optimaux
figures 4.6a et 4.6b. Les calculs ont été réalisés pour α = 0 , 0,2 , 0,4 , 0,6 , 0,8 et pour 10
solutions propres.
Deux paramètres ont été recalés. Les figures 4.6a et 4.6b montrent que le recalage du pa-
ramètre PELAS1 est plus sensible aux incertitudes sur c que le paramètre PELAS2. Pour une
robustesse de 0,3, c’est-à-dire 7×106 N.m−1 ≤ c ≤ 1,3×107 N.m−1, nous constatons sur la
figure 4.6a que la valeur critique, c’est à dire l’erreur sur la valeur de PELAS1 par rapport à
sa valeur nominale, est de rc = 33,1 % pour le recalage par sensibilité et de rc = 12,6 % pour
le recalage par ERDC. Pour les deux méthodes, l’erreur après recalage est donc assez impor-
tante. Figure 4.6b, nous avons la courbe de robustesse pour le paramètre PELAS2. Les erreurs
sont plus faibles avec, toujours pour une robustesse de 0,3, une valeur critique de rc = 1,3 %
pour la méthode par sensibilité et rc = 6,9 % pour le recalage par ERDC. Si nous nous fixons
par exemple comme erreur maximale sur les paramètres la valeur critique rc = 5 %, alors
pour le paramètre PELAS1 la robustesse est de 0,07 pour le recalage par sensibilité et de 0,04
pour le recalage par ERDC. Elle est faible dans les deux cas. Pour le paramètre PELAS2, la
robustesse est de 0,61 pour l’approche sensibilité et de 0,26 pour le recalage ERDC. La mé-
thode par CRE est donc la plus robuste pour rc = 5 %. Nous constatons dans cette application
que la robustesse aux incertitudes dépend de la méthode mais aussi des paramètres recalés.
(a) (b)
Fig. 4.6 – Fonctions robustesse en fonction du type de recalage : (a) PELAS1, (b) PELAS2
4.3 De la robustesse des modèles optimaux
Nous allons montrer dans cette section qu’un modèle sous-optimal peut s’avérer plus
robuste que le modèle optimal. Ce fait a déjà été mis en évidence dans [17] et [195]. Dans la
première référence, l’auteur illustre cette propriété sur un exemple académique. Le but est
de recaler un modèle linéaire à partir d’un mesure issue d’un modèle non-linéaire. Dans la
deuxième référence, les auteurs s’intéressent à la conception de structures du génie civil sou-
mises à des excitations sismiques, les incertitudes portant sur l’intensité des chargements et
les paramètres d’amortissement. Dans les deux cas, les applications proposées, permettent
d’obtenir analytiquement les courbes de robustesse. Nous nous intéressons ici à des pro-
blèmes élastodynamiques ne permettant pas de calculs explicites. La procédure décrite pa-
ragraphe 4.1.4 sera utilisée pour déterminer les courbes de robustesse.
135
Chapitre 4. Aide à la décision par approche info-gap
Deux types de problèmes seront considérés ici. Nous avons dans les deux cas des para-
mètres de conception p, la différence porte sur le type d’incertitudes considérées :
– soit l’incertitude porte sur des paramètres de même nature que p, ce sont des incerti-
tudes paramétriques ;
– soit l’incertitude porte sur la nature du modèle elle-même, ce sont des incertitudes de
modélisation de type épistémiques.
Le premier cas se comprend aisément, le deuxième mérite quelques explications. Nous par-
lons ici de MEFs dont le modèle mathématique est localement une représentation simplifiée
ou erronée de la réalité. Cette simplification pouvant être volontaire ou non. Par exemple, il
est clair que les éléments de jonctions des systèmes mécaniques – boulonnages, collages,
rivetages, soudages, etc. – ont bien souvent un comportement non-linéaire. Pourtant, il sont
dans la plupart du temps modélisés linéairement, soit volontairement afin d’accélérer les
calculs, soit par manque de connaissance des phénomènes mis en jeu. La géométrie de la
structure réelle peut aussi avoir été mal représentée. Voilà ce que nous entendons par incer-
titudes de modélisations.
Nous nous intéressons ici à évaluer la robustesse des modèles optimaux. À travers une
application, nous allons constater que dans un environnement incertain, il peut être préfé-
rable de choisir un modèle sous-optimal mais « satisfaisant » plutôt qu’un modèle optimal.
4.3.1 Illustration
(a) (b)
Fig. 4.7 – Deux conceptions d’une passerelle : (a) passerelle droite ; (b) passerelle courbe
Considérons deux conceptions proposées pour une passerelle. Les MEFs présentés fi-
gures 4.7a et 4.7b comportent tous deux 1 976 ddls. La modélisation consiste en un treillis
de poutres métalliques surmonté d’un tablier en béton. Les propriétés matériaux sont les
mêmes, la portée est la même, seule la courbure diffère.
Les modèles peuvent être décomposés en deux sous-domaines : le tablier et le treillis
métallique. Les raideurs de ces deux sous-domaines sont considérées comme incertaines.
Nous avons c = [κ1κ2]T, où κ1 est un coefficient appliqué devant la matrice de raideur du
treillis et κ2 un coefficient appliqué devant la matrice de raideur du tablier. Les paramètres
de conception p sont ici fixés. Le modèle info-gap associé aux paramètres incertains est le
modèle enveloppe
U(α,c(0)) =
c :
∣∣∣∣c−c(0)
c(0)
∣∣∣∣≤ α
, α≥ 0, c ∈ℜ2, (4.12)
136
4.3 De la robustesse des modèles optimaux
avec c(0) = [1 1]T.
Supposons qu’un critère de performance spécifié dans le cahier des charges soit le maxi-
mum de l’amplitude d’une FRF mesurée sur [0 ; 20 Hz] pour une excitation et une mesure
en un point central du tablier.
Pour les deux conceptions, nous avons tracé pour différentes valeurs de α, la robustesse
définie équation (4.5) en fonction de la valeur critique rc associées à R(q). Vingt valeurs de α
réparties régulièrement entre 0 et 0,2 ont été choisies. Pour calculer les FRFs, une base mo-
dale de 25 modes et un coefficient d’amortissement de 0,02 % sont utilisés. Les 25 modes
considérés couvrent environ la plage [0 ; 50 Hz]. Nous obtenons les deux courbes de robus-
tesse de la figure 4.8.
Fig. 4.8 – α(p,c) en fonction de rc pour deux conceptions de passerelle
Pour les deux modèles, lorsque la performance est optimale, c’est-à-dire que l’amplitude
maximale de la FRF est la plus faible, la robustesse est nulle. Un modèle optimal n’a au-
cune robustesse aux incertitudes. La performance du système n’est donc pas fiable puisque
la moindre variation des paramètres incertains est susceptible d’entraîner une dégradation
des résultats. Nous constatons que la passerelle droite permet d’obtenir la meilleur perfor-
mance. Nous le désignerons par modèle performance-optimal. Le modèle poutre courbe est
donc non-performance-optimal. Cependant, à mesure que la critère de performance rc de-
vient moins sévère, les courbes de robustesse se rapprochent et viennent à se croiser. Pour un
même critère de performance, il peut donc arriver que le modèle non-performance-optimal
soit plus robuste que le modèle performance-optimal. Pour certains niveaux de performan-
ce, le modèle non-performance-optimal devient en quelque sorte optimal-robuste.
Supposons désormais que la passerelle courbe soit une représentation fidèle de la réa-
lité. Ce modèle sera donc considéré comme la réalité et ses réponses seront qualifiées d’ex-
périmentales. La valeur des dix premières fréquences propres sont ainsi disponibles. Nous
souhaitons calibrer le MEF afin de minimiser l’écart avec ces mesures. Prenons la situation
où un concepteur peu expérimenté ou maladroit aurait modélisé cette passerelle légère-
ment courbe par une passerelle droite. Sachant que le modèle est fondamentalement erroné,
qu’est-ce que le recalage de ce modèle implique en terme de robustesse ? Nous considérons
toujours les deux coefficients de raideur comme incertains. Souhaitant limiter leur espace
137
Chapitre 4. Aide à la décision par approche info-gap
de variation, le modèle info-gap choisit est
U(α,c(0)) =
c : (1−α)c(0) +αcmin ≤ c ≤ (1−α)c(0) +αcmax
, α≥ 0, c ∈ℜm . (4.13)
avec cmin = [0,8 0,8]T, cmax = [1,2 1,2]T et toujours c(0) = [1 1]T.
Un coefficient à appliquer à la matrice de masse du treillis de poutre est pris comme
paramètre de conception p. Sa valeur nominale est p(0) = 1. Nous n’utilisons pas ici une
méthode de recalage. La mesure de performance est l’erreur absolue moyenne ERAM cal-
culée par rapport aux dix fréquences propres mesurées sur la passerelle courbe. 50 valeurs
de α distribuées entre 0 et 1 ainsi que 30 valeurs de p variant entre 0,5× p(0) et 1,5× p(0)
sont utilisées pour tracer les courbes de robustesses. Les courbes obtenues sont représen-
tées en « 2-D » sur les figures 4.9a et 4.9b, en « 3-D » sur la figure 4.10. La représentation 2-D
permet de bien apprécier le croisement des courbes. La courbe en pointillée est celle asso-
ciée au paramètre correspondant à l’erreur minimale r ∗c . Le paramètre est alors p∗ = 1,13 et
r ∗c = 5,07. Le zoom de la figure 4.9b montre que le croisement intervient pour des niveaux
d’incertitude très faibles. Pour α= 0,1, c’est-à-dire 0,95 ≤ c ≤ 1,05, le modèle performance-
optimal est déjà moins robuste qu’un autre modèle. Sur la surface α(p,c) en fonction de rc
et p de la figure 4.10, la courbe en pointillée est toujours la courbe de robustesse du modèle
performance-optimal. Avec la courbe en trait continu, on peut suivre l’évolution de
min0,5≤p≤1,5
rc (4.14)
en fonction de α(p,c). La non concordance des deux courbes indique que à mesure que la
tolérance sur le critère de performance augmente, le modèle optimal-robuste s’éloigne du
modèle performance-optimal.
(a) (b)
Fig. 4.9 – (a) Courbes de robustesse en vue 2-D pour différentes valeurs de p ; (b) zoom surla vue 2-D
Plaçons nous à rc = 9,1, soit une ERAM de 9,1 %, et traçons la robustesse en fonction
de p. Nous obtenons la courbe figure 4.11 calculée par interpolation à partir des données.
Nous constatons que le paramètre p = 1,07 maximise la robustesse, c’est donc le modèle
138
4.4 Conclusions
Fig. 4.10 – Courbes de robustesse en vue 3-D pour différentes valeurs de p
optimal-robuste pour rc = 9,1. En p = 1,07, la robustesse est α(1,07,c)|rc=9,1 = 0,46. Cela si-
gnifie qu’un modèle avec p = 1,07 garantira une performance inférieure à rc = 9,1, et ce,
même si 0,77 ≤ c ≤ 1,23. À ce niveau de performance fixé, le modèle performance-optimal
p∗ est lui moins robuste. La robustesse est α(1,13,c)|rc=9,1 = 0,4.
Fig. 4.11 – α(p,c) en fonction de p pour rc = 9,1
4.4 Conclusions
Dans la première section, nous avons utilisé une approche info-gap pour évaluer la ro-
bustesse d’une méthode de recalage. Sur les deux exemples étudiés, le recalage basé sur la
ERDC apparaît plus robuste que le recalage par sensibilité. Il serait toutefois hasardeux de
généraliser à partir de ces deux simulations numériques simples. Il a cependant été mis en
évidence que la robustesse du recalage peut varier suivant la méthode utilisée et les para-
139
Chapitre 4. Aide à la décision par approche info-gap
mètres recalés.
L’application réalisée dans la deuxième section nous a permis d’établir les conclusions
suivantes :
– la performance optimale d’un modèle ne supporte pas les incertitudes. Quel que soit
le modèle, la robustesse aux variations des paramètres incertains est nulle pour une
valeur de rc minimale ;
– les courbes de robustesse peuvent se croiser. Pour une même valeur rc , un modèle
non-performance-optimal peut être plus robuste que le modèle performance-optimal ;
– il résulte du point précédent que le modèle optimal-robuste peut être différent du mo-
dèle performance-optimal.
En pratique, il est donc préférable en présence d’incertitudes, de privilégier un modèle « sa-
tisfaisant » à un modèle optimal.
140
Conclusions et perspectives
Conclusions
Dans ce mémoire, nous avons développé différentes méthodes pouvant intervenir dans
le processus de conception robuste sous forme d’outils d’aide à la décision. Elles visent prin-
cipalement à accélérer la vitesse des calculs, à étudier et prendre en compte les effets des
incertitudes. Les différents points abordés sont les suivants.
Nos premières contributions concernent la synthèse modale. Les modes propres ortho-
gonaux ont tout d’abord été utilisés pour la sous-structuration dynamique. Cette approche
avait déjà été décrite dans la littérature sur des structures simples. Nous proposons ici sur
des MEFs de tailles significatives, une façon originale d’obtenir les modes composants. Cette
approche s’inscrit seulement dans le cadre de la réanalyse approchée où il est acceptable de
faire au moins une analyse modale du système complet de référence. Si les modes exacts
complets ne sont pas disponibles, nous proposons d’utiliser les modes obtenus par une mé-
thode de condensation plus classique afin de calculer les POMs. Pour une taille pouvant être
beaucoup plus petite, la précision du modèle réduit par les POMs est alors la même que celle
de la méthode de réduction classique utilisée. Une méthode hybride utilisant les modes d’at-
tache résiduels et les POMs a aussi été proposée. Son efficacité est bonne mais il nous semble
préférable d’utiliser seulement les POMs et d’adapter l’assemblage. Nous avons montré que
la réduction par POMs peut être employée pour la réanalyse de modèles basée sur l’adjonc-
tion de vecteurs résiduels caractéristiques des modifications paramétriques. L’efficacité est
sensiblement la même que pour les méthodes classiques mais cette méthode a l’avantage de
fournir un modèle réduit plus petit.
Une méthodologie systématique de vérification et d’optimisation des super-éléments
des méthodes de type Craig-Bampton ou Martinez a été proposée. Elle est formulée en trois
étapes. La première étape consiste à filtrer les modes composants inutiles dans la bande fré-
quentielles d’intérêt, en examinant le taux de participation des modes normaux des sous-
structures au modes du système complet et les masses modales effectives. La deuxième
étape est une localisation des sous-structures mal condensées. Nous utilisons à cet effet une
technique habituellement réservée à la localisation d’erreurs de modélisation. Une fois les
super-éléments à améliorer identifiés, la dernière étape est une correction par des résidus
issus du calcul de localisation. Le modèle réduit est au final prédictif sur la bande fréquen-
tielle d’intérêt, et ce, pour un nombre de ddls minimum. Cette approche nécessite les modes
ou au moins la matrice de raideur du système complet et semble davantage apropriée au cas
où l’on souhaite déterminer une base pour de la réanalyse approchée.
141
Conclusions et perspectives
Concernant la synthèse modale, notre dernière contribution concerne la sélection op-
timale des coordonnées physiques dans les méthodes de réduction type Guyan ou Craig-
Bampton. Pour un nombre de ddls fixés a priori, nous montrons qu’un algorithme génétique
permet de réaliser cette sélection. Afin d’accélérer la convergence de l’algorithme, nous pro-
posons de se limiter aux ddls de translations internes et de partir d’une population initiale
composée des ddls indiqués par une décomposition QR réalisée sur la base modale réduite
aux ddls de translations internes.
Nous avons ensuite étudié pour des structures élastodynamiques, la possibilité d’utiliser
une formulation probabiliste des problèmes inverses combinant les informations a priori
sur les paramètres, les modèles d’incertitudes sur les mesures réelles ou simulées et les in-
certitudes sur le modèle. Cette formulation a été appliquée afin d’obtenir des densités de
probabilité a posteriori sur les paramètres d’intérêt. L’obtention de ces résultats nécessitent
une simulation de Monte Carlo basée sur l’algorithme de Metropolis-Hastings. Les calculs
avec la structure exacte étant en général non envisageables, nous avons proposé de les réa-
liser avec des métamodèles. Pour cela, les surfaces de réponses, les réseaux de neurones et
le krigeage ont été testés. Les réseaux ou le krigeage montrant les plus grandes précisions,
nous pensons qu’il est préférable d’utiliser ces approches.
Cette formulation probabiliste nous a aussi servi à quantifier l’information susceptible
d’être obtenue grâce à des mesures expérimentales. L’étude se base sur l’utilisation des plans
d’expérience bayésiens. Il s’agit d’une approche connue mais peu utilisée en dynamique des
structures. À l’aide de fonction d’utilité bien choisies, nous avons montré sur deux applica-
tions que cette approche permet d’identifier les expériences succeptibles d’augmenter l’in-
formation sur les paramètres de modèle d’intérêt.
Dans la dernière partie de ce mémoire, l’approche de modélisation des incertitudes info-
gap a tout d’abord été employée afin d’évaluer la robustesse aux incertitudes des méthodes
de recalage lorsque des paramètres incertains ne sont pas utilisés dans la procédure de re-
calage. Une comparaison a été réalisée pour le recalage par sensibilité et le recalage basé sur
la minimisation de la ERDC. Il est apparu que suivant la méthode utilisée et les paramètres
recalés, la robustesse peut varier d’une méthode à l’autre. Bien que pour nos applications le
recalage ERDC semble plus robuste, nous nous garderons bien de conclure quant à la supé-
riorité de cette technique par rapport aux autres méthodes de recalage.
La formulation info-gap a permis de constater que, dans un environnement incertain et
pour un critère de performance donné, il peut être préférable de choisir un modèle « satisfai-
sant » plutôt qu’un modèle optimal. Cette remarque avait déjà été faite dans d’autres travaux
sur des modèles simples disposant d’une solution analytique. Nous l’avons appliquée ici à
une structure élastodynamique ne possédant pas de solution analytique.
L’ensemble des outils présentés dans ce mémoire a fait l’objet d’une intégration dans le
logiciel AESOP [121], plate-forme logicielle développée sous MATLABr [136] au Départe-
ment Mécanique Appliquée de l’institut FEMTO-ST.
142
Conclusions et perspectives
Perspectives
Les travaux exposés dans ce mémoire ne constituent évidemment pas une fin en soi. De
nombreux points restent à améliorer et de potentielles investigations s’offrent à nous.
La méthode de construction de la base de POM semble bien adaptée au traitement de
système non-linéaires. En effet, partant uniquement de réponses fréquentielles des sous-
structures, que ces dernières soient issues de modèles linéaires ou non, le processus de
construction de la base de réduction reste le même.
L’inconvénient majeur de l’emploi d’un algorithme génétique lors de la sélection des ddls
maîtres optimaux, est le temps de calcul. L’utilisation de métamodèles prédisant correcte-
ment la première fréquence propres du système esclave permettrait certainement de réduire
significativement ces temps de calcul.
Dans la formulation du problème inverse, l’échantillonnage des densités de probabilité
a posteriori est réalisé par un algorithme du type Metropolis-Hastings. Il existe cependant
dans la littérature bien d’autres algorithmes d’échantillonnage. Il serait intéressant de choi-
sir parmi ceux-ci l’approche optimisant la vitesse de convergence. Dans les applications pro-
posées, les mesures expérimentales ont principalement été simulées et lorsqu’elles étaient
disponibles, nous n’avions pas de modèles d’incertitude rigoureux à leur appliquer. La vali-
dation de l’approche proposée sur un cas test industriel est un de nos objectifs majeurs.
La même remarque pourrait être faite en ce qui concerne les applications info-gap qui,
sans rien enlever à l’intérêt de la méthode, se limitent pour l’instant à des cas académiques.
Enfin, puisque que nous avons proposé d’utiliser les modes propres orthogonaux en
réanalyse approchée, il pourrait être intéressant lors de la construction des métamodèles,
d’utiliser cette approche afin de remplacer une partie des calculs exacts nécessaires aux
bases d’apprentissage et de validation.
143
Bibliographie
[1] AHMADIAN H., MOTTERSHEAD J. E. et FRISWELL M. I. – Regularisation methods for
finite element model updating. Mechanical Systems and Signal Processing, 12(1):47–
64, 1998.
[2] AIT BRIK B. – Méthodologies de conception robuste et d’optimisation dans un contexte
de conception d’architectures mécaniques nouvelles en avant projet. Thèse, Université
de Franche-Comté, Besançon, 2005.
[3] AIT BRIK B., COGAN S., BOUHADDI N. et HUANG S. J. – Multiobjective optimisation
with robustness and uncertainty. In TOPPING B. H. V., éditeur – Proceedings of the
Seventh International Conference on the Application of Artificial Intelligence to Civil
and Structural Engineering, Stirling, UK, 2003. Civil-Comp Press.
[4] ARNST M. – Inversion of probalistic models of structures using measures transfer func-
tions. Thèse, École Centrale Paris, Paris, 2007.
[5] AZEEZ M. F. A. et VAKAKIS A. F. – Proper orthogonal decomposition (POD) of a class
of vibroimpact oscillations. Journal of Sound and Vibration, 240(5):889–889, 2001.
[6] BAI Z. – Krylov subspace techniques for reduced-order modeling of large-scale dyna-
mical systems. Applied Numerical Mathematics, 43(1-2):9–44, 2002.
[7] BAILLARGEON S. – Le krigeage : revue de la théorie et application à l’interpolation spa-
tiale de données de précipitations. Maîtrise, Faculté des études supérieures de l’Uni-
versité Laval, Laval, Québec, 2005.
[8] BALMÈS E. – Parametric families of reduced finite element models. Theory and appli-
cations. Mechanical Systems and Signal Processing, 10(4):381–394, 1996.
[9] BALMÈS E. – Modèles expérimentaux complets et modèles analytiques réduites en dy-
namique des structures. Mémoire hdr, Université Pierre et Marie Curie - Paris VI, Paris,
1997.
[10] BALMÈS E. – Review and evaluation of shape expansion methods. In Proceedings of
IMAC XVIII, pages 555–561, 2000.
[11] BALMÈS E., BIANCHI J.-P. et LECLÈRE J.-M. – Structural Dynamics Toolbox for use with
MATLAB. SDTools, 2007. User’s Guide Version 6.0.
[12] BAMFORD R. M. – A modal combination program for dynamic analysis of structures.
Tech. Memo 33-290, Jet Propulsion Laboratory, Pasadena, July 1 1967.
[13] BAYES T. – An essay towards solving a problem in the doctrine of chances. Philosophi-
cal Transactions of the Royal Society, LIII:376–418, 1763.
145
Bibliographie
[14] BELEY J. D., BROUDISCOU C., GUILLAUME P., MASMOUDI M. et THEVENON F. – Appli-
cation de la méthode des dérivées d’ordre élevé à l’optimisation de structures. Revue
européenne des éléments finis, 5(5-6):537–567, 1996.
[15] BEN ABDALLAH J. – Inversion gaussienne appliquée à la correction paramétrique de
modèles structuraux. Thèse de doctorat, École Polytechnique, Palaiseau, 1995.
[16] BEN-HAIM Y. – Information-gap Decision Theory : Decisions Under Severe Uncertainty.
Academic Press, San Diego, 2001.
[17] BEN-HAIM Y. – Engineering Design Reliability Handbook, chapitre Info-gap Decision
Theory For Engineering Design. Or : Why ‘Good’ is preferable to ‘Best’. Edited by E.
Nikolaides, D. Ghiocel and Surendra Singhal, CRC Press, 2005.
[18] BEN-HAIM Y., COGAN S. et SANSEIGNE L. – Usability of mathematical models in me-
chanical decision processes. Mechanical Systems and Signal Processing, 12(1):121–134,
1998.
[19] BEN-HAIM Y. et ELISHAKOFF I. – Convex Models of Uncertainty in Applied Mechanics.
Elsevier Science Publishers, 1990.
[20] BENFIELD W. A. et HRURDA R. F. – Vibration analysis of structures by component mode
substitution. AIAA Journal, 9(7):1255–1261, 1971.
[21] BERTHOD C. – Identification paramétrique de grandes structures : réanalyse et méthode
évolutionnaire. Thèse, Université de Franche-Comté, Besançon, 1998.
[22] BOBILLOT A. – Méthodes de réduction pour le recalage - Application au cas d’Ariane 5.
Thèse de doctorat, École Centrale Paris, Paris, 2002.
[23] BOUAZIZI M. L., GUEDRI M. et BOUHADDI N. – Robust component modal synthesis
method adapted to the survey of the dynamic behaviour of structures with localised
non-linearites. Mechanical Systems and Signal Processing, 20:131–157, 2006.
[24] BOUAZZOUNI A., LALLEMENT G. et COGAN S. – Selecting a Ritz basis for reanalysis of
frequency response functions of modified structures. Journal of Sound and Vibration,
199(2):309–322, 1997.
[25] BOUHADDI N. et FILLOD R. – A method for selecting master DOF in dynamic substruc-
turing using the guyan condensation method. Computers & Structures, 45(5-6):941–
946, 1992.
[26] BRAHMI K. – Double condensation en sous-structuration dynamique. Thèse, Université
de Franche-Comté, Besançon, 1996.
[27] BREUER H. S. et SIROVICH L. – The use of Karhunen-Loève procedure for calculation
of linear eigenfunctions. Journal of Computational Physics, 96:277–296, 1991.
[28] BROOKS S. P. – Quantitative convergence assessment for Markov chain Monte Carlo
via cusums. Statistics and Computing, 8:267–274, 1998.
[29] BROYDEN C. G. – The convergence of a class of double-rank minimization algorithms
2 : the new algorithm. Journal of the Institute of Mathematics and its Applications,
6:222–231, 1970.
[30] CAMPOLONGO F., CARIBONI J. et SALTELLI A. – An effective screening design for sensi-
tivity analysis of large models. Environmental Modelling and Software, 22:1509–1518,
2007.
146
Bibliographie
[31] CAMPOLONGO F. et SALTELLI A. – Sensitivity analysis of an environmental model : an
application analysis methods. Reliability Engineering and System Safety, 57(1):49–69,
1997.
[32] CARO S. – Conception robuste de mécanismes. Thèse, École centrale de Nantes, Nantes,
2004.
[33] CHEN C., DUHAMEL D. et SOIZE C. – Probabilistic approach for model and data uncer-
tainties and its experimental identification in structural dynamics : Case of composite
sandwich panels. Journal of Sound and Vibration, 294(1-2):64–81, 2006.
[34] CHEN S. H., YANG X. W. et LIAN H. D. – Comparison of several reanalysis methods for
modified structures. Structural and Multidisciplinary Optimisation, 20:253–259, 2000.
[35] CHIAO K. P. – A systematic coupling procedure for component mode synthesis with
least squares model reduction. In Proceedings of IMAC XIV, pages 579–585, 1996.
[36] CORUS M. – Amélioration des méthodes de modification structurale par utilisation de
techniques d’expansion et de réduction de modèle. Thèse, École Centrale Paris, Paris,
2003.
[37] CRAIG R. R., Jr. – Coupling of substructures for dynamic analyses : an overview. In 42st
AIAA/ASME/ASCE/AHS/ASC Structure, Structural Dynamics, and Materials Conference
and Exhibit, volume 5, pages 3–14, Atlanta, 2000.
[38] CRAIG R. R., Jr. et BAMPTON M. C. C. – Coupling of substructures for dynamic ana-
lyses. AIAA Journal, 6(7):1313–1319, 1968.
[39] CRAIG R. R., Jr. et CHANG C.-J. – On the use of attachment modes in substructure
coupling for dynamic analysis. In AIAA/ASME 18th Structures, Structural Dynamics
and Materials Conference, pages 89–99, San Diego, 1977. Paper 77-405.
[40] CRAIG R. R., Jr. et HALE A. L. – Block-Krylov component synthesis method for structu-
ral model reduction. AIAA Journal of Guidance, Control, and Dynamics, 11(6):562–570,
1988.
[41] CUKIER R. I., LEVINE H. B. et SHULER K. E. – Nonlinear sensitivity analysis of multi-
parameter model systems. Journal of Computional Physics, 26:1–42, 1978.
[42] DAVIDSSON P. – Structure-acoustic analysis ; finite element modelling and reduction
methods. Thèse, Université de Lund, Lund, Suède, 2003.
[43] DAYAL P. et TROYER M. – The iterative eigenproblem template library. ff, 2002.
[44] DEMPSTER A. P. – Upper and lower probabilities generated by a random interval. An-
nals of Mathematical Statistics, 39(3):957–966, 1968.
[45] DERAEMAEKER A. – Sur la maîtrise des modèles en dynamique des structures à partir
de résultats d’essais. Thèse de doctorat, École Normale Supérieure de Cachan, Cachan,
2001.
[46] DERAEMAEKER A., LADEVÈZE P. et LE LOCH S. – Results obtained by the CRE updating
method using a plate model. Mechanical Systems and Signal Processing, 17(1):47–54,
2003.
[47] DERAEMAEKER A., LADEVÈZE P. et LECOMTE P. – Reduced bases for model updating
in structural dynamics based on constitutive relation error. Computers Methods in
Applied Mechanics and Engineering, 191:2427–2444, 2002.
147
Bibliographie
[48] DESSOMBZ O., THOUVEREZ F., LAÎNÉ J. P. et JÉZÉQUEL L. – Analysis of mechanical sys-
tems using interval comptations applied to finite element methods. Journal of Sound
and Vibration, 239(5):949–968, 2001.
[49] DOWNS B. – Accurate reduction of stiffness and mass matrices for vibration analysis
and rationale for selecting master degrees of freedom. Journal of Mechanical Design,
102, 1980.
[50] DREYFUS G., MARTINEZ J. M., SAMUELIDES M., GORDON M. B., BADRAN F., THIRIA S.
et HÉRAULT L. – Réseaux de neurones : méthodologie et applications. Eyrolles, 2004.
[51] DUBOIS D. et PRADE H. – Possibilistic logic : a retrospective and prospective view.
Fuzzy sets and Systems, 144(1):3–23, 2004.
[52] DYN N., LEVIN D. et RIPPA S. – Numerical procedures for surface fitting of scattered
data by radial basis functions. SIAM Journal of Scientific and Statistical Computing, 7
(2):639–659, 1986.
[53] EFRON B. et TIBSHIRANI R. J. – An introduction to the Bootstrap, volume 57 de Mono-
graphs on Statistics and Applied Probability. Chapman & Hall, London, 1993.
[54] FEENY B. F. et KAPPAGANTU R. – On the physical interpretation of proper orthogonal
modes in vibrations. Journal of Sound and Vibration, 211(4):607–616, 1998.
[55] FISCHER R. – Bayesian experimental design - Studies for fusion diagnostics. AIP confe-
rence proceedings, 735:76–83, 2004.
[56] FISSETE E., IBRAHIM S. et STAVRINIDIS C. – Error location and updating of analytical
dynamic models using a force balance method. In Proceedings of IMAC VI, pages 1063–
1070, 1998.
[57] FONSECA J. R., FRISWELL M. I., MOTTERSHEAD J. E. et LEES A. W. – Uncertainty iden-
tification by the maximum likelihood method. Journal of Sound and Vibration, 288
(3):587–599, 2005.
[58] FORESEE F. D. et HAGAN M. T. – Gauss-newton approximation to bayesian regulari-
zation. In Proceedings of the 1997 International Joint Conference on Neural Networks,
pages 1930–1935, 1997.
[59] FRIEDMAN J. H. – Multivariate Adaptative Regression Spline. The Annals of Statistics,
19(1):1–141, 1991.
[60] GELMAN A., CARLIN J., STEIN H. et RUMBIN D. – Bayesian data analysis. Chapman,
New York, 1995.
[61] GHANEM R. G. et SPANOS P. D. – Stochastic Finite Elements : a Spectral Approach.
Springer, 1991.
[62] GLADWELL G. M. L. – Branch mode analysis of vibrating systems. Journal of Sound
and Vibrations, 1:41–59, 1964.
[63] GOLDMAN R. L. – Vibration analysis by dynamic partitioning. AIAA Journal, 7(6):1152–
1154, 1969.
[64] GOLUB G. H. et KAHAN W. – Calculating the singular values and pseudo-inverse of a
matrix. SIAM Journal on Numerical Analysis 2, pages 205–224, 1965.
[65] GOLUB G. H. et VAN LOAN C. F. – Matrix Computations. The John Hopkins University
Press, London, 1993.
148
Bibliographie
[66] GUEDRI M. – Synthèse modale/approches stochastiques en élastodynamique linéaire et
non-linéaire. Thèse, Faculté des sciences de Tunis de l’université El Manar, Nabeul,
Tunisie, 2006.
[67] GUYAN R. J. – Reduction of stiffness and mass matrices. AIAA Journal, 3(2):380, 1965.
[68] GÉRADIN M. et RIXEN D. – Théorie des vibrations : Application à la dynamique des
structures. Masson, Paris, 2007.
[69] HANSTEEN O. E. et BELL K. – On the accuracy of mode superposition analysis in struc-
tural dynamics. Earthquake Engineering and Structural Dynamics, 7(5):405–411, 1979.
[70] HARDY R. L. – Multiquadratic equations of topography and other irregular surfaces.
Journal of Geophysical Ressources, 76:1905–1915, 1971.
[71] HEMEZ F. M. et BEN-HAIM Y. – Info-gap robustness for the correlation of tests and
simulations of a nonlinear transient. Mechanical Systems and Signal Processing, 18
(6):1443–1467, 2004.
[72] HENSHELL K. D. et ONG J. H. – Automatic masters for eigenvalue economization.
Earthquake Engineering and Structural Dynamics, 3(4):375–383, 1975.
[73] HINTZ R. M. – Analytical methods in component modal synthesis. AIAA Journal, 13
(8):1007–1016, 1975.
[74] HOLMES P., LUMLEY J. L. et BERKOOZ G. – Turbulence, Coherent Structure, Dynamical
Systems and Symmetry. Cambridge, New York, 1996.
[75] HOMMA T. et SALTELLI A. – Importance measures in global sensitivity analysis of non-
linear models. Reliability Engineering and System Safety, 52:1–17, 1996.
[76] HORNIK K., STINCHCOMBE M. et WHITE H. – Multilayer feedforward networks are
universal approximators. Neural Networks, 2:359–366, 1989.
[77] HOTELLING H. – Analysis of a complex statistical variables into principal components.
Journal of Educational Psychology, 24:1785–1795, 417-441 et 498-520.
[78] HOU S. N. – Review of modal synthesis techniques and a new approach. The Shock
and Vibration Bulletin, 7(40):25–39, 1969.
[79] HUANG M. L. et HUNG Y. H. – Combining radial basis function neural network and
genetic algorithm to improve HDD driver IC chip scale package assembly yield. Expert
Systems with Applications, 34:588–595, 2008.
[80] HURTY B. M. – Structural eigenvalue problems : elimination of unwanted variables.
AIAA Journal, 3:961–962, 1965.
[81] HURTY W. C. – Dynamic analysis of structural systems using component modes. AIAA
Journal, 3(4):678–685, 1965.
[82] IMAN R. L. et CONOVER W. J. – Small sample sensitivity analysis techniques for com-
puter models, with an application to risk assessment. Communications in Statistics,
A9(17):1749–1842, 1980.
[83] JACQUES J., LAVERGNE C. et DEVICTOR N. – Sensitivity analysis in presence of model
uncertainty and correlated inputs. Reliability Engineering and System Safety, 91:1126–
1134, 2006.
149
Bibliographie
[84] JIN R., CHEN W. et SIMPSON T. W. – Comparative studies of metamodelling techniques
under multiple modelling criteria. Structural and Multidisciplinary Optimization, 23:
1–13, 2001.
[85] KAMMER D. C. et TRILLER M. J. – Selection of component modes for Craig-Bampton
substructure representations. Journal of Vibration and Acoustics, 118(2):264–270,
1996.
[86] KAPPAGANTU R. et FEENY B. F. – An optimal modal reduction of a system with frictional
excitation. Journal of Sound and Vibration, 224(5):863–877, 1999.
[87] KARHUNEN K. – Uber lineare methoden in der wahrscheinlichkeitsrechnung. Annals
of Academic Science Fennicae, 37, 1946.
[88] KATAFYGIOTIS L. S., PAPADIMITRIOU C. et LAM H. F. – A probalistic approach to struc-
tural model updating. Soil Dynamics and Earthquake Engineering, 17(7):495–507,
1998.
[89] KAYMAZ I. – Application of kriging method to structural reliability problems. Structural
Safety, 27:133–151, 2005.
[90] KERSCHEN G. – On the Model Validation in Non-linear Structural Dynamics. Thèse,
Université de Liège, Liège, 2002.
[91] KERSCHEN G., FEENY B. F. et GOLINVAL J. C. – On the exploitation of chaos to build
reduced-order models. Computer Methods in Applied Mechanics and Engineering, 192
(13-14):1785–1795, 2003.
[92] KERSCHEN G. et GOLINVAL J. C. – Physical interpretation of the proper orthogonal
modes using the singular value decomposition. Journal of Sound and Vibration, 249
(5):849–965, 2002.
[93] KEYS A. C., REES L. P. et GREENWOOD A. G. – Performance measures for selection
of metamodels to be used in simulation optimization. Decision Sciences, 33(1):31–57,
2002.
[94] KIM T. – Frequency-domain Karhunen-Loève method and its application to linear
dynamic systems. AIAA Journal, 36(11):1681–1688, 1998.
[95] KIM T. – Component mode synthesis method based on optimal modal analysis. In 42st
AIAA/ASME/ASCE/AHS/ASC Structure, Structural Dynamics, and Materials Conference
and Exhibit, Denver, 2001. AIAA-2002-1226.
[96] KIM T. – An efficient response-based modal analysis for dynamic systems with mul-
tiple inputs. In 42st AIAA/ASME/ASCE/AHS/ASC Structure, Structural Dynamics, and
Materials Conference and Exhibit, Seattle, 2001. AIAA-2001-1380.
[97] KIRSCH U. – Design-oriented analysis of structures - Unified approach. Journal of
Engineering Mechanics, 129(3):264–272, 2003.
[98] KIRSCH U. – A unified reanalysis approach for structural analysis, design, and optimi-
zation. Structural and Multidisciplinary Optimisation, 25:67–85, 2003.
[99] KIRSH U. – Combined approximations - a general reanalysis approach for structural
optimization. Structural and Multidisciplinary Optimisation, 20:97–106, 2000.
[100] KLIR G. – Generalized information theory : aims, results, and open problems. Reliabi-
lity Engineering and Systems Safety, 85(1-3):21–38, 2004.
150
Bibliographie
[101] KNIGHT F. H. – Risk, Uncertainty and Profit. 1921. URLhttp://www.e onlib.org/LIBRARY/Knight/knRUP.html.
[102] KOHONEN T. – Self-Organizing Maps, volume 30 de Series in Information Sciences.
Springer, 3 édition, 2001.
[103] KOSAMBI D. – Statistics in function space. Journal of Indian Mathematical Society,
7:76–88, 1943.
[104] KULLBACK S. – The two concept of information. Journal of American Statistical Asso-
ciation, 62:685–686, 1967.
[105] LADEVÈZE P. et LEGUILLON D. – Error estimate procedure in the finite element method
and application. SAIM Journal on Numerical Analysis, 20(3):485–509, 1983.
[106] LADEVÈZE P., PUEL G. et ROMEUF T. – Lack of knowledge in structural model valida-
tion. Computer Methods in Applied Mechanics and Engineering, 195(37-40):4697–4710,
2006.
[107] LADEVÈZE P., REYNIER M. et MAIA N. – Inverse Problems in Engineering, chapitre Error
on the constitutive relation in dynamics, pages 251–256. Bui H. D., Tanaka M., et al
(Eds), Balkema, Rotterdam, 1994.
[108] LALANNE M. et FERRARIS G. – Rotordynamics Prediction in Engineering. John Wiley &
Sons, 1990.
[109] LALLEMENT G. et PIRANDA J. – Localisation methods for parameter updating of finite
element models in elastodynamics. In Proceedings of IMAC VIII, pages 579–585, 1990.
[110] LALLEMENT G., RAMANITRANJA A. N. et COGAN S. – Optimal sensor deployment :
applications to model updating problems. Journal of Vibration and Control, 4(1):29–
46, 1998.
[111] LANCZOS C. – An iteration method for the solution of the eigenvalue problem of li-
near differential and integral operators. Journal of Research of the National Bureau of
Standards, 45:255–282, 1950.
[112] LAPACK – URL http://www.netlib.org/lapa k/.
[113] LENAERTS V., KERSCHEN G. et GOLINVAL J. C. – Proper orthogonal decomposition for
model updating of non-linear mechanical systems. Mechanical Systems and Signal
Processing, 15(1):31–43, 2001.
[114] LEVENBERG K. – A method for the solution of certain non-linear problems in least
squares. Quarterly Journal of Applied Mathematics, 2:164–168, 1944.
[115] LEVY R. et GUYAN R. J. – Reduction solutions recycled for improved accuracy. In
NASTRAN Users Experiences, pages 202–220. NASA TM X-2378, 1971.
[116] LIANG Y. C., LEE H. P., LIM S. P., LIN W. Z., LEE K. H. et WU C. G. – Proper orthogonal
decomposition and its applications – Part I : Theory. Journal of Sound and Vibration,
252(3):527–544, 2002.
[117] LIEVEN N. A. J. et EWINS D. J. – Spatial correlation of mode shapes, the coordinate
modal assurance criterion (COMAC). In Proceedings of IMAC VI, pages 690–695, 1998.
[118] LINDLEY D. V. – On a measure of information provided by an experiment. Annales of
Mathematical Statistic, 27:986–1005, 1956.
151
Bibliographie
[119] LIU H., CHEN W. et SUDJIANTO A. – Probabilistic sensitivity analysis methods for de-
sign under uncertainty. In AIAA-2004-4589, 10th AIAA/ISSMO Multidisciplinary Ana-
lysis and Optimization Conference, Albany, New York, 2004.
[120] LIU H., CHEN W. et SUDJIANTO A. – Relative entropy based method for global and
regional sensitivity analysis in probalistic design. ASME Journal of Mechanical Design,
128(2):326–336, 2006.
[121] AESOP user guide. LMARC-Université de Franche-Comté, Besançon.
[122] LOMBARD J. P. – Contribution à la réduction des modèles éléments finis par synthèse
modale. Thèse, Université de Franche-Comté, Besançon, 1999.
[123] LOPHAVEN S. R., NIELSEN H. B. et SONDERGAARD J. – A Matlab Kriging Toolbox, 2002.
URL http://www.imm.dtu.dk/~hbn/da e/. Technical University of Denmark.
[124] LOÈVE M. – Fonctions aléatoires du second ordre. Comptes Rendus de l’Académie des
Sciences, pages 220–469, 1945.
[125] MACKAY D. J. C. – Bayesian interpolation. Neural Computation, 4(3):415–447, 1992.
[126] MACKAY D. J. C. – Information Theory, Inference and Learning Algorithms. Cambridge
University Press, London, 2003.
[127] MACNEAL R. H. – A hybrid method of component mode synthesis. Computers &
Structures, 1(4):581–601, 1971.
[128] MARCIANO J. P. – Plans d’expériences bayesiens en économétrie. Revue de statistique
appliquée, 19(4):45–71, 1971.
[129] MARES C., FRISWELL M. I. et MOTTERSHEAD J. E. – Model updating using robust esti-
mation. Mechanical Systems and Signal Processing, 16(1):169–183, 2002.
[130] MARES C., MOTTERSHEAD J. E. et FRISWELL M. I. – Stochastic model updating : Part 1-
theory and simulated example. Mechanical Systems and Signal Processing, 20(7):1674–
1695, 2006.
[131] MARTINEZ D. R., CARNE T. G., GREGORY D. L. et MILLER A. K. – Combined experimen-
tal/analytical modeling using component mode synthesis. In AIAA/ASME/ASCE/AHS
25th Structures, Structural Dynamics and Materials Conference, pages 140–152, Palm
Springs, 1984. AIAA Paper 8-0941.
[132] MASSA F. – Gestion des imperfections en phase de conception des structures mécaniques.
Thèse, Université de Valenciennes et du Hainaut-Cambrésis, Valenciennes, 2005.
[133] MASSON G. – Synthèse modale robuste adaptée à l’optimisation de modèles de grande
taille. Thèse, Université de Franche-Comté, Besançon, 2003.
[134] MASSON G., AIT BRIK B., COGAN S. et BOUHADDI N. – Component mode synthesis
(CMS) based on an enriched Ritz approach for efficient structural optimization. Jour-
nal of Sound and Vibrations, 296(4-5):845–860, 2006.
[135] MATHERON G. – Principles of geostatistics. Economic Geology, 58:1246–1266, 1963.
[136] MATHWORKS – Matlab 7.1. URL http://www.mathworks. om.
[137] MCCULLAGH P. et NELDER J. A. – Generalized Linear Models. Chapman & Hall, Lon-
don, 1989.
152
Bibliographie
[138] MCCULLOCH W. et PITTS W. – A logical calculus of the ideas immanent in nervous
activity. Bulletin of Mathematical Biophysics, 5:115–133, 1943.
[139] MCKAY M. D. – Evaluating prediction uncertainty. Technical Report NUREG/CR-6311,
US Nuclear Regulatory Commission and Los Alamos National Laboratory, 1995.
[140] MCKAY M. D., BECKMAN R. J. et CONOVER W. J. – A comparison of three methods for
selecting values of input variables in the analysis of output for selecting values of input
variables in the analysis of output from a computer code. Technometrics, 21(2):239–
245, 1979.
[141] METROPOLIS N., ROSENBLUTH A. W., ROSENBLUTH M. N., TELLER A. H. et TELLER E.
– Equation of state calculations by fast computing machines. Journal of Chemical
Physics, 1(6):1087–1092, 1953.
[142] MICHALEWICZ Z. – Genetic Algorithms + Data Structures = Evolutionary Algorithms.
Springer-Verlag, 1994.
[143] MICHOT S. – Contributions à la validation de modèles en dynamique des structures.
Thèse de doctorat, Université de Franche-Comté, Besançon, 2003.
[144] MOODY J. et DARKEN C. – Fast learning in networks of locally-tunes processing units.
Neural Computation, 1:281–294, 1989.
[145] MOORE R. M. – Interval Analysis. Prentice-Hall, 1966.
[146] MORRIS M. D. – Factorial sampling plans for preliminary computational experiments.
Technometrics, 33:161–174, 1991.
[147] MOSEGAARD K. – Resolution analysis of general inverse problems through inverse
Monte Carlo sampling. Inverse Problems, 14:405–426, 1998.
[148] MOSEGAARD K. et TARANTOLA A. – International Handbook of Earthquake and En-
gineering Seismology (part A), chapitre Probabilistic Approach to Inverse Problems.
Academic Press, 2002.
[149] MOTTERSHEAD J. E. et FRISWELL M. I. – Model updating in structural dynamics : a
survey. Journal of Sound and Vibration, 167(2):347–375, 1993.
[150] MOTTERSHEAD J. E., MARES C. et FRISWELL M. I. – Stochastic model updating : Part 2-
application to a set of physical structures. Mechanical Systems and Signal Processing,
20(8):2171–2185, 2006.
[151] MYERS R. H. et MONTGOMERY D. C. – Response Surface Methodology. Wiley, New York,
2002.
[152] NEWMAN A. J. – Modal reduction via Karhunen-Loève expansion ; Part II : Some ele-
mentary examples. Technical Report T.R. 96-33, Institute for Systems Research, 1996.
[153] NGUYEN D. et WIDROW B. – Improving the learning speed of 2-layer neural networks
by choosing initial values of adaptive weights. In Proceedings of the IJCNN, volume 3,
pages 21–26, 1990.
[154] OBERKAMPF W. L., DELAND S. M., RUTHERFORD B. M., DIEGERT K. V. et ALVIN K. F. –
Error and uncertainty in modeling and simulation. Reliability Engineering and System
Safety, 75(3):333–357, 2002.
[155] OBUKHOV M. A. – Statistical description of continuous fields. Trudy Geofizicheskogo
Instituta, Akademiya Nauk SSSR, 24:3–42, 1954.
153
Bibliographie
[156] PANDEY A. K., BISWAS M. et SAMMAN M. M. – Damage detection from changes in
curvature mode shapes. Journal of Sound and Vibration, 145(2):321–332, 1991.
[157] PAPADIMITRIOU C., BECK J. L. et KATAFYGIOTIS L. S. – Updating robust reliability using
structural test data. Probabilistic Engineering Mechanics, 16(2):103–113, 2001.
[158] PARIZEAU M. – Réseaux de neurones, 2006. Notes de cours.
[159] PARKS J. M. – On stochastic optimization : Taguchi methods demystified ; its limita-
tions and fallacy clarified. Probabilistic Engineering Mechanics, 16(1):87–101, 2001.
[160] PARRENIN F. – Datation glaciologique des forages profonds en Antarctique et modéli-
sation conceptuelle des paléoclimats : implications pour la théorie astronomique des
paléoclimats. Thèse, Université Joseph Fourier, Grenoble, 2002.
[161] PASCUAL R. – Model based structural damage assessment using vibration measure-
ments. Thèse de doctorat, Université de Liège, Liège, Belgique, 1999.
[162] PASCUAL R., GOLINVAL J. C. et RAZETO M. – On the reability of error localization indi-
cators. In Proceedings of ISMA 23, pages 1119–1127, Leuven, Belgium, 1998.
[163] POPPLEWELL N., BERTELS A. W. M. et ARYA B. – A critical appraisal of the elimination
technique. Journal of Sound and Vibration, 31(2):213–233, 1973.
[164] POUGACHEV V. S. – General theory of the correlations of random functions. Izvestiya,
Akademiya Nauk SSSR, 17:1401–1402, 1953.
[165] PUEL G. – Sur une théorie des méconnaisances en dynamique des structures. Thèse,
École Normale Supérieure de Cachan, Cachan, 2004.
[166] RAMANITRANJA A. N. et LALLEMENT G. – Choix optimal des degrés de liberté maîtres
de la condensation de guyan. application à l’identification paramétrique. Mécanique
Industielle et Matériaux, Revue du G.A.M.I, 49(2):95–97, 1996.
[167] RAMSDEN J. N. et STOKER J. R. – Mass condensation : a semi automatic method for
reducing the size of vibrations problems. International Journal for Numerical Methods
in Engineering, 1(4):333–349, 1969.
[168] ROBERT C. P. et CASELLA G. – Monte Carlo Statistical Methods. Springer, New York,
2004.
[169] RONG F., CHEN S. H. et CHEN Y. D. – Structural modal reanalysis for topological modi-
fications with extended kirsch method. Computer Methods in Applied Mechanics and
Engineering, 192(5-6):697–707, 2003.
[170] RUBIN S. – Improved component-mode representation for structural dynamic analy-
sis. AIAA Journal, 13(8):995–1006, 1975.
[171] SACKS J., SCHILLER S. B. et WELCH W. J. – Design for computer experiments. Techno-
metrics, 31(1):41–47, 1989.
[172] SALTELLI A. – Making best use of model evaluations to compute sensitivity indices.
Computer Physics Communications, 145:280–297, 2002.
[173] SALTELLI A., CHAN K. et SCOTT M. – Sensitivity Analysis. Probability and Statistics
Series. John Wiley & Sons, 2000.
[174] SALTELLI A., RATTO M., TARANTOLA S. et CAMPOLONGO F. – Sensitivity analysis prac-
tices : (s)trategies for model-based inference. Reliability Engineering and System Sa-
fety, 91(10-11):1109–1125, 2006.
154
Bibliographie
[175] SALTELLI A. et SOBOL’ I. M. – About the use of rank transformation in sensitivity ana-
lysis of model ouput. Reliability Engineering and System Safety, 50:225–239, 1995.
[176] SALTELLI A., TARANTOLA S. et CHAN K. – A quantitative model-independent method
for global sensitivity analysis of model output. Technometrics, 41(1):39–56, 1999.
[177] SCALES J. A. et SNIEDER R. – The anatomy of inverse problems. Geophysics, 65(6):
1708–1710, 2000.
[178] SCHAIBLY J. H. et SHULER K. E. – Study of the sensitivity of coupled reaction systems to
uncertainties in rate coefficients. II applications. Journal of Chemical Physics, 59:3879–
3888, 1973.
[179] SCHEIDT C. – Analyse statistique d’expérience simulées : Modélisation adaptative de ré-
ponses non-régulières par krigeage et plans d’expérience. Thèse, Université Louis Pas-
teur de Strasbourg, Strasbourg, 2006.
[180] SCHUELLER G. I. – A state-of-the-art report on computational stochastic mechanics.
Probabilistic Engineering Mechanics, 12(4):197–321, 1997.
[181] SCHUELLER G. I. – Computational stochastic mechanics - recent advances. Computers
& Structures, 79(22-25):2225–2234, 2001.
[182] SEDEGHATI R., SOUCY Y. et ETIENNE N. – Efficient estimation of effective mass for
complex structures under base excitations. Canadian Aeronautics and Space Journal,
49(3):135–143, 2003.
[183] SHAFER G. – A Mathematical Theory of Evidence. Princeton University Press, 1976.
[184] SHAH V. N. et RAYMUND M. – Analytical selection of masters for the reduced eigenva-
lue problem. International Journal for Numerical Methods in Engineering, 18(1):89–98,
1982.
[185] SHANNON C. E. – A mathematical theory of communication. Bell System Technical
Journal, 27:379–423, 1948.
[186] SIMON H. A. – Reason in Human Affairs. Stanford University Press, Stanford, 1983.
[187] SIMPSON T. W., PEPLINSKY J. D., KOCH P. N. et ALLEN J. K. – Metamodels for
computer-based engineering design : survey and recommendations. Engineering with
Computers, 17:129–150, 2001.
[188] SIROVICH L. – Turbulence and the dynamics of coherent structures ; Part i : Coherent
structure. Quaterly of Applied Mathematics, 45(3):561–571, 1987.
[189] SOBOL’ I. M. – Sensitivity estimates for nonlinear mathematical models. Mathematical
Modelling and Computational Experiments, 1:407–414, 1993.
[190] SOIZE C. – A nonparametric model of random uncertainties on reduced matrix model
in structural dynamics. Probabilistic Engineering Mechanics, 15(3):277–294, 2000.
[191] SOIZE C. – A comprehensive overview of a non-parametric probabilistic approach of
model uncertainties for predictive models in structural dynamics. Journal of Sound
and Vibration, 288(3):623–652, 2005.
[192] SOTERIS K. A. – Optimization of solar systems using artificial neural networks and
genetic algorithms. Applied Energy, 77(4):383–405, 2004.
155
Bibliographie
[193] STEENACKERS G. et GUILLAUME P. – Finite element model updating taking into ac-
count the uncertainty on the modal parameters estimates. Journal of Sound and Vi-
bration, 296(4-5):919–934, 2006.
[194] STRANLUND J. K. et BEN-HAIM Y. – Price-based vs. quantity-based environmental
regulation under knightian uncertainty : An info-gap robust satisficing perspective.
Journal of Environmental Management, 2007. à paraître.
[195] TAKEWAKI I. et BEN-HAIM Y. – Info-gap robust design with load and model uncertain-
ties. Journal of Sound and Vibration, 288(3):551–570, 2005.
[196] TARANTOLA A. – Inverse Problem Theory and Methods for Model Parameter Estimation.
SIAM, Philadelphia, 2005.
[197] TARANTOLA A. – Popper, bayes and the inverse problem. Nature Physics, 2:492–494,
2006.
[198] TORGO L. F. R. A. – Inductive Learning of Tree-based Regression Models. Thèse de
doctorat, Université de Porto, 1999.
[199] van den BERG J., CURTIS A. et TRAMPERT J. – Optimal nonlinear Bayesian experimen-
tal design : an application to amplitude versus offset experiments. Geophysical Journal
International, 8:411–421, 2003.
[200] VAPNIK V. N. – Statistical Learning Theory. John Wiley & Sons, New York, 1989.
[201] VERDINELLI K. et VERDINELLI I. – Bayesian experimental design : A review. Statistical
Science, 10:273–304, 1995.
[202] VINOT P. – Contributions à la validation de modèles en dynamique des structures. Thèse
de doctorat, Université de Franche-Comté, Besançon, 2001.
[203] VINOT P., COGAN S. et CIPOLLA V. – A robust model-based test planning procedure.
Journal of Sound and Vibration, 288(3):571–585, 2005.
[204] VINOT P., COGAN S. et LALLEMENT G. – Approche non-probabiliste de fiabilité basée
sur les modèles convexes. Mécanique & Industries, 4:45–50, 2003.
[205] WATERS T. P. – A modified force balance method for locating errors in dynamic finite
element models. Mechanical Systems and Signal Processing, 12(2):309–317, 1998.
[206] WRIGHT G. C. et MILES G. A. – An economical method for determining the smallest
eigenvalues of large linear systems. International Journal of Numerical Methods in
Engineering, 3:25–33, 1971.
[207] WU C. G., LIANG Y. C., LIN W. Z., LEE H. P. et LIM S. P. – A note on equivlence of proper
orthogonal decomposition methods. Journal of Sound and Vibration, 265(5):1103–
1110, 2003.
[208] YAP K. C. et ZIMMERMAN D. C. – A comparative study of structural dynamic modifica-
tion and sensitivity method approximation. Mechanical Systems and Signal Processing,
16(4):585–597, 2002.
[209] YU B. et MYKLAND P. – Looking at Markov samplers through Cusum path plots : a
simple diagnostic idea. Statistics and Computing, 8:275–286, 1998.
[210] ZADEH L. A. – Fuzzy sets. Information and Control, 8:338–353, 1965.
[211] ZADEH L. A. – Fuzzy sets as a basis for a theory of possibility. Fuzzy sets and Systems,
1:3–28, 1978.
156
Bibliographie
[212] ZANG C., FRISWELL M. I. et MOTTERSHEAD J. E. – A review of robust optimal design
and its application in dynamics. Computers & Structures, 83(4-5):315–326, 2005.
[213] ZHANG Q. et LALLEMENT G. – Dominant error localisation in a finite element model of
a mechanical structure. Mechanical Systems and Signal Processing, 1(2):141–149, 1987.
[214] ZHANG Y., CHEN S., LIU Q. et LIU T. – Stochastic perturbation finite elements. Com-
puters & Structures, 59(3):425–429, 1996.
157
Listes des publications
Revues internationales avec comité de lecture
[215] DUPONT B., PILLET E. et COGAN S. – Superelement verification in complex structural
models. Shock and Vibration, 15(3-4):369–381, 2008.
[216] PILLET E., BOUHADDI N. et COGAN S. – Bayesian experimental design and parametric
identification in modal analysis. Computers & Structures, 2008. Soumis.
[217] PILLET E., COGAN S. et BOUHADDI N. – Predicting test informativeness in structural
dynamics. International Journal of Design and Innovation Research, 2008. À paraître.
Conférences internationales avec actes et comité de lecture
[218] DUPONT B., PILLET E. et COGAN S. – Superelement verification in complex structural
models. In International Conference on Engineering Dynamics, Carvoeiro, Portugal,
16-18 avril 2007.
[219] PILLET E., BOUHADDI N. et COGAN S. – Bayesian experimental design for parametric
identification of dynamical structures. In TOPPING B. H. V., MONTERO G. et MON-
TENEGRO R., éditeurs – Proceedings of the Eighth International Conference on Compu-
tational Structures Technology, Las Palmas, Canaries, 2006. Civil-Comp Press. paper
45.
[220] PILLET E., BOUHADDI N. et COGAN S. – Information gain quantification in structural
dynamic. In 12th IFToMM World Congress, Besançon, 18-21 juin 2007.
Conférences nationales avec actes et comité de lecture
[221] AIT BRIK B., PILLET E. et BOUHADDI N. – Sélection optimale des coordonnés phy-
siques dans les méthodes de synthèse modale. In XVe colloque Vibrations Chocs et
Bruits, Écully, 14-16 juin 2006.
[222] GUEDRI M., PILLET E., BOUHADDI N. et MAJED R. – Synthèse modale de modèles
stochastiques. In XIVe colloque Vibrations Chocs et Bruits, Écully, 16-17 juin 2004.
[223] PILLET E., BOUHADDI N. et COGAN S. – Transformation de Karhunen-Loève en syn-
thèse modale par condensation dynamique robuste. In XIVe colloque Vibrations Chocs
et Bruits, Écully, 16-17 juin 2004.
159
Bibliographie
[224] PILLET E., BOUHADDI N. et COGAN S. – Préparation optimale d’essais dynamiques
par une approche de conception robuste. In 2e Congrès Conception et Modélisation
des Systèmes, Monastir, Tunisie, 19-21 mars 2007.
[225] PILLET E., BOUHADDI N. et COGAN S. – Qualité des essais en dynamique des struc-
tures. In 7e Congrès international pluridisciplinaire, Tanger, Maroc, 20-22 mars 2007.
[226] PILLET E., COGAN S. et BOUHADDI N. – Identification des paramètres de conception
à partir de mesures incertaines. In Proceedings du 7e Colloque National en Calcul des
Structures, Giens, 17-20 mai 2005. Hermes-Science.
[227] PILLET E., COGAN S. et BOUHADDI N. – Évaluation de la robustesse des méthodes
de recalage par approche info-gap. In XVe colloque Vibrations Chocs et Bruits, Écully,
14-16 juin 2006.
160
Annexes
A Critères de comparaison des modèles
Les différents critères de comparaison utilisés dans ce mémoire ont les définitions sui-
vantes.
L’erreur relative en pour cent associée à la fréquence propre ǫ f est définie par
ǫ f = 100×∣∣ f ref − f cal
∣∣
f ref, (15)
avec f cal la fréquence propre calculée et f ref la fréquence propre de référence.
L’erreur relative en pour cent associée au vecteur propre ǫy est définie par
ǫy = 100×∥∥yref −msf×ycal
∥∥
yref, (16)
avec ycal le vecteur propre calculé et yref le vecteur propre de référence. msf est le modal
scale factor qui est utilisé lorsque les modes comparés ne sont pas à la même échelle. Ce
coefficient minimisant l’erreur relative est calculé selon
msf =yrefT
ycal
ycalTycal
.
Il est préférable de calculer les deux critères précédents pour des modes appariés. En
effet, deux fréquences propres très proches peuvent correspondre à des modes de différentes
natures. Pour s’assurer de la corrélation entre deux vecteurs propres, un des critères les plus
employés est le Modal Assurance Criterion (MAC). Il est donné par
MACy =
∥∥∥yrefTycal
∥∥∥2
∥∥∥yrefTyref
∥∥∥∥∥∥ycalT
ycal∥∥∥
. (17)
Les modes sont considérés comme identiques si MACy = 1. Les modes sont considérés comme
appariés à partir d’une certaine valeur, par exemple 0,7.
Pour ns échantillons, soient y (i ) la réponse du MEF à l’échantillon (i ), y (i ) la réponse
161
Annexes
correspondante du métamodèle et y la moyenne des y (i ), alors :
– le critère R2 est défini selon
R2 = 1−∑ns
i=1
(y (i ) − y (i )
)2
∑ns
i=1
(y (i ) − y (i )
)2 .
Plus R2 est proche de 1, plus le métamodèle est prédictif ;
– l’erreur relative absolue moyenne ERAM est définie en pour cent selon
ERAM = 100×1
ns
∑ns
i=1 |y(i ) − y (i )|
|y (i )|.
Plus ERAM est proche de 0, plus le métamodèle est prédictif ;
– le maximum de l’erreur relative absolue MERA est défini en pour cent selon
MERA = 100×max
( |y (i ) − y (i )||y (i )|
).
Plus MERA est proche de 0, plus le métamodèle est prédictif. Lorsque les critères R2 et
ERAM sont bons, une mauvaise valeur de MERA indique que localement le métamo-
dèle est moins précis.
B Apprentissage neural et régularisation bayésienne
B.1 Notations
Nous présentons dans cette annexe les principes de l’apprentissage d’un réseau de neu-
rones par rétropropagation du gradient et régularisation bayésienne. Avant d’aller plus loin
précisons ou rappelons que :
– l’indice [k] désigne la couche k du réseau parmi les Nc couches du réseau qui incluent
la couche d’entrée et la couche de sortie ;
– l’indice (l ) désigne un échantillon de la base d’apprentissage parmi les ns calculés ;
– une couche k comporte nck neurones ;
– un neurone j d’une couche k est relié à une entrée i par un poids w [k]j i
et produit une
sortie s[k]j
à travers une fonction d’activation f [k] ;
– l’ensemble des sorties s[k]j
de la couche k constituent le vecteur s[k] =[
s[k]1 · · · s[k]
nck
]T;
– chaque neurone j d’une couche k est relié aux nck−1 entrées associées aux sorties de
la couche précédente constituant le vecteur s[k−1] ;
– les poids w [k]j i
d’un neurone j sont regroupés dans le vecteur w[k]j
=[
w [k]j 1 · · · w [k−1]
j nck
]T
et le biais associé est noté b[k]j
;
– pour une couche k, les nck vecteurs w[k]j
constituent la matrice W[k] =[
w[k]1 · · · w[k]
nck
]et
les nck biais b[k]j
constituent le vecteur b[k] =[
b[k]1 · · · b[k]
nck
]T;
– l’ensemble des poids et biais du réseau sont regroupés dans le vecteur p contenant Np
paramètres ;
– pour une couche k, les nck potentiels v [k]j
= b[k]j
+(w[k]
j
)Ts[k−1] constituent le vecteur
162
B Apprentissage neural et régularisation bayésienne
v[k] =[
v [k]1 · · · v [k]
nck
]T.
Avec ces notations, l’équation décrivant les sorties d’une couche k s’écrit
s[k] = f [k](v[k]
)= f [k]
(b[k] +W[k] s[k−1]
)pour k = 1, . . . ,Nc , (18)
avec Nc le nombre de couches. Pour un échantillon i pris parmi ns disponibles, on notera
que s[0] = x(i ) et que la sortie du réseau est s[Nc ] = y(i ).
B.2 L’algorithme de Levenberg-Marquardt
L’objectif de l’apprentissage neural consiste en général à trouver le vecteur p minimisant
l’erreur quadratique moyenne ou la somme des erreurs quadratiques
F(p) =ns∑
l=1
(ǫ(l )
)Tǫ(l ) =
ns∑
l=1
ncNc∑
m=1
(ǫ(l )
m
)2=
N∑
q=1rq (p)2 = r(p)T r(p) = SSE, (19)
avec l’erreur ǫ(l ) = y(l ) −s[Nc ] =[ǫ(l )
1 · · · ǫ(l )ncNc
]T
et r(p) =[r1(p) · · · rN(p)
]T =[ǫ(1)
1 · · · ǫ(1)ncNc
· · · ǫ(ns )1 · · · ǫ(ns )
ncNc
]Toù N= ns ×ncNc .
La minimisation de F(p) est réalisée à l’aide d’une méthode d’optimisation dérivée de
la descente du gradient, c’est-à-dire que le déplacement se fait dans la direction de la plus
forte pente. Nous utilisons ici la méthode quasi-Newton de Levenberg-Marquardt [114]. Au
lieu de modifier les paramètres à l’itération k selon le calcul exact
p(k +1) = p(k)−∆2F(p(k))−1 ∆F(p(k)), (20)
la modification sera effectuée avec une matrice hessienne ∆2F(p(k)) approximée. Remar-
quons auparavant que
∆F(p(k)) = 2N∑
q=1rq (p(k))∆rq (p(k)) = 2 J(p(k))T r(p(k)) et
∆2F(p(k)) = 2 J(p(k))T J(p(k))+2N∑
q=1rq (p(k))∆2rq (p(k)).
(21)
J(p(k)) est la matrice jacobienne de r(p(k)). Elle s’écrit
163
Annexes
J(p(k)) =
∂ǫ(1)1
∂w [1]11
· · ·∂ǫ(1)
1
∂w[Nc ]nNc nNc−1
∂ǫ(1)1
∂b[1]1
· · ·∂ǫ(1)
1
∂b[Nc ]Nc
......
......
......
∂ǫ(1)ncNc
∂w [1]11
· · ·∂ǫ(1)
ncNc
∂w[Nc ]nNc nNc−1
∂ǫ(1)ncNc
∂b[1]1
· · ·∂ǫ(1)
ncNc
∂b[Nc ]Nc
......
......
......
∂ǫ(ns )1
∂w [1]11
· · ·∂ǫ
(ns )1
∂w[Nc ]nNc nNc−1
∂ǫ(ns )1
∂b[1]1
· · ·∂ǫ
(ns )1
∂b[Nc ]Nc
......
......
......
∂ǫ(ns )ncNc
∂w [1]11
· · ·∂ǫ
(ns )ncNc
∂w[Nc ]nNc nNc−1
∂ǫ(ns )ncNc
∂b[1]1
· · ·∂ǫ
(ns )ncNc
∂b[Nc ]Nc
. (22)
Le terme 2∑N
q=1 rq (p(k))∆2rq (p(k)) étant faible vis-à-vis de 2 J(p(k))T J(p(k)), la hessienne
sera approchée par
2 H(p(k)) = J(p(k))T J(p(k)). (23)
L’équation (20) devient alors
p(k +1) = p(k)−(2 J(p(k))T J(p(k))
)−12 J(p(k))T r(p(k))
= p(k)−(J(p(k))T J(p(k))
)−1J(p(k))T r(p(k)).
(24)
La matrice H(p(k)) = J(p(k))T J(p(k)) pouvant être singulière, elle est remplacée par
G(p(k)) = H(p(k))+µ(k)I, (25)
avec I la matrice identité et µ(k) > 0 un facteur d’amortissement positif ajusté à chaque nou-
velle itération. L’équation (24) s’écrit finalement
p(k +1) = p(k)−(H(p(k))+µ(k)I
)−1 J(p(k))T r(p(k)). (26)
À chaque itération, F(p) est calculée avec un µ(k) petit afin d’accélérer la convergence. Si
F(p) n’est pas diminuée, on recommence en augmentant µ(k) – en général d’un facteur 10 –
jusqu’à ce que F(p) décroisse. Lorsque F(p) décroît, on passe à l’itération suivante en dimi-
nuant µ(k) par un facteur 10. Ces calculs nécessitent l’évaluation des termes de la matrice
jacobienne J(p(k)). Ceci fera l’objet du dernier paragraphe de cette annexe.
B.3 La régularisation bayésienne
Nous abordons désormais la formulation de la régularisation bayésienne[58, 126]. Dans
le but d’obtenir un réseau généralisant bien, c’est-à-dire que le réseau est performant pour
des entrées autres que celles de la base d’apprentissage, un terme de régularisation est ajouté
dans la fonction coût. La minimisation vise alors
F(p) = βSSE+αSSP, (27)
164
B Apprentissage neural et régularisation bayésienne
avec SSP = pT p la somme des carrés des poids et biais du réseau, et α et β les paramètres de
régularisation. On cherche à ajuster ces paramètres de sorte à ce que l’évolution des sorties
du réseau soit la plus lisse possible. C’est le cas lorsque les poids sont maintenus petits.
L’application du théorème de Bayes pour l’apprentissage des réseaux de neurones a été
proposé par MacKay [125]. Si Y représente l’ensemble des réponses et NN l’architecture cou-
rante du réseau de neurones, la règle de Bayes s’écrit
P(p|Y,α,β,NN) =P(p|α,NN)P(Y|p,β,NN)
P(Y|α,β,NN). (28)
P(p|α,NN) est la densité de probabilité a priori sur les paramètres du réseau, P(Y|p,β,NN)
est la fonction de vraisemblance et P(Y|α,β,NN) est une constante de normalisation. Si nous
considérons que le bruit sur les réponses de la base d’apprentissage est un bruit gaussien
d’écart type√
1/(2β) et la densité a priori sur les paramètres du réseau est gaussien d’écart
typep
1/(2α) alors
P(Y|p,β,NN) =1
ZY(β)exp
(−βSSE
)et
P(p|α,NN) =1
Zp(α)exp(−αSSP),
(29)
avec ZY(β) = (π/β)Nc /2 et Zp(α) = (π/α)Np /2.
En substituant ces expressions dans l’équation (28), nous obtenons
P(p|Y,α,β,NN) =1
ZF(α,β)exp
(−F(p)
). (30)
Les paramètres de régularisation optimaux sont ceux maximisant l’information a posteriori
sur les paramètres p. On cherche donc à maximiser P(p|Y,α,β,NN) ce qui revient à minimiser
F(p).
Appliquons désormais le théorème de Bayes afin d’exprimer la densité de probabilité a
posteriori sur α et β. Nous avons
P(α,β|Y,NN) =P(α,β|NN)P(Y|α,β,NN)
P(Y|NN). (31)
La densité a priori P(α,β|NN) est considérée uniforme. La maximisation de P(α,β|Y,NN) est
donc réalisée en maximisant P(Y|α,β,NN). Des équations (28) et (29) nous obtenons
P(Y|α,β,NN) =P(p|α,NN)P(Y|p,β,NN)
P(p|Y,α,β,NN)
=1
Zp(α) exp(−αSSP) 1ZY(β) exp
(−βSSE
)
1ZF(α,β) exp
(−F(p)
)
=ZF(α,β)
ZY(β)Zp(α).
(32)
Dans cette expression, la constante ZF(α,β) est inconnue. Pour déterminer cette fonction,
nous développons F(p) en série de Taylor au voisinage d’un minimum de la fonction noté
165
Annexes
p∗. Puisqu’en ce point le gradient de la fonction coût en nul, nous avons
F(p) ≈ F(p∗)+1
2(p−p∗)∆2F(p)|p=p∗ . (33)
ZF(α,β) est une constante de normalisation, donc
∫+∞
−∞P(p|Y,α,β,NN)dp = 1
∫+∞
−∞
1
ZF(α,β)exp
(−F(p)
)dp = 1
∫+∞
−∞exp
(−F(p∗)−
1
2(p−p∗)∆2F(p)|p=p∗
)dp = ZF(α,β).
(34)
L’intégration de cette dernière expression permet d’obtenir
ZF(α,β)= (2π)Np /2(det
((∆2F(p)|p=p∗
)−1))1/2
exp(−F(p∗)
). (35)
Les valeurs optimales de α et β sont déterminées en introduisant ce résultat dans l’équa-
tion (32) puis en dérivant le logarithme de l’équation (32) par rapport à chacune des va-
riables. En égalisant ses quantités à zéro nous obtenons
α∗ =γ
2 SSP(p∗)et β∗ =
Nc −γ
2 SSE(p∗), (36)
avec γ = Np − 2α∗ tr(∆2F(p)|p=p∗
)−1. γ est le nombre effectif de paramètres. Ce paramètre
indique combien de paramètres sont mis en jeu pour minimiser la fonction coût. Si à la fin
de l’apprentissage γ est proche de Np , cela signifie que le nombre de poids et biais n’est peut
être pas assez élevé pour obtenir de bons résultats. On envisagera alors de rajouter des neu-
rones à l’architecture. Si γ est éloigné de Np , on pourra envisager le contraire. Ce paramètre
permet de déterminer en quelques ajustements, la taille optimale du réseau.
Avec ce type de régularisation, il n’est pas nécessaire d’utiliser une base de validation
durant l’apprentissage. Même si la généralisation est en principe garantie, il conviendra tout
de même de tester le réseau ainsi construit sur une base test.
Il est nécessaire d’évaluer la matrice hessienne au point p∗. Pour cela, l’approximation
de l’algorithme de Levenberg-Marquardt est utilisée. Dans le cas de la régularisation bayé-
sienne l’équation (26) est modifiée. Elle devient
p(k +1) = p(k)−(β(k)H(p(k))+ (µ(k)+α(k))I
)−1 (J(p(k))T r(p(k))+p(k)
). (37)
B.4 Algorithme d’apprentissage neural par régularisation bayésienne
Pour résumer les différentes phases de cette apprentissage sont les suivantes :
1. Initialiser α, β et p [153].
2. Appliquer l’algorithme de Levenberg-Marquardt à la minimisation de F(p) = βSSE +αSSP jusqu’à ce que F(p) soit diminuée. Lorsque c’est le cas, calculer p(k + 1) selon
l’équation (37) et considérer que p(k +1) = p∗.
3. Calculer γ= Np −2α∗ tr(∆2F(p)|p=p∗
)−1.
166
B Apprentissage neural et régularisation bayésienne
4. Calculer α et β selon les équations (36).
5. Réitérer les étapes 2 à 4 jusqu’à la convergence de γ, SSE et SSP.
B.5 Calculs des dérivées partielles
Pour finir, nous présentons la méthode utilisée pour calculer les termes de la matrice
jacobienne J(p). Ces gradients partiels sont calculés dans une phase de dite de rétropro-
pagation. Avant cela, dans une phase de propagation, pour chaque couple entrée-sortie(x(l ),y(l )
)de la base d’apprentissage, les entrées x(l ) sont propagées vers l’avant à travers les
Nc couches du réseau en calculant les sorties
s[0],(l ) = x(l )
s[k],(l ) = f [k](b[k] +W[k] s[k−1],(l )
)pour k = 1, . . . ,Nc .
(38)
Pour un élément quelconque ǫ(l )m de r(p) avec m = 1, . . . ,ncNc et l = 1, . . . ,ns , par rapport
au poids d’un neurone j connecté à une entrée i d’une couche [k] et au biais de ce neurone,
les dérivées peuvent être décomposées selon
∂ǫ(l )m
∂w [k]j i
=∂ǫ(l )
m
∂v [k],(l )j
×∂v [k],(l )
j
∂w [k]j i
et∂ǫ(l )
m
∂b[k]j
=∂ǫ(l )
m
∂v [k],(l )j
×∂v [k],(l )
j
∂b[k]j
. (39)
Comme v [k],(l )j
= b[k]j
+(w[k]
j
)Ts[k−1],(l ) = b[k]
j+
∑nck
i=1 w [k]j i
s[k−1],(l )i
, il vient
∂ǫ(l )m
∂w [k]j i
= δ[k],(l )j
s[k−1],(l )i
et∂ǫ(l )
m
∂b[k]j
= δ[k],(l )j
, (40)
avec la sensibilité δ[k],(l )j
=∂ǫ(l )
m
∂v [k],(l )j
. Toutes les sensibilités de la couche [k] sont regroupées
dans
δ[k],(l ) =∂ǫ(l )
m
∂v[k],(l )=
[δ[k],(l )
1 · · · δ[k],(l )nck
]T. (41)
Les sorties s[k−1],(l )i
ayant été déterminées lors de la propagation, il reste seulement à cal-
culer les sensibilités. Pour cela, il nécessaire de réaliser de nouveau des dérivées composées.
Nous commençons par calculer les sensibilités de la dernière couche [Nc ], la couche des
sorties. Nous avons
δ[Nc ],(l )j
=∂ǫ(l )
m
∂v[Nc ],(l )j
=∂
(y (l )
m − s[Nc],(l )m
)
∂v[Nc ],(l )j
=−∂s
[Nc ],(l )m
∂v[Nc ],(l )j
, (42)
avec
δ[Nc ],(l )j
=
− f [Nc ]
(v
[Nc],(l )j
)pour j = m
0 pour j 6= m. (43)
167
Annexes
Soit sous notation matricielle
δ[Nc ],(l ) =−F[Nc ](v[Nc ],(l )
), (44)
avec
F[Nc ](v[Nc ],(l )
)=
f [Nc ](v
[Nc],(l )1
)0 · · · 0
0 f [Nc ](v
[Nc ],(l )2
)· · · 0
......
. . ....
0 0 · · · f [Nc ],(l )(v
[Nc]ncNc
)
. (45)
Les dérivés des fonctions d’activation f [k] étant connues analytiquement, il n’y a pas de pro-
blèmes pour calculer cette matrice.
Pour déterminer les sensibilités des couches inférieures, nous avons besoin de la matrice
∂v[k+1]
∂v[k]=
∂v [k+1]1
∂v [k]1
∂v [k+1]1
∂v [k]2
· · ·∂v [k+1]
1
∂v [k]nck
∂v [k+1]2
∂v [k]1
∂v [k+1]2
∂v [k]2
· · ·∂v [k+1]
2
∂v [k]nck
......
. . ....
∂v [k+1]nck+1
∂v [k]1
∂v [k+1]nck+1
∂v [k]2
· · ·∂v [k+1]
nck+1
∂v [k]nck
. (46)
On y retrouve toutes les sensibilités des niveaux d’activation d’une couche par rapport à ceux
de la couche précédente. Les éléments de cette matrice peuvent être explicités selon
∂v [k+1]i
∂v [k]j
=∂
(b[k+1]
i+
(w[k+1]
i
)Ts[k]
)
∂v [k]j
. (47)
Or, puisque seul s[k]j
dépend de v [k]j
,
∂v [k+1]i
∂v [k]j
= w [k+1]i j
∂s[k]j
∂v [k]j
= w [k+1]i j
∂ f [k](v [k]
j
)
∂v [k]j
= w [k+1]i j
f [k](v [k]
j
).
(48)
La matrice∂v[k+1]
∂v[k]peut donc s’écrire
∂v[k+1]
∂v[k]= W[k+1] F[k]
(v[k]
). (49)
En tenant compte de ceci pour un échantillon (l ), le calcul des sensibilités des couches
168
C Échantillonnage de Monte Carlo
inférieures se fait itérativement jusqu’à la couche la plus basse selon
δ[k],(l ) =∂ǫ(l )
m
∂v[k],(l )=
(∂v[k+1],(l )
∂v[k],(l )
)T
×∂ǫ(l )
m
∂v[k+1],(l )= F[k]
(v[k],(l )
) (W[k+1]
)Tδ[k+1],(l ). (50)
C Échantillonnage de Monte Carlo
Nous présentons ici l’algorithme de Metropolis-Hastings évoqué paragraphe 3.2.2. Pré-
cisons que δ est un pas aléatoire et ξ est un nombre aléatoire compris entre 0 et 1. L’organi-
gramme est
Initialisation : mn
Calculer ρmn = ρM (mn),dn = g(mn) et Lmn = L(mn)
Générer mc = mn +δ
Calculer ρmc = ρM (mc )
ρmc ≥ ρmnρmc
ρmn≥ ξ
Calculer dc = g(mc) et Lmc = L(mc)
Lmc ≥ LmnLmc
Lmn≥ ξ
Lmn = Lmc
Sauver mn
oui
oui
non
non
D Méthodologies de recalage
Rappelons que nous travaillons avec un MEF à N ddls et des mesures expérimentales
effectuées en c points de la structure que le modèle représente. yν est le νe vecteur propre du
MEF et c yexpν est le νe vecteur propre obtenu à partir des données expérimentales. λν et λexp
ν
169
Annexes
sont les valeurs propres associées. yexpν est le vecteur étendu des observations expérimentales
afin de pouvoir confronter les résultats expérimentaux à ceux du MEF. yν et yexpν peuvent ne
pas être appariés. Afin de trouver l’apparié de yexpν , le critère du MAC (17) sera utilisé. S’il
existe, le mode apparié à yexpν sera noté yapp
ν de valeur propre λappν .
Afin de s’affranchir des problèmes de dimension, nous travaillons avec des coefficients
multiplicatifs des paramètres d’intérêt. Nous notons p = [p1 · · · pnp ]T le vecteur des np para-
mètres à recaler (en fait les coefficients) et m le nombre de solutions propres mesurées.
D.1 Recalage par sensibilité
Le recalage par sensibilité est une procédure itérative reposant sur le calcul des sensi-
bilités des solutions propres rapport aux paramètres à recaler. Ainsi, les distances entre les
solutions propres mesurées et celles calculées sont développées en série de Taylor selon
∆λν = λexpν −λ
appν =
np∑
k=1
∂λappν
∂pk
∆pk +np∑
k=1
O(∆p2k ) et
∆yν = yexpν −yapp
ν =np∑
k=1
∂yappν
∂pk
∆pk +np∑
k=1O(∆p2
k ).
(51)
De ces distances, seront calculées une matrice de sensibilité qui servira à estimer les correc-
tions à apporter aux paramètres.
La convergence de l’algorithme est gouvernée par l’évolution d’une fonction coût ren-
dant compte de la minimisation de l’écart entre les données expérimentales et les données
calculées. Par exemple, nous pouvons utiliser la fonction coût
F(p) =m∑
ν=1wλν
∣∣ǫλν∣∣+
m∑
ν=1wyν
∣∣ǫyν
∣∣ , (52)
où ǫλν et ǫyν sont définies selon les équations (15) et (16). Les wλν et w yν sont d’éventuels
coefficients de pondération.
L’algorithme de recalage par sensibilité peut être le suivant :
1. par rapport à chaque paramètre pk , calculer les sensibilités des valeurs et vecteurs
propres selon∂λν
∂pk
= yTν
(∂K
∂pk
−λν∂M
∂pk
)
yTν et
∂yν
∂pk
=m∑
σ=1cσν yσ, (53)
avec
cσν =∂λν∂p
k
λν−λσ si σ 6= ν,
cνν =−12 yT
ν
∂M
∂pk
yν si σ= ν.
Les sensibilités de matrices de raideur et de masse sont calculées par différences finies.
2. réaliser l’appariage entre les vecteurs propres du modèle courant et les vecteurs de
référence afin d’associer aux solutions propres(λ
expν ,yexp
ν
)les solutions propres homo-
logues calculées(λ
appν ,yapp
ν
). Seuls les ma modes expérimentaux ayant un apparié sont
170
D Méthodologies de recalage
considérés. Calculer
∆λν =λ
appν −λ
expν
λexpν
et ∆yν =yappν −msf×yexp
ν∥∥yexpν
∥∥ . (54)
Les dérivées sont normalisées pour obtenir les indices
Sλν,pk=
1
λexpν
×∂λν
∂pk
et Syν,pk=
1∥∥yexp
ν
∥∥ ×∂yν
∂pk
(55)
qui permettent d’obtenir la relation de sensibilité
Sλ1,p1 · · · Sλ1,pnp
.... . .
...
Sλma ,p1 · · · Sλma ,pnp
Sy1,p1 · · · Sy1,pnp
.... . .
...
Syma ,p1 · · · Syma ,pnp
∆p1...
∆pnp
=
∆λν
...
∆λma
∆y1...
∆yma
(56)
notée S∆p =∆b ;
3. minimiser le système linéaire contraint
minpmin≤p≤pmax
‖S∆p−∆b‖. (57)
Ce système peut être résolu avec un algorithme de minimisation sous contraintes.
Nous obtenons ∆p et actualisons à l’itération i le paramètre selon p(i+1) = p(i ) +∆p ;
4. si les critères d’arrêt basés sur l’évolution de la fonction coût sont satisfaits ou que la
procèdure semble diverger, terminer. Sinon, revenir à l’étape 1).
D.2 Recalage basé sur l’erreur en relation de comportement
Formulation
Nous présentons ici le recalage basé sur l’erreur en relation de comportement [105].
Dans toutes les méthodologies employant l’ERDC, les équations d’intérêt sont divisées en
un groupe d’équations fiables – les équations d’équilibre – et un groupe d’équations moins
fiables – les relations de comportement. La solution au problème posé doit alors satisfaire
les équations fiables tout en minimisant l’erreur sur les équations moins fiables, l’ERDC. Le
recalage basé sur l’ERDC [45, 47, 107] fait aussi la distinction entre les quantités fiables – les
fréquences mesurées, la position et direction des capteurs et excitateurs – et les quantités
moins fiables – les amplitudes des forces et déplacements aux points d’excitation ou les am-
plitudes des déplacements aux points de mesure c yexpν . Une erreur sur les mesures est donc
construite pour prendre en compte les incertitudes sur les quantités non fiables. Cette erreur
ajoutée à l’ERDC forme l’ERDC modifiée. Bien que le problème puisse être posé sous forme
continue, seule la formulation discrète du problème sera présentée ici.
171
Annexes
L’ERDC modifiée pour le mode ν s’exprime selon [47]
eERDCmν = eERDC
ν +r
1− r
∥∥L uν−c yexpν
∥∥2. (58)
eERDCmν est l’ERDC et le deuxième terme représente l’erreur sur les mesures. Dans cette der-
nière expression, uν est un champ de déplacement admissible à déterminer, L ∈ℜc,N est une
matrice de transformation permettant la projection de uν sur les ddls observés et r est un
scalaire positif permettant d’assigner une confiance plus ou moins grande dans les mesures.
Les mesures sont considérées très fiables si r est proche de 1 et très peu fiables si r est proche
de 0. r est communément fixé à 0,5.
La méthode peut être appliquée à des systèmes dissipatifs excités ou non dont le MEF
contient des erreurs en masse, raideur et amortissement [47]. Nous nous restreindrons aux
systèmes conservatifs libres dont les équations d’équilibre sont régies par
(K−ω2
ν M)
yν = 0. (59)
Dans ce cas, l’équation (58) se développe selon
eERDCmν =
γ
2(uν−vν)T K (uν−vν)+
1−γ
2(uν−wν)T ω2
ν M (uν−wν)
+r
1− r
(L uν−c yexp
ν
)TGr
(L uν−c yexp
ν
).
(60)
La matrice Gr sert à pondérer l’erreur et peut être prise égale à γ2 Kr + 1−γ
2 Mr , où Kr et Mr sont
les réductions de K et M aux ddls mesurés. Les matrices de Guyan (1.34) sont en pratique
souvent utilisées. Le coefficient γ permet d’ajuster le type d’erreur de modélisation. Ainsi, si
γ = 0,5, on considère que l’erreur de modélisation est constituée à 50 % d’erreur en masse
et à 50 % d’erreur en raideur. vν et wν sont deux autres champs admissibles devant satisfaire
l’équation d’équilibre
K vν−ω2ν M wν = 0. (61)
Les champs de déplacements inconnus uν, vν et wν sont déterminés en résolvant le pro-
blème d’optimisation sous contraintes
min
uν,vν,wνeERDCm
avec K vν−ω2ν M wν = 0.
(62)
En introduisant un vecteur λ de multiplicateurs de Lagrange, le problème revient à minimi-
ser la fonction
g =γ
2(uν−vν)T K (uν−vν)+
1−γ
2(uν−wν)T ω2
ν M (uν−wν)
+r
1− r
(L uν−c yexp
ν
)TGr
(L uν−c yexp
ν
)+λT (
K vν−ω2ν M wν
).
(63)
172
D Méthodologies de recalage
Ensuite, nous dérivons g par rapport à uν, vν, wν et λ et nous obtenons les équations
∂g
∂uν
= 0⇒ γK (uν−vν)+(1−γ
)ω2
ν M (uν−wν)+ 2r1−r
LT Gr(L uν−c yexp
ν
)= 0
∂g
∂vν
= 0⇒ −γK (uν−vν)+Kλ= 0
∂g
∂wν
= 0 ⇒ −(1−γ
)ω2
ν M (uν−wν)−ω2ν Mλ= 0
∂g
∂λ= 0 ⇒ K vν−ω2
ν M wν = 0 ⇔ K (uν−vν)−ω2ν M (uν−wν)−Zν uν = 0
. (64)
À condition que K et M soient inversibles, nous tirons de la troisième équation que
λ=−(1−γ
)(uν−wν) et de la deuxième que
uν−wν =−γ
1−γ(uν−vν) . (65)
Finalement, en introduisant ces relations dans la première et la quatrième équation du sys-
tème (64), le problème revient à résoudre le système
[γ
(K−ω2
ν M) 2r
1−rLT Gr L
K+ γ1−γ ω
2ν M −Zν
][uν−vν
uν
]
=[
2r1−r
LT Grc yexp
ν
0
]
. (66)
La résolution de ce système à chaque fréquence propre, nous permet d’obtenir le résidu
en déplacement rν = uν−vν et le vecteur uν qui peut être interprété comme l’extension de
c yexpν aux N ddls du MEF. Donc uν = yexp
ν . La résolution de ce système 2 N× 2 N étant très
coûteuse pour des MEFs avec un grand nombre de ddls, il est aussi possible de travailler
avec des bases de réduction [47]. Dans le cas où seule la raideur est considérée, on notera
l’analogie avec la méthode MDRE présentée paragraphe 1.5.2.
Localisation
Les résidus rν et déplacements uν identifiés sont ensuite utilisés pour localiser les élé-
ments erronés. À partir des équations (60) et (65), nous déduisons le critère énergétique élé-
mentaire ou ERDC locale
e (el )ν =
γ
2rTν L(el ) K(el )
(L(el )
)Trν+
γ2
2(1−γ
)rTν L(el )ω2
ν M(el )(L(el )
)Trν
+r
1− r
(L uν−c yexp
ν
)TGr
(L uν−c yexp
ν
).
(67)
K(el ) et M(el ) sont les matrices de raideur et de masse associées à un élément (el ) et L(el )
la matrice de localisation des ddls de cet élément. Ce critère est valable pour l’élément et le
mode considérés. Des sous-domaines sont généralement définis de sorte à regrouper les élé-
ments possédant des paramètres identiques. Pour un sous-domaine d’indice (ss), le critère
à considérer sera alors e (ss)ν =
∑el∈ss e (el )
ν . Si l’on souhaite évaluer la contribution sur tous les
modes, on utilisera le critère e (ss) =∑
ν e (ss)ν . Il reste ensuite à pondérer ce critère. Parmi les
diverses approches [143], on citera :
173
Annexes
– la pondération par rapport à l’énergie des vecteurs étendus uν dans le sous-domaine
e (ss)p =
e (ss)
∑mν=1
∑el∈ss
uTν L(el ) K(el )
(L(el )
)T uν+uTν L(el )ω2
ν M(el )(L(el )
)T uν
; (68)
– la pondération par rapport à l’énergie dans toute la structure
e (ss)p =
e (ss)
∑mν=1
∑el∈ss
uTν K uν+uT
νω2ν M uν
; (69)
– la pondération par rapport au volume du sous-domaine
e (ss)p =
e (ss)
∑el∈ss
V(el ). (70)
Cette dernière pondération est à éviter dans le cas où le MEF contient des éléments sans
volume comme par exemple les éléments ressorts ou masses.
Les sous-domaines possédant une valeur de e (ss)p très élevée par rapport aux autres sont
susceptibles de présenter un défaut de modélisation en raideur et en masse. Nous n’avons
par contre pas d’information sur le ou les paramètres de modèle concernés.
Correction
Une procédure de recalage basée sur l’ERDC peut être la suivante :
1. localiser les erreurs de modélisation en utilisant les ERDC locales e (ss)p et sélectionner
un ensemble de paramètres p associés aux zones identifiées comme erronées ;
2. minimiser sous contraintes
minpmin≤p≤pmax
F(p) =m∑
ν=1e
ERDCmν ; (71)
3. si pour p obtenu après minisation, l’ERDC globale F(p) est inférieure à un certain seuil,
terminer. Sinon, revenir à l’étape 1).
Un algorithme itératif de type BFGS peut être utilisé pour la minimisation (71). À chaque
itération, le système (66) est résolu d’où l’importance d’utiliser des bases de réduction dans
le cas de grands MEFs.
Dans le cas général, le processus comporte donc une étape de localisation des erreurs de
modélisation et une étape de correction des paramètres. Dans la section 4.2, les paramètres
à recaler sont imposés et donc seule la minimisation de l’ERDC globale est effectuée.
174
Méthodologies d’aide à la décision en conception robuste
Résumé
La maîtrise du calcul prévisionnel du com-portement dynamique de structures mécaniquesdemeure un enjeu majeur pour l’améliorationde la conception en présence de facteurs malmaîtrisés. Dans ce document, nous présentonsdes méthodologies de conception permettant deprendre en compte dans le processus de décision,les incertitudes sur les paramètres de conception,les incertitudes sur les mesures ou encore l’im-pact des modifications.
Dans la première partie, nous étudions le po-tentiel d’une méthode de synthèse modale ba-sée sur l’utilisation des modes propres orthogo-naux. Une méthodologie de vérification et d’op-timisation de super-éléments est également pré-sentée. Enfin, nous montrons qu’un algorithmegénétique peut permettre une sélection optimaledes coordonnées physiques dans les méthodes de
réduction.La deuxième partie concerne l’identification
paramétrique des structures mécaniques à partird’observations incertaines et la quantification del’information susceptible d’être obtenue grâce àdes mesures expérimentales. Nous utilisons danscette étude une formulation probabiliste des pro-blèmes inverses. Une planification d’essais envue d’un gain d’information est réalisé avec desplans d’expérience bayésiens.
Dans la dernière partie, l’approche non-probabiliste info-gap est appliquée afin d’évaluerla robustesse aux incertitudes de deux méthodesde recalage. Cette méthode permet aussi de vé-rifier que, dans un environnement incertain etpour un critère de performance donné, il peutêtre préférable de choisir un modèle « satisfai-sant » plutôt qu’un modèle optimal.
Mots clés
Aide à la décision, sous-structuration, robustesse, problème inverse, information, planification
d’essais, info-gap
Decision aiding methodologies in robust design
Abstract
Improving the quality of numerical simula-tions in structural elastodynamics remains a ma-jor challenge in order to improve design underuncertainty in the structure and its environment.In this document, we present design methodo-logies uncertainties to be taken into account inthe decision-making process, including uncer-tainties in the design parameters, in the measu-rements, or even the impact of modifications.
In the first part, we examine the potential of acomponent mode synthesis method based on theuse of the proper orthogonal modes. A methodo-logy for the verification and improvement of su-perelements is also proposed. Finally, it is shownthat a genetic algorithm can be used for an opti-mal selection of the physical coordinates in sub-
structuring methods.
The second part is devoted to the parametricidentification of mechanical structures given un-certain observations and the information contentof experimental measurements. A probabilisticformulation of the inverse problem is used here.A strategy of test planning for information gain ismade based on Bayesian experimental design.
In the last part, the info-gap approach is ap-plied to evaluate the robustness to uncertaintiesof two updating methods. This method also al-lows to verify that, in an uncertain environmentand for a given performance criterion, it can bepreferable to choose a robust-satisficing designrather than an optimal design.
Keywords
Decision aiding, substructuring, robustness, inverse problem, information, test planning, info-gap