LaDissertation.com - Dissertations, fiches de lectures, exemples du BAC
Recherche

La algorithmes d’identification

Mémoire : La algorithmes d’identification. Recherche parmi 298 000+ dissertations

Par   •  10 Mars 2013  •  1 101 Mots (5 Pages)  •  1 075 Vues

Page 1 sur 5

cadre théorique des différents algorithmes d’identification en ligne étudiés en cours (algorithmes du gradient, des moindres carrés, etc.). Les différents exemples simples d’identification vont nous permettre de programmer, d’évaluer et de comparer les performances de ces algorithmes.

Mots-clés— Identification, commande adaptative, gradient, moindre carré, Matlab, Simulink.

I. INTRODUCTION

A. Etude théorique

On considère un système du premier ordre suivant : avec  0 (1)

Où les paramètres a et b sont constants mais inconnus et ou les signaux disponibles à la mesure sont x(t) et u(t) . Le système est supposée stable (a>0).

On écrit le système sous la forme condensée suivantes :

est le vecteur de paramètres inconnus à identifier,

le vecteur des observations dont les éléments sont des signaux mesurables à l’instant t, un signal connu et  un signal de perturbation.

Notre équation (1) devient sous forme matricielle X=  [w1(t)

w2(t)].

A. Implémentation sous Matlab/Simulink

On implémente notre modèle sous matlab/simulink,et on étudie les différents algorithmes proposés en cours (gradients et moindres carrés) afin de pouvoir comparer les performances et limites de chacun.

Dans un premier temps, on va comparer notre modèle à la sortie du système dit réel afin de voir l’erreur. Celle-ci sera ensuite minimiser grâce aux différents algorithmes du gradient et moindres carrés.

Pour faire notre étude, on a modélisé notre système dans le

domaine de Laplace sous la forme : avec a et b qu’on

pourra modifier selon nos envies. Ensuite, on a filtré la sortie du signal ys et l’entrée u vu qu’il faut toujours éviter l’utilisation des dérivées des mesures surtout si les mesures sont bruitées. Les filtres stables introduit w1(t) et w2(t) qui

représentent la matrice  ) ont pour fonction de transfert :

. Le calcul de la dérivée de ys n’est plus nécessaire. Pour

récupérer la sortie du modèle ym, on fait le produit matriciel de  ) et  T . Maintenant, on peut insérer les différents algorithmes.

II. ETUDE 1

A. Algorithme du gradient

Il s’agit d’une méthode d’optimisation récursive. La Recherche de se fait de manière récursive assurant une décroissance du critère entre deux itérations successives.

B. Algorithme du gradient avec fonction du coût instantanée

L’algorithme du gradient avec fonction de coût instantanée est donnée par :

Avec lambda positif.

On prend comme paramètres pour le système a=1 et b=2. De même, lambda=1.

- On injecte dans un premier temps un échelon. On obtient les figures suivantes :



On remarque que l’erreur tend vers 0 après un petit temps d’adaptation. De même, la sortie du modèle suit bien la sortie du système ce qui est très bien. Mais lorsqu’on regarde la figure représentant les paramètres du modèle, on voit que nos paramètres ne sont pas les mêmes que ceux implémenté au début. En effet, le fait d’avoir injecté un échelon n’excite pas le système à toutes les fréquences. Il nous faut donc injecter un sinus en entrée ( voir plusieurs) pour pouvoir exciter toutes les fréquences et obtenir une paramétrisation correcte.

- On a dans un premier temps décider de faire varier lambda et observer le signal.

Cas 1 : lambda =1.

Cas 2 : lambda =10.

Cas 3 : lambda=50.

On remarque que plus lambda augmente, plus l’erreur est améliorée. Mais aussi que nos valeurs des paramètres a et b ne coïncident toujours pas mais changent chaque fois.

- Injectons une sinusoïde d’amplitude 1V et de fréquence 0.5 Hz par exemple:

On remarque que l’erreur tend bien vers 0, le modèle continue à suivre l’allure du système ce qui est bon.



Pour ce qui concerne les paramètres a et b, on voit bien que le paramètre b tend vers 2 et que le paramètre a vaut 1 car on tend vers 0. (Lambda-a) est représenté.

- on injecte une sinusoïde d’amplitude 1V et de fréquence 0.5 Hz ainsi qu’un échelon qui démarre après 100ms. Cela afin de voir si le système s’adapte.

Fig. 1. Courbes représentant les paramètres a (lambda-a en jaune) et b (en violet).

Fig.2. Courbe représentant l’erreur

On remarque que le modèle s’adapte assez rapidement. De plus, on retrouve bien les paramètres souhaités.

C.

...

Télécharger au format  txt (7.8 Kb)   pdf (102.7 Kb)   docx (11.5 Kb)  
Voir 4 pages de plus »
Uniquement disponible sur LaDissertation.com