next up previous
suivant: À propos de ce

Exemples d'utilisation du théorème de Courant-Fischer

$ \hbox{1}^{\hbox{\scriptsize ère}}$ Partie

A- Étude d'une matrice


  1. $ M=U\,^t\!U=\begin{pmatrix}
u_1 \\
\vdots \\
u_n
\end{pmatrix} \begin{pmatrix...
...u_n \\
\vdots & & & \vdots \\
u_nu_1 & u_nu_2 & \ldots & u_n^2
\end{pmatrix} $.
    Donc pour tout couple $ (i,j)$ d'éléments de $ \{1,\ldots,n\}$, on a: $ m_{i,j}=u_iu_j$ et Tr $ (M)=\sum\limits_{i=1}^nu_i^2$.
  2. La $ j$-ème colonne de $ M$ est $ u_jU$.
  3. On sait que le rang d'une matrice est égal à celui de ses colonnes, or toutes les colonnes de $ M$ sont proportionnelles à $ U$, donc leur rang vaut 1, d'où rg$ (M)=1$.
  4. rg $ (M)=1\neq n$, donc $ M$ n'est pas inversible en particulier 0 est une valeur propre de $ M$, d'autre part $ MY=0\ssi ^t\!YU ^t\!UY=0\ssi \Vert ^t\!UY\Vert=0\ssi ^t\!UY=0$ d'où le sous-espace propre associé est égale à $ \{Y\in\mat{n,1}{\ensuremath{\mathbb{R}} },\
^t\!UY=0\}$. Sa dimension est $ n-1$ car c'est un hyperplan de $ \mat{n,1}{\ensuremath{\mathbb{R}} }$ puisque c'est le noyau de la forme linéaire non nulle $ \app{\varphi :}{\mat{n,1}{\ensuremath{\mathbb{R}} }}{\ensuremath{\mathbb{R}} }{Y}{^t\!UY}$.
  5. $ MU=U ^t\!UU$, donc $ ^t\!UU$ est une autre valeur propre de $ M$ avec $ U$ est un vecteur propre, et dont la dimension du sous-espace propre associé ne peut pas dépasser 1, puisque déjà celui associé à 0 est de dimension $ n-1$, donc sa dimension est 1, engendré par $ U$.
  6. La matrice $ M$ est orthogonalement semblable à la matrice diagonale $ D=diag(^t\!UU,0,\ldots,0)$, car les sous-espaces associée respectivement aux valeurs propres $ ^t\!UU$ et 0 sont Vect$ (U)$ et $ \{Y\in\mat{n,1}{\ensuremath{\mathbb{R}} },\
^t\!UY=0\}$=Vect $ (U)^{\bot}$ de dimension 1 et $ n-1$

B- Théorème de Courant-Fischer


  1. Parceque toute matrice symétrique est diagonalisable dans une base orthonormée.
  2. $ R_A(e_k)=\dfrac{<\!\!Ae_k,e_k\!\!>}{<\!\!e_k,e_k\!\!>}=\dfrac{<\!\!f(e_k),e_k\!\!>}{<\!\!e_k,e_k\!\!>}=\lambda_k$, pour tout $ k\in\{1,2,\ldots,n\}$ car $ f(e_k)=\lambda_ke_k$.
  3. $ \ds v=\sum_{i=1}^nx_ie_i$, donc $ \ds f(v)=\sum_{i=1}^n\lambda_ix_ie_i$, d'où $ \ds <\!\!f(v),v\!\!>=\sum_{i=1}^n\lambda_ix_i^2$ et $ \ds <\!\!v,v\!\!>=\sum_{i=1}^nx_i^2$.
  4. On a $ \lambda_1\ioe \lambda_i\ioe\lambda_n$, d'où $ \ds \lambda_1<\!\!v,v\!\!>=\sum_{i=1}^n\lambda_1x_i^2\ioe<\!\!f(v),v\!\!>
=\sum_{i=1}^n\lambda_ix_i^2\ioe \sum_{i=1}^n\lambda_nx_i^2=\lambda_n<\!\!v,v\!\!>$, donc $ \lambda_1\ioe R_A(v)\ioe \lambda_n\quad \qlq v\neq 0$, d'où $ \quad \ds\lambda_1\ioe\min_{v\not=0}R_A(v)\quad$ et $ \quad\ds\lambda_n\ioe\max_{v\not=0}R_A(v)$, d'autre part $ R_A(e_1)=\lambda_1$, d'où $ \quad \ds\lambda_1\soe\min_{v\not=0}R_A(v)\quad$ et $ R_A(e_n)=\lambda_n$ d'où $ \quad\ds\lambda_n\soe\max_{v\not=0}R_A(v)$.
    Donc: $ \quad \ds\lambda_1=\min_{v\not=0}R_A(v)\quad$ et $ \quad\ds\lambda_n=\max_{v\not=0}R_A(v)$.
  5. Soit $ k\in\{1,\ldots,n\}$, $ \ds w\in V_k\;\Longrightarrow\;w=\sum_{i=1}^kx_ie_i\;\Longrightarrow\;\ds <\!\!f(w),w\!\!>=\sum_{i=1}^k\lambda_ix_i^2\ioe \lambda_k\sum_{i=1}^kx_i^2$ et $ \ds <\!\!w,w\!\!>=\sum_{i=1}^kx_i^2$, d'où $  R_A(w)=\dfrac{<\!\!f(w),w\!\!>}{<\!\!w,w\!\!>}\ioe \lambda_k\quad \qlq w\in V_k\setminus\{0\}$, d'où $ \ds\lambda_k\soe\max_{v\in V_k\setminus\{0\}}R_A(v)$ or $ e_k\in V_k\setminus\{0\}$ et $ R_A(e_k)=\lambda_k$, d'où $ \ds\lambda_k=\max_{v\in V_k\setminus\{0\}}R_A(v).$
    1. Supposons $ \dim\left( F_1\cap{\rm
Vect}(e_k,\ldots,e_n)\right) =0$, alors $ \dim\left( F_1\oplus{\rm
Vect}(e_k,\ldots,e_n)\right)=k+(n-k+1)=n+1$, impossible puisque $ \left( F_1\oplus{\rm
Vect}(e_k,\ldots,e_n)\right)$ est un de $ \mat{n,1}{\ensuremath{\mathbb{R}} }$ qui est de dimesnion $ n$, d'où $ \dim\left( F_1\cap{\rm
Vect}(e_k,\ldots,e_n)\right) \neq 0$ et par suite $ \dim\left( F_1\cap{\rm
Vect}(e_k,\ldots,e_n)\right) \soe 1$.
    2. $ \ds w\in F_1\cap{\rm
Vect}(e_k,\ldots,e_n) \;\Longrightarrow\;w=\sum_{i=k}^nx_...
...row\;<\!\!f(w),w\!\!>=\sum_{i=k}^n\lambda_ix_i^2\soe \lambda_k\sum_{i=k}^nx_i^2$ et $ \ds <\!\!w,w\!\!>=\sum_{i=k}^nx_i^2$, d'où $  R_A(w)=\dfrac{<\!\!f(w),w\!\!>}{<\!\!w,w\!\!>}\soe \lambda_k$.
    3. D'aprés 5.) on a: $ \ds\lambda_k=\max_{v\in V_k\setminus\{0\}}R_A(v)$ et $ V_k\in{\cal
F}_k$, d'où $ \quad\ds\lambda_k\soe\!\min_{F\in{\cal
F}_k}\big(\max_{v\in F\setminus\{0\}}R_A(v)\big)$ , et d'aprés 6.b) $ \lambda_k\ioe R_A(w)\ioe \max_{v\in F\setminus\{0\}}R_A(v)\quad \qlq F\in{\cal
F}_k$, d'où $ \quad\ds\lambda_k\ioe\!\min_{F\in{\cal
F}_k}\big(\max_{v\in F\setminus\{0\}}R_A(v)\big)$, d'où l'égalité.
    1. L'application $ \psi_A : v\longmapsto <\!\!Av,v\!\!> $ est continue sur n,1 $ \mathbb{R}$ en tant que produit scalaire de deux fonctions continues car linéaires $ v\mapsto Av$ et $ v\mapsto v$ et on en déduit la continuité de l'application $ R_A$ sur $ \mat{n,1}{\ensuremath{\mathbb{R}} }\setminus \{0\}$ car rapport de deux fonctions continues $ v\mapsto <\!\!Av,v\!\!>$ et $ v\mapsto <\!\!v,v\!\!>$ avec un dénominateur qui ne s'annulle jamais.
    2. Soient $ A$ et $ B$ deux éléments de $ \mat{n,1}{\ensuremath{\mathbb{R}} }\setminus \{0\}$, on cherche à les relier par un chemin qui ne passe pas par l'origine.
      • 1èr cas $ 0\notin [A,B]$ alors le chemin $ \app{\gamma:}{[0,1]}{\mat{n,1}{\ensuremath{\mathbb{R}} }\setminus \{0\}}{t}{tA+(1-t)B}$ fera bien l'affaire.
      • 1èr cas $ 0\in [A,B]$, on se fixe un élément $ C\in \mat{n,1}{\ensuremath{\mathbb{R}} }\setminus \{0\}$ tel que: $ 0\notin [A,C]$ et $ 0\notin [C,B]$, on relie alors $ A$ à $ C$ puis $ C$ à $ B$.
      D'où l'ensemble $ \mat{n,1}{\ensuremath{\mathbb{R}} }\setminus \{0\}$ est connexe par arcs et l'image de l'application $ R_A$ est aussi un ensemble connexe par arcs de $ \ensuremath{\mathbb{R}} $, donc un intervalle car les seuls connexes par arcs de $ \ensuremath{\mathbb{R}} $ sont ses intervalles.
    3. D'aprés ce qui précède $ \{R_A(v),\ v\in\mat{n,1}{\ensuremath{\mathbb{R}} }\setminus\{0\}\
\}$ est un intervalle, or $ \quad \ds\lambda_1=\min_{v\not=0}R_A(v)\quad$ et $ \quad\ds\lambda_n=\max_{v\not=0}R_A(v)$. D'où $ \{R_A(v),\ v\in\mat{n,1}{\ensuremath{\mathbb{R}} }\setminus\{0\}\
\}=[\lambda_1,\lambda_n]$

$ \hbox{2}^{\hbox{\scriptsize ème}}$ Partie

  1. Soit $ B$ une matrice symétrique réelle d'ordre $ n$.
    supposons $ B$ definie positive et soit $ \lambda$ une valeur propre de $ B$ et $ X$ un vecteur propre associé, alors $ ^tXBX=\lambda\Vert X\Vert^2>0$ d'où $ \lambda>0$
    Inversemnt, supposons $ B$ admet deux valeurs propres $ \lambda>0$ et $ \mu >0$, comme $ B$ est symetrique alors elle orthogonalement diagonalisable, c'est à dire $ \exists P$ inversible telle que $ B=^tP\begin{pmatrix}
\lambda & 0 \\
0 & \mu
\end{pmatrix}P$, d'où $ \qlq X\neq 0$ on a: $ ^tXBX=^tX^tP\begin{pmatrix}
\sqrt{\lambda} & 0 \\
0 & \sqrt{\mu}
\end{pmatrix}\begin{pmatrix}
\sqrt{\lambda} & 0 \\
0 & \sqrt{\mu}
\end{pmatrix}PX=^tYY>0$ $ Y=\begin{pmatrix}
\sqrt{\lambda} & 0 \\
0 & \sqrt{\mu}
\end{pmatrix}PX\neq 0$ car $ X\neq 0$, d'où $ B$ est définie positive.
    Conclusion: $ B$ est définie positive si et seulement si ses valeurs propres sont strictement positives.
    1. $ A$ est définie positive, donc pour $ ^tX=(1,0)\neq 0$ on a: $ a=^tXAX>0$ d'autre part $ \det (A)=ac-b^2>0$ car c'est le produit des valeurs propres de $ A$.
    2. Tout calcul fait: $ ^tXAX=ax^2+2bxy+cy^2=a\left( (x+\frac{b}{a}y)^2+(\frac{c}{a}-\frac{b^2}{a^2})y^2\right)=
 a\left( (x+\frac{b}{a}y)^2+(\frac{ac-b}{a^2})y^2\right)>0$. Donc $ A$ est définie positive.

    1. Montrer que $ <g(x),y>=<p\circ f(x),y>=<f(x),p(y)>=<f(x),y>$ car $ p$ projecteur orthogonal sur $ H$ et $ y\in H$ et de même $ <x,g(y)>=<x,f(y)>$ or $ f$ est symétrique d'où $ <f(x),y>=<x,f(y)>$, donc $ <g(x),y>=<x,g(y)>$, et alors $ g$ est un endomorphisme autoadjoint de $ H$.

    2. Soit $ (e'_1,\ldots ,e'_{n-1})$ base propre orthonormée de $ H$ associée à $ g$ dont les valeurs propres sont $ \mu_1,\ldots ,\mu_{n-1}$, pour tout $ k\in\{1,\ldots,n-1\}$ on pose: $ V'_k=Vect(e'_1,\ldots ,e'_{k})$, comme précédement on montre que $ \ds\mu_k=\max_{v\in V'_k\setminus\{0\}}R_A(v)$, or $ V'_k\in{\cal
F}_k$ et
      $ \quad\ds\lambda_k=\!\min_{F\in{\cal
F}_k}\big(\max_{v\in F\setminus\{0\}}R_A(v)\big)$, d'où $ \lambda_k\ie\mu_k$.
    3. Soit $ k\in\{1,\ldots,n-1\}$.
      1. Supposons $ \dim (F\cap H)<k$, donc $ \dim (F+H)=\dim F+\dim H-\dim (F\cap H)=n+k-\dim (F\cap H)>n$, impossible puisque $ F\cap H$ est un de $ \mat{(n-1),1}{\ensuremath{\mathbb{R}} }$ qui est de dimension $ n$ d'où $ \dim (F\cap H)\soe k$.
      2. $ g(v)=p(f(v))$, donc $ g(v)-f(v)\in H^\perp$, or $ v\in H$, d'où $ <g(v)-f(v),v>=0$ et donc $ <g(v),v>=<h(v),v>$, en particulier
        $ <g(v),v>\ioe \max_{v\in
F\setminus\{0\}}\frac{<\!\!f(v),v\!\!>}{<\!\!v,v\!\!>}\quad \qlq v\in G\setminus\{0\}$, d'où
        $ \ds\quad\max_{v\in
G\setminus\{0\}}\frac{<\!\!g(v),v\!\!>}{<\!\!v,v\!\!>}\ie\max_{v\in
F\setminus\{0\}}\frac{<\!\!f(v),v\!\!>}{<\!\!v,v\!\!>}.$
      3. En passant au $ \min$ dans l'inégalité précèdente et en utilisant le théorème de Courant-Fischer à gauche pour $ g$ et à droite pour $ f$ et vu que $ G$ est de dimension $ k$ et $ F$ de dimension $ k+1$, on conclut que $ \mu_k\ie\lambda_{k+1}$.
    1. $ A_{n-1}$ n'est autre que la matrice de $ g$, elle est symétrique car $ g$ est auto-adjoint.
    2. Application directe de ce qui précède on a $ \lambda_k\ioe\mu'_k\ioe\lambda_{k+1}$ puisque les $ \mu'_k$ sont aussi valeurs propres de $ g$.
    3. Si la matrice $ A$ est définie positive, alors toutes ses valeurs propres $ \lambda_k$ sont strictement positives il en sera de même pour les valeurs propres $ \mu'_k$ de la matrice $ A_{n-1}$, or $ A_{n-1}$ est symétrique donc orthogonlement diagonalisable, d'où $ \exists P$ inversible telle que $ A_{n-1}=^tP\begin{pmatrix}
\mu '_1 & 0&\ldots &0 \\
0&\ddots&\ddots&\vdots\\
\vdots&&&0\\
0 &\cdots&& \mu'_n
\end{pmatrix}P$, d'où $ \qlq X\neq 0$ on a:
      $ ^tXA_{n-1}X=^tX^tP\begin{pmatrix}
\mu '_1 & 0&\ldots &0 \\
0&\ddots&\ddots&\vdots\\
\vdots&&&0\\
0 &\cdots&& \mu'_n
\end{pmatrix}PX=^tYY>0$
      $ Y=\begin{pmatrix}
\sqrt{\mu '_1} & 0&\ldots &0 \\
0&\ddots&\ddots&\vdots\\
\vdots&&&0\\
0 &\cdots&& \sqrt{\mu'_n}
\end{pmatrix}PX\neq 0$ car $ X\neq 0$, d'où $ A_{n-1}$ est définie positive.
    1. Si $ A$ est définie positive alors toutes les matrices $ A_k$ sont aussi définie positive d'aprés la question précèdente, donc leurs déterminants sont tous strictement positifs.
    2. Le résultat est déja vérifié pour $ n=2$.
      Supposons le resultat vrai pour $ n-1$, on peut donc déjà affirmer que $ A_{n-1}$ est définie positive, d'où $ \mu'_k>0\quad\qlq 1\ioe k\ioe n-1$, en particulier $ \lambda_2>0,\ldots ,\lambda_n>0$, or $ \ds\det A=\prod_{i=1}^n\lambda_i>0$, d'où $ \lambda_1>0$, ainsi $ A$ est une matrice symétrique dont toutes les valeurs propres sont strictement positives, donc définie positive.
  2. Un exemple d'utilisation :
    1. Montrer que, pour tout $ t\in[0,1[$, la matrice $ M(t)$ est symétrique définie positive.
    2. En déduire que la matrice $ \qlq X\neq 0 ^tXM_1X=^tX(\int_0^1M(t) dt) X=\int_0^1^tXMX dt>0$ car $ ^tXMX>0$, d'où $ M_1$ est définie positive.

$ \hbox{3}^{\hbox{\scriptsize ème}}$ Partie A- Une deuxième application

    1. $ \qlq F\in {\cal F}_k,\quad \qlq v\in F\setminus\lbrace 0\rbrace$ on a: $ \ds R_{A'}(v)=R_A(v)+R_{E}(v)$ d'où
      $ \ds\max_{v\in F\setminus\lbrace 0\rbrace}R_{A'}(v)=\max_{v\in F\setminus\lbrac...
..._A(v)+\max_{v\neq 0}R_{E}(v)=\max_{v\in F\setminus\lbrace 0\rbrace}R_A(v)+\mu_n$ d'où
      $ \ds\min_{F\in\cal F}\max_{v\in F\setminus\lbrace 0\rbrace}R_{A'}(v)\ioe\min_{F\in\cal F}\max_{v\in F\setminus\lbrace 0\rbrace}R_{A}(v)+\mu_n$ et donc $ \lambda'_k \ioe \lambda_k+\mu_n$, d'autre part, $ \qlq F\in {\cal F}_k,\quad \qlq v\in F\setminus\lbrace 0\rbrace$ on a: $ \ds R_{A'}(v)=R_A(v)+R_{E}(v)\soe R_A(v)+\mu_1$, en passant une première fois au max sur $ v\in F\setminus\lbrace 0\rbrace$ puis une deuxième fois au min sur $ F\in\cal F$ on obtient l'autre égalité d'où pour tout $ k\in\{1,2,\ldots,n\}$, on a: $ \lambda_k+\mu_1\ioe\lambda'_k \ioe \lambda_k+\mu_n.$
    2. D'aprés la question précèdente on a: $ \mu_1\ioe\lambda'_k -\lambda_k\ioe \mu_n$, d'où $ \vert\lambda'_k-\lambda_k\vert\ioe \max (\vert\mu_1\vert,\vert\mu_n\vert)$, montrons alors que $ \ds\Vert A-A'\Vert=\max_{X\neq 0}\frac{\Vert(A-A')X\Vert}{\Vert X\Vert}=\max (\vert\mu_1\vert,\vert\mu_n\vert)$, en effet $ A-A'=E$ est symétrique, donc diagonalisable dans une base orthonormale, $ (e'_1,\ldots,e'_n)$ associée aux valeurs propres $ \mu_1\ioe\ldots \ioe \mu_n$, d'où $ \vert\mu_k\vert\ioe \max (\vert\mu_1\vert,\vert\mu_n\vert)=r$, et $ \qlq X\neq 0$ on a $ \ds X=\sum_{k=1}^nx_ke'_k$, d'où $ \ds X=\sum_{k=1}^n\mu_kx_ke'_k$ en particulier $ \ds\Vert EX\Vert^2=\sum_{k=1}^n\mu_k^2x_k^2\ioe r^2\sum_{k=1}^nx_k^2=r^2\Vert X\Vert^2$, d'où $ \ds\Vert A-A'\Vert=\max_{X\neq 0}\frac{\Vert EX\Vert}{\Vert X\Vert}\ioe r$, d'autre part $ \ds\Vert A-A'\Vert=\max_{X\neq 0}\frac{\Vert EX\Vert}{\Vert X\Vert}\soe \frac{\Vert Ee'_1\Vert}{\Vert e'_1\Vert}=\vert\mu_1\vert$ et $ \ds\Vert A-A'\Vert=\max_{X\neq 0}\frac{\Vert EX\Vert}{\Vert X\Vert}\soe \frac{\Vert Ee'_n\Vert}{\Vert e'_n\Vert}=\vert\mu_n\vert$, d'où $ \ds\Vert A-A'\Vert\soe \max (\vert\mu_1\vert,\vert\mu_n\vert)$ d'où l'égalité.
  1. Soit $ A\in S_n^{+}$, on cherche $ \varepsilon > 0$ tel que: $ \Vert A-A'\Vert\ioe \varepsilon\;\Longrightarrow\;A'\in S_n^{+}$, en effet:
    $ \ds\Vert A-A'\Vert\ioe \varepsilon\;\Longrightarrow\;\vert\lambda'_k-\lambda_k...
...da'_k\;\Longrightarrow\;\min_{1\ioe k\ioe n}\lambda_k-\varepsilon\soe\lambda'_k$, si on prend $ \ds\varepsilon=\frac{1}{2}\min_{1\ioe k\ioe n}\lambda_k>0$, alors $ \ds\lambda'_k\soe\frac{1}{2}\min_{1\ioe k\ioe n}>0,\quad \qlq 1\ioe k\ioe n$, ainsi toutes les valeurs propres de $ A'$ qui est symétrique sont strictement positives, d'où $ A'$ est définie positive.

B- Une dernière application

  1. Les matrices $ R$ et $ S$ sont orthogonales, d'où
    $ ^tRR=I_n$ et $ ^tSS=I_{n-1}$, d'où $ ^tQQ=\begin{pmatrix}1 & 0 \\ 0& ^tS\end{pmatrix}^tRR\begin{pmatrix}1 & 0 \\ 0&...
...& 0 \\ 0& ^tSS\end{pmatrix}=\begin{pmatrix}1 & 0 \\ 0& I_{n-1}\end{pmatrix}=I_n$, d'où la matrice $ Q$ est orthogonale.
  2. Simple calcul, en utilisant les relations: $ ^t\!RMR=\begin{pmatrix}^t\!UU & 0 \\
0& 0\end{pmatrix},^t\!RAR=\begin{pmatrix}\alpha
& ^t\!a \\ a& A_{n-1}\end{pmatrix}$ et $ ^t\!SA_{n-1}S=diag(\alpha_2,\ldots,\alpha_n).$
  3. On a $ A_\varepsilon-A=\varepsilon M$, donc $ A_\varepsilon$ jouera le rôle de $ A'$ et $ \varepsilon M$ celui de $ E$, dont les valeurs propres sont $ \mu_1=0$ et $ \mu_n=\varepsilon^tUU$.
    1. C'est un résultat du cours puisque la matrice $ Q$ est orthogonale.
    2. le coefficient d'indice $ (i,j)$ de $ ^tQAQ$ s'obtient en faisant le produit scalaire de la $ i$-ème ligne de $ ^tQ$ avec la $ j$-ème colonne de $ AQ=AC_j$, donc ce coefficient est \begin{displaymath}\begin{array}{lll}
^tC_iAC_j= & \alpha & \text{ si } i=j=1 \\...
...e 2\text{ ou }j=1,i\soe 2 \\
& 0 & \text{ sinon }
\end{array}\end{displaymath}
      Soit $ \ds X=\sum_{i=1}^ny_iC_i\in\mat{n,1}{\ensuremath{\mathbb{R}} }$ alors $ \ds ^tXAX=\sum_{i=1}^n\sum_{j=1}^ny_iy_j^tC_iAC_j=\alpha
y_1^2+\sum_{i=2}^n\alpha_iy_i^2+2 \sum_{j=2}^n\beta_jy_1y_j$.
    3. De manière analogue on a: $ \ds^tXA_\varepsilon X=(\alpha +\varepsilon ^tUU)
y_1^2+\sum_{i=2}^n\alpha_iy_i^2+2 \sum_{j=2}^n\beta_jy_1y_j=^tXAX+\varepsilon ^tUUy_1^2$.
      Ainsi $ \ds R_{A_{\eps}}(X)=\frac{^tXA_\varepsilon X}{<\!\!X,X\!\!>}=
 \frac{^tXAX+\...
...psilon ^tUUy_1^2}{<\!\!X,X\!\!>}=R_A(X)+\eps^t\!U U\frac{y_1^2}{<\!\!X,X\!\!>}$.
    4. Choisir $ X\in F$ tel que: $ F\in {\cal F}_2$ avec $ y_1=0$.

FIN DE L'ÉPREUVE



next up previous
suivant: À propos de ce
smail 2005-04-21