Ehrenfest : sujet pour le supérieur
Publié le 14/09/2015
Résumé

Auteur : Alexandre Marino, Lycée Joffre (Montpellier)

Cette article présente une proposition de sujet de devoir pour la première année d'université ou de CPGE. Il est associé à l'article principal « Les Ehrenfest viennent en aide à Boltzmann. »


Dans tout le problème, $n$ sera un entier supérieur ou égal à deux. Nous noterons $I_n$ la matrice identité de $\mathcal{M}_n(\mathbb{R})$ et $U$ la matrice colonne à $n$ lignes ne contenant que des $1$ : $$U=\begin{pmatrix} 1 \\ \vdots \\ 1 \end{pmatrix}\in \mathcal{M}_{n,1}(\mathbb{R}).$$

Nous considérerons également les définitions et notations suivantes :

  1. Polynômes de matrice.

    Soit $A$ une matrice carrée de taille $n\times n$ à coefficients dans $\mathbb{C}$. Nous noterons $A^0=I_n$ et pour tout $k\in \mathbb{N}^*$, $A^k=\underbrace{A\times \cdots \times A }_{\text{$k$ fois} }$.

    Lorsque $P=\sum\limits_{k=0}^{+\infty }a_kX^k\in\mathbb{C}[X] $, nous noterons $P(A)$ la matrice carrée de taille $n\times n$ définie par $$ P(A)=\sum\limits_{k=0}^{+\infty}a_k A^k= a_0I_n+a_1A+ \cdots +a_qA^q,$$ où $q$ est le degré du polynôme $P$.

    Nous admettrons également que lorsque $P,Q\in \mathbb{C}[X]$ alors $PQ(A)=P(A)Q(A) $ et $(P+Q)(A)=P(A)+Q(A)$.

  2. Convergence matricielle.

    Soient $n,m\in \mathbb{N}^*$ et $(A_k)_{k\in \mathbb{N}}$ une suite de matrices de $\mathcal{M}_{n,m}(\mathbb{R})$. Pour $k\in \mathbb{N}$, en notant $(a_{i,j}^{(k)})_{(i,j)\in [\![1,n]\!]\times [\![1,m]\!]}$ les coefficients de la matrice $A_k$,

    • nous dirons que $(A_k)_{k\in \mathbb{N}}$ converge vers une matrice $B=(b_{i,j})_{(i,j)\in [\![1,n]\!]\times [\![1,m]\!]}\in \mathcal{M}_{n,m}(\mathbb{R})$ lorsque $$\forall (i, j) \in [\![1,n]\!]\times [\![1,m]\!] \ , \ \lim\limits_{k\to +\infty} a_{i,j}^{(k)}=b_{i,j}.$$

      Nous noterons dans ce cas, $A_k\xrightarrow[k\to +\infty]{}B$.

    • Nous admettrons que lorsque les suites de matrices $(A_k)_{k\in \mathbb{N}}$ et $(B_k)_{k\in \mathbb{N}}$ convergent respectivement vers $A$ et $B$, alors la suite $(A_kB_k)_{k\in \mathbb{N}}$ converge vers la matrice $AB$.

     

  3. Matrices stochastiques.

    Soit $A\in \mathcal{M}_n(\mathbb{R})$, nous dirons que $A$ est stochastique lorsque $\forall (i, j)\in [\![1,n]\!]^2$, $a_{i,j}\geq 0$ et la somme des coefficients de chaque ligne vaut $1$ : $\forall i\in [\![1,n]\!]$, $\sum\limits_{j=1}^{n}a_{i,j}=1$.

    L'ensemble des matrices stochastiques de taille $n$ sera noté $S_n$ et l'ensemble des matrices de $S_n$ dont tous les coefficients sont strictement positifs sera noté $S_n^*$.

Partie 1 : Une matrice stochastique de taille 2 × 2

Soient $p,q\in \left] 0,1 \right[$. Nous noterons dans cette partie $$ A=\begin{pmatrix} 1-p & p \\ q & 1-q \end{pmatrix}.$$

  1. Montrer que $A^2-(2-p-q)A+((1-p)(1-q)-pq)I_2=0$.
    Nous noterons $P_A=X^2-(2-p-q)X+((1-p)(1-q)-pq) $.
    (Survolez pour afficher la solution.)
    • Preuve 1. Il suffit d'effectuer le calcul matriciel pour conclure...
    • Preuve 2. (À l'aide d'un polynôme annulateur connu en dimension 2.) Sachant que $\mathrm{Tr}(A)=2-(p+q)$, $\det(A)=((1-p)(1-q)-pq)$ et que $X^2-\mathrm{Tr}X+\det(A)$ est un polynôme annulateur de $A$, nous obtenons directement le résultat.
  2. Soit $k\in \mathbb{N}$, montrer que le reste de la division euclidienne de $X^k$ par $P_A$ est $a_k X+ b_k$ où $$a_k=\dfrac{1-(1-p-q)^k}{p+q}\text{ et } b_k=(1-p-q)\dfrac{(1-p-q)^{k-1}-1}{p+q}.$$
    (Survolez pour afficher la solution.)

    Notons $R_k$ le reste de la division euclidienne de $X^k$ par $P_A$. Sachant que $P_A$ est de degré $2$, $R_k$ est de degré au plus $1$. Il existe donc des réels $a_k$ et $b_k$ tels que $R_k=a_kX+b_k$.

    Lorsque $k\in \{0,1\}$, nous obtenons directement que $R_k=X^k$. Dans le cas général, nous « remarquons » que $1$ est une racine évidente de $P_A$ et par suite que $$ P_A= (X-1)(X- 1+p+q).$$ En notant $Q$ le quotient de la division euclidienne considérée, nous obtenons $\forall x\in \mathbb{R}$, $x^k=Q(x)P_A(x)+R_k(x)$. En particulier nous en déduisons que $1=R_k(1)=a_k+b_k$ et $(1-p-q)^k= R_k(1-p-q)=a_k(1-p-q)+b_k$. En résolvant le système obtenu, nous obtenons ainsi que $a_k=\dfrac{1-(1-p-q)^k}{p+q}$ et $b_k=(1-p-q)\dfrac{(1-p-q)^{k-1}-1}{p+q} $. (Ces résultats sont compatibles avec le cas $k\in \{0,1\}$.)

  3. En déduire que $\forall k\in \mathbb{N}$, $ A^k=a_kA+b_kI_2$.
    (Survolez pour afficher la solution.)

    En conservant les notations des questions précédentes, nous obtenons $\forall k\in \mathbb{N}$, $R_k=a_kX+b_k$. En notant $Q_k$ le quotient de la division euclidienne de $X^k$ par $P_A$, nous obtenons que $\forall k\in \mathbb{N}$, $$X^k=Q_kP_A+R_k .$$ En particulier, $\forall k\in \mathbb{N}$, $A^k=Q_k(A)P_A(A)+R_k(A)$. Sachant que $P_A(A)=0$, nous obtenons que $A^k=R_k(A)=a_kA+b_kI_2$, ce qui donne le résultat attendu.

  4. Montrer que la suite de matrices $(A^k)_{k\in \mathbb{N}}$ converge vers la matrice $B= \begin{pmatrix} \alpha & \beta \\ \alpha & \beta \end{pmatrix}$ avec $\alpha=\dfrac{q}{p+q}$ et $\beta=1-\alpha$. (Nous remarquerons que $\forall k\in \mathbb{N}$, $a_k+b_k=1$.)
    (Survolez pour afficher la solution.)

    Sachant que $\forall k\in \mathbb{N}$, $a_k+b_k=1$, on a $\forall k\in \mathbb{N}$, $$\begin{align*}A^k=a_k A+b_k I_2 &= \begin{pmatrix} (1-p)a_k+b_k & pa_k \\ qa_k & (1-q)a_k+b_k \end{pmatrix}\\ &=\begin{pmatrix} 1-pa_k& pa_k \\ qa_k & 1-qa_k\end{pmatrix}.\end{align*}$$ Sachant que $p, q\in \left] 0,1 \right[$, nous avons $ -1<1-p-q<1$ et par suite $a_k\xrightarrow[n\to +\infty]{}\dfrac{1}{p+q}$. Nous obtenons donc que la suite de matrices $(A^k)_{k\in \mathbb{N}}$ converge vers la matrice $B= \begin{pmatrix} 1-\dfrac{p}{p+q} & \dfrac{q}{p+q} \\ \dfrac{p}{p+q} & 1-\dfrac{q}{p+q} \end{pmatrix}$, ce qui donne le résultat attendu.

  5. Montrer que $AB=B$ et $B^2=B$.
    (Survolez pour afficher la solution.)

    Il suffit de faire le produit matriciel \begin{align*} AB&=\begin{pmatrix}1-p & p \\ q & 1-q \end{pmatrix}\begin{pmatrix} \dfrac{q}{p+q} & \dfrac{p}{p+q} \\ \dfrac{q}{p+q} & \dfrac{p}{p+q} \end{pmatrix}=\begin{pmatrix} \dfrac{q}{p+q} & \dfrac{p}{p+q} \\ \dfrac{q}{p+q} & \dfrac{p}{p+q} \end{pmatrix} = B\\ B^2 &=\begin{pmatrix} \dfrac{q}{p+q} & \dfrac{p}{p+q} \\ \dfrac{q}{p+q} & \dfrac{p}{p+q} \end{pmatrix}^2=\begin{pmatrix} \dfrac{q}{p+q} & \dfrac{p}{p+q} \\ \dfrac{q}{p+q} & \dfrac{p}{p+q} \end{pmatrix}\begin{pmatrix} \dfrac{q}{p+q} & \dfrac{p}{p+q} \\ \dfrac{q}{p+q} & \dfrac{p}{p+q} \end{pmatrix}\\ &=\begin{pmatrix} \dfrac{q}{p+q} & \dfrac{p}{p+q} \\ \dfrac{q}{p+q} & \dfrac{p}{p+q} \end{pmatrix}=B. \end{align*}

  6. Est-ce que $(A^k)_{k\in \mathbb{N}} $ admet une limite lorsque $p=1$ et $q=1$?
    (Survolez pour afficher la solution.)

    Nous avons dans ce cas $A=\begin{pmatrix} 0 & 1 \\ 1& 0 \end{pmatrix}$. Par un calcul direct, nous obtenons $A^2=I_2$. Nous obtenons ainsi par une récurrence « évidente » $\forall k\in \mathbb{N}$, $A^{2k}=I_2$ et $A^{2k+1}=A$. La suite $(A^k)_{n\in \mathbb{N}} $ n'admet donc pas de limite.

Partie 2 : Matrices stochastiques

Nous rappelons que la matrice colonne $U$ est définie par $U=\begin{pmatrix} 1 \\ \vdots \\ 1 \end{pmatrix}\in \mathcal{M}_{n,1}(\mathbb{R}) $.

  1. Soit $A$ une matrice carrée de taille $n\times n $ à coefficients positifs, montrer l'équivalence $A\in S_n\Leftrightarrow AU=U$.
    (Survolez pour afficher la solution.)

    Par definition de $U$, nous obtenons $$AU=\begin{pmatrix} \sum\limits_{j=1}^{n}a_{1,j}\\ \sum\limits_{j=1}^{n}a_{2,j}\\ \vdots \\ \sum\limits_{j=1}^{n}a_{n,j} \end{pmatrix}.$$ Nous obtenons donc l'équivalence $$AU=U \Leftrightarrow \forall i\in [\![1,n]\!], \sum\limits_{j=1}^{n}a_{i,j}=1.$$ Sachant que les coefficients de $A$ sont positifs, nous obtenons ainsi le résultat par définition des matrices stochastiques.

  2. « Lois » de composition :
    1. Montrer que $S_n $ est stable par produit et $I_n \in S_n$.
      (Survolez pour afficher la solution.)

      Sachant que chaque ligne de $I_n$ ne contient que des zéros et un UN, nous obtenons que $I_n\in S_n$.

      Soient $A, B\in S_n$, montrons que $AB\in S_n$ . Nous avons d'après la question précédente $ABU=A(BU)=AU=U$. D'après l'expression des coefficients d'une matrice produit, nous obtenons que les coefficients de $AB$ sont positifs et par suite que $AB\in S_n$.

    2. Est-ce que $S_n\cap GL_n(\mathbb{R})$ est un sous-groupe multiplicatif de $GL_n(\mathbb{R})$? (La réponse sera détaillée dans le cas $n=2$.)
      (Survolez pour afficher la solution.)

      La réponse est NON : la matrice $A=\begin{pmatrix} 1/2 & 1/2 \\ 0& 1 \end{pmatrix}$ est un élément de $S_2\cap GL_2(\mathbb{R})$ d'inverse $\begin{pmatrix} 2 & -1 \\ 0& 1 \end{pmatrix}$ qui n'est évidemment pas stochastique. (Un de ses coefficients est négatif.)

    3. Montrer que $\forall t\in [0,1]$, $\forall A,B\in S_n$, $tA+(1-t)B\in S_n$.
      Est-ce que $S_n$ est un sous-espace vectoriel de $\mathcal{M}_n(\mathbb{R})$?
      (Survolez pour afficher la solution.)

      Soient $t\in [0,1]$, $A, B \in S_n$, nous avons $\forall i, j \in [\![1,n]\!]$, $$ (tA+(1-t)B)_{i,j}=ta_{i,j}+(1-t)b_{i,j} $$ Nous obtenons donc que les coefficients de $tA+(1-t)B$ sont positifs. Nous avons de plus que $$ (tA+(1-t)B)U=tAU+(1-t)BU=tU+(1-t)U=U $$ La question 1. permet d'affirmer que $tA+(1-t)B\in S_n$.

      Sachant que $-I_n=(-1). I_n \notin S_n$, $S_n $ n'est pas un $\mathbb{R}$-espace vectoriel.

  3. Limites dans $S_n$ :
    1. Soit $(A_k)_{k\in \mathbb{N}}$ une suite de $S_n$, montrer que si $(A_k)_{k\in \mathbb{N}}$ converge vers $B$ alors $B\in S_n$. Une limite de matrices de $S_n^*$ est-elle dans $S_n^*$ ? (La réponse sera détaillée dans le cas $n=2$.)
      (Survolez pour afficher la solution.)

      Sachant que les coefficients de $A^k$ sont positifs pour tout $k\in \mathbb{N}$ et que le passage à la limite conserve les inégalités larges, nous obtenons que les coefficients de $B$ sont positifs.

      De plus par convergence, nous avons $A_kU \xrightarrow[k\to +\infty]{}BU$. Sachant que $\forall k\in \mathbb{N}$, $A_kU = U$, nous obtenons par unicité de la limite que $BU=U$. La question 1 permet de conclure pour la première partie de la question.

      Nous notons $\forall k\in \mathbb{N}^*$, $A_k=\begin{pmatrix} \dfrac{1}{k} & 1-\dfrac{1}{k}\\ 1- \dfrac{1}{k} & \dfrac{1}{k} \end{pmatrix}$. Nous obtenons par définition que $\forall k\geq 2$, $A_k\in S_2^*$ et $A_k\xrightarrow[k\to +\infty]{}\begin{pmatrix} 0 & 1\\ 1 & 0 \end{pmatrix}\notin S_2^*$. Ce qui répond à la deuxième partie de la question.

       
    2. Un cas particulier : soit $A\in S_n$.
      1. Montrer que $(A^k)_{k\in \mathbb{N}}$ est une suite de matrices de $S_n$.
        (Survolez pour afficher la solution.)

        Sachant que $S_n$ est stable par produit, nous obtenons par récurrence que $\forall k\in \mathbb{N}$, $A^k\in S_n$.

      2. Montrer que si $(A^k)_{k\in \mathbb{N}}$ converge vers $B$ alors $B$ est une matrice de $S_n$ vérifiant $B^2=B$ et $AB=BA=B$.
        (Survolez pour afficher la solution.)

        Nous avons par hypothèse que $(A^k)_{k\in \mathbb{N}}$ converge vers $B$. En particulier les suites de matrices $(A^{2k})_{k\in \mathbb{N}}$ et $(A^{k+1})_{k\in \mathbb{N}}$ convergent vers la matrice $B$.

        Or $ A^{2k}=A^k A^k \xrightarrow[k\to +\infty]{}B \times B = B^2$, $ A^{k+1}=A A^k \xrightarrow[k\to +\infty]{}A \times B = AB$ et $ A^{k+1}= A^k A \xrightarrow[k\to +\infty]{}BA$, par unicité de la limite nous obtenons les égalités attendues.

    3. Nous considérons dans cette question que $n\geq 3$, $A\in S_n^*$ et que la suite $(A^k)_{k\in \mathbb{N}}$ converge vers une matrice $B$. Nous noterons $(C_j)_{j\in [\![1,n]\!]}$ la famille des vecteurs colonnes de $B$.
      1. Montrer que $\forall j\in [\![1,n]\!]$, $AC_j=C_j$.
        (Survolez pour afficher la solution.)

        Il s'agit d'une traduction de l'égalité $AB=B$.

      2. Montrer que si $\forall i\in [\![1,n]\!]$, $\vert a_{i,i}\vert>\sum\limits_{j\neq i}^{}\vert a_{i,j}\vert $ alors $A$ est inversible.
        (Indication : raisonner par contraposée et considérer $X\in \mathcal{M}_{n,1}(\mathbb{R})\setminus \{0\}$ tel que $AX=0$.)
        (Survolez pour afficher la solution.)

        On suppose que $A$ n'est pas inversible, il existe donc $X\in \mathcal{M}_{n,1}(\mathbb{R})\setminus \{0\}$ tel que $AX=0$. Nous notons $i_0\in [\![1,n]\!]$, $\vert x_{i_0}\vert =\max_{}\vert x_i\vert $. En considérant la ligne $i_0$ de l'égalité $AX=0$, nous obtenons $ \sum\limits_{j=1}^{n}a_{i_0,j}x_j=0 $. Nous obtenons d'après l'inégalité triangulaire $$\begin{align*}\left\vert a_{i_0,i_0} \right\vert \left\vert x_{i_0}\right\vert &= \left\vert -a_{i_0,i_0}x_{i_0}\right\vert= \left\vert \sum\limits_{j\neq i_0}^{}a_{i_0,j}x_j\right\vert\\ & \leq \sum\limits_{j\neq i_0}^{}\left\vert a_{i_0,j}\right\vert \ \left\vert x_j\right\vert\\ &\leq \left\vert x_{i_0}\right\vert \left( \sum\limits_{j\neq i_0}^{}\left\vert a_{i_0,j}\right\vert \right).\end{align*}$$

        Sachant que $X\neq 0$, nous obtenons que $\left\vert x_{i_0}\right\vert >0$, ce qui implique que $$\left\vert a_{i_0,i_0} \right\vert \leq \left( \sum\limits_{j\neq i_0}^{}\left\vert a_{i_0,j}\right\vert \right),$$ ce qui donne le résultat attendu par contraposée.

      3. En notant $E$ la matrice obtenue en supprimant la dernière ligne et la dernière colonne de $A-I_n$, montrer que $E$ est inversible.
        (Survolez pour afficher la solution.)

        Il suffit d'après la question précédente de montrer que $\forall i\in [\![1,n-1]\!]$, $\left\vert e_{i,i}\right\vert>\sum\limits_{j\neq i}^{}\left\vert e_{i,j}\right\vert $.

        Par définition de $E$ (mais également de $A\in S_n^*$) nous avons $\forall i\in [\![1,n-1]\!]$, $ \left\vert e_{i,i}\right\vert =1-a_{i,i}>0$ et $\sum\limits_{j=1, \ j\neq i}^{n-1}\left\vert e_{i,j}\right\vert =\sum\limits_{j=1, \ j\neq i}^{n-1}a_{i,j}= \sum\limits_{j=1}^{n}a_{i,j}-a_{i,i}-a_{i,n}= 1-a_{i,i}-a_{i,n}$. Sachant que $\forall i\in [\![1,n-1]\!]$, $a_{i,n}>0$, nous obtenons que $\forall i\in [\![1,n-1]\!]$, $\left\vert e_{i,i}\right\vert>\sum\limits_{j\neq i}^{}\left\vert e_{i,j}\right\vert $ et par suite que $E$ est inversible.

      4. En déduire que le rang de $A-I_n$ est $n-1$.
        Nous rappelons que lorsque $B\in \mathcal{M}_n(\mathbb{R})$, nous notons $$\ker(B)=\{X\in \mathcal{M}_{n,1}(\mathbb{R}) \ \vert \ BX=0\}.$$
        (Survolez pour afficher la solution.)

        Sachant que $AU=U$ (i.e. $(A-I_n)U=0$) et $U\neq 0$, nous obtenons que $A-I_n$ n'est pas inversible.

        En considérant le rang de $A-I_n$ comme la dimension de l'espace vectoriel engendré par la famille des vecteurs colonnes de $A-I_n$, pour conclure il suffit de montrer que les $n-1$ premières colonnes de $B=A-I_n$ forment une famille libre.

        Si la famille des $n-1$ premières colonnes de $B$ est liée nous obtenons que la famille des colonnes (les « $n-1$ ») de la matrice $E$ est liée. Ce qui indique que $E$ n'est pas inversible. Nous obtenons ainsi le résultat en raisonnant par l'absurde.

        Remarque : nous aurions pu utiliser ici la caractérisation suivante : le rang de la matrice $B$ est la taille maximale des matrices inversibles extraites de $B$.

      5. Montrer que $\ker(A-I_n)=\mathrm{vect}(U)$.
        (Survolez pour afficher la solution.)

        En notant $B=A-I_n$ et en considérant l'application linéaire $$g:\begin{pmatrix} \mathcal{M}_{n,1}(\mathbb{R}) & \to & \mathcal{M}_{n,1}(\mathbb{R})\\ X & \mapsto & BX \end{pmatrix},$$ nous obtenons, d'après la question précédente, que le rang de $g$ est $n-1$. La formule du rang appliquée à $g$ nous permet d'obtenir que $\ker(A-I_n)=\ker(g)$ est de dimension $1$. $U$ étant un vecteur non nul de $\ker(A-I_n)$ il en est automatiquement une base ce qui implique en particulier que $\ker(A-I_n)=\mathrm{vect}(U)$.

      6. En déduire qu'il existe $\alpha_1,\cdots, \alpha_n\in \mathbb{R}^+$ tels que $\sum\limits_{j=1}^{n}\alpha_j=1$ et $\forall j\in [\![1,n]\!]$, $C_j=\alpha_jU$.
        (Survolez pour afficher la solution.)

        D'après les égalités $\forall j\in [\![1,n]\!]$, $AC_j=C_j$, nous en déduisons que $\forall j\in [\![1,n]\!]$, $C_j\in \ker(A-I_n)$. La question précédente nous donne ainsi l'existence de $\alpha_1,\cdots, \alpha_n\in \mathbb{R}$ tels que $\forall j\in [\![1,n]\!]$, $C_j=\alpha_jU$.

        Sachant que les coefficients de $B$ sont positifs, nous obtenons que $\alpha_1,\cdots, \alpha_n\in \mathbb{R}^+$ . Les égalités $\forall j\in [\![1,n]\!]$, $C_j=\alpha_jU$ nous indiquent que $BU=\left(\sum\limits_{j=1}^{n}\alpha_j \right) U$. Sachant que $BU=U$, par identification nous obtenons ainsi l'égalité demandée : $\sum\limits_{j=1}^{n}\alpha_j=1$.

Partie 3 : Convergence et limite des (Ak)k∈ℕ pour A∈Sn*

On considère dans cette question $A\in S_n^*$. Nous nous proposons dans cette partie d'obtenir la convergence de la suite de matrices $(A^k)_{k\in \mathbb{N}}$ et également de retrouver la forme de la limite obtenue à la question 3c de la partie 2.

Pour cela nous notons : $\forall Y=(y_i)_{i\in [\![1,n]\!]}\in \mathcal{M}_{n,1}(\mathbb{R})$, $$m(Y)=\min_{i\in [\![1,n]\!]}( y_i )$$ et $$M(Y)=\max_{i\in [\![1,n]\!]}( y_i ).$$

Nous noterons $\forall Y=(y_i)_{i\in [\![1,n]\!]}\in \mathcal{M}_{n,1}(\mathbb{R})$, $\forall k\in \mathbb{N}$, $u^Y_k=m(A^kY)$ et $v^Y_k=M(A^kY)$. Par commodité, nous pourrons si nécessaire au cours d'une preuve noter $u_k $ pour $u_k^Y$ et $v_K$ pour $v_k^Y$.

  1. Nous notons $d$ le plus petit coefficient de $A$. Soit $Y=(y_i)_{i\in [\![1,n]\!]}\in \mathcal{M}_{n,1}(\mathbb{R})$.
    1. Montrer que $ m(Y)\leq m(AY)\leq M(AY)\leq M(Y)$.
      (Survolez pour afficher la solution.)

      Soit $i\in [\![1,n]\!]$, nous avons $(AY)_i=\sum\limits_{j=1}^{n}a_{i,j}y_j$. Sachant que $A\in S_n$ nous obtenons que $$(AY)_i-m(Y)= \sum\limits_{j=1}^{n}\underbrace{a_{i,j}}_{\geq 0}\underbrace{(y_j-m(Y))}_{\geq0 }\geq 0$$ et $$M(Y)-(AY)_i= \sum\limits_{j=1}^{n}\underbrace{a_{i,j}}_{\geq 0}\underbrace{(M(Y)-y_j)}_{\geq 0} \geq 0.$$ Nous obtenons en particulier que $ m(Y)\leq m(AY)\leq M(AY)\leq M(Y)$.

    2. Montrer que $M(AY)\leq dm(Y)+(1-d)M(Y)$. (Nous admettrons pour la suite que nous avons de même : $m(AY)\geq dM(Y)+(1-d)m(Y) $.)
      (Survolez pour afficher la solution.)

      Nous notons $j_0\in [\![1,n]\!]$ tel que $ y_{j_0} =m(Y)$. Soit $i\in [\![1,n]\!]$, nous avons $$\begin{array}{cccc}(AY)_i &=&\sum\limits_{j=1}^{n}a_{i,j}y_j \\ &= &a_{i,j_0}m(Y)+\sum\limits_{j=1, j\neq j_0}^{n}\underbrace{a_{i,j}}_{\geq 0} \underbrace{y_j}_{\leq M(Y)} \\ &\leq &a_{i,j_0}m(Y)+\sum\limits_{j=1, j\neq j_0}^{n}a_{i,j}M(Y) \\ &\leq & a_{i,j_0}m(Y)+(1-a_{i,j_0})M(Y)\\ & \leq & M(Y) + \underbrace{(m(Y)-M(Y))}_{\leq 0} a_{i,j_0}.\end{array}$$ Le membre de droite étant décroissant en $a_{i,j_0}$ et $d$ étant le plus petit élément de $A$, nous obtenons que $\forall i\in [\![1,n]\!]$, $$(AY)_i \leq M(Y) + (m(Y)-M(Y))d= dm(Y)+(1-d)M(Y),$$ ce qui implique que $ M(AY)\leq dm(Y)+(1-d)M(Y) $.

    3. En déduire que $ M(AY)-m(AY)\leq (1-2d)(M(Y)-m(Y)) $.
      (Survolez pour afficher la solution.)

      Il suffit de combiner les inégalités de la question précédente : $$ M(AY)\leq dm(Y)+(1-d)M(Y)$$ et $$-m(AY)\leq -dM(Y)+(d-1)m(Y).$$

  2. Montrer que $d\in \left]0,\dfrac{1}{2}\right]$ puis que pour tout $Y =(y_i)_{i\in [\![1,n]\!]}\in \mathcal{M}_{n,1}(\mathbb{R})$, les suites $(u^Y_k)_{k\in \mathbb{N}}$ et $(v^Y_k)_{k\in \mathbb{N}}$ sont adjacentes.
    (Survolez pour afficher la solution.)

    Montrons que $d\in ]0,1/2]$.

    Soit $i\in [\![1,n]\!]$, sachant que $A\in S_n^*$, nous avons $\forall j\in [\![1,n]\!]$, $a_{i,j}\geq d>0$. Ce qui implique que $$0< nd=\sum\limits_{j=1}^{n}d \leq \sum\limits_{j=1}^{n}a_{i,j}=1.$$ Donc $0 < d\leq \dfrac{1}{n}\leq \dfrac{1}{2}$ ce qui permet de conclure.

    Soit $Y =(y_i)_{i\in [\![1,n]\!]}\in \mathcal{M}_{n,1}(\mathbb{R})$, montrons que les suites $(u^Y_k)_{k\in \mathbb{N}}$ et $(v^Y_k)_{k\in \mathbb{N}}$ sont adjacentes. D'après les questions précédentes, nous obtenons par récurrence que $(u^Y_k)_{k\in \mathbb{N}}=(m(A^kY))_{k\in \mathbb{N}}$ est croissante et $(v^Y_k)_{k\in \mathbb{N}}=(M(A^kY))_{k\in \mathbb{N}}$ est décroissante ainsi que $\forall k\in \mathbb{N}$, $0\leq v^Y_k-u^Y_k\leq (1-2d)^k (M(Y)-m(Y)) $. Pour obtenir que les suites sont adjacentes il suffit de montrer que $(v^Y_k-u^Y_k)_{k\in \mathbb{N}}$ converge vers $0$.

    Sachant que $d\in ]0,1/2]$, nous avons $(1-2d)^k\xrightarrow[k\to +\infty ]{}0 $ et par suite le résultat par encadrement.

  3. En déduire que pour tout $Y\in \mathcal{M}_{n,1}(\mathbb{R})$ il existe $\ell_Y\in \mathbb{R}$ tel que $(A^kY)_{k\in \mathbb{N}}$ converge vers $\ell_YU$.
    (Survolez pour afficher la solution.)

    Soit $Y\in \mathcal{M}_{n,1}(\mathbb{R})$, par définition nous avons $\forall i\in [\![1,n]\!]$, $\forall k\in \mathbb{N}$, $$ u^Y_k\leq (A^kY)_i\leq v^Y_k $$ En notant $\ell_Y\in \mathbb{R}$ la limite commune de $u^Y$ et $v^Y$ nous obtenons que $\forall i\in [\![1,n]\!]$, $(A^kY)_i\xrightarrow[k\to +\infty]{}\ell_y$. (nous remarquons que le limite ne dépend pas de $i$). Ce qui traduit précisément la convergence $A^kY\xrightarrow[k\to +\infty ]{}\ell_YU$.

  4. En déduire que $(A^k)_{k\in \mathbb{N}}$ converge vers une matrice $B$ de la forme $$B=\begin{pmatrix}| & & | \\ \alpha_1U & \cdots & \alpha_nU\\ | & & | \end{pmatrix}$$ avec $\alpha_1,\cdots, \alpha_n\in \mathbb{R}^+$ tels que $\sum\limits_{k=1}^{n}\alpha_k=1$.
    (Survolez pour afficher la solution.)

    Nous notons $(E_i)_{ i\in [\![1,n]\!]}$ la base canonique de $\mathcal{M}_{n,1}(\mathbb{R})$ et $\forall i\in [\![1,n]\!]$, $\alpha_i=\ell_{E_i}$. Par définition de la convergence matricielle, nous avons $$(A^k)_{k\in \mathbb{N}} \text{ converge vers } B \Leftrightarrow \forall i\in [\![1,n]\!]\ , \ (A^kE_i)_{k\in \mathbb{N}} \text{ converge vers } C_i$$ où la famille des $(C_i)$ est la famille des vecteurs colonnes de la matrice $B$. La question précédente permet d'affirmer que $ \forall i\in [\![1,n]\!]\ \ , (A^kE_i)_{k\in \mathbb{N}}$ converge vers $\alpha_iU$. Nous obtenons ainsi que $(A^k)_{k\in \mathbb{N}}$ converge vers une matrice $B$ de la forme $$B=\begin{pmatrix}| & & | \\ \alpha_1U & \cdots & \alpha_nU\\ | & & | \end{pmatrix}.$$ Il suffit pour conclure de montrer que $\alpha_1,\cdots, \alpha_n\in \mathbb{R}^+$ ainsi que $\sum\limits_{k=1}^{n}\alpha_k=1$.

    En reprenant le résultat ainsi que la preuve de la question 3.c.vi. de la partie 2 nous obtenons le résultat attendu.

 
 
 
 
 
Dernières publications