# Diagonalisering --- ## Ordlista svenska <-> engelska | Svenska | Engelska | | ------------------------------ | ------------------------------- | | Diagonaliserbar | Diagonalizable | | Likhetsomvandling | Similarity transformation | | Likartade matriser | Similar matrices | | Likhetsbeständig egenskap | Similarity invariant | | Algebraisk multiplicitet | Algebraic multiplicity | | Geometrisk multiplicitet | Geometric multiplicity | | Potens | Power | | Diagonalmatris | Diagonal matrix | | Inverterbar | Invertible | | Symmetrisk matris | Symmetric matrix | | Ortogonalt diagonaliserbar | Orthogonally diagonalizable | | Ortonormal bas | Orthonormal basis | | Spektralsatsen | Spectral theorem | | Spår | Trace | | Kontroll | Verification | --- ## 1. Likhetsomvandlingar ### 1.1 Grundidén Produkter av formen $P^{-1}AP$, där $A$ och $P$ är $n \times n$-matriser och $P$ är inverterbar, är det centrala verktyget i detta kapitel. Omvandlingen $A \longrightarrow P^{-1}AP$ kallas en **likhetsomvandling** ("similarity transformation"). Matrisen $A$ avbildas på matrisen $P^{-1}AP$. Dessa omvandlingar är viktiga eftersom de **bevarar** många egenskaper hos $A$. ### 1.2 Likhetsbeständiga egenskaper Om $B = P^{-1}AP$ kallas dessa bevarade egenskaper **likhetsbeständiga** (similarity invariants): | Egenskap | Vad som gäller | | ---------------------- | ----------------------------------------------------------------------------------------------- | | Determinant | $\det(A) = \det(P^{-1}AP)$ | | Inverterbarhet | $A$ inverterbar $\iff$ $P^{-1}AP$ inverterbar | | Rang | $\text{rang}(A) = \text{rang}(P^{-1}AP)$ | | Nollitet | $\text{null}(A) = \text{null}(P^{-1}AP)$ | | Spår | $\text{tr}(A) = \text{tr}(P^{-1}AP)$ | | Karakteristiskt polynom | $A$ och $P^{-1}AP$ har samma karakteristiska polynom | | Egenvärden | $A$ och $P^{-1}AP$ har samma egenvärden | | Egenrumsdimension | Om $\lambda$ är egenvärde har $A$ och $P^{-1}AP$ egenrum med samma dimension för $\lambda$ | > [!tip]- Varför bevaras determinanten? > $\det(P^{-1}AP) = \det(P^{-1})\det(A)\det(P) = \frac{1}{\det(P)}\det(A)\det(P) = \det(A)$ --- ## 2. Likartade matriser och diagonaliserbarhet > [!abstract] Definition: Likartade matriser > Låt $A$ och $B$ vara kvadratiska matriser. Vi säger att $B$ är **likartad med** $A$ ("similar to $Aquot;) om det finns en inverterbar matris $P$ sådan att > > $B = P^{-1}AP$ > > Vi säger då att $A$ och $B$ är **likartade matriser**. > [!note]- Symmetri > Likartadhet är symmetrisk: om $B = P^{-1}AP$ så gäller $A = Q^{-1}BQ$ med $Q = P^{-1}$. > [!abstract] Definition: Diagonaliserbar matris > En kvadratisk matris $A$ kallas **diagonaliserbar** om den är likartad med någon diagonalmatris $D$, dvs. om det finns en inverterbar matris $P$ sådan att $P^{-1}AP$ är diagonal. > > Man säger då att $P$ **diagonaliserar** $A$. **Varför vill vi diagonalisera?** En diagonalmatris är enkel att arbeta med — egenvärden, determinant, potenser är alla triviala att beräkna. Om $A$ är diagonaliserbar ärver $A$ all denna enkelhet. --- ## 3. Sats 5.2.1 — Diagonaliserbarhetskriteriet > [!theorem] Sats 5.2.1: Ekvivalenta villkor > Om $A$ är en $n \times n$-matris, är följande ekvivalenta: > > (a) $A$ är diagonaliserbar > > (b) $A$ har $n$ linjärt oberoende egenvektorer **Bevisidé ($\Rightarrow$):** Anta att $P^{-1}AP = D$, dvs. $AP = PD$. Låt $\mathbf{p}_1, \ldots, \mathbf{p}_n$ vara kolumnvektorerna i $P$ och $\lambda_1, \ldots, \lambda_n$ vara diagonalelementen i $D$. Då ger $AP = PD$: $A\mathbf{p}_i = \lambda_i \mathbf{p}_i \quad \text{för alla } i$ Eftersom $P$ är inverterbar är kolumnerna linjärt oberoende och nollskilda — alltså är de $n$ linjärt oberoende egenvektorer. **Bevisidé ($\Leftarrow$):** Anta att $A$ har $n$ linjärt oberoende egenvektorer $\mathbf{p}_1, \ldots, \mathbf{p}_n$ med egenvärden $\lambda_1, \ldots, \lambda_n$. Bilda $P = [\mathbf{p}_1 \ \mathbf{p}_2 \ \cdots \ \mathbf{p}_n]$. Då är $AP = PD$ och $P$ inverterbar, så $P^{-1}AP = D$. > [!important] Nyckelsamband > Om $P = [\mathbf{p}_1 \ \mathbf{p}_2 \ \cdots \ \mathbf{p}_n]$ diagonaliserar $A$, gäller: > > $P^{-1}AP = \begin{bmatrix}\lambda_1 & & \\ & \ddots & \\ & & \lambda_n\end{bmatrix}$ > > Det $i$:te diagonalelementet i $P^{-1}AP$ är egenvärdet som svarar mot den $i$:te kolumnen i $P$. --- ## 4. Metod för diagonalisering > [!important] Procedur: Diagonalisera en $n \times n$-matris $A$ > > **Steg 1.** Hitta en bas för varje egenrum. Räkna ihop det totala antalet basvektorer. > - Om totalen $= n$ → $A$ är diagonaliserbar. > - Om totalen lt; n$ → $A$ är **inte** diagonaliserbar. Stopp. > > **Steg 2.** Bilda $P = [\mathbf{p}_1 \ \mathbf{p}_2 \ \cdots \ \mathbf{p}_n]$ med de $n$ basvektorerna som kolumner (i valfri ordning). > > **Steg 3.** $P^{-1}AP$ är en diagonalmatris vars $i$:te diagonalelement är egenvärdet som svarar mot $\mathbf{p}_i$. > [!tip] Ordningen spelar roll — men bara för $D$ > Ordningen på kolumnerna i $P$ kan väljas fritt. Byter du ordning på egenvektorerna ändras bara ordningen på egenvärden i diagonalmatrisen. --- ## 5. Räkneexempel — diagonalisering > [!example]- Exempel 1: Hitta $P$ som diagonaliserar $A$ (diagonaliserbar) > Diagonalisera $A = \begin{bmatrix}0 & 0 & -2\\1 & 2 & 1\\1 & 0 & 3\end{bmatrix}$. > > **Steg 1: Egenvärden.** Från föregående föreläsning (V5L2, Exempel 7): > $(\lambda - 1)(\lambda - 2)^2 = 0 \implies \lambda_1 = 1, \quad \lambda_2 = 2 \text{ (dubbel)}$ > > **Steg 2: Baser för egenrummen.** > > $\lambda = 2$: $E_2 = \text{span}\left\{\begin{bmatrix}-1\\0\\1\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}\right\}$ (dimension 2) > > $\lambda = 1$: $E_1 = \text{span}\left\{\begin{bmatrix}-2\\1\\1\end{bmatrix}\right\}$ (dimension 1) > > Totalt: $2 + 1 = 3 = n$ → $A$ är diagonaliserbar ✓ > > **Steg 3: Bilda $P$.** > > $P = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}$ > > $P^{-1}AP = \begin{bmatrix}2 & 0 & 0\\0 & 2 & 0\\0 & 0 & 1\end{bmatrix}$ > [!example]- Exempel 2: En matris som **inte** är diagonaliserbar > Visa att $A = \begin{bmatrix}1 & 0 & 0\\1 & 2 & 0\\-3 & 5 & 2\end{bmatrix}$ inte är diagonaliserbar. > > **Egenvärden:** Triangulär matris → egenvärden direkt: $\lambda_1 = 1$, $\lambda_2 = 2$ (dubbel). > > Det karakteristiska polynomet är $(\lambda - 1)(\lambda - 2)^2 = 0$. > > **Egenrum för $\lambda = 1$:** Lös $(I - A)\vec{x} = \vec{0}$: > $\begin{bmatrix}0 & 0 & 0\\-1 & -1 & 0\\3 & -5 & -1\end{bmatrix} \xrightarrow{\text{radred.}} \text{rang} = 2 \implies \dim E_1 = 1$ > > **Egenrum för $\lambda = 2$:** Lös $(2I - A)\vec{x} = \vec{0}$: > $\begin{bmatrix}1 & 0 & 0\\-1 & 0 & 0\\3 & -5 & 0\end{bmatrix} \xrightarrow{\text{radred.}} \text{rang} = 2 \implies \dim E_2 = 1$ > > Totalt antal basvektorer: $1 + 1 = 2 < 3 = n$. > > **Slutsats:** $A$ är **inte** diagonaliserbar. > [!example]- Exempel 3: Triangulär matris (diagonaliserbar) > Matrisen $A = \begin{bmatrix}-1 & 2 & 4 & 0\\0 & 3 & 1 & 7\\0 & 0 & 5 & 8\\0 & 0 & 0 & -2\end{bmatrix}$ är övertriangulär med distinkta diagonalelement. > > **Egenvärden:** $\lambda_1 = -1$, $\lambda_2 = 3$, $\lambda_3 = 5$, $\lambda_4 = -2$ (alla distinkta). > > Eftersom alla egenvärden är distinkta är $A$ diagonaliserbar (Sats 5.2.2(b)). --- ## 6. Sats 5.2.2 — Distinkta egenvärden > [!theorem] Sats 5.2.2: Distinkta egenvärden och linjärt oberoende > (a) Om $\lambda_1, \lambda_2, \ldots, \lambda_k$ är **distinkta** egenvärden till $A$, och $\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_k$ är motsvarande egenvektorer, så är $\{\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_k\}$ **linjärt oberoende**. > > (b) En $n \times n$-matris med $n$ distinkta egenvärden är **diagonaliserbar**. > [!warning] Konversen av (b) är falsk > En matris med **färre** än $n$ distinkta egenvärden kan ändå vara diagonaliserbar! Identitetsmatrisen $I_n$ har bara ett egenvärde ($\lambda = 1$) men är redan diagonal. Satsen ger ett tillräckligt, **ej nödvändigt**, villkor. --- ## 7. Algebraisk och geometrisk multiplicitet > [!abstract] Definition: Multipliciteter > Låt $\lambda_0$ vara ett egenvärde till en $n \times n$-matris $A$. > > - Den **geometriska multipliciteten** av $\lambda_0$ är $\dim(E_{\lambda_0})$ — dimensionen av egenrummet. > > - Den **algebraiska multipliciteten** av $\lambda_0$ är antalet gånger $(\lambda - \lambda_0)$ uppträder som faktor i det karakteristiska polynomet $\det(\lambda I - A)$. **Intuition:** Algebraisk multiplicitet = "hur stark" roten är i det karakteristiska polynomet. Geometrisk multiplicitet = "hur många oberoende riktningar" egenvärdet har. > [!example]- Exempel: Multipliciteter > Karakteristiskt polynom: $p(\lambda) = (\lambda - 1)(\lambda - 2)^2$. > > | Egenvärde | Algebraisk mult. | Geometrisk mult. (Ex. 1) | Geometrisk mult. (Ex. 2) | > |-----------|-----------------|--------------------------|--------------------------| > | $\lambda = 1$ | 1 | 1 | 1 | > | $\lambda = 2$ | 2 | 2 | 1 | > > Ex. 1: geo mult = alg mult → diagonaliserbar ✓ > Ex. 2: geo mult < alg mult → **inte** diagonaliserbar ✗ > [!theorem] Sats 5.2.4: Multiplicitetssatsen > Om $A$ är en kvadratisk matris gäller: > > (a) För varje egenvärde är den **geometriska multipliciteten $\leq$ algebraiska multipliciteten**. > > (b) $A$ är diagonaliserbar om och bara om: > - Det karakteristiska polynomet kan skrivas som en produkt av linjära faktorer, **och** > - Den geometriska multipliciteten är **lika med** den algebraiska multipliciteten för varje egenvärde. > [!tip] Praktisk konsekvens > Villkor (b) ger ett **fullständigt** kriterium för diagonaliserbarhet — det räcker att kontrollera multipliciteterna utan att leta efter $n$ oberoende egenvektorer direkt. --- ## 8. Potenser av en matris ### 8.1 Egenvärden för $A^k$ > [!theorem] Sats 5.2.3: Egenvärden för matrispotenser > Om $k$ är ett positivt heltal, $\lambda$ är ett egenvärde till $A$, och $\mathbf{x}$ är en motsvarande egenvektor, så är $\lambda^k$ ett egenvärde till $A^k$ med samma egenvektor $\mathbf{x}$. **Bevis:** $A^2\mathbf{x} = A(A\mathbf{x}) = A(\lambda\mathbf{x}) = \lambda(A\mathbf{x}) = \lambda^2\mathbf{x}$. Induktion ger $A^k\mathbf{x} = \lambda^k\mathbf{x}$. ### 8.2 Beräkna $A^k$ via diagonalisering Om $A$ är diagonaliserbar med $P^{-1}AP = D$, gäller: $P^{-1}A^k P = D^k = \begin{bmatrix}\lambda_1^k & & \\ & \ddots & \\ & & \lambda_n^k\end{bmatrix}$ vilket ger formeln: $\boxed{A^k = P D^k P^{-1}}$ > [!tip] Varför är detta effektivt? > Att upphöja en diagonalmatris till $k$:te potensen är trivialt — bara upphöj varje diagonalelement. Arbetet ligger i att diagonalisera $A$ **en gång**, sedan kan $A^k$ beräknas för **valfritt** $k$. > [!example]- Exempel 4: Beräkna $A^{13}$ > Beräkna $A^{13}$ för $A = \begin{bmatrix}0 & 0 & -2\\1 & 2 & 1\\1 & 0 & 3\end{bmatrix}$. > > Från Exempel 1 vet vi att $P = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}$ diagonaliserar $A$ och $D = \begin{bmatrix}2 & 0 & 0\\0 & 2 & 0\\0 & 0 & 1\end{bmatrix}$. > > Alltså: > > $A^{13} = P D^{13} P^{-1} = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}\begin{bmatrix}2^{13} & 0 & 0\\0 & 2^{13} & 0\\0 & 0 & 1\end{bmatrix}\begin{bmatrix}1 & 0 & 2\\1 & 1 & 1\\-1 & 0 & -1\end{bmatrix}$ > > $= \begin{bmatrix}-8190 & 0 & -16382\\8191 & 8192 & 8191\\8191 & 0 & 16383\end{bmatrix}$ > > (Notera: $2^{13} = 8192$) --- ## 9. Tillvägagångssätt — sammanfattning > [!important] Metod: Avgöra om $A$ är diagonaliserbar > > **Steg 1.** Hitta egenvärdena $\lambda_1, \ldots, \lambda_m$ och deras **algebraiska multipliciteter** från $\det(\lambda I - A) = 0$. > > **Steg 2.** För varje egenvärde: beräkna $\dim(E_\lambda) = \text{nullitet}(\lambda I - A)$ — den **geometriska multipliciteten**. > > **Steg 3.** Kontroll: > - Om geo mult = alg mult för **alla** egenvärden → diagonaliserbar ✓ > - Om geo mult < alg mult för **något** egenvärde → **ej** diagonaliserbar ✗ > > **Steg 4.** (Om diagonaliserbar) Bilda $P$ med basvektorerna för alla egenrum som kolumner. --- ## 10. Övningsuppgifter (V5L3) ### Beräkningsuppgifter > [!question]- Uppgift 1: Hitta $P$ som diagonaliserar ($2 \times 2$) > Hitta en matris $P$ som diagonaliserar $A = \begin{bmatrix}1 & 0\\6 & -1\end{bmatrix}$, och verifiera genom att beräkna $P^{-1}AP$. > > > [!hint]- Ledtråd > > Börja med att hitta egenvärdena via det karakteristiska polynomet $p(\lambda) = \lambda^2 - \text{tr}(A)\lambda + \det(A)$. > > > [!success]- Facit > > $P^{-1}AP = \begin{bmatrix}1 & 0\\0 & -1\end{bmatrix}$ > > > > > [!success]- Full lösning > > > **Egenvärden:** $p(\lambda) = \lambda^2 - 0 \cdot \lambda + (-1) = \lambda^2 - 1 = (\lambda - 1)(\lambda + 1) = 0$ > > > > > > $\lambda_1 = 1$, $\lambda_2 = -1$ (distinkta → diagonaliserbar ✓) > > > > > > **Egenrum för $\lambda = 1$:** $(I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}0 & 0\\-6 & 2\end{bmatrix} \to \begin{bmatrix}1 & -\frac{1}{3}\\0 & 0\end{bmatrix}$ > > > Bas: $\left\{\begin{bmatrix}1\\3\end{bmatrix}\right\}$ > > > > > > **Egenrum för $\lambda = -1$:** $(-I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}-2 & 0\\-6 & 0\end{bmatrix} \to \begin{bmatrix}1 & 0\\0 & 0\end{bmatrix}$ > > > Bas: $\left\{\begin{bmatrix}0\\1\end{bmatrix}\right\}$ > > > > > > $P = \begin{bmatrix}1 & 0\\3 & 1\end{bmatrix}, \quad P^{-1}AP = \begin{bmatrix}1 & 0\\0 & -1\end{bmatrix}$ > [!question]- Uppgift 2: Hitta $P$ som diagonaliserar ($3 \times 3$) > Hitta en matris $P$ som diagonaliserar $A = \begin{bmatrix}2 & 0 & -2\\0 & 3 & 0\\0 & 0 & 3\end{bmatrix}$. > > > [!hint]- Ledtråd > > Matrisen är övertriangulär — läs av egenvärdena direkt. Observera att $\lambda = 3$ är ett dubbelt egenvärde. > > > [!success]- Facit > > $P^{-1}AP = \begin{bmatrix}2 & 0 & 0\\0 & 3 & 0\\0 & 0 & 3\end{bmatrix}$ > > > > > [!success]- Full lösning > > > **Egenvärden:** $\lambda_1 = 2$ (enkel), $\lambda_2 = 3$ (algebraisk mult. 2) > > > > > > **$\lambda = 2$:** Lös $(2I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}0 & 0 & 2\\0 & -1 & 0\\0 & 0 & -1\end{bmatrix} \to \begin{bmatrix}0 & 1 & 0\\0 & 0 & 1\\0 & 0 & 0\end{bmatrix}$ > > > $x_2 = 0$, $x_3 = 0$, $x_1$ fri. Bas: $\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}\right\}$. Dim = 1 ✓ > > > > > > **$\lambda = 3$:** Lös $(3I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}1 & 0 & 2\\0 & 0 & 0\\0 & 0 & 0\end{bmatrix}$ > > > $x_2$ och $x_3$ fria, $x_1 = -2x_3$. Bas: $\left\{\begin{bmatrix}0\\1\\0\end{bmatrix}, \begin{bmatrix}-2\\0\\1\end{bmatrix}\right\}$. Dim = 2 ✓ > > > > > > Geo mult = alg mult för alla egenvärden → diagonaliserbar. > > > > > > $P = \begin{bmatrix}1 & 0 & -2\\0 & 1 & 0\\0 & 0 & 1\end{bmatrix}$ > [!question]- Uppgift 3: Avgör diagonaliserbarhet > Avgör om $A = \begin{bmatrix}0 & 0 & 0\\0 & 0 & 0\\0 & 0 & 1\end{bmatrix}$ är diagonaliserbar. Motivera. > > > [!success]- Facit > > Ja, $A$ är diagonaliserbar. > > > > > [!success]- Full lösning > > > $A$ är triangulär, egenvärden: $\lambda_1 = 0$ (algebraisk mult. 2), $\lambda_2 = 1$ (algebraisk mult. 1). > > > > > > **$\lambda = 0$:** $(0 \cdot I - A)\vec{x} = -A\vec{x} = \vec{0}$, dvs. $A\vec{x} = \vec{0}$: > > > $\begin{bmatrix}0 & 0 & 0\\0 & 0 & 0\\0 & 0 & 1\end{bmatrix}\vec{x} = \vec{0} \implies x_3 = 0, \quad x_1, x_2 \text{ fria}$ > > > Dim $E_0 = 2$ = algebraisk multiplicitet ✓ > > > > > > **$\lambda = 1$:** Dim $E_1 = 1$ = algebraisk multiplicitet ✓ > > > > > > Geo mult = alg mult för alla → diagonaliserbar. ✓ > [!question]- Uppgift 4: Beräkna $A^{10}$ via diagonalisering > Beräkna $A^{10}$ där $A = \begin{bmatrix}0 & 3\\2 & -1\end{bmatrix}$. > > > [!hint]- Ledtråd > > Använd formeln $A^k = PD^kP^{-1}$. > > > [!success]- Facit > > $A^{10} = \begin{bmatrix}\frac{3 + 2 \cdot 6^{10}}{5} & \frac{3(6^{10} - 1)}{5}\\\frac{2(6^{10} - 1)}{5} & \frac{2 + 3 \cdot 6^{10}}{5}\end{bmatrix}$ > > > > > [!success]- Full lösning > > > **Egenvärden:** $p(\lambda) = \lambda^2 + \lambda - 6 = (\lambda - 2)(\lambda + 3) = 0$ > > > > > > $\lambda_1 = 2$, $\lambda_2 = -3$. > > > > > > **Egenvektorer:** > > > - $\lambda = 2$: Bas $\left\{\begin{bmatrix}1\\? \end{bmatrix}\right\}$ — lös $(2I - A)\vec{x} = \vec{0}$: $x_1 = \frac{3}{2}x_2$. Välj $\mathbf{p}_1 = \begin{bmatrix}3\\2\end{bmatrix}$. > > > - $\lambda = -3$: Lös $(-3I - A)\vec{x} = \vec{0}$: $x_1 = -x_2$. Välj $\mathbf{p}_2 = \begin{bmatrix}1\\-1\end{bmatrix}$. > > > > > > $P = \begin{bmatrix}3 & 1\\2 & -1\end{bmatrix}, \quad P^{-1} = \frac{1}{-5}\begin{bmatrix}-1 & -1\\-2 & 3\end{bmatrix} = \begin{bmatrix}\frac{1}{5} & \frac{1}{5}\\\frac{2}{5} & -\frac{3}{5}\end{bmatrix}$ > > > > > > $A^{10} = P\begin{bmatrix}2^{10} & 0\\0 & (-3)^{10}\end{bmatrix}P^{-1} = P\begin{bmatrix}1024 & 0\\0 & 6^{10}/\ldots\end{bmatrix}P^{-1}$ > > > > > > Notera: $(-3)^{10} = 3^{10} = 59049$, $2^{10} = 1024$. --- ### Konceptuella uppgifter > [!question]- Uppgift 5: Sant eller falskt? > Avgör och motivera: > > a) Om $A$ är diagonaliserbar med $P^{-1}AP = D$, så är $A^2$ diagonaliserbar. > b) Om $A$ och $B$ är likartade, har de samma egenvektorer. > c) En matris med ett egenvärde av algebraisk multiplicitet 3 kan aldrig vara diagonaliserbar. > d) Om $A$ har $n$ distinkta egenvärden är $A$ diagonaliserbar. > e) Diagonal- och triangulärmatriser är alltid diagonaliserbara. > > > [!success]- Facit > > > > a) **Sant.** $A^2 = PD^2P^{-1}$ — se Sats 5.2.3. $D^2$ är diagonal, och $P$ är fortfarande inverterbar. > > > > b) **Falskt.** Likartade matriser har samma **egenvärden** (likhetsbeständig), men inte nödvändigtvis samma egenvektorer. Om $B = P^{-1}AP$ och $A\mathbf{v} = \lambda\mathbf{v}$, så är $P^{-1}\mathbf{v}$ en egenvektor till $B$ — men det är i allmänhet en annan vektor. > > > > c) **Falskt.** Om egenrummet för detta egenvärde har dimension 3 (geo mult = alg mult = 3), och övriga egenvärden också uppfyller multiplicitetskravet, kan matrisen vara diagonaliserbar. > > > > d) **Sant.** Sats 5.2.2(b): $n$ distinkta egenvärden $\Rightarrow$ diagonaliserbar. > > > > e) **Falskt.** En triangulärmatris är diagonaliserbar om och bara om diagonalelementen (egenvärdena) uppfyller multiplicitetskravet. En triangulärmatris med ett upprepat diagonalelement kan vara icke-diagonaliserbar (se Exempel 2). --- ## 11. Repetition: diagonaliserbarhetskriteriet En $n \times n$-matris $A$ är **diagonaliserbar** om och bara om geometrisk multiplicitet = algebraisk multiplicitet för **varje** egenvärde. > [!important] Sammanfattning av metoden > > **Steg 1.** Hitta egenvärdena och deras algebraiska multipliciteter från $\det(\lambda I - A) = 0$. > > **Steg 2.** För varje egenvärde $\lambda$: beräkna $\dim(E_\lambda) = \text{nullitet}(\lambda I - A)$ — den geometriska multipliciteten. > > **Steg 3.** Kontroll: > - geo mult = alg mult för **alla** egenvärden → diagonaliserbar ✓ > - geo mult < alg mult för **något** egenvärde → **ej** diagonaliserbar ✗ > > **Steg 4.** (Om diagonaliserbar) Bilda $P$ med basvektorerna för alla egenrum som kolumner, och > $P^{-1}AP = D$ ### 11.1 Nyckelsamband: $AP = PD$ Relationen $P^{-1}AP = D$ är ekvivalent med: $\boxed{AP = PD}$ Det är ofta enklare att verifiera $AP = PD$ direkt utan att beräkna $P^{-1}$. > [!tip] Kontrollera med spår och determinant > Summan av egenvärdena (med multiplicitet) ska vara lika med $\text{tr}(A)$, och produkten ska vara lika med $\det(A)$: > > $\sum_i \lambda_i = \text{tr}(A), \qquad \prod_i \lambda_i = \det(A)$ > > Dessa är snabba kontroller — om de inte stämmer har du räknat fel. --- ## 12. Praktiska riktlinjer > [!tip] Tre frågor att ställa sig > > 1. **Triangulär matris?** → Egenvärden avläses direkt från diagonalen. Gausselimination behövs inte för att hitta egenvärden. > > 2. **$n$ distinkta egenvärden?** → Direkt diagonaliserbar (Sats 5.2.2). Geometrisk multiplicitet måste vara 1 för varje enkel rot. > > 3. **Upprepat egenvärde?** → Beräkna $\dim(E_\lambda)$ (antalet fria parametrar vid Gausselimination av $\lambda I - A$). Om dim $= $ algebraisk multiplicitet → ok. > [!warning] Börja inte Gausselimination för tidigt > Vid ett $3 \times 3$-system med ett dubbelt egenvärde: räkna **antalet fria variabler** i $(\lambda I - A)\vec{x} = \vec{0}$ — det ger direkt den geometriska multipliciteten. Behöver du bara veta **om** matrisen är diagonaliserbar räcker det att konstatera antalet fria parametrar. > [!example]- Exempel: $3 \times 3$ med ett dubbelt egenvärde > $A = \begin{bmatrix}2 & 0 & -2\\0 & 3 & 0\\0 & 0 & 3\end{bmatrix}$ > > **Egenvärden:** $\lambda_1 = 2$ (alg. mult. 1), $\lambda_2 = 3$ (alg. mult. 2). > > **Egenrum för $\lambda = 3$:** Lös $(3I - A)\vec{x} = \vec{0}$: > $\begin{bmatrix}1 & 0 & 2\\0 & 0 & 0\\0 & 0 & 0\end{bmatrix}$ > > Två fria variabler ($x_2$ och $x_3$) → geo. mult. $= 2 =$ alg. mult. → diagonaliserbar ✓ > > Vid ett $3 \times 3$-system med ett dubbelt egenvärde: **2 fria variabler** i egenrummet säger att $A$ är diagonaliserbar. --- ## 13. Symmetriska matriser > [!abstract] Definition: Symmetrisk matris > En matris $A$ kallas **symmetrisk** om $A = A^T$. ### 13.1 Spektralsatsen > [!theorem] Spektralsatsen (Sats 7.1.1) > Om $A$ är en **symmetrisk** $n \times n$-matris gäller: > > (a) Alla egenvärden till $A$ är **reella**. > > (b) Egenvektorer som hör till **olika** egenvärden är **ortogonala**. > > (c) $A$ är **alltid diagonaliserbar** — det finns alltid $n$ linjärt oberoende egenvektorer. > > (d) Det finns dessutom en **ortogonal** matris $P$ (dvs. $P^{-1} = P^T$) sådan att > $P^T A P = D$ > > Man säger att $A$ är **ortogonalt diagonaliserbar**. **Konsekvens:** För symmetriska matriser behöver man aldrig kontrollera multiplicitetskravet — diagonaliserbarhet är garanterad. > [!tip] Ortogonal matris $P$ > En matris $P$ är ortogonal om kolumnerna bildar en **ortonormal** bas. Eftersom egenvektorer till olika egenvärden automatiskt är ortogonala, räcker det att normalisera varje egenvektor: > > $\hat{\mathbf{p}}_i = \frac{\mathbf{p}_i}{|\mathbf{p}_i|}$ > > (Inom ett egenrum med dim gt; 1$ krävs dessutom Gram–Schmidt om egenvektorerna inte redan är ortogonala.) > [!example]- Exempel: Symmetrisk matris > $A = \begin{bmatrix}3 & 1\\1 & 3\end{bmatrix}$ är symmetrisk ($A = A^T$). > > **Egenvärden:** $p(\lambda) = (\lambda - 3)^2 - 1 = \lambda^2 - 6\lambda + 8 = (\lambda - 2)(\lambda - 4) = 0$ > > $\lambda_1 = 2$, $\lambda_2 = 4$ (distinkta reella egenvärden ✓) > > **Egenvektorer:** > - $\lambda = 2$: $(2I - A)\vec{x} = \vec{0}$ ger $\mathbf{p}_1 = \begin{bmatrix}-1\\1\end{bmatrix}$ > - $\lambda = 4$: $(4I - A)\vec{x} = \vec{0}$ ger $\mathbf{p}_2 = \begin{bmatrix}1\\1\end{bmatrix}$ > > **Kontroll:** $\mathbf{p}_1 \cdot \mathbf{p}_2 = -1 + 1 = 0$ — ortogonala ✓ (spektralsatsen) > > **Ortogonal diagonalisering:** Normalisera: > $P = \frac{1}{\sqrt{2}}\begin{bmatrix}-1 & 1\\1 & 1\end{bmatrix}, \qquad P^TAP = \begin{bmatrix}2 & 0\\0 & 4\end{bmatrix}$ --- ## 14. Jämförelse: vanlig vs. ortogonal diagonalisering | Egenskap | Allmän matris | Symmetrisk matris | | --------------------------------- | ----------------------- | ----------------------- | | Alltid diagonaliserbar? | Nej | **Ja** | | Egenvärden reella? | Inte nödvändigt | **Alltid** | | Egenvektorer ortogonala? | Inte nödvändigt | **Ja** (olika egenvärden) | | $P$ kan väljas ortogonal? | Nej | **Ja** ($P^{-1} = P^T$) | | Formel | $P^{-1}AP = D$ | $P^TAP = D$ | --- ## 15. Övningsuppgifter (V5L4) > [!question]- Uppgift 1: Kontrollera diagonaliserbarhet utan att räkna egenvektorer > Avgör om $A = \begin{bmatrix}5 & 0 & 0\\1 & 5 & 0\\0 & 1 & 3\end{bmatrix}$ är diagonaliserbar. > > > [!hint]- Ledtråd > > Matrisen är undertriangulär — egenvärden avläses direkt. Undersök sedan antalet fria variabler för det upprepade egenvärdet. > > > [!success]- Facit > > Nej, $A$ är **inte** diagonaliserbar. > > > > > [!success]- Full lösning > > > **Egenvärden:** $\lambda_1 = 5$ (alg. mult. 2), $\lambda_2 = 3$ (alg. mult. 1). > > > > > > **Egenrum för $\lambda = 5$:** Lös $(5I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}0 & 0 & 0\\-1 & 0 & 0\\0 & -1 & 2\end{bmatrix} \xrightarrow{\text{radred.}} \begin{bmatrix}1 & 0 & 0\\0 & 1 & -2\\0 & 0 & 0\end{bmatrix}$ > > > En fri variabel → geo. mult. $= 1 < 2 =$ alg. mult. → **ej diagonaliserbar** ✗ > [!question]- Uppgift 2: Ortogonal diagonalisering av symmetrisk matris > Diagonalisera ortogonalt $A = \begin{bmatrix}2 & -2\\-2 & 5\end{bmatrix}$. > > > [!hint]- Ledtråd > > Kontrollera att $A$ är symmetrisk. Spektralsatsen garanterar att egenvektorer till olika egenvärden är ortogonala — normalisera dem för att få den ortogonala matrisen $P$. > > > [!success]- Facit > > $P^TAP = \begin{bmatrix}1 & 0\\0 & 6\end{bmatrix}$ > > > > > [!success]- Full lösning > > > $A = A^T$ ✓ — symmetrisk. > > > > > > **Egenvärden:** $\text{tr}(A) = 7$, $\det(A) = 10 - 4 = 6$. > > > $p(\lambda) = \lambda^2 - 7\lambda + 6 = (\lambda - 1)(\lambda - 6) = 0$ > > > > > > $\lambda_1 = 1$, $\lambda_2 = 6$. > > > > > > **$\lambda = 1$:** $(I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}-1 & 2\\2 & -4\end{bmatrix} \to \begin{bmatrix}1 & -2\\0 & 0\end{bmatrix}$ > > > $x_1 = 2t$, $x_2 = t$. Välj $\mathbf{p}_1 = \begin{bmatrix}2\\1\end{bmatrix}$. Normalisera: $\hat{\mathbf{p}}_1 = \frac{1}{\sqrt{5}}\begin{bmatrix}2\\1\end{bmatrix}$. > > > > > > **$\lambda = 6$:** $(6I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}4 & 2\\2 & 1\end{bmatrix} \to \begin{bmatrix}2 & 1\\0 & 0\end{bmatrix}$ > > > $x_1 = -t$, $x_2 = 2t$. Välj $\mathbf{p}_2 = \begin{bmatrix}-1\\2\end{bmatrix}$. Normalisera: $\hat{\mathbf{p}}_2 = \frac{1}{\sqrt{5}}\begin{bmatrix}-1\\2\end{bmatrix}$. > > > > > > **Kontroll ortogonalitet:** $\hat{\mathbf{p}}_1 \cdot \hat{\mathbf{p}}_2 = \frac{1}{5}(2 \cdot (-1) + 1 \cdot 2) = 0$ ✓ > > > > > > $P = \frac{1}{\sqrt{5}}\begin{bmatrix}2 & -1\\1 & 2\end{bmatrix}, \qquad P^TAP = \begin{bmatrix}1 & 0\\0 & 6\end{bmatrix}$ > [!question]- Uppgift 3: Verifiera $AP = PD$ > Låt $A = \begin{bmatrix}0 & 0 & -2\\1 & 2 & 1\\1 & 0 & 3\end{bmatrix}$ och $P = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}$, $D = \begin{bmatrix}2 & 0 & 0\\0 & 2 & 0\\0 & 0 & 1\end{bmatrix}$. > > Verifiera att $AP = PD$ utan att beräkna $P^{-1}$. > > > [!success]- Facit > > Beräkna $AP$ och $PD$ och kontrollera att de är lika. > > > > > [!success]- Full lösning > > > $AP = \begin{bmatrix}0 & 0 & -2\\1 & 2 & 1\\1 & 0 & 3\end{bmatrix}\begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix} = \begin{bmatrix}-2 & 0 & -2\\0 & 2 & 1\\2 & 0 & 1\end{bmatrix}$ > > > > > > $PD = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}\begin{bmatrix}2 & 0 & 0\\0 & 2 & 0\\0 & 0 & 1\end{bmatrix} = \begin{bmatrix}-2 & 0 & -2\\0 & 2 & 1\\2 & 0 & 1\end{bmatrix}$ > > > > > > $AP = PD$ ✓ --- ## Resurser ### Videor - [3Blue1Brown: Eigenvectors and eigenvalues (kap 14)](https://youtu.be/PFDu9oVAE-g) — visuell grund - [MIT 18.06SC: Diagonalization (Gilbert Strang)](https://youtu.be/13r9QY6cmjc) — fullständig genomgång av diagonalisering - [MIT 18.06SC: Symmetric Matrices and Positive Definiteness (Gilbert Strang)](https://youtu.be/ZTNniGvY5IQ) — symmetriska matriser och spektralsatsen ### Interaktiva verktyg - [matrixcalc.org](https://matrixcalc.org/) — beräkna egenvärden, egenvektorer, $P^{-1}AP$ online ### Wikipedia - [Diagonalizable matrix](https://en.wikipedia.org/wiki/Diagonalizable_matrix) - [Matrix similarity](https://en.wikipedia.org/wiki/Matrix_similarity) - [Eigendecomposition of a matrix](https://en.wikipedia.org/wiki/Eigendecomposition_of_a_matrix) - [Symmetric matrix](https://en.wikipedia.org/wiki/Symmetric_matrix) - [Spectral theorem](https://en.wikipedia.org/wiki/Spectral_theorem) ### Fördjupning - [Georgia Tech — Interactive Linear Algebra: Diagonalization](https://textbooks.math.gatech.edu/ila/diagonalization.html) - [Georgia Tech — Interactive Linear Algebra: Orthogonal Diagonalization](https://textbooks.math.gatech.edu/ila/orthogonal-diagonalization.html) - [Immersive Linear Algebra — Chapter 6](https://immersivemath.com/ila/ch06_vectorspaces/ch06.html)