# Diagonalisering — repetition & symmetriska matriser > **Föreläsning:** V5L4 · **Ämne:** Linjär algebra > **Förkunskaper:** Diagonalisering ([[V5L3 M0067M]]), egenvärden och egenvektorer ([[V5L2 M0067M]]) --- ## Ordlista svenska ↔ engelska | Svenska | Engelska | | ------------------------ | ------------------------- | | Symmetrisk matris | Symmetric matrix | | Ortogonalt diagonaliserbar | Orthogonally diagonalizable | | Ortonormal bas | Orthonormal basis | | Spektralsatsen | Spectral theorem | | Algebraisk multiplicitet | Algebraic multiplicity | | Geometrisk multiplicitet | Geometric multiplicity | | Spår | Trace | | Kontroll | Verification | --- ## 1. Repetition: diagonaliserbarhetskriteriet En $n \times n$-matris $A$ är **diagonaliserbar** om och bara om geometrisk multiplicitet = algebraisk multiplicitet för **varje** egenvärde. > [!important] Sammanfattning av metoden > > **Steg 1.** Hitta egenvärdena och deras algebraiska multipliciteter från $\det(\lambda I - A) = 0$. > > **Steg 2.** För varje egenvärde $\lambda$: beräkna $\dim(E_\lambda) = \text{nullitet}(\lambda I - A)$ — den geometriska multipliciteten. > > **Steg 3.** Kontroll: > - geo mult = alg mult för **alla** egenvärden → diagonaliserbar ✓ > - geo mult < alg mult för **något** egenvärde → **ej** diagonaliserbar ✗ > > **Steg 4.** (Om diagonaliserbar) Bilda $P$ med basvektorerna för alla egenrum som kolumner, och > $P^{-1}AP = D$ ### 1.1 Nyckelsamband: $AP = PD$ Relationen $P^{-1}AP = D$ är ekvivalent med: $\boxed{AP = PD}$ Det är ofta enklare att verifiera $AP = PD$ direkt utan att beräkna $P^{-1}$. > [!tip] Kontrollera med spår och determinant > Summan av egenvärdena (med multiplicitet) ska vara lika med $\text{tr}(A)$, och produkten ska vara lika med $\det(A)$: > > $\sum_i \lambda_i = \text{tr}(A), \qquad \prod_i \lambda_i = \det(A)$ > > Dessa är snabba kontroller — om de inte stämmer har du räknat fel. --- ## 2. Praktiska riktlinjer > [!tip] Tre frågor att ställa sig > > 1. **Triangulär matris?** → Egenvärden avläses direkt från diagonalen. Gausselimination behövs inte för att hitta egenvärden. > > 2. **$n$ distinkta egenvärden?** → Direkt diagonaliserbar (Sats 5.2.2). Geometrisk multiplicitet måste vara 1 för varje enkel rot. > > 3. **Upprepat egenvärde?** → Beräkna $\dim(E_\lambda)$ (antalet fria parametrar vid Gausselimination av $\lambda I - A$). Om dim $= $ algebraisk multiplicitet → ok. > [!warning] Börja inte Gausselimination för tidigt > Vid ett $3 \times 3$-system med ett dubbelt egenvärde: räkna **antalet fria variabler** i $(\lambda I - A)\vec{x} = \vec{0}$ — det ger direkt den geometriska multipliciteten. Behöver du bara veta **om** matrisen är diagonaliserbar räcker det att konstatera antalet fria parametrar. > [!example]- Exempel: $3 \times 3$ med ett dubbelt egenvärde > $A = \begin{bmatrix}2 & 0 & -2\\0 & 3 & 0\\0 & 0 & 3\end{bmatrix}$ > > **Egenvärden:** $\lambda_1 = 2$ (alg. mult. 1), $\lambda_2 = 3$ (alg. mult. 2). > > **Egenrum för $\lambda = 3$:** Lös $(3I - A)\vec{x} = \vec{0}$: > $\begin{bmatrix}1 & 0 & 2\\0 & 0 & 0\\0 & 0 & 0\end{bmatrix}$ > > Två fria variabler ($x_2$ och $x_3$) → geo. mult. $= 2 =$ alg. mult. → diagonaliserbar ✓ > > Vid ett $3 \times 3$-system med ett dubbelt egenvärde: **2 fria variabler** i egenrummet säger att $A$ är diagonaliserbar. --- ## 3. Symmetriska matriser > [!abstract] Definition: Symmetrisk matris > En matris $A$ kallas **symmetrisk** om $A = A^T$. ### 3.1 Spektralsatsen > [!theorem] Spektralsatsen (Sats 7.1.1) > Om $A$ är en **symmetrisk** $n \times n$-matris gäller: > > (a) Alla egenvärden till $A$ är **reella**. > > (b) Egenvektorer som hör till **olika** egenvärden är **ortogonala**. > > (c) $A$ är **alltid diagonaliserbar** — det finns alltid $n$ linjärt oberoende egenvektorer. > > (d) Det finns dessutom en **ortogonal** matris $P$ (dvs. $P^{-1} = P^T$) sådan att > $P^T A P = D$ > > Man säger att $A$ är **ortogonalt diagonaliserbar**. **Konsekvens:** För symmetriska matriser behöver man aldrig kontrollera multiplicitetskravet — diagonaliserbarhet är garanterad. > [!tip] Ortogonal matris $P$ > En matris $P$ är ortogonal om kolumnerna bildar en **ortonormal** bas. Eftersom egenvektorer till olika egenvärden automatiskt är ortogonala, räcker det att normalisera varje egenvektor: > > $\hat{\mathbf{p}}_i = \frac{\mathbf{p}_i}{|\mathbf{p}_i|}$ > > (Inom ett egenrum med dim gt; 1$ krävs dessutom Gram–Schmidt om egenvektorerna inte redan är ortogonala.) > [!example]- Exempel: Symmetrisk matris > $A = \begin{bmatrix}3 & 1\\1 & 3\end{bmatrix}$ är symmetrisk ($A = A^T$). > > **Egenvärden:** $p(\lambda) = (\lambda - 3)^2 - 1 = \lambda^2 - 6\lambda + 8 = (\lambda - 2)(\lambda - 4) = 0$ > > $\lambda_1 = 2$, $\lambda_2 = 4$ (distinkta reella egenvärden ✓) > > **Egenvektorer:** > - $\lambda = 2$: $(2I - A)\vec{x} = \vec{0}$ ger $\mathbf{p}_1 = \begin{bmatrix}-1\\1\end{bmatrix}$ > - $\lambda = 4$: $(4I - A)\vec{x} = \vec{0}$ ger $\mathbf{p}_2 = \begin{bmatrix}1\\1\end{bmatrix}$ > > **Kontroll:** $\mathbf{p}_1 \cdot \mathbf{p}_2 = -1 + 1 = 0$ — ortogonala ✓ (spektralsatsen) > > **Ortogonal diagonalisering:** Normalisera: > $P = \frac{1}{\sqrt{2}}\begin{bmatrix}-1 & 1\\1 & 1\end{bmatrix}, \qquad P^TAP = \begin{bmatrix}2 & 0\\0 & 4\end{bmatrix}$ --- ## 4. Jämförelse: vanlig vs. ortogonal diagonalisering | Egenskap | Allmän matris | Symmetrisk matris | | --------------------------------- | ----------------------- | ----------------------- | | Alltid diagonaliserbar? | Nej | **Ja** | | Egenvärden reella? | Inte nödvändigt | **Alltid** | | Egenvektorer ortogonala? | Inte nödvändigt | **Ja** (olika egenvärden) | | $P$ kan väljas ortogonal? | Nej | **Ja** ($P^{-1} = P^T$) | | Formel | $P^{-1}AP = D$ | $P^TAP = D$ | --- ## 5. Övningsuppgifter > [!question]- Uppgift 1: Kontrollera diagonaliserbarhet utan att räkna egenvektorer > Avgör om $A = \begin{bmatrix}5 & 0 & 0\\1 & 5 & 0\\0 & 1 & 3\end{bmatrix}$ är diagonaliserbar. > > > [!hint]- Ledtråd > > Matrisen är undertriangulär — egenvärden avläses direkt. Undersök sedan antalet fria variabler för det upprepade egenvärdet. > > > [!success]- Facit > > Nej, $A$ är **inte** diagonaliserbar. > > > > > [!success]- Full lösning > > > **Egenvärden:** $\lambda_1 = 5$ (alg. mult. 2), $\lambda_2 = 3$ (alg. mult. 1). > > > > > > **Egenrum för $\lambda = 5$:** Lös $(5I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}0 & 0 & 0\\-1 & 0 & 0\\0 & -1 & 2\end{bmatrix} \xrightarrow{\text{radred.}} \begin{bmatrix}1 & 0 & 0\\0 & 1 & -2\\0 & 0 & 0\end{bmatrix}$ > > > En fri variabel → geo. mult. $= 1 < 2 =$ alg. mult. → **ej diagonaliserbar** ✗ > [!question]- Uppgift 2: Ortogonal diagonalisering av symmetrisk matris > Diagonalisera ortogonalt $A = \begin{bmatrix}2 & -2\\-2 & 5\end{bmatrix}$. > > > [!hint]- Ledtråd > > Kontrollera att $A$ är symmetrisk. Spektralsatsen garanterar att egenvektorer till olika egenvärden är ortogonala — normalisera dem för att få den ortogonala matrisen $P$. > > > [!success]- Facit > > $P^TAP = \begin{bmatrix}1 & 0\\0 & 6\end{bmatrix}$ > > > > > [!success]- Full lösning > > > $A = A^T$ ✓ — symmetrisk. > > > > > > **Egenvärden:** $\text{tr}(A) = 7$, $\det(A) = 10 - 4 = 6$. > > > $p(\lambda) = \lambda^2 - 7\lambda + 6 = (\lambda - 1)(\lambda - 6) = 0$ > > > > > > $\lambda_1 = 1$, $\lambda_2 = 6$. > > > > > > **$\lambda = 1$:** $(I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}-1 & 2\\2 & -4\end{bmatrix} \to \begin{bmatrix}1 & -2\\0 & 0\end{bmatrix}$ > > > $x_1 = 2t$, $x_2 = t$. Välj $\mathbf{p}_1 = \begin{bmatrix}2\\1\end{bmatrix}$. Normalisera: $\hat{\mathbf{p}}_1 = \frac{1}{\sqrt{5}}\begin{bmatrix}2\\1\end{bmatrix}$. > > > > > > **$\lambda = 6$:** $(6I - A)\vec{x} = \vec{0}$: > > > $\begin{bmatrix}4 & 2\\2 & 1\end{bmatrix} \to \begin{bmatrix}2 & 1\\0 & 0\end{bmatrix}$ > > > $x_1 = -t$, $x_2 = 2t$. Välj $\mathbf{p}_2 = \begin{bmatrix}-1\\2\end{bmatrix}$. Normalisera: $\hat{\mathbf{p}}_2 = \frac{1}{\sqrt{5}}\begin{bmatrix}-1\\2\end{bmatrix}$. > > > > > > **Kontroll ortogonalitet:** $\hat{\mathbf{p}}_1 \cdot \hat{\mathbf{p}}_2 = \frac{1}{5}(2 \cdot (-1) + 1 \cdot 2) = 0$ ✓ > > > > > > $P = \frac{1}{\sqrt{5}}\begin{bmatrix}2 & -1\\1 & 2\end{bmatrix}, \qquad P^TAP = \begin{bmatrix}1 & 0\\0 & 6\end{bmatrix}$ > [!question]- Uppgift 3: Verifiera $AP = PD$ > Låt $A = \begin{bmatrix}0 & 0 & -2\\1 & 2 & 1\\1 & 0 & 3\end{bmatrix}$ och $P = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}$, $D = \begin{bmatrix}2 & 0 & 0\\0 & 2 & 0\\0 & 0 & 1\end{bmatrix}$. > > Verifiera att $AP = PD$ utan att beräkna $P^{-1}$. > > > [!success]- Facit > > Beräkna $AP$ och $PD$ och kontrollera att de är lika. > > > > > [!success]- Full lösning > > > $AP = \begin{bmatrix}0 & 0 & -2\\1 & 2 & 1\\1 & 0 & 3\end{bmatrix}\begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix} = \begin{bmatrix}-2 & 0 & -2\\0 & 2 & 1\\2 & 0 & 1\end{bmatrix}$ > > > > > > $PD = \begin{bmatrix}-1 & 0 & -2\\0 & 1 & 1\\1 & 0 & 1\end{bmatrix}\begin{bmatrix}2 & 0 & 0\\0 & 2 & 0\\0 & 0 & 1\end{bmatrix} = \begin{bmatrix}-2 & 0 & -2\\0 & 2 & 1\\2 & 0 & 1\end{bmatrix}$ > > > > > > $AP = PD$ ✓ --- ## Resurser ### Videor > ![3Blue1Brown: Eigenvectors and eigenvalues (kap 14)](https://youtu.be/PFDu9oVAE-g) Visuell grund för egenvärden ![MIT 18.06SC: Symmetric Matrices and Positive Definiteness (Gilbert Strang)](https://youtu.be/ZTNniGvY5IQ) Symmetriska matriser och spektralsatsen - [MIT 18.06SC: Diagonalization (Gilbert Strang)](https://youtu.be/13r9QY6cmjc) — fullständig genomgång av diagonalisering ### Interaktiva verktyg - [matrixcalc.org](https://matrixcalc.org/) — beräkna egenvärden, egenvektorer, $P^{-1}AP$ online ### Wikipedia - [Diagonalizable matrix](https://en.wikipedia.org/wiki/Diagonalizable_matrix) - [Symmetric matrix](https://en.wikipedia.org/wiki/Symmetric_matrix) - [Spectral theorem](https://en.wikipedia.org/wiki/Spectral_theorem) ### Fördjupning - [Georgia Tech — Interactive Linear Algebra: Orthogonal Diagonalization](https://textbooks.math.gatech.edu/ila/orthogonal-diagonalization.html)