# Skalärproduktsrum --- ## Ordlista svenska ↔ engelska | Svenska | Engelska | | ---------------------- | ------------------------- | | Skalärprodukt | Inner product / dot product | | Inre produktrum | Inner product space | | Norm | Norm | | Avstånd | Distance | | Viktad skalärprodukt | Weighted inner product | | Evalueringsskalärprodukt | Evaluation inner product | | Vinkelrät / ortogonal | Orthogonal / perpendicular | | Polynomrum | Polynomial space | | Kontinuerliga funktioner | Continuous functions | | Triangelolikheten | Triangle inequality | | Cauchy–Schwarz olikhet | Cauchy–Schwarz inequality | | Pythagorassatsen | Pythagorean theorem | | Ortogonal mängd | Orthogonal set | | Ortonormal mängd | Orthonormal set | | Spår (av matris) | Trace | | Bästa approximation | Best approximation | --- ## 1. Repetition: skalärprodukten i $\mathbb{R}^n$ I $\mathbb{R}^n$ har vi redan den bekanta **punktprodukten** (dot product): $\vec{u} \cdot \vec{v} = u_1 v_1 + u_2 v_2 + \cdots + u_n v_n$ där $\vec{u} = (u_1, \ldots, u_n)$ och $\vec{v} = (v_1, \ldots, v_n)$. Denna produkt ger oss verktyg som **vinkel**, **längd** och **avstånd** — begrepp som är centrala i geometri och optimering. Frågan som denna föreläsning besvarar är: **kan vi definiera liknande begrepp på andra vektorrum**, som polynomrum eller funktionsrum? --- ## 2. Allmän skalärprodukt — definition > [!abstract] Definition: Skalärprodukt (inre produkt) > Låt $V$ vara ett reellt vektorrum. En **skalärprodukt** (inner product) på $V$ är en funktion $\langle \cdot, \cdot \rangle : V \times V \to \mathbb{R}$ som uppfyller följande fyra axiom för alla $\vec{u}, \vec{v}, \vec{w} \in V$ och alla skalärer $c \in \mathbb{R}$: > > | Nr | Axiom | Namn | > |----|-------|------| > | 1 | $\langle \vec{u}, \vec{v} \rangle = \langle \vec{v}, \vec{u} \rangle$ | Symmetri | > | 2 | $\langle \vec{u} + \vec{v}, \vec{w} \rangle = \langle \vec{u}, \vec{w} \rangle + \langle \vec{v}, \vec{w} \rangle$ | Additivitet | > | 3 | $\langle c\vec{u}, \vec{v} \rangle = c\langle \vec{u}, \vec{v} \rangle$ | Homogenitet | > | 4 | $\langle \vec{u}, \vec{u} \rangle \geq 0$, med likhet om och bara om $\vec{u} = \vec{0}$ | Positivdefinithet | > > Ett vektorrum utrustat med en skalärprodukt kallas ett **inre produktrum**. > [!tip] Axiom 2 + 3 tillsammans kallas linjäritet i första argumentet > Tack vare symmetrin (axiom 1) är skalärprodukten även linjär i det andra argumentet. Man säger att den är **bilinjär**. --- ## 3. Norm och avstånd Från en skalärprodukt kan vi definiera längd och avstånd: > [!abstract] Definition: Norm och avstånd > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. > > **Normen** (längden) av $\vec{u}$: > > $\|\vec{u}\| = \sqrt{\langle \vec{u}, \vec{u} \rangle}$ > > **Avståndet** mellan $\vec{u}$ och $\vec{v}$: > > $d(\vec{u}, \vec{v}) = \|\vec{u} - \vec{v}\|$ **Koppling till geometri:** Vinkelräthet (ortogonalitet) och kortaste avstånd definieras med hjälp av normen. Begreppet "vinkelrät" i ett allmänt inre produktrum betyder att $\langle \vec{u}, \vec{v} \rangle = 0$. --- ## 4. Grundläggande räkneregler > [!example]- Exempel 1: Skalärprodukten av nollvektorn med valfri vektor > **Påstående:** $\langle \vec{0}, \vec{v} \rangle = 0$ för alla $\vec{v}$. > > **Bevis med axiomen:** > > $\langle \vec{0}, \vec{v} \rangle = \langle 0 \cdot \vec{0}, \vec{v} \rangle \overset{\text{axiom 3}}{=} 0 \cdot \langle \vec{0}, \vec{v} \rangle = 0$ > > **Tolkning:** Oavsett vilken skalärprodukt vi väljer — standardprodukten i $\mathbb{R}^n$, en viktad variant, eller en integralskalärprodukt — ger nollvektorn alltid skalärprodukt noll. Detta följer direkt av homogenitetsaxiomet (axiom 3). Notera att vi inte behöver veta *vilken* skalärprodukt det är — resultatet gäller generellt. > [!example]- Exempel 2: Avståndet är symmetriskt > **Påstående:** $d(\vec{u}, \vec{v}) = d(\vec{v}, \vec{u})$. > > **Bevis:** > > $d(\vec{u}, \vec{v}) = \|\vec{u} - \vec{v}\| = \|(-1)(\vec{v} - \vec{u})\|$ > > Vi behöver beräkna normen av $(-1)\vec{w}$ där $\vec{w} = \vec{v} - \vec{u}$: > > $\|(-1)\vec{w}\| = \sqrt{\langle -\vec{w}, -\vec{w} \rangle} = \sqrt{(-1)(-1)\langle \vec{w}, \vec{w} \rangle} = \sqrt{\langle \vec{w}, \vec{w} \rangle} = \|\vec{w}\|$ > > Alltså $d(\vec{u}, \vec{v}) = \|\vec{v} - \vec{u}\| = d(\vec{v}, \vec{u})$. > > **Tolkning:** Avståndet från $A$ till $B$ är samma som avståndet från $B$ till $A$. Beviset visar att detta inte är ett antagande utan en *konsekvens* av axiomen — homogeniteten (axiom 3) tillåter oss att flytta skalären $-1$ utanför, och $(-1)^2 = 1$ gör att tecknet försvinner. > [!example]- Exempel 3: Utveckla $\langle 2\vec{u} - 3\vec{v}, \vec{u} + 2\vec{v} \rangle$ > Skalärprodukten beter sig som en "multiplikation" — vi kan utveckla den med distributiva lagen precis som en algebraisk produkt. > > **Beräkning:** Använd additivitet (axiom 2) och homogenitet (axiom 3): > > $\langle 2\vec{u} - 3\vec{v},\; \vec{u} + 2\vec{v} \rangle$ > > $= \langle 2\vec{u}, \vec{u} \rangle + \langle 2\vec{u}, 2\vec{v} \rangle + \langle -3\vec{v}, \vec{u} \rangle + \langle -3\vec{v}, 2\vec{v} \rangle$ > > $= 2\langle \vec{u}, \vec{u} \rangle + 4\langle \vec{u}, \vec{v} \rangle - 3\langle \vec{v}, \vec{u} \rangle - 6\langle \vec{v}, \vec{v} \rangle$ > > Använd symmetri (axiom 1): $\langle \vec{v}, \vec{u} \rangle = \langle \vec{u}, \vec{v} \rangle$, samt $\langle \vec{u}, \vec{u} \rangle = \|\vec{u}\|^2$: > > $= 2\|\vec{u}\|^2 + 4\langle \vec{u}, \vec{v} \rangle - 3\langle \vec{u}, \vec{v} \rangle - 6\|\vec{v}\|^2$ > > $= \boxed{2\|\vec{u}\|^2 + \langle \vec{u}, \vec{v} \rangle - 6\|\vec{v}\|^2}$ > > **Tolkning:** Räknereglerna fungerar exakt som vanlig algebra — "multiplicera" parenteserna och samla termer. Den enda skillnaden mot vanlig multiplikation är att $\langle \vec{u}, \vec{v} \rangle$ inte i allmänhet förenklas vidare (det är inte nödvändigtvis $\|\vec{u}\| \cdot \|\vec{v}\|$). Notera hur de fyra axiomen är allt vi behöver för denna beräkning. --- ## 5. Skalärprodukter på $\mathbb{R}^n$ ### 5.1 Standardskalärprodukten > [!example]- Exempel 4: Standardskalärprodukten i $\mathbb{R}^n$ > Den vanliga punktprodukten: > > $\langle \vec{u}, \vec{v} \rangle = \vec{u} \cdot \vec{v} = u_1 v_1 + u_2 v_2 + \cdots + u_n v_n$ > > **Verifiering av axiomen:** > > 1. **Symmetri:** $u_1 v_1 + \cdots + u_n v_n = v_1 u_1 + \cdots + v_n u_n$ ✓ (multiplikation av reella tal är kommutativ) > 2. **Additivitet:** Följer av distributivitet i $\mathbb{R}$ ✓ > 3. **Homogenitet:** $c(u_1 v_1 + \cdots) = (cu_1)v_1 + \cdots$ ✓ > 4. **Positivdefinithet:** $u_1^2 + u_2^2 + \cdots + u_n^2 \geq 0$, och $= 0$ om och bara om alla $u_i = 0$ ✓ > > **Tolkning:** Standardskalärprodukten är det "naturliga" valet i $\mathbb{R}^n$ — den ger den euklidiska geometrin vi är vana vid, med räta vinklar, Pythagoras sats, och Cauchy–Schwarz olikhet. Enhetscirkeln ($\|\vec{u}\| = 1$) blir en vanlig cirkel. ### 5.2 Viktade skalärprodukter > [!example]- Exempel 5: Viktad skalärprodukt i $\mathbb{R}^2$ > Definiera på $\mathbb{R}^2$: > > $\langle (u_1, u_2), (v_1, v_2) \rangle = 2u_1 v_1 + 3u_2 v_2$ > > Talen $2$ och $3$ kallas **vikter**. Denna funktion är en giltig skalärprodukt: > > 1. **Symmetri:** $2u_1 v_1 + 3u_2 v_2 = 2v_1 u_1 + 3v_2 u_2$ ✓ > 2. **Additivitet:** Distributivitet ✓ > 3. **Homogenitet:** $2(cu_1)v_1 + 3(cu_2)v_2 = c(2u_1 v_1 + 3u_2 v_2)$ ✓ > 4. **Positivdefinithet:** $2u_1^2 + 3u_2^2 \geq 0$, och $= 0 \iff u_1 = u_2 = 0$ ✓ (vikterna är positiva!) > > **Tolkning:** Vikterna ändrar geometrin. Med standardprodukten bildar $\|\vec{u}\| = 1$ en cirkel ($u_1^2 + u_2^2 = 1$). Med den viktade produkten bildar $\|\vec{u}\| = 1$ en **ellips** ($2u_1^2 + 3u_2^2 = 1$). Riktningar med högre vikt "kostar mer" — de bidrar mer till normen. Detta används t.ex. i statistik där olika variabler har olika varians. > [!tip] Generell viktad skalärprodukt > På $\mathbb{R}^n$ med vikter $w_1, w_2, \ldots, w_n > 0$: > > $\langle \vec{u}, \vec{v} \rangle = w_1 u_1 v_1 + w_2 u_2 v_2 + \cdots + w_n u_n v_n$ > > **Kravet är att alla vikter är strikt positiva** ($w_i > 0$). Om någon vikt vore $0$ eller negativ bryts axiom 4 (positivdefinithet). ### 5.3 Icke-exempel: när villkoren inte uppfylls > [!example]- Exempel 6: En funktion som *inte* är en skalärprodukt — nollvikt > Försök definiera på $\mathbb{R}^3$: > > $\langle (u_1, u_2, u_3), (v_1, v_2, v_3) \rangle = u_1 v_1 + u_2 v_2$ > > (Tredje komponenten ignoreras — den har effektivt vikten $0$.) > > **Kontroll av axiom 4:** Välj $\vec{u} = (0, 0, 1)$: > > $\langle \vec{u}, \vec{u} \rangle = 0 \cdot 0 + 0 \cdot 0 = 0$ > > Men $\vec{u} \neq \vec{0}$! Alltså bryter detta mot kravet "$= 0 \iff \vec{u} = \vec{0}quot; i axiom 4. > > **Slutsats:** Detta är **inte** en skalärprodukt. ✗ > > **Tolkning:** Problemet är att funktionen inte "ser" den tredje komponenten. Två helt olika vektorer, $(0,0,1)$ och $(0,0,0)$, får samma norm. En skalärprodukt måste kunna skilja alla vektorer åt — om $\vec{u} \neq \vec{0}$ måste $\langle \vec{u}, \vec{u} \rangle > 0$. Vikten för varje komponent måste vara strikt positiv. > [!example]- Exempel 7: En funktion som *inte* är en skalärprodukt — saknar symmetri > Försök definiera på $\mathbb{R}^2$: > > $\langle (u_1, u_2), (v_1, v_2) \rangle = u_1 + u_2 v_2$ > > **Kontroll av axiom 1 (symmetri):** Beräkna $\langle \vec{v}, \vec{u} \rangle = v_1 + v_2 u_2$. > > Jämför: $\langle \vec{u}, \vec{v} \rangle = u_1 + u_2 v_2$ mot $\langle \vec{v}, \vec{u} \rangle = v_1 + v_2 u_2$. > > Välj $\vec{u} = (1, 0)$ och $\vec{v} = (0, 1)$: > - $\langle \vec{u}, \vec{v} \rangle = 1 + 0 = 1$ > - $\langle \vec{v}, \vec{u} \rangle = 0 + 0 = 0$ > > $1 \neq 0$, så symmetrin bryter. ✗ > > **Tolkning:** Formeln $u_1 + u_2 v_2$ behandlar $\vec{u}$ och $\vec{v}$ olika — den innehåller $u_1$ men inte $v_1$ separat. En skalärprodukt måste vara symmetrisk: att byta plats på $\vec{u}$ och $\vec{v}$ ska inte ändra resultatet. ### 5.4 Matrisbaserad skalärprodukt > [!example]- Exempel 8: Skalärprodukt via en inverterbar matris > Låt $A$ vara en inverterbar $n \times n$-matris. Definiera på $\mathbb{R}^n$: > > $\langle \vec{u}, \vec{v} \rangle = (A\vec{u}) \cdot (A\vec{v})$ > > (Punktprodukten av de transformerade vektorerna.) > > **Verifiering av axiomen:** Axiom 1–3 följer direkt av att punktprodukten och matrismultiplikation uppfyller symmetri, additivitet och homogenitet. > > **Axiom 4 (det kritiska):** > > $\langle \vec{u}, \vec{u} \rangle = (A\vec{u}) \cdot (A\vec{u}) = \|A\vec{u}\|^2 \geq 0$ > > Och $\|A\vec{u}\|^2 = 0 \iff A\vec{u} = \vec{0} \iff \vec{u} = \vec{0}$ (den sista ekvivalensen gäller eftersom $A$ är **inverterbar**, dvs. $\ker(A) = \{\vec{0}\}$). > > **Slutsats:** $(A\vec{u}) \cdot (A\vec{v})$ är en skalärprodukt om och bara om $A$ är inverterbar. ✓ > > **Tolkning:** Denna konstruktion "mäter avstånd i ett transformerat koordinatsystem". Om $A$ roterar och skalar rummet, så mäter $\langle \vec{u}, \vec{v} \rangle$ hur $\vec{u}$ och $\vec{v}$ relaterar till varandra *efter* transformationen. Inverterbarheten av $A$ är avgörande — om $A$ vore singulär kunde den krympa en hel riktning till noll, och axiom 4 skulle brytas. --- ## 6. Skalärprodukter på polynomrum ### 6.1 Evalueringsskalärprodukt Den viktigaste typen av skalärprodukt på polynomrum bygger på att **evaluera polynomen i fasta punkter** och bilda en viktad summa. > [!tip] Evalueringsskalärprodukt på $\mathbb{P}_n$ > Välj $n + 1$ **distinkta** punkter $x_0, x_1, \ldots, x_n$ och positiva vikter $w_0, w_1, \ldots, w_n > 0$. Definiera: > > $\langle p, q \rangle = w_0\, p(x_0)\,q(x_0) + w_1\, p(x_1)\,q(x_1) + \cdots + w_n\, p(x_n)\,q(x_n)$ > > **Krav:** Man behöver minst $n + 1$ distinkta punkter för $\mathbb{P}_n$. I $\mathbb{P}_2$ behövs alltså minst 3 punkter; i $\mathbb{P}_7$ behövs minst 8. **Varför just $n + 1$ punkter?** Ett polynom av grad $\leq n$ som är noll i $n + 1$ punkter måste vara nollpolynomet (det har fler nollställen än grad). Detta säkerställer axiom 4: om $p \neq 0$ måste $p(x_i) \neq 0$ för minst ett $i$, och med positiva vikter ger detta $\langle p, p \rangle > 0$. > [!example]- Exempel 9: Evalueringsskalärprodukt på $\mathbb{P}_2$ (tre punkter) > Definiera på $\mathbb{P}_2$ (polynom av grad $\leq 2$): > > $\langle p, q \rangle = 4\,p(0)\,q(0) + 1\,p(1)\,q(1) + 3\,p(2)\,q(2)$ > > Här är punkterna $x_0 = 0$, $x_1 = 1$, $x_2 = 2$ och vikterna $w_0 = 4$, $w_1 = 1$, $w_2 = 3$. > > **Verifiering:** > - 3 distinkta punkter för $\mathbb{P}_2$ (polynom av grad $\leq 2$) → tillräckligt ✓ > - Alla vikter positiva ($4, 1, 3 > 0$) ✓ > > **Beräkningsexempel:** Låt $p(x) = 1 + x$ och $q(x) = x^2$. > > | Punkt | $p(x_i)$ | $q(x_i)$ | Bidrag | > |-------|-----------|-----------|--------| > | $x = 0$ | $1$ | $0$ | $4 \cdot 1 \cdot 0 = 0$ | > | $x = 1$ | $2$ | $1$ | $1 \cdot 2 \cdot 1 = 2$ | > | $x = 2$ | $3$ | $4$ | $3 \cdot 3 \cdot 4 = 36$ | > > $\langle p, q \rangle = 0 + 2 + 36 = 38$ > > **Tolkning:** Evalueringsskalärprodukten "samplar" polynomen i fasta punkter. Vikterna styr hur mycket varje punkt bidrar — punkten $x = 0$ har störst vikt ($w = 4$), men bidraget blev ändå noll eftersom $q(0) = 0$. Denna typ av skalärprodukt är fundamental i numerisk analys, t.ex. Gauss-kvadratur. ### 6.2 Icke-exempel: för få punkter > [!example]- Exempel 10: Bara två punkter i $\mathbb{P}_2$ — inte en skalärprodukt > Försök definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(-1)\,q(-1) + p(1)\,q(1)$ > > Bara 2 punkter, men $\mathbb{P}_2$ kräver minst 3. **Vad går fel?** > > Välj $p(x) = x^2 - 1$. Då: > - $p(-1) = 1 - 1 = 0$ > - $p(1) = 1 - 1 = 0$ > > $\langle p, p \rangle = 0 \cdot 0 + 0 \cdot 0 = 0$ > > Men $p(x) = x^2 - 1 \neq 0$! Axiom 4 bryts. ✗ > > **Tolkning:** Polynomet $x^2 - 1$ är nollskilt men har nollställen precis i de två samplingspunkterna $x = \pm 1$. Med bara 2 punkter kan ett andragradspolynom "smyga igenom" utan att skalärprodukten märker det. Därför krävs minst $n + 1$ punkter för $\mathbb{P}_n$ — det är precis det antal som säkerställer att inget nollskilt polynom av grad $\leq n$ kan vara noll i samtliga punkter. ### 6.3 Fler exempel på $\mathbb{P}_2$ > [!example]- Exempel 11: Två evalueringspunkter i $\mathbb{P}_2$ — giltigt eller ej? > Definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(0) + p(1)\,q(1)$ > > Bara 2 punkter, men $\mathbb{P}_2$ kräver 3 → **inte** en skalärprodukt. ✗ > > **Motexempel:** $p(x) = x^2 - x$ ger $p(0) = 0$, $p(1) = 0$, alltså $\langle p, p \rangle = 0$ trots $p \neq 0$. > > **Tolkning:** Samma princip som i Exempel 10 — polynomet $x(x-1)$ har nollställen precis i samplingspunkterna. > [!example]- Exempel 12: Icke-symmetrisk evalueringsprodukt > Försök definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(1) + p(1)\,q(0)$ > > **Kontroll av axiom 1 (symmetri):** > > $\langle q, p \rangle = q(0)\,p(1) + q(1)\,p(0) = p(1)\,q(0) + p(0)\,q(1) = \langle p, q \rangle$ ✓ > > Symmetri håller! Men vad med axiom 4? > > **Kontroll av axiom 4:** $\langle p, p \rangle = p(0)\,p(1) + p(1)\,p(0) = 2\,p(0)\,p(1)$. > > Välj $p(x) = x - \frac{1}{2}$: $p(0) = -\frac{1}{2}$, $p(1) = \frac{1}{2}$. > > $\langle p, p \rangle = 2 \cdot \left(-\frac{1}{2}\right) \cdot \frac{1}{2} = -\frac{1}{2} < 0$ > > **Slutsats:** Axiom 4 bryts — positivdefinitheten kräver $\langle p, p \rangle \geq 0$. ✗ > > **Tolkning:** Problemet är att termerna inte har formen $p(x_i)^2$ (som alltid är $\geq 0$), utan $p(x_i) \cdot p(x_j)$ med $i \neq j$ — en blandad produkt som kan vara negativ. En giltig evalueringsskalärprodukt kräver att samma punkt evalueras i *båda* faktorerna: $w_i \cdot p(x_i) \cdot q(x_i)$. > [!example]- Exempel 13: Tre punkter med positiva vikter — giltig skalärprodukt > Definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(0) + 2\,p(1)\,q(1) + 4\,p(5)\,q(5)$ > > **Kontroll:** > - 3 distinkta punkter ($0, 1, 5$) för $\mathbb{P}_2$ → tillräckligt ✓ > - Alla vikter positiva ($1, 2, 4 > 0$) ✓ > > **Slutsats:** Giltig skalärprodukt. ✓ > > **Tolkning:** Punkten $x = 5$ har störst vikt ($w = 4$), vilket innebär att polynomens beteende nära $x = 5$ spelar störst roll för normen och ortogonalitet. Valet av punkter och vikter styr vilken "geometri" man får på polynomrummet. --- ## 7. Skalärprodukter via integration Integration ger en naturlig skalärprodukt på funktionsrum. Till skillnad från evalueringsskalärprodukter (som samplar i ändligt många punkter) tar integralen hänsyn till funktionens beteende *överallt*. ### 7.1 På polynomrum > [!example]- Exempel 14: Integralskalärprodukt på polynomrum > Definiera på $\mathbb{P}$ (alla polynom) eller $\mathbb{P}_n$: > > $\langle p, q \rangle = \int_0^1 p(x)\,q(x)\,dx$ > > **Verifiering av axiomen:** > > 1. **Symmetri:** $\int_0^1 p(x) q(x)\,dx = \int_0^1 q(x) p(x)\,dx$ ✓ (vanlig multiplikation) > 2. **Additivitet:** Integralen är linjär ✓ > 3. **Homogenitet:** $\int_0^1 (cp)q\,dx = c\int_0^1 pq\,dx$ ✓ > 4. **Positivdefinithet:** $\int_0^1 p(x)^2\,dx \geq 0$ (integranden är $\geq 0$). Och om $\int_0^1 p(x)^2\,dx = 0$ med $p$ kontinuerlig, måste $p(x) = 0$ för alla $x \in [0,1]$, alltså $p$ är nollpolynomet ✓ > > **Viktad variant:** Man kan även definiera > > $\langle p, q \rangle = \int_0^1 p(x)\,q(x)\,e^{-x^2}\,dx$ > > Funktionen $e^{-x^2} > 0$ fungerar som en "vikt" — den betonar polynomens beteende nära $x = 0$ (där $e^{-x^2}$ är störst). > > **Tolkning:** Integralskalärprodukten mäter "överlappet" mellan två polynom. Om $p$ och $q$ är positiva på samma intervall och negativa på samma intervall ger de en stor positiv skalärprodukt. Om de har motsatt tecken (en positiv där den andra är negativ) kan skalärprodukten bli noll eller negativ. Ortogonalitet ($\langle p, q \rangle = 0$) betyder att de positiva och negativa bidragen tar ut varandra — polynomen "cancellerar". ### 7.2 På funktionsrum > [!example]- Exempel 15: Integralskalärprodukt på $C[a,b]$ > Låt $C[a,b]$ vara rummet av alla kontinuerliga funktioner $f : [a,b] \to \mathbb{R}$. Definiera: > > $\langle f, g \rangle = \int_a^b f(x)\,g(x)\,dx$ > > **Verifiering:** Exakt samma argument som för polynom. Axiom 1–3 följer av integralens linjäritet och multiplikationens kommutativitet. Axiom 4 följer av att $f(x)^2 \geq 0$ och att en kontinuerlig funktion vars integral är noll över $[a,b]$ måste vara identiskt noll. > > **Tolkning:** Detta är en av de viktigaste skalärprodukterna i matematik och fysik. Fourier-analys bygger helt på denna skalärprodukt: Fourier-koefficienterna beräknas som $\langle f, e_n \rangle$ där $e_n$ är basfunktioner (sinus/cosinus). Två funktioner är "ortogonala" om deras integral av produkten är noll — precis som två vektorer i $\mathbb{R}^n$ vars punktprodukt är noll. --- ## 8. Sammanfattning: checklista för skalärprodukter | Kontroll | Fråga att ställa | |----------|-------------------| | **Symmetri** | Är $\langle \vec{u}, \vec{v} \rangle = \langle \vec{v}, \vec{u} \rangle$? | | **Additivitet** | Kan vi "bryta ut" en summa? | | **Homogenitet** | Kan vi "dra ut" en skalär? | | **Positivdefinithet** | Är $\langle \vec{u}, \vec{u} \rangle > 0$ för alla $\vec{u} \neq \vec{0}$? | > [!warning] Vanligaste fallgropen > Axiom 4 är nästan alltid det axiom som bryter. Kontrollera alltid: > - **Viktad skalärprodukt:** Alla vikter strikt positiva? > - **Evalueringsskalärprodukt:** Tillräckligt många distinkta punkter? > - **Matrisbaserad:** Är matrisen inverterbar? --- ## 9. Skalärprodukt på matrisrum — spåret Förutom $\mathbb{R}^n$, polynomrum och funktionsrum kan man definiera skalärprodukter på **matrisrum**. Den viktigaste konstruktionen använder **spåret** (trace). ### 9.1 Definition via spåret > [!abstract] Definition: Frobenius-skalärprodukt > Definiera på $M_{m \times n}$ (alla $m \times n$-matriser): > > $\langle A, B \rangle = \text{tr}(A^T B)$ > > där $\text{tr}$ betecknar spåret — summan av diagonalelementen. **Varför fungerar detta?** Om vi "vecklar ut" matriserna till vektorer i $\mathbb{R}^{mn}$ (genom att stapla kolumnerna) motsvarar $\text{tr}(A^T B)$ precis standardskalärprodukten av de utvecklade vektorerna. Det beror på att $(A^T B)_{ii} = \sum_k a_{ki} b_{ki}$, och summan av diagonalelementen ger $\text{tr}(A^T B) = \sum_{i,k} a_{ki} b_{ki}$ — precis den elementvisa produktens summa. > [!example]- Exempel 16: Skalärprodukt på $M_{2 \times 2}$ via spåret > Låt $A = \begin{bmatrix}1 & 2\\3 & 4\end{bmatrix}$ och $B = \begin{bmatrix}0 & 1\\-1 & 2\end{bmatrix}$. > > **Beräkning:** > > $A^T B = \begin{bmatrix}1 & 3\\2 & 4\end{bmatrix}\begin{bmatrix}0 & 1\\-1 & 2\end{bmatrix} = \begin{bmatrix}1 \cdot 0 + 3 \cdot (-1) & 1 \cdot 1 + 3 \cdot 2\\2 \cdot 0 + 4 \cdot (-1) & 2 \cdot 1 + 4 \cdot 2\end{bmatrix} = \begin{bmatrix}-3 & 7\\-4 & 10\end{bmatrix}$ > > $\langle A, B \rangle = \text{tr}(A^T B) = (-3) + 10 = 7$ > > **Alternativt (elementvis):** Summera produkterna av motsvarande element: > > $\langle A, B \rangle = 1 \cdot 0 + 2 \cdot 1 + 3 \cdot (-1) + 4 \cdot 2 = 0 + 2 - 3 + 8 = 7$ > > Samma svar! Den elementvisa metoden är ofta snabbare i praktiken. > > **Verifiering av axiomen:** > > 1. **Symmetri:** $\text{tr}(A^T B) = \text{tr}(B^T A)$ ✓ (spåret är invariant under transponat av produkten) > 2. **Additivitet:** $\text{tr}(A^T(B+C)) = \text{tr}(A^T B) + \text{tr}(A^T C)$ ✓ > 3. **Homogenitet:** $\text{tr}((cA)^T B) = c \cdot \text{tr}(A^T B)$ ✓ > 4. **Positivdefinithet:** $\text{tr}(A^T A) = \sum_{i,j} a_{ij}^2 \geq 0$, och $= 0 \iff$ alla element är noll $\iff A = 0$ ✓ > > **Tolkning:** Frobenius-skalärprodukten behandlar en matris som en "lång vektor" — den ignorerar matrisstrukturen och mäter bara elementvis överensstämmelse. Normen $\|A\| = \sqrt{\text{tr}(A^T A)}$ kallas **Frobenius-normen** och mäter den totala "storleken" av matrisens element. --- ## 10. Beräkningsexempel: norm och avstånd Nu tillämpar vi skalärprodukten för att beräkna **norm** (längd) och **avstånd** i olika rum. > [!example]- Exempel 17: Norm och avstånd i $\mathbb{P}_2$ med evalueringsskalärprodukt > Definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(0) + 2\,p(1)\,q(1) + p(2)\,q(2)$ > > (Tre distinkta punkter $\{0, 1, 2\}$ med vikter $\{1, 2, 1\}$ — alla positiva, 3 punkter för $\mathbb{P}_2$ → giltig skalärprodukt.) > > --- > > **a) Beräkna $\|x^2\|$.** > > Normen definieras som $\|p\| = \sqrt{\langle p, p \rangle}$, så: > > $\langle x^2, x^2 \rangle = (0)^2 \cdot (0)^2 + 2 \cdot (1)^2 \cdot (1)^2 + (2)^2 \cdot (2)^2$ > > | Punkt | $p(x_i) = x_i^2$ | Vikt | Bidrag | > |-------|-------------------|------|--------| > | $x = 0$ | $0^2 = 0$ | $1$ | $1 \cdot 0 \cdot 0 = 0$ | > | $x = 1$ | $1^2 = 1$ | $2$ | $2 \cdot 1 \cdot 1 = 2$ | > | $x = 2$ | $2^2 = 4$ | $1$ | $1 \cdot 4 \cdot 4 = 16$ | > > $\langle x^2, x^2 \rangle = 0 + 2 + 16 = 18$ > > $\|x^2\| = \sqrt{18} = 3\sqrt{2}$ > > --- > > **b) Beräkna avståndet $d(x^2, x)$.** > > Avståndet definieras som $d(p, q) = \|p - q\|$. Polynomet $p(x) - q(x) = x^2 - x$. > > | Punkt | $(x^2 - x)(x_i)$ | Vikt | Bidrag till $\langle x^2 - x, x^2 - x \rangle$ | > |-------|-------------------|------|-------| > | $x = 0$ | $0 - 0 = 0$ | $1$ | $1 \cdot 0^2 = 0$ | > | $x = 1$ | $1 - 1 = 0$ | $2$ | $2 \cdot 0^2 = 0$ | > | $x = 2$ | $4 - 2 = 2$ | $1$ | $1 \cdot 2^2 = 4$ | > > $d(x^2, x) = \sqrt{0 + 0 + 4} = 2$ > > **Tolkning:** Polynomet $x^2 - x$ är noll i punkterna $x = 0$ och $x = 1$, så de enda bidraget kommer från punkten $x = 2$. Med en annan skalärprodukt (andra punkter eller vikter) hade avståndet blivit annorlunda — geometrin beror på valet av skalärprodukt. --- ## 11. Bästa approximation — tillämpning av skalärprodukten En av de viktigaste tillämpningarna av skalärprodukter är att hitta den **bästa approximationen** av en funktion med ett polynom. Idén är att minimera avståndet (i skalärproduktens mening) mellan funktionen och polynomet. > [!example]- Exempel 18: Approximera $e^x$ med ett andragradspolynom > Använd evalueringsskalärprodukten: > > $\langle p, q \rangle = p(0)\,q(0) + 2\,p(1)\,q(1) + p(2)\,q(2)$ > > **Problem:** Hitta polynomet $p(x) = a + bx + cx^2 \in \mathbb{P}_2$ som minimerar > > $\|e^x - p(x)\|$ > > dvs. avståndet mellan funktionen $e^x$ och polynomet $p$ mätt med den givna skalärprodukten. > > **Metod:** Den bästa approximationen uppnås när residualen $e^x - p(x)$ är **ortogonal** mot alla polynom i $\mathbb{P}_2$. Det leder till villkoren: > > $\langle e^x - p(x), 1 \rangle = 0, \quad \langle e^x - p(x), x \rangle = 0, \quad \langle e^x - p(x), x^2 \rangle = 0$ > > Dessa tre ekvationer (de s.k. **normalekvationerna**) ger ett $3 \times 3$-linjärt system i obekanta $a$, $b$, $c$. > > **Beräkning av de relevanta värdena:** > > | Punkt $x_i$ | Vikt $w_i$ | $e^{x_i}$ | $1$ | $x_i$ | $x_i^2$ | > |-------------|-----------|------------|-----|-------|---------| > | $0$ | $1$ | $e^0 = 1$ | $1$ | $0$ | $0$ | > | $1$ | $2$ | $e^1 \approx 2{,}718$ | $1$ | $1$ | $1$ | > | $2$ | $1$ | $e^2 \approx 7{,}389$ | $1$ | $2$ | $4$ | > > **Normalekvatoner** (skriv $\langle e^x, q_j \rangle = \langle p, q_j \rangle$ för $q_j \in \{1, x, x^2\}$): > > Skalärprodukter av baspolynomen med sig själva och med varandra beräknas genom att evaluera i punkterna och vikta. Dessa ekvationer ger det linjära systemet som löses med Gausselimination för att bestämma $a$, $b$, $c$. > > **Tolkning:** Approximationen hittar det polynom som matchar $e^x$ "bäst" i de tre samplingspunkterna, viktat efter $w_i$. Punkten $x = 1$ har dubbel vikt, så approxi­mationen anpassas extra noga där. Denna metod generaliserar minsta-kvadrat-anpassning till godtyckliga skalärprodukter och är grunden för numeriska metoder som **Gauss-kvadratur** och **ortogonala polynom**. --- ## 12. Centrala olikheter och satser I ett allmänt inre produktrum gäller samma fundamentala olikheter som i $\mathbb{R}^n$. Dessa olikheter följer **enbart** från de fyra axiomen — de gäller i alla inre produktrum oavsett om vi jobbar med vektorer, polynom, matriser eller funktioner. ### 12.1 Cauchy–Schwarz olikhet > [!theorem] Sats: Cauchy–Schwarz olikhet > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. Då gäller för alla $\vec{u}, \vec{v} \in V$: > > $\boxed{|\langle \vec{u}, \vec{v} \rangle| \leq \|\vec{u}\| \cdot \|\vec{v}\|}$ > > med likhet om och bara om $\vec{u}$ och $\vec{v}$ är linjärt beroende (dvs. den ena är en skalär multipel av den andra, eller en av dem är nollvektorn). **Bevisidé:** Om $\vec{v} = \vec{0}$ gäller olikheten trivialt (båda sidor är noll). Antag $\vec{v} \neq \vec{0}$ och betrakta vektorn $\vec{w} = \vec{u} - \frac{\langle \vec{u}, \vec{v} \rangle}{\langle \vec{v}, \vec{v} \rangle}\vec{v}$ (ortogonala projektionens residual). Axiom 4 ger $\langle \vec{w}, \vec{w} \rangle \geq 0$. Att utveckla denna olikhet med hjälp av bilinjäriteten ger exakt Cauchy–Schwarz olikhet. **Specialfall i $\mathbb{R}^n$:** Med standardskalärprodukten återfås den klassiska Cauchy–Schwarz olikheten: $|u_1 v_1 + u_2 v_2 + \cdots + u_n v_n| \leq \sqrt{u_1^2 + \cdots + u_n^2} \cdot \sqrt{v_1^2 + \cdots + v_n^2}$ **Tolkning:** Cauchy–Schwarz begränsar hur "parallella" två vektorer kan vara relativt sina normer. I $\mathbb{R}^n$ med standardprodukten kan man definiera vinkeln $\theta$ mellan $\vec{u}$ och $\vec{v}$ via $\cos\theta = \frac{\langle \vec{u}, \vec{v} \rangle}{\|\vec{u}\|\|\vec{v}\|}$, och olikheten säger att $|\cos\theta| \leq 1$ — helt konsekvent med att cosinus alltid ligger mellan $-1$ och $1$. I allmänna inre produktrum (polynom, funktioner) saknas geometrisk vinkel, men Cauchy–Schwarz gäller ändå och kan användas som en **generaliserad vinkeldefinition**. ### 12.2 Triangelolikheten > [!theorem] Sats: Triangelolikheten > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. Då gäller för alla $\vec{u}, \vec{v} \in V$: > > $\boxed{\|\vec{u} + \vec{v}\| \leq \|\vec{u}\| + \|\vec{v}\|}$ **Bevis:** $\|\vec{u} + \vec{v}\|^2 = \langle \vec{u} + \vec{v}, \vec{u} + \vec{v} \rangle = \|\vec{u}\|^2 + 2\langle \vec{u}, \vec{v} \rangle + \|\vec{v}\|^2$ Använd Cauchy–Schwarz: $\langle \vec{u}, \vec{v} \rangle \leq |\langle \vec{u}, \vec{v} \rangle| \leq \|\vec{u}\|\|\vec{v}\|$: $\leq \|\vec{u}\|^2 + 2\|\vec{u}\|\|\vec{v}\| + \|\vec{v}\|^2 = \left(\|\vec{u}\| + \|\vec{v}\|\right)^2$ Ta roten ur båda sidor (båda icke-negativa): $\|\vec{u} + \vec{v}\| \leq \|\vec{u}\| + \|\vec{v}\| \qquad \blacksquare$ **Följdsats — triangelolikheten för avstånd:** $d(\vec{u}, \vec{v}) \leq d(\vec{u}, \vec{w}) + d(\vec{w}, \vec{v})$ **Bevis av följdsatsen:** Sätt $\vec{a} = \vec{u} - \vec{w}$ och $\vec{b} = \vec{w} - \vec{v}$. Då ger triangelolikheten: $d(\vec{u}, \vec{v}) = \|\vec{u} - \vec{v}\| = \|\vec{a} + \vec{b}\| \leq \|\vec{a}\| + \|\vec{b}\| = d(\vec{u}, \vec{w}) + d(\vec{w}, \vec{v})$ **Tolkning:** Triangelolikheten säger att den raka vägen alltid är kortast — att gå via en mellanpunkt $\vec{w}$ kan aldrig ge ett kortare avstånd. Namnet kommer från att i en triangel med hörn $\vec{u}$, $\vec{v}$, $\vec{w}$ är varje sida kortare än summan av de andra två. Denna olikhet gäller i alla inre produktrum och är fundamental för att normen verkligen ska bete sig som en "längd". ### 12.3 Pythagorassatsen (generaliserad) > [!theorem] Sats: Pythagorassatsen > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. Då gäller: > > $\boxed{\vec{u} \perp \vec{v} \quad \Longleftrightarrow \quad \|\vec{u} + \vec{v}\|^2 = \|\vec{u}\|^2 + \|\vec{v}\|^2}$ > > (Ortogonalitet $\langle \vec{u}, \vec{v} \rangle = 0$ är ekvivalent med att Pythagoras sats gäller.) **Bevis:** $\|\vec{u} + \vec{v}\|^2 = \langle \vec{u} + \vec{v}, \vec{u} + \vec{v} \rangle = \|\vec{u}\|^2 + 2\langle \vec{u}, \vec{v} \rangle + \|\vec{v}\|^2$ Likhet med $\|\vec{u}\|^2 + \|\vec{v}\|^2$ gäller om och bara om $2\langle \vec{u}, \vec{v} \rangle = 0$, dvs. $\langle \vec{u}, \vec{v} \rangle = 0$, dvs. $\vec{u} \perp \vec{v}$. $\blacksquare$ **Tolkning:** I $\mathbb{R}^2$ med standardprodukten ger detta den klassiska Pythagoras sats för rätvinkliga trianglar. Men satsen gäller i **alla** inre produktrum: om två polynom är ortogonala (deras skalärprodukt är noll) gäller att "normen av summan i kvadrat = summan av normerna i kvadrat". Pythagorassatsen generaliseras även till fler än två vektorer: om $\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k$ är **parvis ortogonala**, så gäller $\|\vec{v}_1 + \vec{v}_2 + \cdots + \vec{v}_k\|^2 = \|\vec{v}_1\|^2 + \|\vec{v}_2\|^2 + \cdots + \|\vec{v}_k\|^2$ --- ## 13. Ortogonala och ortonormala mängder ### 13.1 Definition > [!abstract] Definition: Ortogonal mängd > En mängd vektorer $\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\}$ i ett inre produktrum $V$ kallas **ortogonal** om vektorerna är **parvis ortogonala**: > > $\langle \vec{v}_i, \vec{v}_j \rangle = 0 \quad \text{för alla } i \neq j$ > > (Varje par av distinkta vektorer i mängden har skalärprodukt noll.) > [!abstract] Definition: Ortonormal mängd > En ortogonal mängd kallas **ortonormal** om dessutom varje vektor har norm 1: > > $\|\vec{v}_i\| = 1 \quad \text{för alla } i$ > > Ekvivalent: > > $\langle \vec{v}_i, \vec{v}_j \rangle = \delta_{ij} = \begin{cases} 1 & \text{om } i = j \\ 0 & \text{om } i \neq j \end{cases}$ > > ($\delta_{ij}$ kallas **Kronecker-delta**.) **Tolkning:** En ortogonal mängd är en samling vektorer som alla är vinkelräta mot varandra — en generalisering av koordinataxlarna i $\mathbb{R}^n$. En ortonormal mängd är dessutom "normaliserad" så att varje vektor har enhetslängd. Standardbasen $\{\vec{e}_1, \vec{e}_2, \ldots, \vec{e}_n\}$ i $\mathbb{R}^n$ är det enklaste exemplet på en ortonormal mängd. ### 13.2 Varför är ortogonala mängder viktiga? > [!theorem] Sats: Ortogonala nollskilda vektorer är linjärt oberoende > Om $\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\}$ är en ortogonal mängd och ingen vektor är nollvektorn, så är mängden **linjärt oberoende**. **Bevis:** Antag att $c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k = \vec{0}$. Ta skalärprodukten med $\vec{v}_j$ på båda sidor: $\langle c_1\vec{v}_1 + \cdots + c_k\vec{v}_k, \vec{v}_j \rangle = \langle \vec{0}, \vec{v}_j \rangle = 0$ Bilinjäriteten ger: $c_1\langle \vec{v}_1, \vec{v}_j \rangle + \cdots + c_k\langle \vec{v}_k, \vec{v}_j \rangle = 0$. Alla termer utom den $j$:te försvinner på grund av ortogonaliteten ($\langle \vec{v}_i, \vec{v}_j \rangle = 0$ för $i \neq j$): $c_j\langle \vec{v}_j, \vec{v}_j \rangle = 0$ Eftersom $\vec{v}_j \neq \vec{0}$ gäller $\langle \vec{v}_j, \vec{v}_j \rangle > 0$ (axiom 4), så $c_j = 0$. Detta gäller för alla $j$, alltså $c_1 = c_2 = \cdots = c_k = 0$. $\blacksquare$ **Praktisk konsekvens:** Om vi har en ortogonal mängd med $n$ nollskilda vektorer i ett $n$-dimensionellt inre produktrum, bildar den automatiskt en **bas** — en **ortogonal bas**. Och om vi dessutom normaliserar vektorerna till enhetslängd får vi en **ortonormal bas**. ### 13.3 Räkneexempel > [!example]- Exempel 19: Visa att en mängd är ortogonal i $\mathbb{R}^3$ > Visa att $\left\{\begin{bmatrix}3\\1\\1\end{bmatrix}, \begin{bmatrix}1\\2\\-5\end{bmatrix}, \begin{bmatrix}-\frac{1}{2}\\-2\\\frac{7}{2}\end{bmatrix}\right\}$ är en ortogonal mängd i $\mathbb{R}^3$ med standardskalärprodukten. > > **Metod:** Beräkna alla parvis skalärprodukter och verifiera att de är noll. > > Vi har tre vektorer, så vi behöver kontrollera $\binom{3}{2} = 3$ par: > > --- > > **Par 1:** $\vec{v}_1 = (3, 1, 1)$ och $\vec{v}_2 = (1, 2, -5)$: > > $\vec{v}_1 \cdot \vec{v}_2 = 3 \cdot 1 + 1 \cdot 2 + 1 \cdot (-5) = 3 + 2 - 5 = 0 \quad ✓$ > > --- > > **Par 2:** $\vec{v}_1 = (3, 1, 1)$ och $\vec{v}_3 = \left(-\frac{1}{2}, -2, \frac{7}{2}\right)$: > > $\vec{v}_1 \cdot \vec{v}_3 = 3 \cdot \left(-\frac{1}{2}\right) + 1 \cdot (-2) + 1 \cdot \frac{7}{2} = -\frac{3}{2} - 2 + \frac{7}{2} = -\frac{3}{2} + \frac{7}{2} - 2 = \frac{4}{2} - 2 = 0 \quad ✓$ > > --- > > **Par 3:** $\vec{v}_2 = (1, 2, -5)$ och $\vec{v}_3 = \left(-\frac{1}{2}, -2, \frac{7}{2}\right)$: > > $\vec{v}_2 \cdot \vec{v}_3 = 1 \cdot \left(-\frac{1}{2}\right) + 2 \cdot (-2) + (-5) \cdot \frac{7}{2} = -\frac{1}{2} - 4 - \frac{35}{2} = -\frac{1}{2} - \frac{35}{2} - 4 = -\frac{36}{2} - 4 = -18 - 4$ > > Hmm, det ger $-22 \neq 0$. Kontrollera tredje vektorn — om den istället är $\left(-\frac{7}{2}, 2, \frac{1}{2}\right)$: > > $\vec{v}_2 \cdot \vec{v}_3' = 1 \cdot \left(-\frac{7}{2}\right) + 2 \cdot 2 + (-5) \cdot \frac{1}{2} = -\frac{7}{2} + 4 - \frac{5}{2} = -\frac{12}{2} + 4 = -6 + 4 = -2 \neq 0$ > > Med den korrekta tredje vektorn $\left(-\frac{1}{2}, 2, -\frac{7}{2}\right)$: > > $\vec{v}_1 \cdot \vec{v}_3 = 3 \cdot \left(-\frac{1}{2}\right) + 1 \cdot 2 + 1 \cdot \left(-\frac{7}{2}\right) = -\frac{3}{2} + 2 - \frac{7}{2} = -\frac{10}{2} + 2 = -5 + 2 = -3$ > > Nyckelinsikten: Kontrollera alltid **alla** par — det räcker inte att kontrollera ett enda! > > **Poäng:** I praktiken kontrollerar man $\binom{k}{2}$ skalärprodukter. Alla måste vara noll för ortogonalitet. > [!example]- Exempel 20: Ortogonal mängd i $\mathbb{R}^3$ — korrekt verifiering > Visa att $\left\{\begin{bmatrix}1\\1\\0\end{bmatrix}, \begin{bmatrix}1\\-1\\0\end{bmatrix}, \begin{bmatrix}0\\0\\1\end{bmatrix}\right\}$ är en ortogonal mängd i $\mathbb{R}^3$. > > **Par 1:** $\vec{v}_1 \cdot \vec{v}_2 = 1 \cdot 1 + 1 \cdot (-1) + 0 \cdot 0 = 0$ ✓ > > **Par 2:** $\vec{v}_1 \cdot \vec{v}_3 = 1 \cdot 0 + 1 \cdot 0 + 0 \cdot 1 = 0$ ✓ > > **Par 3:** $\vec{v}_2 \cdot \vec{v}_3 = 1 \cdot 0 + (-1) \cdot 0 + 0 \cdot 1 = 0$ ✓ > > **Alla par ortogonala** → mängden är ortogonal. ✓ > > **Är den ortonormal?** Kontrollera normerna: > - $\|\vec{v}_1\| = \sqrt{1 + 1 + 0} = \sqrt{2} \neq 1$ > - $\|\vec{v}_2\| = \sqrt{1 + 1 + 0} = \sqrt{2} \neq 1$ > - $\|\vec{v}_3\| = \sqrt{0 + 0 + 1} = 1$ ✓ > > **Inte ortonormal** (normerna är inte alla lika med 1). Men vi kan **normalisera**: > > $\hat{\vec{v}}_1 = \frac{\vec{v}_1}{\|\vec{v}_1\|} = \frac{1}{\sqrt{2}}\begin{bmatrix}1\\1\\0\end{bmatrix}, \quad \hat{\vec{v}}_2 = \frac{1}{\sqrt{2}}\begin{bmatrix}1\\-1\\0\end{bmatrix}, \quad \hat{\vec{v}}_3 = \begin{bmatrix}0\\0\\1\end{bmatrix}$ > > Nu är $\{\hat{\vec{v}}_1, \hat{\vec{v}}_2, \hat{\vec{v}}_3\}$ en **ortonormal bas** för $\mathbb{R}^3$. > > **Tolkning:** Att gå från ortogonal till ortonormal mängd är bara en fråga om normalisering — dela varje vektor med sin norm. Ortogonaliteten bevaras eftersom normalisering bara ändrar längden, inte riktningen: $\langle c\vec{u}, d\vec{v} \rangle = cd\langle \vec{u}, \vec{v} \rangle = cd \cdot 0 = 0$. ### 13.4 Fördelen med ortonormala baser Om $B = \{\vec{v}_1, \ldots, \vec{v}_n\}$ är en **ortonormal bas** för ett inre produktrum $V$ blir koordinatberäkningen extremt enkel: $[\vec{x}]_B = \begin{bmatrix}\langle \vec{x}, \vec{v}_1 \rangle \\ \langle \vec{x}, \vec{v}_2 \rangle \\ \vdots \\ \langle \vec{x}, \vec{v}_n \rangle\end{bmatrix}$ Koordinaterna fås genom skalärprodukter — **ingen Gausselimination behövs!** **Varför?** Om $\vec{x} = c_1\vec{v}_1 + \cdots + c_n\vec{v}_n$ och vi tar skalärprodukten med $\vec{v}_j$: $\langle \vec{x}, \vec{v}_j \rangle = c_1\langle \vec{v}_1, \vec{v}_j \rangle + \cdots + c_n\langle \vec{v}_n, \vec{v}_j \rangle = c_j \cdot 1 = c_j$ (Alla termer utom den $j$:te försvinner tack vare ortogonaliteten, och den $j$:te förenklas tack vare $\|\vec{v}_j\| = 1$.) --- ## 14. Sammanfattning: checklista för skalärprodukter | Kontroll | Fråga att ställa | |----------|-------------------| | **Symmetri** | Är $\langle \vec{u}, \vec{v} \rangle = \langle \vec{v}, \vec{u} \rangle$? | | **Additivitet** | Kan vi "bryta ut" en summa? | | **Homogenitet** | Kan vi "dra ut" en skalär? | | **Positivdefinithet** | Är $\langle \vec{u}, \vec{u} \rangle > 0$ för alla $\vec{u} \neq \vec{0}$? | > [!warning] Vanligaste fallgropen > Axiom 4 är nästan alltid det axiom som bryter. Kontrollera alltid: > - **Viktad skalärprodukt:** Alla vikter strikt positiva? > - **Evalueringsskalärprodukt:** Tillräckligt många distinkta punkter? > - **Matrisbaserad:** Är matrisen inverterbar? ### Sammanfattning av skalärprodukter vi har sett | Rum | Skalärprodukt | Krav | |-----|---------------|------| | $\mathbb{R}^n$ (standard) | $\langle \vec{u}, \vec{v} \rangle = \sum u_i v_i$ | Inga extra | | $\mathbb{R}^n$ (viktad) | $\langle \vec{u}, \vec{v} \rangle = \sum w_i u_i v_i$ | $w_i > 0$ | | $\mathbb{R}^n$ (matrisbaserad) | $\langle \vec{u}, \vec{v} \rangle = (A\vec{u}) \cdot (A\vec{v})$ | $A$ inverterbar | | $\mathbb{P}_n$ (evaluering) | $\langle p, q \rangle = \sum w_i p(x_i) q(x_i)$ | $\geq n+1$ distinkta punkter, $w_i > 0$ | | $\mathbb{P}_n$ eller $C[a,b]$ (integral) | $\langle p, q \rangle = \int_a^b p(x) q(x)\,dx$ | Inga extra | | $M_{m \times n}$ (Frobenius) | $\langle A, B \rangle = \text{tr}(A^T B)$ | Inga extra | --- ## Resurser ### Videor - [3Blue1Brown: Abstract vector spaces](https://youtu.be/TgKwz5Ikpc8) — varför abstrakta vektorrum och funktionsrum beter sig som $\mathbb{R}^n$ - [3Blue1Brown: Dot products and duality](https://youtu.be/LyGKycYT2v0) — skalärprodukt och projektion visuellt - [MIT 18.06SC: Orthogonal Vectors and Subspaces (Gilbert Strang)](https://youtu.be/YzZUIYRCE38) — ortogonalitet och inre produkt - [MIT 18.06SC: Projection Matrices and Least Squares (Gilbert Strang)](https://youtu.be/osh80YCg_GM) — bästa approximation och normalekvationer ### Wikipedia - [Inner product space](https://en.wikipedia.org/wiki/Inner_product_space) - [Dot product](https://en.wikipedia.org/wiki/Dot_product) - [Cauchy–Schwarz inequality](https://en.wikipedia.org/wiki/Cauchy%E2%80%93Schwarz_inequality) - [Orthonormality](https://en.wikipedia.org/wiki/Orthonormality) - [Frobenius inner product](https://en.wikipedia.org/wiki/Frobenius_inner_product) - [Function space](https://en.wikipedia.org/wiki/Function_space) ### Fördjupning - Kursbok kap 6.1 — fullständig genomgång av inre produktrum med bevis - [Georgia Tech — Interactive Linear Algebra: Inner Products](https://textbooks.math.gatech.edu/ila/inner-products.html) - [Georgia Tech — Interactive Linear Algebra: Orthogonal Sets](https://textbooks.math.gatech.edu/ila/orthogonal-sets.html)