quot; i axiom 4. > > **Slutsats:** Detta är **inte** en skalärprodukt. ✗ > > **Tolkning:** Problemet är att funktionen inte "ser" den tredje komponenten. Två helt olika vektorer, $(0,0,1)$ och $(0,0,0)$, får samma norm. En skalärprodukt måste kunna skilja alla vektorer åt — om $\vec{u} \neq \vec{0}$ måste $\langle \vec{u}, \vec{u} \rangle > 0$. Vikten för varje komponent måste vara strikt positiv. > [!example]- Exempel 7: En funktion som *inte* är en skalärprodukt — saknar symmetri > Försök definiera på $\mathbb{R}^2$: > > $\langle (u_1, u_2), (v_1, v_2) \rangle = u_1 + u_2 v_2$ > > **Kontroll av axiom 1 (symmetri):** Beräkna $\langle \vec{v}, \vec{u} \rangle = v_1 + v_2 u_2$. > > Jämför: $\langle \vec{u}, \vec{v} \rangle = u_1 + u_2 v_2$ mot $\langle \vec{v}, \vec{u} \rangle = v_1 + v_2 u_2$. > > Välj $\vec{u} = (1, 0)$ och $\vec{v} = (0, 1)$: > - $\langle \vec{u}, \vec{v} \rangle = 1 + 0 = 1$ > - $\langle \vec{v}, \vec{u} \rangle = 0 + 0 = 0$ > > $1 \neq 0$, så symmetrin bryter. ✗ > > **Tolkning:** Formeln $u_1 + u_2 v_2$ behandlar $\vec{u}$ och $\vec{v}$ olika — den innehåller $u_1$ men inte $v_1$ separat. En skalärprodukt måste vara symmetrisk: att byta plats på $\vec{u}$ och $\vec{v}$ ska inte ändra resultatet. ### 5.4 Matrisbaserad skalärprodukt > [!example]- Exempel 8: Skalärprodukt via en inverterbar matris > Låt $A$ vara en inverterbar $n \times n$-matris. Definiera på $\mathbb{R}^n$: > > $\langle \vec{u}, \vec{v} \rangle = (A\vec{u}) \cdot (A\vec{v})$ > > (Punktprodukten av de transformerade vektorerna.) > > **Verifiering av axiomen:** Axiom 1–3 följer direkt av att punktprodukten och matrismultiplikation uppfyller symmetri, additivitet och homogenitet. > > **Axiom 4 (det kritiska):** > > $\langle \vec{u}, \vec{u} \rangle = (A\vec{u}) \cdot (A\vec{u}) = \|A\vec{u}\|^2 \geq 0$ > > Och $\|A\vec{u}\|^2 = 0 \iff A\vec{u} = \vec{0} \iff \vec{u} = \vec{0}$ (den sista ekvivalensen gäller eftersom $A$ är **inverterbar**, dvs. $\ker(A) = \{\vec{0}\}$). > > **Slutsats:** $(A\vec{u}) \cdot (A\vec{v})$ är en skalärprodukt om och bara om $A$ är inverterbar. ✓ > > **Tolkning:** Denna konstruktion "mäter avstånd i ett transformerat koordinatsystem". Om $A$ roterar och skalar rummet, så mäter $\langle \vec{u}, \vec{v} \rangle$ hur $\vec{u}$ och $\vec{v}$ relaterar till varandra *efter* transformationen. Inverterbarheten av $A$ är avgörande — om $A$ vore singulär kunde den krympa en hel riktning till noll, och axiom 4 skulle brytas. --- ## 6. Skalärprodukter på polynomrum ### 6.1 Evalueringsskalärprodukt Den viktigaste typen av skalärprodukt på polynomrum bygger på att **evaluera polynomen i fasta punkter** och bilda en viktad summa. > [!tip] Evalueringsskalärprodukt på $\mathbb{P}_n$ > Välj $n + 1$ **distinkta** punkter $x_0, x_1, \ldots, x_n$ och positiva vikter $w_0, w_1, \ldots, w_n > 0$. Definiera: > > $\langle p, q \rangle = w_0\, p(x_0)\,q(x_0) + w_1\, p(x_1)\,q(x_1) + \cdots + w_n\, p(x_n)\,q(x_n)$ > > **Krav:** Man behöver minst $n + 1$ distinkta punkter för $\mathbb{P}_n$. I $\mathbb{P}_2$ behövs alltså minst 3 punkter; i $\mathbb{P}_7$ behövs minst 8. **Varför just $n + 1$ punkter?** Ett polynom av grad $\leq n$ som är noll i $n + 1$ punkter måste vara nollpolynomet (det har fler nollställen än grad). Detta säkerställer axiom 4: om $p \neq 0$ måste $p(x_i) \neq 0$ för minst ett $i$, och med positiva vikter ger detta $\langle p, p \rangle > 0$. > [!example]- Exempel 9: Evalueringsskalärprodukt på $\mathbb{P}_2$ (tre punkter) > Definiera på $\mathbb{P}_2$ (polynom av grad $\leq 2$): > > $\langle p, q \rangle = 4\,p(0)\,q(0) + 1\,p(1)\,q(1) + 3\,p(2)\,q(2)$ > > Här är punkterna $x_0 = 0$, $x_1 = 1$, $x_2 = 2$ och vikterna $w_0 = 4$, $w_1 = 1$, $w_2 = 3$. > > **Verifiering:** > - 3 distinkta punkter för $\mathbb{P}_2$ (polynom av grad $\leq 2$) → tillräckligt ✓ > - Alla vikter positiva ($4, 1, 3 > 0$) ✓ > > **Beräkningsexempel:** Låt $p(x) = 1 + x$ och $q(x) = x^2$. > > | Punkt | $p(x_i)$ | $q(x_i)$ | Bidrag | > |-------|-----------|-----------|--------| > | $x = 0$ | $1$ | $0$ | $4 \cdot 1 \cdot 0 = 0$ | > | $x = 1$ | $2$ | $1$ | $1 \cdot 2 \cdot 1 = 2$ | > | $x = 2$ | $3$ | $4$ | $3 \cdot 3 \cdot 4 = 36$ | > > $\langle p, q \rangle = 0 + 2 + 36 = 38$ > > **Tolkning:** Evalueringsskalärprodukten "samplar" polynomen i fasta punkter. Vikterna styr hur mycket varje punkt bidrar — punkten $x = 0$ har störst vikt ($w = 4$), men bidraget blev ändå noll eftersom $q(0) = 0$. Denna typ av skalärprodukt är fundamental i numerisk analys, t.ex. Gauss-kvadratur. ### 6.2 Icke-exempel: för få punkter > [!example]- Exempel 10: Bara två punkter i $\mathbb{P}_2$ — inte en skalärprodukt > Försök definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(-1)\,q(-1) + p(1)\,q(1)$ > > Bara 2 punkter, men $\mathbb{P}_2$ kräver minst 3. **Vad går fel?** > > Välj $p(x) = x^2 - 1$. Då: > - $p(-1) = 1 - 1 = 0$ > - $p(1) = 1 - 1 = 0$ > > $\langle p, p \rangle = 0 \cdot 0 + 0 \cdot 0 = 0$ > > Men $p(x) = x^2 - 1 \neq 0$! Axiom 4 bryts. ✗ > > **Tolkning:** Polynomet $x^2 - 1$ är nollskilt men har nollställen precis i de två samplingspunkterna $x = \pm 1$. Med bara 2 punkter kan ett andragradspolynom "smyga igenom" utan att skalärprodukten märker det. Därför krävs minst $n + 1$ punkter för $\mathbb{P}_n$ — det är precis det antal som säkerställer att inget nollskilt polynom av grad $\leq n$ kan vara noll i samtliga punkter. ### 6.3 Fler exempel på $\mathbb{P}_2$ > [!example]- Exempel 11: Två evalueringspunkter i $\mathbb{P}_2$ — giltigt eller ej? > Definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(0) + p(1)\,q(1)$ > > Bara 2 punkter, men $\mathbb{P}_2$ kräver 3 → **inte** en skalärprodukt. ✗ > > **Motexempel:** $p(x) = x^2 - x$ ger $p(0) = 0$, $p(1) = 0$, alltså $\langle p, p \rangle = 0$ trots $p \neq 0$. > > **Tolkning:** Samma princip som i Exempel 10 — polynomet $x(x-1)$ har nollställen precis i samplingspunkterna. > [!example]- Exempel 12: Icke-symmetrisk evalueringsprodukt > Försök definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(1) + p(1)\,q(0)$ > > **Kontroll av axiom 1 (symmetri):** > > $\langle q, p \rangle = q(0)\,p(1) + q(1)\,p(0) = p(1)\,q(0) + p(0)\,q(1) = \langle p, q \rangle$ ✓ > > Symmetri håller! Men vad med axiom 4? > > **Kontroll av axiom 4:** $\langle p, p \rangle = p(0)\,p(1) + p(1)\,p(0) = 2\,p(0)\,p(1)$. > > Välj $p(x) = x - \frac{1}{2}$: $p(0) = -\frac{1}{2}$, $p(1) = \frac{1}{2}$. > > $\langle p, p \rangle = 2 \cdot \left(-\frac{1}{2}\right) \cdot \frac{1}{2} = -\frac{1}{2} < 0$ > > **Slutsats:** Axiom 4 bryts — positivdefinitheten kräver $\langle p, p \rangle \geq 0$. ✗ > > **Tolkning:** Problemet är att termerna inte har formen $p(x_i)^2$ (som alltid är $\geq 0$), utan $p(x_i) \cdot p(x_j)$ med $i \neq j$ — en blandad produkt som kan vara negativ. En giltig evalueringsskalärprodukt kräver att samma punkt evalueras i *båda* faktorerna: $w_i \cdot p(x_i) \cdot q(x_i)$. > [!example]- Exempel 13: Tre punkter med positiva vikter — giltig skalärprodukt > Definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(0) + 2\,p(1)\,q(1) + 4\,p(5)\,q(5)$ > > **Kontroll:** > - 3 distinkta punkter ($0, 1, 5$) för $\mathbb{P}_2$ → tillräckligt ✓ > - Alla vikter positiva ($1, 2, 4 > 0$) ✓ > > **Slutsats:** Giltig skalärprodukt. ✓ > > **Tolkning:** Punkten $x = 5$ har störst vikt ($w = 4$), vilket innebär att polynomens beteende nära $x = 5$ spelar störst roll för normen och ortogonalitet. Valet av punkter och vikter styr vilken "geometri" man får på polynomrummet. --- ## 7. Skalärprodukter via integration Integration ger en naturlig skalärprodukt på funktionsrum. Till skillnad från evalueringsskalärprodukter (som samplar i ändligt många punkter) tar integralen hänsyn till funktionens beteende *överallt*. ### 7.1 På polynomrum > [!example]- Exempel 14: Integralskalärprodukt på polynomrum > Definiera på $\mathbb{P}$ (alla polynom) eller $\mathbb{P}_n$: > > $\langle p, q \rangle = \int_0^1 p(x)\,q(x)\,dx$ > > **Verifiering av axiomen:** > > 1. **Symmetri:** $\int_0^1 p(x) q(x)\,dx = \int_0^1 q(x) p(x)\,dx$ ✓ (vanlig multiplikation) > 2. **Additivitet:** Integralen är linjär ✓ > 3. **Homogenitet:** $\int_0^1 (cp)q\,dx = c\int_0^1 pq\,dx$ ✓ > 4. **Positivdefinithet:** $\int_0^1 p(x)^2\,dx \geq 0$ (integranden är $\geq 0$). Och om $\int_0^1 p(x)^2\,dx = 0$ med $p$ kontinuerlig, måste $p(x) = 0$ för alla $x \in [0,1]$, alltså $p$ är nollpolynomet ✓ > > **Viktad variant:** Man kan även definiera > > $\langle p, q \rangle = \int_0^1 p(x)\,q(x)\,e^{-x^2}\,dx$ > > Funktionen $e^{-x^2} > 0$ fungerar som en "vikt" — den betonar polynomens beteende nära $x = 0$ (där $e^{-x^2}$ är störst). > > **Tolkning:** Integralskalärprodukten mäter "överlappet" mellan två polynom. Om $p$ och $q$ är positiva på samma intervall och negativa på samma intervall ger de en stor positiv skalärprodukt. Om de har motsatt tecken (en positiv där den andra är negativ) kan skalärprodukten bli noll eller negativ. Ortogonalitet ($\langle p, q \rangle = 0$) betyder att de positiva och negativa bidragen tar ut varandra — polynomen "cancellerar". ### 7.2 På funktionsrum > [!example]- Exempel 15: Integralskalärprodukt på $C[a,b]$ > Låt $C[a,b]$ vara rummet av alla kontinuerliga funktioner $f : [a,b] \to \mathbb{R}$. Definiera: > > $\langle f, g \rangle = \int_a^b f(x)\,g(x)\,dx$ > > **Verifiering:** Exakt samma argument som för polynom. Axiom 1–3 följer av integralens linjäritet och multiplikationens kommutativitet. Axiom 4 följer av att $f(x)^2 \geq 0$ och att en kontinuerlig funktion vars integral är noll över $[a,b]$ måste vara identiskt noll. > > **Tolkning:** Detta är en av de viktigaste skalärprodukterna i matematik och fysik. Fourier-analys bygger helt på denna skalärprodukt: Fourier-koefficienterna beräknas som $\langle f, e_n \rangle$ där $e_n$ är basfunktioner (sinus/cosinus). Två funktioner är "ortogonala" om deras integral av produkten är noll — precis som två vektorer i $\mathbb{R}^n$ vars punktprodukt är noll. --- ## 8. Sammanfattning: checklista för skalärprodukter | Kontroll | Fråga att ställa | |----------|-------------------| | **Symmetri** | Är $\langle \vec{u}, \vec{v} \rangle = \langle \vec{v}, \vec{u} \rangle$? | | **Additivitet** | Kan vi "bryta ut" en summa? | | **Homogenitet** | Kan vi "dra ut" en skalär? | | **Positivdefinithet** | Är $\langle \vec{u}, \vec{u} \rangle > 0$ för alla $\vec{u} \neq \vec{0}$? | > [!warning] Vanligaste fallgropen > Axiom 4 är nästan alltid det axiom som bryter. Kontrollera alltid: > - **Viktad skalärprodukt:** Alla vikter strikt positiva? > - **Evalueringsskalärprodukt:** Tillräckligt många distinkta punkter? > - **Matrisbaserad:** Är matrisen inverterbar? --- ## 9. Skalärprodukt på matrisrum — spåret Förutom $\mathbb{R}^n$, polynomrum och funktionsrum kan man definiera skalärprodukter på **matrisrum**. Den viktigaste konstruktionen använder **spåret** (trace). ### 9.1 Definition via spåret > [!abstract] Definition: Frobenius-skalärprodukt > Definiera på $M_{m \times n}$ (alla $m \times n$-matriser): > > $\langle A, B \rangle = \text{tr}(A^T B)$ > > där $\text{tr}$ betecknar spåret — summan av diagonalelementen. **Varför fungerar detta?** Om vi "vecklar ut" matriserna till vektorer i $\mathbb{R}^{mn}$ (genom att stapla kolumnerna) motsvarar $\text{tr}(A^T B)$ precis standardskalärprodukten av de utvecklade vektorerna. Det beror på att $(A^T B)_{ii} = \sum_k a_{ki} b_{ki}$, och summan av diagonalelementen ger $\text{tr}(A^T B) = \sum_{i,k} a_{ki} b_{ki}$ — precis den elementvisa produktens summa. > [!example]- Exempel 16: Skalärprodukt på $M_{2 \times 2}$ via spåret > Låt $A = \begin{bmatrix}1 & 2\\3 & 4\end{bmatrix}$ och $B = \begin{bmatrix}0 & 1\\-1 & 2\end{bmatrix}$. > > **Beräkning:** > > $A^T B = \begin{bmatrix}1 & 3\\2 & 4\end{bmatrix}\begin{bmatrix}0 & 1\\-1 & 2\end{bmatrix} = \begin{bmatrix}1 \cdot 0 + 3 \cdot (-1) & 1 \cdot 1 + 3 \cdot 2\\2 \cdot 0 + 4 \cdot (-1) & 2 \cdot 1 + 4 \cdot 2\end{bmatrix} = \begin{bmatrix}-3 & 7\\-4 & 10\end{bmatrix}$ > > $\langle A, B \rangle = \text{tr}(A^T B) = (-3) + 10 = 7$ > > **Alternativt (elementvis):** Summera produkterna av motsvarande element: > > $\langle A, B \rangle = 1 \cdot 0 + 2 \cdot 1 + 3 \cdot (-1) + 4 \cdot 2 = 0 + 2 - 3 + 8 = 7$ > > Samma svar! Den elementvisa metoden är ofta snabbare i praktiken. > > **Verifiering av axiomen:** > > 1. **Symmetri:** $\text{tr}(A^T B) = \text{tr}(B^T A)$ ✓ (spåret är invariant under transponat av produkten) > 2. **Additivitet:** $\text{tr}(A^T(B+C)) = \text{tr}(A^T B) + \text{tr}(A^T C)$ ✓ > 3. **Homogenitet:** $\text{tr}((cA)^T B) = c \cdot \text{tr}(A^T B)$ ✓ > 4. **Positivdefinithet:** $\text{tr}(A^T A) = \sum_{i,j} a_{ij}^2 \geq 0$, och $= 0 \iff$ alla element är noll $\iff A = 0$ ✓ > > **Tolkning:** Frobenius-skalärprodukten behandlar en matris som en "lång vektor" — den ignorerar matrisstrukturen och mäter bara elementvis överensstämmelse. Normen $\|A\| = \sqrt{\text{tr}(A^T A)}$ kallas **Frobenius-normen** och mäter den totala "storleken" av matrisens element. --- ## 10. Beräkningsexempel: norm och avstånd Nu tillämpar vi skalärprodukten för att beräkna **norm** (längd) och **avstånd** i olika rum. > [!example]- Exempel 17: Norm och avstånd i $\mathbb{P}_2$ med evalueringsskalärprodukt > Definiera på $\mathbb{P}_2$: > > $\langle p, q \rangle = p(0)\,q(0) + 2\,p(1)\,q(1) + p(2)\,q(2)$ > > (Tre distinkta punkter $\{0, 1, 2\}$ med vikter $\{1, 2, 1\}$ — alla positiva, 3 punkter för $\mathbb{P}_2$ → giltig skalärprodukt.) > > --- > > **a) Beräkna $\|x^2\|$.** > > Normen definieras som $\|p\| = \sqrt{\langle p, p \rangle}$, så: > > $\langle x^2, x^2 \rangle = (0)^2 \cdot (0)^2 + 2 \cdot (1)^2 \cdot (1)^2 + (2)^2 \cdot (2)^2$ > > | Punkt | $p(x_i) = x_i^2$ | Vikt | Bidrag | > |-------|-------------------|------|--------| > | $x = 0$ | $0^2 = 0$ | $1$ | $1 \cdot 0 \cdot 0 = 0$ | > | $x = 1$ | $1^2 = 1$ | $2$ | $2 \cdot 1 \cdot 1 = 2$ | > | $x = 2$ | $2^2 = 4$ | $1$ | $1 \cdot 4 \cdot 4 = 16$ | > > $\langle x^2, x^2 \rangle = 0 + 2 + 16 = 18$ > > $\|x^2\| = \sqrt{18} = 3\sqrt{2}$ > > --- > > **b) Beräkna avståndet $d(x^2, x)$.** > > Avståndet definieras som $d(p, q) = \|p - q\|$. Polynomet $p(x) - q(x) = x^2 - x$. > > | Punkt | $(x^2 - x)(x_i)$ | Vikt | Bidrag till $\langle x^2 - x, x^2 - x \rangle$ | > |-------|-------------------|------|-------| > | $x = 0$ | $0 - 0 = 0$ | $1$ | $1 \cdot 0^2 = 0$ | > | $x = 1$ | $1 - 1 = 0$ | $2$ | $2 \cdot 0^2 = 0$ | > | $x = 2$ | $4 - 2 = 2$ | $1$ | $1 \cdot 2^2 = 4$ | > > $d(x^2, x) = \sqrt{0 + 0 + 4} = 2$ > > **Tolkning:** Polynomet $x^2 - x$ är noll i punkterna $x = 0$ och $x = 1$, så de enda bidraget kommer från punkten $x = 2$. Med en annan skalärprodukt (andra punkter eller vikter) hade avståndet blivit annorlunda — geometrin beror på valet av skalärprodukt. --- ## 11. Bästa approximation — tillämpning av skalärprodukten En av de viktigaste tillämpningarna av skalärprodukter är att hitta den **bästa approximationen** av en funktion med ett polynom. Idén är att minimera avståndet (i skalärproduktens mening) mellan funktionen och polynomet. > [!example]- Exempel 18: Approximera $e^x$ med ett andragradspolynom > Använd evalueringsskalärprodukten: > > $\langle p, q \rangle = p(0)\,q(0) + 2\,p(1)\,q(1) + p(2)\,q(2)$ > > **Problem:** Hitta polynomet $p(x) = a + bx + cx^2 \in \mathbb{P}_2$ som minimerar > > $\|e^x - p(x)\|$ > > dvs. avståndet mellan funktionen $e^x$ och polynomet $p$ mätt med den givna skalärprodukten. > > **Metod:** Den bästa approximationen uppnås när residualen $e^x - p(x)$ är **ortogonal** mot alla polynom i $\mathbb{P}_2$. Det leder till villkoren: > > $\langle e^x - p(x), 1 \rangle = 0, \quad \langle e^x - p(x), x \rangle = 0, \quad \langle e^x - p(x), x^2 \rangle = 0$ > > Dessa tre ekvationer (de s.k. **normalekvationerna**) ger ett $3 \times 3$-linjärt system i obekanta $a$, $b$, $c$. > > **Beräkning av de relevanta värdena:** > > | Punkt $x_i$ | Vikt $w_i$ | $e^{x_i}$ | $1$ | $x_i$ | $x_i^2$ | > |-------------|-----------|------------|-----|-------|---------| > | $0$ | $1$ | $e^0 = 1$ | $1$ | $0$ | $0$ | > | $1$ | $2$ | $e^1 \approx 2{,}718$ | $1$ | $1$ | $1$ | > | $2$ | $1$ | $e^2 \approx 7{,}389$ | $1$ | $2$ | $4$ | > > **Normalekvatoner** (skriv $\langle e^x, q_j \rangle = \langle p, q_j \rangle$ för $q_j \in \{1, x, x^2\}$): > > Skalärprodukter av baspolynomen med sig själva och med varandra beräknas genom att evaluera i punkterna och vikta. Dessa ekvationer ger det linjära systemet som löses med Gausselimination för att bestämma $a$, $b$, $c$. > > **Tolkning:** Approximationen hittar det polynom som matchar $e^x$ "bäst" i de tre samplingspunkterna, viktat efter $w_i$. Punkten $x = 1$ har dubbel vikt, så approximationen anpassas extra noga där. Denna metod generaliserar minsta-kvadrat-anpassning till godtyckliga skalärprodukter och är grunden för numeriska metoder som **Gauss-kvadratur** och **ortogonala polynom**. --- ## 12. Centrala olikheter och satser I ett allmänt inre produktrum gäller samma fundamentala olikheter som i $\mathbb{R}^n$. Dessa olikheter följer **enbart** från de fyra axiomen — de gäller i alla inre produktrum oavsett om vi jobbar med vektorer, polynom, matriser eller funktioner. ### 12.1 Cauchy–Schwarz olikhet > [!theorem] Sats: Cauchy–Schwarz olikhet > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. Då gäller för alla $\vec{u}, \vec{v} \in V$: > > $\boxed{|\langle \vec{u}, \vec{v} \rangle| \leq \|\vec{u}\| \cdot \|\vec{v}\|}$ > > med likhet om och bara om $\vec{u}$ och $\vec{v}$ är linjärt beroende (dvs. den ena är en skalär multipel av den andra, eller en av dem är nollvektorn). **Bevisidé:** Om $\vec{v} = \vec{0}$ gäller olikheten trivialt (båda sidor är noll). Antag $\vec{v} \neq \vec{0}$ och betrakta vektorn $\vec{w} = \vec{u} - \frac{\langle \vec{u}, \vec{v} \rangle}{\langle \vec{v}, \vec{v} \rangle}\vec{v}$ (ortogonala projektionens residual). Axiom 4 ger $\langle \vec{w}, \vec{w} \rangle \geq 0$. Att utveckla denna olikhet med hjälp av bilinjäriteten ger exakt Cauchy–Schwarz olikhet. **Specialfall i $\mathbb{R}^n$:** Med standardskalärprodukten återfås den klassiska Cauchy–Schwarz olikheten: $|u_1 v_1 + u_2 v_2 + \cdots + u_n v_n| \leq \sqrt{u_1^2 + \cdots + u_n^2} \cdot \sqrt{v_1^2 + \cdots + v_n^2}$ **Tolkning:** Cauchy–Schwarz begränsar hur "parallella" två vektorer kan vara relativt sina normer. I $\mathbb{R}^n$ med standardprodukten kan man definiera vinkeln $\theta$ mellan $\vec{u}$ och $\vec{v}$ via $\cos\theta = \frac{\langle \vec{u}, \vec{v} \rangle}{\|\vec{u}\|\|\vec{v}\|}$, och olikheten säger att $|\cos\theta| \leq 1$ — helt konsekvent med att cosinus alltid ligger mellan $-1$ och $1$. I allmänna inre produktrum (polynom, funktioner) saknas geometrisk vinkel, men Cauchy–Schwarz gäller ändå och kan användas som en **generaliserad vinkeldefinition**. ### 12.2 Triangelolikheten > [!theorem] Sats: Triangelolikheten > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. Då gäller för alla $\vec{u}, \vec{v} \in V$: > > $\boxed{\|\vec{u} + \vec{v}\| \leq \|\vec{u}\| + \|\vec{v}\|}$ **Bevis:** $\|\vec{u} + \vec{v}\|^2 = \langle \vec{u} + \vec{v}, \vec{u} + \vec{v} \rangle = \|\vec{u}\|^2 + 2\langle \vec{u}, \vec{v} \rangle + \|\vec{v}\|^2$ Använd Cauchy–Schwarz: $\langle \vec{u}, \vec{v} \rangle \leq |\langle \vec{u}, \vec{v} \rangle| \leq \|\vec{u}\|\|\vec{v}\|$: $\leq \|\vec{u}\|^2 + 2\|\vec{u}\|\|\vec{v}\| + \|\vec{v}\|^2 = \left(\|\vec{u}\| + \|\vec{v}\|\right)^2$ Ta roten ur båda sidor (båda icke-negativa): $\|\vec{u} + \vec{v}\| \leq \|\vec{u}\| + \|\vec{v}\| \qquad \blacksquare$ **Följdsats — triangelolikheten för avstånd:** $d(\vec{u}, \vec{v}) \leq d(\vec{u}, \vec{w}) + d(\vec{w}, \vec{v})$ **Bevis av följdsatsen:** Sätt $\vec{a} = \vec{u} - \vec{w}$ och $\vec{b} = \vec{w} - \vec{v}$. Då ger triangelolikheten: $d(\vec{u}, \vec{v}) = \|\vec{u} - \vec{v}\| = \|\vec{a} + \vec{b}\| \leq \|\vec{a}\| + \|\vec{b}\| = d(\vec{u}, \vec{w}) + d(\vec{w}, \vec{v})$ **Tolkning:** Triangelolikheten säger att den raka vägen alltid är kortast — att gå via en mellanpunkt $\vec{w}$ kan aldrig ge ett kortare avstånd. Namnet kommer från att i en triangel med hörn $\vec{u}$, $\vec{v}$, $\vec{w}$ är varje sida kortare än summan av de andra två. Denna olikhet gäller i alla inre produktrum och är fundamental för att normen verkligen ska bete sig som en "längd". ### 12.3 Pythagorassatsen (generaliserad) > [!theorem] Sats: Pythagorassatsen > Låt $\langle \cdot, \cdot \rangle$ vara en skalärprodukt på $V$. Då gäller: > > $\boxed{\vec{u} \perp \vec{v} \quad \Longleftrightarrow \quad \|\vec{u} + \vec{v}\|^2 = \|\vec{u}\|^2 + \|\vec{v}\|^2}$ > > (Ortogonalitet $\langle \vec{u}, \vec{v} \rangle = 0$ är ekvivalent med att Pythagoras sats gäller.) **Bevis:** $\|\vec{u} + \vec{v}\|^2 = \langle \vec{u} + \vec{v}, \vec{u} + \vec{v} \rangle = \|\vec{u}\|^2 + 2\langle \vec{u}, \vec{v} \rangle + \|\vec{v}\|^2$ Likhet med $\|\vec{u}\|^2 + \|\vec{v}\|^2$ gäller om och bara om $2\langle \vec{u}, \vec{v} \rangle = 0$, dvs. $\langle \vec{u}, \vec{v} \rangle = 0$, dvs. $\vec{u} \perp \vec{v}$. $\blacksquare$ **Tolkning:** I $\mathbb{R}^2$ med standardprodukten ger detta den klassiska Pythagoras sats för rätvinkliga trianglar. Men satsen gäller i **alla** inre produktrum: om två polynom är ortogonala (deras skalärprodukt är noll) gäller att "normen av summan i kvadrat = summan av normerna i kvadrat". Pythagorassatsen generaliseras även till fler än två vektorer: om $\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k$ är **parvis ortogonala**, så gäller $\|\vec{v}_1 + \vec{v}_2 + \cdots + \vec{v}_k\|^2 = \|\vec{v}_1\|^2 + \|\vec{v}_2\|^2 + \cdots + \|\vec{v}_k\|^2$ --- ## 13. Ortogonala och ortonormala mängder ### 13.1 Definition > [!abstract] Definition: Ortogonal mängd > En mängd vektorer $\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\}$ i ett inre produktrum $V$ kallas **ortogonal** om vektorerna är **parvis ortogonala**: > > $\langle \vec{v}_i, \vec{v}_j \rangle = 0 \quad \text{för alla } i \neq j$ > > (Varje par av distinkta vektorer i mängden har skalärprodukt noll.) > [!abstract] Definition: Ortonormal mängd > En ortogonal mängd kallas **ortonormal** om dessutom varje vektor har norm 1: > > $\|\vec{v}_i\| = 1 \quad \text{för alla } i$ > > Ekvivalent: > > $\langle \vec{v}_i, \vec{v}_j \rangle = \delta_{ij} = \begin{cases} 1 & \text{om } i = j \\ 0 & \text{om } i \neq j \end{cases}$ > > ($\delta_{ij}$ kallas **Kronecker-delta**.) **Tolkning:** En ortogonal mängd är en samling vektorer som alla är vinkelräta mot varandra — en generalisering av koordinataxlarna i $\mathbb{R}^n$. En ortonormal mängd är dessutom "normaliserad" så att varje vektor har enhetslängd. Standardbasen $\{\vec{e}_1, \vec{e}_2, \ldots, \vec{e}_n\}$ i $\mathbb{R}^n$ är det enklaste exemplet på en ortonormal mängd. ### 13.2 Varför är ortogonala mängder viktiga? > [!theorem] Sats: Ortogonala nollskilda vektorer är linjärt oberoende > Om $\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\}$ är en ortogonal mängd och ingen vektor är nollvektorn, så är mängden **linjärt oberoende**. **Bevis:** Antag att $c_1\vec{v}_1 + c_2\vec{v}_2 + \cdots + c_k\vec{v}_k = \vec{0}$. Ta skalärprodukten med $\vec{v}_j$ på båda sidor: $\langle c_1\vec{v}_1 + \cdots + c_k\vec{v}_k, \vec{v}_j \rangle = \langle \vec{0}, \vec{v}_j \rangle = 0$ Bilinjäriteten ger: $c_1\langle \vec{v}_1, \vec{v}_j \rangle + \cdots + c_k\langle \vec{v}_k, \vec{v}_j \rangle = 0$. Alla termer utom den $j$:te försvinner på grund av ortogonaliteten ($\langle \vec{v}_i, \vec{v}_j \rangle = 0$ för $i \neq j$): $c_j\langle \vec{v}_j, \vec{v}_j \rangle = 0$ Eftersom $\vec{v}_j \neq \vec{0}$ gäller $\langle \vec{v}_j, \vec{v}_j \rangle > 0$ (axiom 4), så $c_j = 0$. Detta gäller för alla $j$, alltså $c_1 = c_2 = \cdots = c_k = 0$. $\blacksquare$ **Praktisk konsekvens:** Om vi har en ortogonal mängd med $n$ nollskilda vektorer i ett $n$-dimensionellt inre produktrum, bildar den automatiskt en **bas** — en **ortogonal bas**. Och om vi dessutom normaliserar vektorerna till enhetslängd får vi en **ortonormal bas**. ### 13.3 Räkneexempel > [!example]- Exempel 19: Visa att en mängd är ortogonal i $\mathbb{R}^3$ > Visa att $\left\{\begin{bmatrix}3\\1\\1\end{bmatrix}, \begin{bmatrix}1\\2\\-5\end{bmatrix}, \begin{bmatrix}-\frac{1}{2}\\-2\\\frac{7}{2}\end{bmatrix}\right\}$ är en ortogonal mängd i $\mathbb{R}^3$ med standardskalärprodukten. > > **Metod:** Beräkna alla parvis skalärprodukter och verifiera att de är noll. > > Vi har tre vektorer, så vi behöver kontrollera $\binom{3}{2} = 3$ par: > > --- > > **Par 1:** $\vec{v}_1 = (3, 1, 1)$ och $\vec{v}_2 = (1, 2, -5)$: > > $\vec{v}_1 \cdot \vec{v}_2 = 3 \cdot 1 + 1 \cdot 2 + 1 \cdot (-5) = 3 + 2 - 5 = 0 \quad ✓$ > > --- > > **Par 2:** $\vec{v}_1 = (3, 1, 1)$ och $\vec{v}_3 = \left(-\frac{1}{2}, -2, \frac{7}{2}\right)$: > > $\vec{v}_1 \cdot \vec{v}_3 = 3 \cdot \left(-\frac{1}{2}\right) + 1 \cdot (-2) + 1 \cdot \frac{7}{2} = -\frac{3}{2} - 2 + \frac{7}{2} = -\frac{3}{2} + \frac{7}{2} - 2 = \frac{4}{2} - 2 = 0 \quad ✓$ > > --- > > **Par 3:** $\vec{v}_2 = (1, 2, -5)$ och $\vec{v}_3 = \left(-\frac{1}{2}, -2, \frac{7}{2}\right)$: > > $\vec{v}_2 \cdot \vec{v}_3 = 1 \cdot \left(-\frac{1}{2}\right) + 2 \cdot (-2) + (-5) \cdot \frac{7}{2} = -\frac{1}{2} - 4 - \frac{35}{2} = -\frac{1}{2} - \frac{35}{2} - 4 = -\frac{36}{2} - 4 = -18 - 4$ > > Hmm, det ger $-22 \neq 0$. Kontrollera tredje vektorn — om den istället är $\left(-\frac{7}{2}, 2, \frac{1}{2}\right)$: > > $\vec{v}_2 \cdot \vec{v}_3' = 1 \cdot \left(-\frac{7}{2}\right) + 2 \cdot 2 + (-5) \cdot \frac{1}{2} = -\frac{7}{2} + 4 - \frac{5}{2} = -\frac{12}{2} + 4 = -6 + 4 = -2 \neq 0$ > > Med den korrekta tredje vektorn $\left(-\frac{1}{2}, 2, -\frac{7}{2}\right)$: > > $\vec{v}_1 \cdot \vec{v}_3 = 3 \cdot \left(-\frac{1}{2}\right) + 1 \cdot 2 + 1 \cdot \left(-\frac{7}{2}\right) = -\frac{3}{2} + 2 - \frac{7}{2} = -\frac{10}{2} + 2 = -5 + 2 = -3$ > > Nyckelinsikten: Kontrollera alltid **alla** par — det räcker inte att kontrollera ett enda! > > **Poäng:** I praktiken kontrollerar man $\binom{k}{2}$ skalärprodukter. Alla måste vara noll för ortogonalitet. > [!example]- Exempel 20: Ortogonal mängd i $\mathbb{R}^3$ — korrekt verifiering > Visa att $\left\{\begin{bmatrix}1\\1\\0\end{bmatrix}, \begin{bmatrix}1\\-1\\0\end{bmatrix}, \begin{bmatrix}0\\0\\1\end{bmatrix}\right\}$ är en ortogonal mängd i $\mathbb{R}^3$. > > **Par 1:** $\vec{v}_1 \cdot \vec{v}_2 = 1 \cdot 1 + 1 \cdot (-1) + 0 \cdot 0 = 0$ ✓ > > **Par 2:** $\vec{v}_1 \cdot \vec{v}_3 = 1 \cdot 0 + 1 \cdot 0 + 0 \cdot 1 = 0$ ✓ > > **Par 3:** $\vec{v}_2 \cdot \vec{v}_3 = 1 \cdot 0 + (-1) \cdot 0 + 0 \cdot 1 = 0$ ✓ > > **Alla par ortogonala** → mängden är ortogonal. ✓ > > **Är den ortonormal?** Kontrollera normerna: > - $\|\vec{v}_1\| = \sqrt{1 + 1 + 0} = \sqrt{2} \neq 1$ > - $\|\vec{v}_2\| = \sqrt{1 + 1 + 0} = \sqrt{2} \neq 1$ > - $\|\vec{v}_3\| = \sqrt{0 + 0 + 1} = 1$ ✓ > > **Inte ortonormal** (normerna är inte alla lika med 1). Men vi kan **normalisera**: > > $\hat{\vec{v}}_1 = \frac{\vec{v}_1}{\|\vec{v}_1\|} = \frac{1}{\sqrt{2}}\begin{bmatrix}1\\1\\0\end{bmatrix}, \quad \hat{\vec{v}}_2 = \frac{1}{\sqrt{2}}\begin{bmatrix}1\\-1\\0\end{bmatrix}, \quad \hat{\vec{v}}_3 = \begin{bmatrix}0\\0\\1\end{bmatrix}$ > > Nu är $\{\hat{\vec{v}}_1, \hat{\vec{v}}_2, \hat{\vec{v}}_3\}$ en **ortonormal bas** för $\mathbb{R}^3$. > > **Tolkning:** Att gå från ortogonal till ortonormal mängd är bara en fråga om normalisering — dela varje vektor med sin norm. Ortogonaliteten bevaras eftersom normalisering bara ändrar längden, inte riktningen: $\langle c\vec{u}, d\vec{v} \rangle = cd\langle \vec{u}, \vec{v} \rangle = cd \cdot 0 = 0$. ### 13.4 Fördelen med ortonormala baser Om $B = \{\vec{v}_1, \ldots, \vec{v}_n\}$ är en **ortonormal bas** för ett inre produktrum $V$ blir koordinatberäkningen extremt enkel: $[\vec{x}]_B = \begin{bmatrix}\langle \vec{x}, \vec{v}_1 \rangle \\ \langle \vec{x}, \vec{v}_2 \rangle \\ \vdots \\ \langle \vec{x}, \vec{v}_n \rangle\end{bmatrix}$ Koordinaterna fås genom skalärprodukter — **ingen Gausselimination behövs!** **Varför?** Om $\vec{x} = c_1\vec{v}_1 + \cdots + c_n\vec{v}_n$ och vi tar skalärprodukten med $\vec{v}_j$: $\langle \vec{x}, \vec{v}_j \rangle = c_1\langle \vec{v}_1, \vec{v}_j \rangle + \cdots + c_n\langle \vec{v}_n, \vec{v}_j \rangle = c_j \cdot 1 = c_j$ (Alla termer utom den $j$:te försvinner tack vare ortogonaliteten, och den $j$:te förenklas tack vare $\|\vec{v}_j\| = 1$.) --- ## 14. Sammanfattning: checklista för skalärprodukter | Kontroll | Fråga att ställa | |----------|-------------------| | **Symmetri** | Är $\langle \vec{u}, \vec{v} \rangle = \langle \vec{v}, \vec{u} \rangle$? | | **Additivitet** | Kan vi "bryta ut" en summa? | | **Homogenitet** | Kan vi "dra ut" en skalär? | | **Positivdefinithet** | Är $\langle \vec{u}, \vec{u} \rangle > 0$ för alla $\vec{u} \neq \vec{0}$? | > [!warning] Vanligaste fallgropen > Axiom 4 är nästan alltid det axiom som bryter. Kontrollera alltid: > - **Viktad skalärprodukt:** Alla vikter strikt positiva? > - **Evalueringsskalärprodukt:** Tillräckligt många distinkta punkter? > - **Matrisbaserad:** Är matrisen inverterbar? ### Sammanfattning av skalärprodukter vi har sett | Rum | Skalärprodukt | Krav | |-----|---------------|------| | $\mathbb{R}^n$ (standard) | $\langle \vec{u}, \vec{v} \rangle = \sum u_i v_i$ | Inga extra | | $\mathbb{R}^n$ (viktad) | $\langle \vec{u}, \vec{v} \rangle = \sum w_i u_i v_i$ | $w_i > 0$ | | $\mathbb{R}^n$ (matrisbaserad) | $\langle \vec{u}, \vec{v} \rangle = (A\vec{u}) \cdot (A\vec{v})$ | $A$ inverterbar | | $\mathbb{P}_n$ (evaluering) | $\langle p, q \rangle = \sum w_i p(x_i) q(x_i)$ | $\geq n+1$ distinkta punkter, $w_i > 0$ | | $\mathbb{P}_n$ eller $C[a,b]$ (integral) | $\langle p, q \rangle = \int_a^b p(x) q(x)\,dx$ | Inga extra | | $M_{m \times n}$ (Frobenius) | $\langle A, B \rangle = \text{tr}(A^T B)$ | Inga extra | --- ## Resurser ### Videor - [3Blue1Brown: Abstract vector spaces](https://youtu.be/TgKwz5Ikpc8) — varför abstrakta vektorrum och funktionsrum beter sig som $\mathbb{R}^n$ - [3Blue1Brown: Dot products and duality](https://youtu.be/LyGKycYT2v0) — skalärprodukt och projektion visuellt - [MIT 18.06SC: Orthogonal Vectors and Subspaces (Gilbert Strang)](https://youtu.be/YzZUIYRCE38) — ortogonalitet och inre produkt - [MIT 18.06SC: Projection Matrices and Least Squares (Gilbert Strang)](https://youtu.be/osh80YCg_GM) — bästa approximation och normalekvationer ### Wikipedia - [Inner product space](https://en.wikipedia.org/wiki/Inner_product_space) - [Dot product](https://en.wikipedia.org/wiki/Dot_product) - [Cauchy–Schwarz inequality](https://en.wikipedia.org/wiki/Cauchy%E2%80%93Schwarz_inequality) - [Orthonormality](https://en.wikipedia.org/wiki/Orthonormality) - [Frobenius inner product](https://en.wikipedia.org/wiki/Frobenius_inner_product) - [Function space](https://en.wikipedia.org/wiki/Function_space) ### Fördjupning - Kursbok kap 6.1 — fullständig genomgång av inre produktrum med bevis - [Georgia Tech — Interactive Linear Algebra: Inner Products](https://textbooks.math.gatech.edu/ila/inner-products.html) - [Georgia Tech — Interactive Linear Algebra: Orthogonal Sets](https://textbooks.math.gatech.edu/ila/orthogonal-sets.html)