# Linjärt hölje & Linjärt oberoende > **Föreläsning:** V4L2 · **Ämne:** Linjär algebra > **Förkunskaper:** Vektorrum, delrum ([[V4L1 M0067M]]), linjärkombinationer --- ## Ordlista svenska ↔ engelska | Svenska | Engelska | |---|---| | Linjärt hölje / span | Linear span | | Linjärkombination | Linear combination | | Linjärt oberoende | Linearly independent | | Linjärt beroende | Linearly dependent | | Delrum / underrum | Subspace | | Vektorrum | Vector space | | Skalär | Scalar | | Spänna upp | To span | | Radreducering | Row reduction | | Pivotposition | Pivot position | | Fri variabel | Free variable | | Nollvektor | Zero vector | | Standardbasvektor | Standard basis vector | --- ## 1. Linjärkombination — en snabb repetition Innan vi definierar det linjära höljet behöver vi vara trygga med vad en **linjärkombination** är. En **linjärkombination** av vektorerna $\vec{u}_1, \vec{u}_2, \dots, \vec{u}_p$ är varje uttryck på formen $c_1\vec{u}_1 + c_2\vec{u}_2 + \dots + c_p\vec{u}_p$ där $c_1, c_2, \dots, c_p$ är godtyckliga **skalärer** (reella tal). **Tanken:** vi "blandar" vektorerna genom att skala dem med valfria tal och sedan addera. Olika val av skalärer ger olika resultatvektorer. > [!example]- Konkret räkneexempel > Med $\vec{u}_1 = \begin{bmatrix}1\\0\end{bmatrix}$ och $\vec{u}_2 = \begin{bmatrix}0\\1\end{bmatrix}$: > > - $c_1 = 3,\; c_2 = 2 \implies 3\begin{bmatrix}1\\0\end{bmatrix} + 2\begin{bmatrix}0\\1\end{bmatrix} = \begin{bmatrix}3\\2\end{bmatrix}$ > - $c_1 = -1,\; c_2 = 5 \implies -1\begin{bmatrix}1\\0\end{bmatrix} + 5\begin{bmatrix}0\\1\end{bmatrix} = \begin{bmatrix}-1\\5\end{bmatrix}$ > > Varje punkt i $\mathbb{R}^2$ kan nås med rätt val av $c_1$ och $c_2$. --- ## 2. Linjärt hölje (linear span) > [3B1B: Linear combinations, span, and basis vectors](https://youtu.be/k7RM-ot2NWY) ### 2.1 Definition Givet en mängd vektorer $\{\vec{u}_1, \vec{u}_2, \dots, \vec{u}_p\}$ i ett vektorrum $V$ är det **linjära höljet** mängden av **alla** möjliga linjärkombinationer av dessa vektorer: $\text{span}\{\vec{u}_1, \vec{u}_2, \dots, \vec{u}_p\} = \{c_1\vec{u}_1 + c_2\vec{u}_2 + \dots + c_p\vec{u}_p \mid c_1, c_2, \dots, c_p \in \mathbb{R}\}$ **Med andra ord:** spannet är "allt du kan bygga" genom att skala och addera vektorerna. Du har fria händer att välja vilka skalärer du vill — frågan är vilka vektorer du kan nå. ### 2.2 Notation $\text{span}\{\vec{u}_1, \dots, \vec{u}_p\}$ Ibland skrivs det även $\text{Sp}\{\dots\}$ eller $\langle \vec{u}_1, \dots, \vec{u}_p \rangle$ i andra böcker, men $\text{span}\{\dots\}$ är vanligast. ### 2.3 Geometrisk intuition Spannet har en tydlig geometrisk tolkning beroende på hur många (och vilka) vektorer du har: | Situation | Resultat | Geometri | |---|---|---| | $\text{span}\{\vec{0}\}$ | $\{\vec{0}\}$ | Bara origo (en punkt) | | $\text{span}\{\vec{v}\}$, $\vec{v} \neq \vec{0}$ | En linje genom origo | Alla skalningar av $\vec{v}$ | | $\text{span}\{\vec{u}, \vec{v}\}$, ej parallella | Ett plan genom origo | Alla kombinationer av $\vec{u}$ och $\vec{v}$ | | $\text{span}\{\vec{e}_1, \vec{e}_2, \vec{e}_3\}$ i $\mathbb{R}^3$ | Hela $\mathbb{R}^3$ | Varje punkt i rummet kan nås | > [!important] Spannet går alltid genom origo > Varje span innehåller nollvektorn $\vec{0}$ (sätt alla skalärer = 0). Därför kan en mängd som inte innehåller origo **aldrig** vara ett span. --- ### 2.4 Exempel > [!example]- Linje i $\mathbb{R}^2$ > $\text{span}\{\vec{v}\}$ i $\mathbb{R}^2$ ger en **linje genom origo**. > > T.ex. $\text{span}\left\{\begin{bmatrix}1\\2\end{bmatrix}\right\} = \left\{c\begin{bmatrix}1\\2\end{bmatrix} : c \in \mathbb{R}\right\}$ > > Detta är alla punkter på linjen $y = 2x$. > > **Varför?** Varje punkt på linjen $y = 2x$ kan skrivas som $(c, 2c) = c(1, 2)$ för något $c$. Och omvänt ger varje skalning av $(1, 2)$ en punkt på den linjen. > > ![[01_linje_R2.png|400]] > [!example]- Plan i $\mathbb{R}^3$ > $\text{span}\{\vec{u}, \vec{v}\}$ i $\mathbb{R}^3$ ger ett **plan genom origo** (förutsatt att $\vec{u}$ och $\vec{v}$ inte är parallella). > > T.ex. $\text{span}\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}\right\}$ ger $xy$-planet i $\mathbb{R}^3$. > > Varje vektor i detta span ser ut som: > $c_1\begin{bmatrix}1\\0\\0\end{bmatrix} + c_2\begin{bmatrix}0\\1\\0\end{bmatrix} = \begin{bmatrix}c_1\\c_2\\0\end{bmatrix}$ > > Alla vektorer med $z = 0$ — precis $xy$-planet! > > **Vad händer om vektorerna ÄR parallella?** Då kollapsar planet till en linje. T.ex. $\text{span}\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}3\\0\\0\end{bmatrix}\right\}$ ger bara $x$-axeln, inte ett plan. > > ![[02_plan_R3.png|400]] > [!example]- Hela $\mathbb{R}^3$ från tre vektorer > $\text{span}\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}, \begin{bmatrix}0\\0\\1\end{bmatrix}\right\} = \mathbb{R}^3$ > > Standardbasvektorerna $\vec{e}_1, \vec{e}_2, \vec{e}_3$ spänner upp hela $\mathbb{R}^3$ eftersom varje vektor kan skrivas: > $\begin{bmatrix}a\\b\\c\end{bmatrix} = a\vec{e}_1 + b\vec{e}_2 + c\vec{e}_3$ > > **Notera:** det finns oändligt många mängder av tre vektorer som spänner upp $\mathbb{R}^3$ — standardbasen är bara den enklaste. > > ![[03_hela_R3.png|400]] > [!example]- Spänner dessa matriser upp $M_{2\times 2}$? > Givet mängden: > $\left\{\underbrace{\begin{bmatrix}1 & -1 \\ 1 & 0\end{bmatrix}}_{A_1},\ \underbrace{\begin{bmatrix}2 & -2 \\ 0 & -1\end{bmatrix}}_{A_2},\ \underbrace{\begin{bmatrix}0 & 1 \\ 2 & -1\end{bmatrix}}_{A_3},\ \underbrace{\begin{bmatrix}1 & 1 \\ 1 & -2\end{bmatrix}}_{A_4}\right\}$ > > **Fråga:** Spänner dessa fyra matriser upp hela $M_{2\times 2}$ (alla $2 \times 2$-matriser)? > > **Metod:** Vi "vecklar ut" varje $2\times 2$-matris till en vektor i $\mathbb{R}^4$ genom att läsa av elementen radvis: $\begin{bmatrix}a & b\\c & d\end{bmatrix} \mapsto \begin{bmatrix}a\\b\\c\\d\end{bmatrix}$. Då blir frågan om fyra vektorer i $\mathbb{R}^4$ spänner upp hela $\mathbb{R}^4$. > > Bilda matris med de utvecklade vektorerna som kolumner och radreducera: > $\begin{bmatrix}1 & 2 & 0 & 1\\-1 & -2 & 1 & 1\\1 & 0 & 2 & 1\\0 & -1 & -1 & -2\end{bmatrix} \xrightarrow{\text{radred.}} \begin{bmatrix}1 & 2 & 0 & 1\\0 & 0 & 1 & 2\\0 & -2 & 2 & 0\\0 & -1 & -1 & -2\end{bmatrix} \xrightarrow{\text{radred.}} \begin{bmatrix}1 & 2 & 0 & 1\\0 & -1 & -1 & -2\\0 & 0 & 1 & 2\\0 & 0 & 0 & 0\end{bmatrix}$ > > Matrisen har bara **3 pivoter** men 4 kolumner. Det finns alltså en fri variabel, vilket betyder att de fyra matriserna är **linjärt beroende** och spannet har dimension 3. > > **Svar:** Nej, dessa fyra matriser spänner **inte** upp hela $M_{2\times 2}$. De spänner upp ett 3-dimensionellt delrum av det 4-dimensionella rummet $M_{2\times 2}$. > > **Poäng:** Att ha fyra vektorer i ett 4-dimensionellt rum räcker inte om vektorerna har beroenden sinsemellan. > [!example]- Polynom: span i $\mathcal{P}_2$ > I vektorrummet $\mathcal{P}_2$ (polynom med grad $\leq 2$): > > $\text{span}\{1, t, t^2\} = \mathcal{P}_2$ > > **Varför?** Varje polynom i $\mathcal{P}_2$ har formen $a + bt + ct^2$ och det är precis en linjärkombination av $\{1, t, t^2\}$. > > Men: $\text{span}\{1, t\} \subsetneq \mathcal{P}_2$ — vi kan bara nå polynom av grad $\leq 1$ (linjära funktioner). Polynomet $t^2$ kan inte skrivas som $c_1 \cdot 1 + c_2 \cdot t$, oavsett val av $c_1, c_2$. > > **Analogin:** Precis som $\vec{e}_1, \vec{e}_2$ inte räcker för att nå allt i $\mathbb{R}^3$, räcker inte $\{1, t\}$ för att nå allt i $\mathcal{P}_2$. --- ### 2.5 Span och delrum — viktig koppling > [!theorem] Sats: Spannet är alltid ett delrum > Låt $V$ vara ett vektorrum och $\vec{u}_1, \dots, \vec{u}_p \in V$. > Då är $W = \text{span}\{\vec{u}_1, \dots, \vec{u}_p\}$ ett **delrum** till $V$. **Varför?** Vi kontrollerar de tre delrumsvillkoren: 1. **Nollvektorn:** $\vec{0} = 0\vec{u}_1 + 0\vec{u}_2 + \dots + 0\vec{u}_p \in W$ ✓ 2. **Sluten under addition:** Om $\vec{w}_1, \vec{w}_2 \in W$ så finns skalärer sådana att $\vec{w}_1 = \sum a_i\vec{u}_i$ och $\vec{w}_2 = \sum b_i\vec{u}_i$. Då är $\vec{w}_1 + \vec{w}_2 = \sum (a_i + b_i)\vec{u}_i \in W$ ✓ 3. **Sluten under skalärmultiplikation:** Om $\vec{w} = \sum a_i\vec{u}_i \in W$ och $k \in \mathbb{R}$, då $k\vec{w} = \sum (ka_i)\vec{u}_i \in W$ ✓ > [!tip] Praktisk nytta > Detta ger oss ett **andra sätt att visa att en mängd är ett delrum**: istället för att kontrollera alla tre villkor, kan vi visa att mängden är ett span av vektorer i $V$. Ofta är det enklare! > > **Sammanfattning — två metoder för att visa att $W$ är ett delrum av $V$:** > 1. Kontrollera de tre delrumsvillkoren (nollvektor, sluten add., sluten skalärm.) > 2. Visa att $W = \text{span}\{\vec{u}_1, \dots, \vec{u}_p\}$ för några $\vec{u}_i \in V$ --- ### 2.6 Specialfall och varningar > [!warning] Nollvektorn > $\text{span}\{\vec{0}\} = \{\vec{0}\}$ — nollvektorn spänner bara upp sig själv! > > Mer generellt: om alla vektorer i mängden är nollvektorer, så är spannet bara $\{\vec{0}\}$. > > **Varför?** $c_1 \vec{0} + c_2 \vec{0} + \dots = \vec{0}$ oavsett val av skalärer. > > ![[08_nollvektor.png|400]] > [!warning] Redundanta vektorer ändrar inte spannet > Om $\vec{u}_3 = 2\vec{u}_1 + \vec{u}_2$ (dvs. $\vec{u}_3$ är en linjärkombination av de andra), då gäller: > $\text{span}\{\vec{u}_1, \vec{u}_2, \vec{u}_3\} = \text{span}\{\vec{u}_1, \vec{u}_2\}$ > Att lägga till en "redundant" vektor gör spannet varken större eller mindre. --- ## 3. Linjärt oberoende och beroende > [3B1B: Linear combinations, span, and basis vectors](https://youtu.be/k7RM-ot2NWY) Det linjära höljet handlar om *vilka vektorer vi kan nå*. Linjärt oberoende handlar om **effektivitet** — har vi onödiga vektorer i vår mängd? ### 3.1 Definition Låt $V$ vara ett vektorrum och $\{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_p\}$ vektorer i $V$. Mängden sägs vara **linjärt oberoende** om den enda lösningen till $c_1\vec{v}_1 + c_2\vec{v}_2 + \dots + c_p\vec{v}_p = \vec{0}$ är den **triviala lösningen** $c_1 = c_2 = \dots = c_p = 0$. Om det finns en **icke-trivial** lösning (dvs. minst ett $c_j \neq 0$) sägs mängden vara **linjärt beroende**. > [!tip] Intuition > - **Linjärt oberoende:** Varje vektor "bidrar med något nytt" — ingen vektor kan byggas av de andra. > - **Linjärt beroende:** Minst en vektor är "överflödig" — den kan skrivas som en kombination av de övriga. > > Tänk på det som ett lag: om en lagmedlem kan göra exakt det de andra redan kan, är den *beroende* av de andra. ### 3.2 Ekvivalenta formuleringar Följande påståenden är **ekvivalenta** (alla säger samma sak): 1. $\{\vec{v}_1, \dots, \vec{v}_p\}$ är linjärt **beroende** 2. Minst en av vektorerna kan skrivas som en linjärkombination av de övriga 3. $\text{span}\{\vec{v}_1, \dots, \vec{v}_p\}$ förändras inte om vi tar bort (minst) en vektor 4. Ekvationen $c_1\vec{v}_1 + \dots + c_p\vec{v}_p = \vec{0}$ har en icke-trivial lösning > [!abstract] Kontrapositivt (för oberoende) > $\{\vec{v}_1, \dots, \vec{v}_p\}$ är linjärt **oberoende** $\iff$ ingen av $\vec{v}_j$ kan skrivas som en linjärkombination av de övriga $\iff$ att ta bort en vektor **minskar** spannet. --- ### 3.3 Exempel > [!example]- Linjärt oberoende i $\mathbb{R}^3$ > $\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}, \begin{bmatrix}0\\0\\1\end{bmatrix}\right\}$ — är dessa linjärt oberoende? > > **Lösning:** Sätt upp ekvationen $c_1\vec{e}_1 + c_2\vec{e}_2 + c_3\vec{e}_3 = \vec{0}$: > > $c_1\begin{bmatrix}1\\0\\0\end{bmatrix} + c_2\begin{bmatrix}0\\1\\0\end{bmatrix} + c_3\begin{bmatrix}0\\0\\1\end{bmatrix} = \begin{bmatrix}0\\0\\0\end{bmatrix} \implies \begin{bmatrix}c_1\\c_2\\c_3\end{bmatrix} = \begin{bmatrix}0\\0\\0\end{bmatrix}$ > > Enda lösningen: $c_1 = c_2 = c_3 = 0$. ✓ **Linjärt oberoende.** > > **Geometriskt:** Varje vektor pekar i en helt egen riktning (x, y, z). Ingen kan byggas av de andra. > > ![[04_lin_oberoende_R3.png|400]] > [!example]- Linjärt beroende i $\mathbb{R}^2$ > $\left\{\begin{bmatrix}1\\2\end{bmatrix}, \begin{bmatrix}2\\4\end{bmatrix}\right\}$ — linjärt oberoende eller beroende? > > **Lösning:** Vi söker $c_1, c_2$ (ej båda noll) sådana att $c_1\begin{bmatrix}1\\2\end{bmatrix} + c_2\begin{bmatrix}2\\4\end{bmatrix} = \begin{bmatrix}0\\0\end{bmatrix}$. > > T.ex. $c_1 = 2,\ c_2 = -1$ ger: $2\begin{bmatrix}1\\2\end{bmatrix} - 1\begin{bmatrix}2\\4\end{bmatrix} = \begin{bmatrix}2-2\\4-4\end{bmatrix} = \begin{bmatrix}0\\0\end{bmatrix}$ ✓ > > **Linjärt beroende** eftersom vi hittade en icke-trivial lösning. > > **Geometriskt:** $\begin{bmatrix}2\\4\end{bmatrix} = 2\begin{bmatrix}1\\2\end{bmatrix}$ — de pekar i **samma riktning**. Andra vektorn tillför inget nytt. > > ![[05_lin_beroende_R2.png|400]] > [!example]- Tre vektorer i $\mathbb{R}^2$ — alltid beroende! > **Påstående:** Vilka tre vektorer som helst i $\mathbb{R}^2$ är linjärt beroende. > > **Varför?** I $\mathbb{R}^2$ har vi bara två "riktningar" att jobba med. Två oberoende vektorer spänner redan upp hela $\mathbb{R}^2$, så en tredje vektor **måste** kunna skrivas som en kombination av de första två. > > Detta följer av den allmänna regeln: i $\mathbb{R}^n$ kan man ha **högst** $n$ linjärt oberoende vektorer. > > ![[06_tre_vektorer_R2.png|400]] --- ### 3.4 Metod: kontrollera med radreducering I praktiken kontrollerar man linjärt oberoende genom att bilda en matris och **radreducera**: **Steg-för-steg:** 1. Skriv vektorerna som **kolumner** i en matris 2. Radreducera till trappstegsform (echelon form) 3. Tolka resultatet: - **Varje kolumn har en pivot** → linjärt oberoende (enda lösningen är triviala) - **Minst en kolumn saknar pivot** → linjärt beroende (det finns fria variabler → icke-triviala lösningar) > [!example]- Räkneexempel: radreducering > Är $\left\{\begin{bmatrix}1\\2\\3\end{bmatrix}, \begin{bmatrix}4\\5\\6\end{bmatrix}, \begin{bmatrix}2\\1\\0\end{bmatrix}\right\}$ linjärt oberoende? > > **Steg 1:** Bilda matris med vektorerna som kolumner: > $A = \begin{bmatrix}1 & 4 & 2\\2 & 5 & 1\\3 & 6 & 0\end{bmatrix}$ > > **Steg 2:** Radreducera: > $R_2 \leftarrow R_2 - 2R_1$: $\begin{bmatrix}1 & 4 & 2\\0 & -3 & -3\\3 & 6 & 0\end{bmatrix}$ > > $R_3 \leftarrow R_3 - 3R_1$: $\begin{bmatrix}1 & 4 & 2\\0 & -3 & -3\\0 & -6 & -6\end{bmatrix}$ > > $R_3 \leftarrow R_3 - 2R_2$: $\begin{bmatrix}1 & 4 & 2\\0 & -3 & -3\\0 & 0 & 0\end{bmatrix}$ > > **Steg 3:** Tolka — tredje kolumnen har **ingen pivot** (tredje raden är nollrad). Det finns en **fri variabel** → **linjärt beroende**. > > **Hitta beroendet:** Från rad 2: $-3c_2 - 3c_3 = 0 \implies c_2 = -c_3$. Sätt $c_3 = 1$, då $c_2 = -1$. Från rad 1: $c_1 + 4(-1) + 2(1) = 0 \implies c_1 = 2$. Alltså $2\vec{v}_1 - \vec{v}_2 + \vec{v}_3 = \vec{0}$, dvs. $\vec{v}_3 = -2\vec{v}_1 + \vec{v}_2$. > > **Kontroll:** $-2\begin{bmatrix}1\\2\\3\end{bmatrix} + \begin{bmatrix}4\\5\\6\end{bmatrix} = \begin{bmatrix}2\\1\\0\end{bmatrix}$ ✓ > > ![[07_radreducering.png|400]] --- ### 3.5 Viktiga satser och tumregler > [!theorem] Sats > Om $\{\vec{v}_1, \dots, \vec{v}_p\}$ är linjärt oberoende, så kan **ingen** av vektorerna $\vec{v}_j$ skrivas som en linjärkombination av de övriga. > [!theorem] Dimensionsregeln > I $\mathbb{R}^n$ gäller: > - Högst $n$ vektorer kan vara linjärt oberoende > - Om du har **fler än** $n$ vektorer i $\mathbb{R}^n$, är de **alltid** linjärt beroende > - Om du har exakt $n$ linjärt oberoende vektorer, spänner de upp hela $\mathbb{R}^n$ > [!tip] Snabbkontroller för linjärt beroende > Följande ger **direkt** att mängden är linjärt beroende (ingen radreducering behövs): > 1. **Nollvektorn ingår:** Om $\vec{0} \in \{\vec{v}_1, \dots, \vec{v}_p\}$ → alltid beroende (sätt koefficienten för $\vec{0}$ till t.ex. 7 och resten till 0) > 2. **Fler vektorer än dimensionen:** Om $p > n$ i $\mathbb{R}^n$ → alltid beroende > 3. **En vektor är uppenbar multipel av en annan:** T.ex. $\vec{v}_2 = 3\vec{v}_1$ --- ## 4. Samband mellan span och linjärt oberoende Dessa två begrepp hänger ihop tätt: | Fråga | Begrepp | |---|---| | Vilka vektorer kan vi **nå**? | Span | | Är vår vektormängd **effektiv** (inga onödiga)? | Linjärt oberoende | | Vad är en **minimal** uppsättning som spänner upp $V$? | **Bas** (nästa föreläsning!) | En **bas** för ett vektorrum $V$ är en mängd vektorer som är: 1. Linjärt oberoende 2. Spänner upp hela $V$ > [!tip] Framåtblick > Begreppet "bas" kombinerar span och linjärt oberoende. T.ex. $\{\vec{e}_1, \vec{e}_2, \vec{e}_3\}$ är en bas för $\mathbb{R}^3$ eftersom den är oberoende OCH spänner upp hela rummet. Mer om detta i nästa föreläsning. --- ## 5. Beslutsträd ### Är mängden linjärt oberoende? ```mermaid flowchart TD A["Givet: {v₁, ..., vₚ} i Rⁿ (eller annat vektorrum)"] --> B{"Innehåller mängden\nnollvektorn 0?"} B -- Ja --> DEP["LINJÄRT BEROENDE\n(0 = 0·v₁ + ... + 0·vₚ\nger icke-trivial lösning\nom vi sätter koeff. för 0 ≠ 0)"] B -- Nej --> C{"Fler vektorer\nän dimensionen?\n(p > n i Rⁿ)"} C -- Ja --> DEP C -- Nej --> D{"Är någon vektor\nen uppenbar multipel\nav en annan?"} D -- Ja --> DEP D -- Nej --> E["Bilda matris med\nvektorerna som kolumner\noch radreducera"] E --> F{"Har varje kolumn\nen pivot?"} F -- Ja --> INDEP["LINJÄRT OBEROENDE\n(enda lösningen är triviala)"] F -- Nej --> DEP2["LINJÄRT BEROENDE\n(fria variabler → icke-trivial lösning)"] ``` ### Spänner mängden upp hela rummet? ```mermaid flowchart TD A["Givet: {v₁, ..., vₚ} i V\nFråga: span{v₁,...,vₚ} = V?"] --> B{"Färre vektorer\nän dim(V)?\n(p < dim V)"} B -- Ja --> NO["SPÄNNER INTE UPP V\n(för få vektorer)"] B -- Nej --> C["Bilda matris med\nvektorerna som kolumner\noch radreducera"] C --> D{"Har varje RAD\nen pivot?"} D -- Ja --> YES["SPÄNNER UPP V\n(systemet Ax = b har\nlösning för alla b)"] D -- Nej --> NO2["SPÄNNER INTE UPP V\n(det finns b utan lösning)"] ``` > [!tip] Läs beslutsträden noga > Notera skillnaden: för **linjärt oberoende** kollar vi om varje **kolumn** har en pivot. För att **spänna upp** kollar vi om varje **rad** har en pivot. Om båda gäller samtidigt (varje rad OCH varje kolumn har pivot) har vi en **bas**. --- ## 6. Övningsuppgifter ### Span-uppgifter > [!question]- Uppgift 1: Span i $\mathbb{R}^2$ > Beskriv geometriskt $\text{span}\left\{\begin{bmatrix}3\\-1\end{bmatrix}\right\}$. > > > [!hint]- Ledtråd 1 > > Vad är spannet av en enda vektor? Tänk på vad som händer när du multiplicerar en vektor med alla möjliga skalärer $c \in \mathbb{R}$. Vilken geometrisk figur bildas? > > > [!hint]- Ledtråd 2 > > Spannet av en enskild icke-noll vektor i $\mathbb{R}^2$ ger alltid en linje genom origo. Vilken linje? Tänk på sambandet mellan komponenterna: om $(x, y) = c(3, -1)$ så gäller $x = 3c$ och $y = -c$. Eliminera $c$ för att få en ekvation $y = kx$. > > > [!success]- Facit > > $\text{span}\left\{\begin{bmatrix}3\\-1\end{bmatrix}\right\}$ är en **linje genom origo** i riktningen $(3, -1)$. > > > > > [!success]- Full lösning > > > Varje vektor i spannet har formen $c\begin{bmatrix}3\\-1\end{bmatrix} = \begin{bmatrix}3c\\-c\end{bmatrix}$ för $c \in \mathbb{R}$. > > > > > > Om vi sätter $x = 3c$ och $y = -c$ får vi $c = -y$, alltså $x = 3(-y) = -3y$, dvs. $y = -\frac{1}{3}x$. > > > > > > Geometriskt är detta alla punkter på linjen $y = -\frac{1}{3}x$, som passerar genom origo med negativ lutning. När $c > 0$ pekar vi i riktningen $(3, -1)$ och när $c < 0$ pekar vi åt motsatt håll $(-3, 1)$. Hela linjen täcks. > [!question]- Uppgift 2: Tillhör vektorn spannet? > Tillhör $\begin{bmatrix}5\\3\end{bmatrix}$ spannet $\text{span}\left\{\begin{bmatrix}1\\1\end{bmatrix}, \begin{bmatrix}2\\0\end{bmatrix}\right\}$? > > > [!hint]- Ledtråd 1 > > Att en vektor $\vec{b}$ tillhör $\text{span}\{\vec{u}_1, \vec{u}_2\}$ betyder att det finns skalärer $c_1, c_2$ sådana att $c_1\vec{u}_1 + c_2\vec{u}_2 = \vec{b}$. Skriv upp detta komponentvis — du får ett ekvationssystem med två ekvationer och två obekanta. > > > [!hint]- Ledtråd 2 > > Ekvationssystemet blir: $c_1 + 2c_2 = 5$ och $c_1 = 3$. Den andra ekvationen ger dig $c_1$ direkt. Sätt in i den första. > > > [!success]- Facit > > **Ja**, vektorn tillhör spannet: $\begin{bmatrix}5\\3\end{bmatrix} = 3\begin{bmatrix}1\\1\end{bmatrix} + 1\begin{bmatrix}2\\0\end{bmatrix}$. > > > > > [!success]- Full lösning > > > Vi söker $c_1, c_2$ sådana att $c_1\begin{bmatrix}1\\1\end{bmatrix} + c_2\begin{bmatrix}2\\0\end{bmatrix} = \begin{bmatrix}5\\3\end{bmatrix}$. > > > > > > Komponentvis ger detta systemet: > > > $c_1 + 2c_2 = 5 \quad \text{(rad 1)}$ > > > $c_1 + 0 \cdot c_2 = 3 \quad \text{(rad 2)}$ > > > > > > Från rad 2: $c_1 = 3$. Insatt i rad 1: $3 + 2c_2 = 5 \implies c_2 = 1$. > > > > > > Vi hittade en lösning, alltså ligger vektorn i spannet. Vi kan verifiera: $3\begin{bmatrix}1\\1\end{bmatrix} + 1\begin{bmatrix}2\\0\end{bmatrix} = \begin{bmatrix}3+2\\3+0\end{bmatrix} = \begin{bmatrix}5\\3\end{bmatrix}$ ✓ > > > > > > **Notera:** Om systemet hade saknat lösning (motsägelse) hade vektorn *inte* legat i spannet. > [!question]- Uppgift 3: Span av polynom > Låt $p_1(t) = 1 + t$, $p_2(t) = t + t^2$, $p_3(t) = 1 + 2t + t^2$ i $\mathcal{P}_2$. > > Tillhör polynomet $q(t) = 3 + 5t + 2t^2$ spannet $\text{span}\{p_1, p_2, p_3\}$? > > > [!hint]- Ledtråd 1 > > Vi söker skalärer $c_1, c_2, c_3$ sådana att $c_1 p_1(t) + c_2 p_2(t) + c_3 p_3(t) = q(t)$. Utveckla vänsterledet och jämför koefficienterna för $1$, $t$ och $t^2$ på båda sidor. Du får ett linjärt ekvationssystem. > > > [!hint]- Ledtråd 2 > > Utvecklat: $c_1(1+t) + c_2(t+t^2) + c_3(1+2t+t^2) = (c_1+c_3) + (c_1+c_2+2c_3)t + (c_2+c_3)t^2$. > > > > Jämför med $3 + 5t + 2t^2$: > > - Konstant term: $c_1 + c_3 = 3$ > > - $t$-koefficient: $c_1 + c_2 + 2c_3 = 5$ > > - $t^2$-koefficient: $c_2 + c_3 = 2$ > > > > Lös detta $3 \times 3$-system. > > > [!success]- Facit > > **Ja**, $q(t) = 1 \cdot p_1(t) + 1 \cdot p_2(t) + 2 \cdot p_3(t)$. > > > > > [!success]- Full lösning > > > Vi utvecklar linjärkombinationen: > > > $c_1(1+t) + c_2(t+t^2) + c_3(1+2t+t^2)$ > > > $= (c_1 + c_3) + (c_1 + c_2 + 2c_3)t + (c_2 + c_3)t^2$ > > > > > > Jämförelse med $q(t) = 3 + 5t + 2t^2$ ger systemet: > > > $\begin{cases} c_1 + c_3 = 3 \\ c_1 + c_2 + 2c_3 = 5 \\ c_2 + c_3 = 2 \end{cases}$ > > > > > > Från ekvation (1): $c_1 = 3 - c_3$. > > > Insatt i ekvation (2): $(3 - c_3) + c_2 + 2c_3 = 5 \implies c_2 + c_3 = 2$. > > > Detta är identiskt med ekvation (3), så vi har en fri variabel. Välj $c_3 = 2$: då ger ekvation (3) $c_2 = 0$ och ekvation (1) $c_1 = 1$. > > > > > > Men vänta — låt oss prova $c_3 = 2$, $c_2 = 0$, $c_1 = 1$: > > > $1 \cdot(1+t) + 0 \cdot(t+t^2) + 2 \cdot(1+2t+t^2) = 1+t+2+4t+2t^2 = 3+5t+2t^2 \checkmark$ > > > > > > Polynomet tillhör spannet. Det att systemet hade en fri variabel innebär dessutom att $\{p_1, p_2, p_3\}$ är **linjärt beroende** — $p_3 = p_1 + p_2$, vilket man kan verifiera direkt: $(1+t) + (t+t^2) = 1+2t+t^2$. --- ### Linjärt oberoende-uppgifter > [!question]- Uppgift 4: Oberoende eller beroende i $\mathbb{R}^3$? > Är $\left\{\begin{bmatrix}1\\0\\2\end{bmatrix}, \begin{bmatrix}0\\1\\-1\end{bmatrix}, \begin{bmatrix}1\\1\\1\end{bmatrix}\right\}$ linjärt oberoende? > > > [!hint]- Ledtråd 1 > > Bilda en $3 \times 3$-matris med vektorerna som kolumner och radreducera. Om varje kolumn har en pivot → oberoende. Om det finns en kolumn utan pivot → beroende. > > > [!hint]- Ledtråd 2 > > Matrisen blir $\begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\2 & -1 & 1\end{bmatrix}$. Börja med $R_3 \leftarrow R_3 - 2R_1$ för att eliminera första elementet i rad 3. > > > [!success]- Facit > > **Linjärt beroende.** Beroendet: $\vec{v}_3 = \vec{v}_1 + \vec{v}_2$. > > > > > [!success]- Full lösning > > > Radreducera: > > > $\begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\2 & -1 & 1\end{bmatrix} \xrightarrow{R_3 - 2R_1} \begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & -1 & -1\end{bmatrix} \xrightarrow{R_3 + R_2} \begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & 0 & 0\end{bmatrix}$ > > > > > > Tredje kolumnen saknar pivot (tredje raden är en nollrad). Det finns en fri variabel, alltså är mängden **linjärt beroende**. > > > > > > **Hitta beroendet:** Från trappstegsformen: > > > - Rad 2: $c_2 + c_3 = 0 \implies c_2 = -c_3$ > > > - Rad 1: $c_1 + c_3 = 0 \implies c_1 = -c_3$ > > > > > > Sätt $c_3 = -1$: $c_1 = 1,\ c_2 = 1,\ c_3 = -1$, dvs. $\vec{v}_1 + \vec{v}_2 - \vec{v}_3 = \vec{0}$. > > > > > > Alltså $\vec{v}_3 = \vec{v}_1 + \vec{v}_2$. Kontroll: $\begin{bmatrix}1\\0\\2\end{bmatrix} + \begin{bmatrix}0\\1\\-1\end{bmatrix} = \begin{bmatrix}1\\1\\1\end{bmatrix}$ ✓ > [!question]- Uppgift 5: Oberoende polynom? > Är mängden $\{1 - t,\ t - t^2,\ 1 - t^2\}$ linjärt oberoende i $\mathcal{P}_2$? > > > [!hint]- Ledtråd 1 > > Precis som i $\mathbb{R}^n$ sätter vi upp ekvationen $c_1(1-t) + c_2(t-t^2) + c_3(1-t^2) = 0$ (nollpolynomet). Utveckla och jämför koefficienterna för $1$, $t$ och $t^2$. Nollpolynomet har alla koefficienter = 0. > > > [!hint]- Ledtråd 2 > > Du får systemet: > > - Konstant: $c_1 + c_3 = 0$ > > - $t$: $-c_1 + c_2 = 0$ > > - $t^2$: $-c_2 - c_3 = 0$ > > > > Addera alla tre ekvationer. Vad händer? > > > [!success]- Facit > > **Linjärt beroende.** Beroendet: $(1-t) + (t-t^2) = (1-t^2)$, alltså $p_3 = p_1 + p_2$. > > > > > [!success]- Full lösning > > > Sätt $c_1(1-t) + c_2(t-t^2) + c_3(1-t^2) = 0$. Utveckla: > > > $(c_1 + c_3) + (-c_1 + c_2)t + (-c_2 - c_3)t^2 = 0$ > > > > > > Eftersom nollpolynomet har alla koefficienter lika med noll: > > > $\begin{cases} c_1 + c_3 = 0 \\ -c_1 + c_2 = 0 \\ -c_2 - c_3 = 0 \end{cases}$ > > > > > > Från ekvation (1): $c_1 = -c_3$. Insatt i ekvation (2): $c_3 + c_2 = 0 \implies c_2 = -c_3$. Kontroll mot ekvation (3): $-(-c_3) - c_3 = 0$ ✓. > > > > > > Alltså: $c_3$ är fri. Välj $c_3 = -1$: $c_1 = 1,\ c_2 = 1,\ c_3 = -1$. > > > > > > Det ger: $(1-t) + (t-t^2) - (1-t^2) = 1 - t + t - t^2 - 1 + t^2 = 0$ ✓ > > > > > > **Linjärt beroende** med beroendet $p_3 = p_1 + p_2$: $(1-t^2) = (1-t) + (t-t^2)$. > > > > > > **Observera:** detta är helt analogt med vektorfallet — vi identifierar polynomet $a + bt + ct^2$ med vektorn $\begin{bmatrix}a\\b\\c\end{bmatrix}$ och då blir $(1-t) \leftrightarrow \begin{bmatrix}1\\-1\\0\end{bmatrix}$, $(t-t^2) \leftrightarrow \begin{bmatrix}0\\1\\-1\end{bmatrix}$, $(1-t^2) \leftrightarrow \begin{bmatrix}1\\0\\-1\end{bmatrix}$, som vi kan radreducera precis som vanligt. > [!question]- Uppgift 6: Oberoende matriser? > Är följande mängd i $M_{2 \times 2}$ linjärt oberoende? > $\left\{\begin{bmatrix}1 & 0\\0 & 0\end{bmatrix},\ \begin{bmatrix}0 & 1\\1 & 0\end{bmatrix},\ \begin{bmatrix}1 & 1\\1 & 0\end{bmatrix}\right\}$ > > > [!hint]- Ledtråd 1 > > Samma teknik som i matris-spanexemplet: "veckla ut" varje $2 \times 2$-matris till en vektor i $\mathbb{R}^4$ genom att läsa radvis. $\begin{bmatrix}a & b\\c & d\end{bmatrix} \mapsto \begin{bmatrix}a\\b\\c\\d\end{bmatrix}$. Sedan bildar du en vanlig matris och radreducerar. > > > [!hint]- Ledtråd 2 > > De utvecklade vektorerna blir: $\begin{bmatrix}1\\0\\0\\0\end{bmatrix}$, $\begin{bmatrix}0\\1\\1\\0\end{bmatrix}$, $\begin{bmatrix}1\\1\\1\\0\end{bmatrix}$. Bilda $4 \times 3$-matrisen med dessa som kolumner och radreducera. Har varje kolumn en pivot? > > > [!success]- Facit > > **Linjärt beroende.** Den tredje matrisen är summan av de två första. > > > > > [!success]- Full lösning > > > Veckla ut matriserna radvis: > > > $A_1 \mapsto \begin{bmatrix}1\\0\\0\\0\end{bmatrix}, \quad A_2 \mapsto \begin{bmatrix}0\\1\\1\\0\end{bmatrix}, \quad A_3 \mapsto \begin{bmatrix}1\\1\\1\\0\end{bmatrix}$ > > > > > > Bilda matris och radreducera: > > > $\begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & 1 & 1\\0 & 0 & 0\end{bmatrix} \xrightarrow{R_3 - R_2} \begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & 0 & 0\\0 & 0 & 0\end{bmatrix}$ > > > > > > Två pivoter, tre kolumner → tredje kolumnen saknar pivot → **linjärt beroende**. > > > > > > Beroendet avläses direkt: kolumn 3 = kolumn 1 + kolumn 2, alltså $A_3 = A_1 + A_2$. > > > > > > Kontroll: $\begin{bmatrix}1 & 0\\0 & 0\end{bmatrix} + \begin{bmatrix}0 & 1\\1 & 0\end{bmatrix} = \begin{bmatrix}1 & 1\\1 & 0\end{bmatrix}$ ✓ > [!question]- Uppgift 7: Spänna upp $\mathcal{P}_1$ > Låt $\mathcal{P}_1$ vara vektorrummet av alla polynom med grad $\leq 1$ (dvs. alla polynom $a + bt$). Dimensionen av $\mathcal{P}_1$ är 2. > > Spänner mängden $\{1 + t,\ 1 - t\}$ upp hela $\mathcal{P}_1$? > > > [!hint]- Ledtråd 1 > > Vi måste visa att ett godtyckligt polynom $a + bt$ kan skrivas som $c_1(1+t) + c_2(1-t)$. Utveckla högerledet och jämför koefficienter. Kan du alltid hitta $c_1$ och $c_2$? > > > [!hint]- Ledtråd 2 > > Utvecklat: $c_1(1+t) + c_2(1-t) = (c_1 + c_2) + (c_1 - c_2)t$. Vi behöver lösa: > > - $c_1 + c_2 = a$ > > - $c_1 - c_2 = b$ > > > > Har detta system alltid en lösning, oavsett val av $a$ och $b$? > > > [!success]- Facit > > **Ja**, mängden spänner upp hela $\mathcal{P}_1$. > > > > > [!success]- Full lösning > > > Vi vill visa att varje polynom $a + bt \in \mathcal{P}_1$ kan skrivas som $c_1(1+t) + c_2(1-t)$. > > > > > > Utveckla: $c_1(1+t) + c_2(1-t) = (c_1+c_2) + (c_1-c_2)t$. > > > > > > Jämförelse ger systemet: > > > $\begin{cases} c_1 + c_2 = a \\ c_1 - c_2 = b \end{cases}$ > > > > > > Addera ekvationerna: $2c_1 = a + b \implies c_1 = \frac{a+b}{2}$. > > > Subtrahera: $2c_2 = a - b \implies c_2 = \frac{a-b}{2}$. > > > > > > Dessa formler ger en lösning **för alla** $a, b \in \mathbb{R}$. Alltså kan varje polynom i $\mathcal{P}_1$ skrivas som en linjärkombination av $\{1+t,\ 1-t\}$. > > > > > > **Exempel:** $q(t) = 5 + 3t$ ger $c_1 = \frac{5+3}{2} = 4$ och $c_2 = \frac{5-3}{2} = 1$: > > > $4(1+t) + 1(1-t) = 4+4t+1-t = 5+3t$ ✓ > > > > > > **Dessutom** är $\{1+t,\ 1-t\}$ linjärt oberoende (ingen är en multipel av den andra), och det finns 2 vektorer i ett 2-dimensionellt rum. Alltså är $\{1+t,\ 1-t\}$ en **bas** för $\mathcal{P}_1$. --- ### Konceptuella uppgifter > [!question]- Uppgift 8: Sant eller falskt? (med motivering) > Avgör om påståendena är sanna eller falska. Motivera kort. > > a) $\text{span}\{\vec{u}\} = \text{span}\{2\vec{u}\}$ för varje $\vec{u}$. > b) Om $\vec{v} \in \text{span}\{\vec{u}_1, \vec{u}_2\}$ så är $\{\vec{u}_1, \vec{u}_2, \vec{v}\}$ linjärt beroende. > c) Två vektorer i $\mathbb{R}^5$ är alltid linjärt oberoende. > d) Om $\{\vec{v}_1, \vec{v}_2, \vec{v}_3\}$ är linjärt oberoende i $\mathbb{R}^3$, så spänner de upp hela $\mathbb{R}^3$. > e) Om $\text{span}\{A_1, A_2, A_3\} = M_{2 \times 2}$ så är $\{A_1, A_2, A_3\}$ linjärt oberoende. > > > [!hint]- Ledtråd > > För c) och e): fundera på om det finns motexempel. Finns det två vektorer i $\mathbb{R}^5$ som råkar vara beroende? Kan tre matriser spänna upp ett 4-dimensionellt rum? > > > [!success]- Facit och motivering > > > > a) **Sant.** Varje vektor $c \cdot \vec{u}$ i $\text{span}\{\vec{u}\}$ kan skrivas som $\frac{c}{2} \cdot (2\vec{u})$, som ligger i $\text{span}\{2\vec{u}\}$. Omvänt: varje $k \cdot (2\vec{u}) = (2k)\vec{u} \in \text{span}\{\vec{u}\}$. Mängderna är identiska. > > > > b) **Sant.** Om $\vec{v} = c_1\vec{u}_1 + c_2\vec{u}_2$ så ger $c_1\vec{u}_1 + c_2\vec{u}_2 + (-1)\vec{v} = \vec{0}$ en icke-trivial lösning (koefficienten för $\vec{v}$ är $-1 \neq 0$). Alltså linjärt beroende. > > > > c) **Falskt.** Motexempel: $\begin{bmatrix}1\\0\\0\\0\\0\end{bmatrix}$ och $\begin{bmatrix}2\\0\\0\\0\\0\end{bmatrix}$ är linjärt beroende trots att de ligger i $\mathbb{R}^5$, eftersom den ena är en multipel av den andra. Dimensionsregeln säger att man kan ha *högst* $n$ oberoende vektorer — den säger inte att färre än $n$ vektorer automatiskt är oberoende. > > > > d) **Sant.** I $\mathbb{R}^3$ gäller: 3 linjärt oberoende vektorer ger en matris med 3 pivotkolumner, alltså en pivot i varje rad (matrisen är $3 \times 3$). Då spänner de upp hela $\mathbb{R}^3$. > > > > e) **Falskt.** $\dim(M_{2\times 2}) = 4$, men vi har bara 3 matriser. Tre vektorer kan aldrig spänna upp ett 4-dimensionellt rum (vi behöver minst 4 pivotrader men har bara 3 kolumner). Så påståendets premiss $\text{span}\{A_1, A_2, A_3\} = M_{2\times 2}$ kan faktiskt aldrig vara sann — det gör hela påståendet vacuöst sant (sant på grund av att premissen aldrig uppfylls). Men det viktiga insikten är: **tre vektorer räcker aldrig för att spänna upp ett 4-dimensionellt rum**. --- ## Resurser ### Videor - [3Blue1Brown: Linear combinations, span, and basis vectors (kap 2)](https://youtu.be/k7RM-ot2NWY) — span och linjärt oberoende visuellt förklarat - [3Blue1Brown: Abstract vector spaces (kap 16)](https://youtu.be/TgKwz5Ikpc8) — span och oberoende i abstrakta vektorrum - [3Blue1Brown: Inverse matrices, column space and null space (kap 7)](https://youtu.be/uQhTuRlWMxw) — kolonnrum som span ### Wikipedia - [Linear span](https://en.wikipedia.org/wiki/Linear_span) - [Linear independence](https://en.wikipedia.org/wiki/Linear_independence) - [Linear combination](https://en.wikipedia.org/wiki/Linear_combination) ### Fördjupning - [Immersive Linear Algebra — Chapter 2: Vectors](https://immersivemath.com/ila/ch02_vectors/ch02.html) - [Georgia Tech — Interactive Linear Algebra: Linear Independence](https://textbooks.math.gatech.edu/ila/linear-independence.html)