# Linjärt hölje & Linjärt oberoende
> **Föreläsning:** V4L2 · **Ämne:** Linjär algebra
> **Förkunskaper:** Vektorrum, delrum ([[V4L1 M0067M]]), linjärkombinationer
---
## Ordlista svenska ↔ engelska
| Svenska | Engelska |
|---|---|
| Linjärt hölje / span | Linear span |
| Linjärkombination | Linear combination |
| Linjärt oberoende | Linearly independent |
| Linjärt beroende | Linearly dependent |
| Delrum / underrum | Subspace |
| Vektorrum | Vector space |
| Skalär | Scalar |
| Spänna upp | To span |
| Radreducering | Row reduction |
| Pivotposition | Pivot position |
| Fri variabel | Free variable |
| Nollvektor | Zero vector |
| Standardbasvektor | Standard basis vector |
---
## 1. Linjärkombination — en snabb repetition
Innan vi definierar det linjära höljet behöver vi vara trygga med vad en **linjärkombination** är.
En **linjärkombination** av vektorerna $\vec{u}_1, \vec{u}_2, \dots, \vec{u}_p$ är varje uttryck på formen
$c_1\vec{u}_1 + c_2\vec{u}_2 + \dots + c_p\vec{u}_p$
där $c_1, c_2, \dots, c_p$ är godtyckliga **skalärer** (reella tal).
**Tanken:** vi "blandar" vektorerna genom att skala dem med valfria tal och sedan addera. Olika val av skalärer ger olika resultatvektorer.
> [!example]- Konkret räkneexempel
> Med $\vec{u}_1 = \begin{bmatrix}1\\0\end{bmatrix}$ och $\vec{u}_2 = \begin{bmatrix}0\\1\end{bmatrix}$:
>
> - $c_1 = 3,\; c_2 = 2 \implies 3\begin{bmatrix}1\\0\end{bmatrix} + 2\begin{bmatrix}0\\1\end{bmatrix} = \begin{bmatrix}3\\2\end{bmatrix}$
> - $c_1 = -1,\; c_2 = 5 \implies -1\begin{bmatrix}1\\0\end{bmatrix} + 5\begin{bmatrix}0\\1\end{bmatrix} = \begin{bmatrix}-1\\5\end{bmatrix}$
>
> Varje punkt i $\mathbb{R}^2$ kan nås med rätt val av $c_1$ och $c_2$.
---
## 2. Linjärt hölje (linear span)
> [3B1B: Linear combinations, span, and basis vectors](https://youtu.be/k7RM-ot2NWY)
### 2.1 Definition
Givet en mängd vektorer $\{\vec{u}_1, \vec{u}_2, \dots, \vec{u}_p\}$ i ett vektorrum $V$ är det **linjära höljet** mängden av **alla** möjliga linjärkombinationer av dessa vektorer:
$\text{span}\{\vec{u}_1, \vec{u}_2, \dots, \vec{u}_p\} = \{c_1\vec{u}_1 + c_2\vec{u}_2 + \dots + c_p\vec{u}_p \mid c_1, c_2, \dots, c_p \in \mathbb{R}\}$
**Med andra ord:** spannet är "allt du kan bygga" genom att skala och addera vektorerna. Du har fria händer att välja vilka skalärer du vill — frågan är vilka vektorer du kan nå.
### 2.2 Notation
$\text{span}\{\vec{u}_1, \dots, \vec{u}_p\}$
Ibland skrivs det även $\text{Sp}\{\dots\}$ eller $\langle \vec{u}_1, \dots, \vec{u}_p \rangle$ i andra böcker, men $\text{span}\{\dots\}$ är vanligast.
### 2.3 Geometrisk intuition
Spannet har en tydlig geometrisk tolkning beroende på hur många (och vilka) vektorer du har:
| Situation | Resultat | Geometri |
|---|---|---|
| $\text{span}\{\vec{0}\}$ | $\{\vec{0}\}$ | Bara origo (en punkt) |
| $\text{span}\{\vec{v}\}$, $\vec{v} \neq \vec{0}$ | En linje genom origo | Alla skalningar av $\vec{v}$ |
| $\text{span}\{\vec{u}, \vec{v}\}$, ej parallella | Ett plan genom origo | Alla kombinationer av $\vec{u}$ och $\vec{v}$ |
| $\text{span}\{\vec{e}_1, \vec{e}_2, \vec{e}_3\}$ i $\mathbb{R}^3$ | Hela $\mathbb{R}^3$ | Varje punkt i rummet kan nås |
> [!important] Spannet går alltid genom origo
> Varje span innehåller nollvektorn $\vec{0}$ (sätt alla skalärer = 0). Därför kan en mängd som inte innehåller origo **aldrig** vara ett span.
---
### 2.4 Exempel
> [!example]- Linje i $\mathbb{R}^2$
> $\text{span}\{\vec{v}\}$ i $\mathbb{R}^2$ ger en **linje genom origo**.
>
> T.ex. $\text{span}\left\{\begin{bmatrix}1\\2\end{bmatrix}\right\} = \left\{c\begin{bmatrix}1\\2\end{bmatrix} : c \in \mathbb{R}\right\}$
>
> Detta är alla punkter på linjen $y = 2x$.
>
> **Varför?** Varje punkt på linjen $y = 2x$ kan skrivas som $(c, 2c) = c(1, 2)$ för något $c$. Och omvänt ger varje skalning av $(1, 2)$ en punkt på den linjen.
>
> ![[01_linje_R2.png|400]]
> [!example]- Plan i $\mathbb{R}^3$
> $\text{span}\{\vec{u}, \vec{v}\}$ i $\mathbb{R}^3$ ger ett **plan genom origo** (förutsatt att $\vec{u}$ och $\vec{v}$ inte är parallella).
>
> T.ex. $\text{span}\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}\right\}$ ger $xy$-planet i $\mathbb{R}^3$.
>
> Varje vektor i detta span ser ut som:
> $c_1\begin{bmatrix}1\\0\\0\end{bmatrix} + c_2\begin{bmatrix}0\\1\\0\end{bmatrix} = \begin{bmatrix}c_1\\c_2\\0\end{bmatrix}$
>
> Alla vektorer med $z = 0$ — precis $xy$-planet!
>
> **Vad händer om vektorerna ÄR parallella?** Då kollapsar planet till en linje. T.ex. $\text{span}\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}3\\0\\0\end{bmatrix}\right\}$ ger bara $x$-axeln, inte ett plan.
>
> ![[02_plan_R3.png|400]]
> [!example]- Hela $\mathbb{R}^3$ från tre vektorer
> $\text{span}\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}, \begin{bmatrix}0\\0\\1\end{bmatrix}\right\} = \mathbb{R}^3$
>
> Standardbasvektorerna $\vec{e}_1, \vec{e}_2, \vec{e}_3$ spänner upp hela $\mathbb{R}^3$ eftersom varje vektor kan skrivas:
> $\begin{bmatrix}a\\b\\c\end{bmatrix} = a\vec{e}_1 + b\vec{e}_2 + c\vec{e}_3$
>
> **Notera:** det finns oändligt många mängder av tre vektorer som spänner upp $\mathbb{R}^3$ — standardbasen är bara den enklaste.
>
> ![[03_hela_R3.png|400]]
> [!example]- Spänner dessa matriser upp $M_{2\times 2}$?
> Givet mängden:
> $\left\{\underbrace{\begin{bmatrix}1 & -1 \\ 1 & 0\end{bmatrix}}_{A_1},\ \underbrace{\begin{bmatrix}2 & -2 \\ 0 & -1\end{bmatrix}}_{A_2},\ \underbrace{\begin{bmatrix}0 & 1 \\ 2 & -1\end{bmatrix}}_{A_3},\ \underbrace{\begin{bmatrix}1 & 1 \\ 1 & -2\end{bmatrix}}_{A_4}\right\}$
>
> **Fråga:** Spänner dessa fyra matriser upp hela $M_{2\times 2}$ (alla $2 \times 2$-matriser)?
>
> **Metod:** Vi "vecklar ut" varje $2\times 2$-matris till en vektor i $\mathbb{R}^4$ genom att läsa av elementen radvis: $\begin{bmatrix}a & b\\c & d\end{bmatrix} \mapsto \begin{bmatrix}a\\b\\c\\d\end{bmatrix}$. Då blir frågan om fyra vektorer i $\mathbb{R}^4$ spänner upp hela $\mathbb{R}^4$.
>
> Bilda matris med de utvecklade vektorerna som kolumner och radreducera:
> $\begin{bmatrix}1 & 2 & 0 & 1\\-1 & -2 & 1 & 1\\1 & 0 & 2 & 1\\0 & -1 & -1 & -2\end{bmatrix} \xrightarrow{\text{radred.}} \begin{bmatrix}1 & 2 & 0 & 1\\0 & 0 & 1 & 2\\0 & -2 & 2 & 0\\0 & -1 & -1 & -2\end{bmatrix} \xrightarrow{\text{radred.}} \begin{bmatrix}1 & 2 & 0 & 1\\0 & -1 & -1 & -2\\0 & 0 & 1 & 2\\0 & 0 & 0 & 0\end{bmatrix}$
>
> Matrisen har bara **3 pivoter** men 4 kolumner. Det finns alltså en fri variabel, vilket betyder att de fyra matriserna är **linjärt beroende** och spannet har dimension 3.
>
> **Svar:** Nej, dessa fyra matriser spänner **inte** upp hela $M_{2\times 2}$. De spänner upp ett 3-dimensionellt delrum av det 4-dimensionella rummet $M_{2\times 2}$.
>
> **Poäng:** Att ha fyra vektorer i ett 4-dimensionellt rum räcker inte om vektorerna har beroenden sinsemellan.
> [!example]- Polynom: span i $\mathcal{P}_2$
> I vektorrummet $\mathcal{P}_2$ (polynom med grad $\leq 2$):
>
> $\text{span}\{1, t, t^2\} = \mathcal{P}_2$
>
> **Varför?** Varje polynom i $\mathcal{P}_2$ har formen $a + bt + ct^2$ och det är precis en linjärkombination av $\{1, t, t^2\}$.
>
> Men: $\text{span}\{1, t\} \subsetneq \mathcal{P}_2$ — vi kan bara nå polynom av grad $\leq 1$ (linjära funktioner). Polynomet $t^2$ kan inte skrivas som $c_1 \cdot 1 + c_2 \cdot t$, oavsett val av $c_1, c_2$.
>
> **Analogin:** Precis som $\vec{e}_1, \vec{e}_2$ inte räcker för att nå allt i $\mathbb{R}^3$, räcker inte $\{1, t\}$ för att nå allt i $\mathcal{P}_2$.
---
### 2.5 Span och delrum — viktig koppling
> [!theorem] Sats: Spannet är alltid ett delrum
> Låt $V$ vara ett vektorrum och $\vec{u}_1, \dots, \vec{u}_p \in V$.
> Då är $W = \text{span}\{\vec{u}_1, \dots, \vec{u}_p\}$ ett **delrum** till $V$.
**Varför?** Vi kontrollerar de tre delrumsvillkoren:
1. **Nollvektorn:** $\vec{0} = 0\vec{u}_1 + 0\vec{u}_2 + \dots + 0\vec{u}_p \in W$ ✓
2. **Sluten under addition:** Om $\vec{w}_1, \vec{w}_2 \in W$ så finns skalärer sådana att $\vec{w}_1 = \sum a_i\vec{u}_i$ och $\vec{w}_2 = \sum b_i\vec{u}_i$. Då är $\vec{w}_1 + \vec{w}_2 = \sum (a_i + b_i)\vec{u}_i \in W$ ✓
3. **Sluten under skalärmultiplikation:** Om $\vec{w} = \sum a_i\vec{u}_i \in W$ och $k \in \mathbb{R}$, då $k\vec{w} = \sum (ka_i)\vec{u}_i \in W$ ✓
> [!tip] Praktisk nytta
> Detta ger oss ett **andra sätt att visa att en mängd är ett delrum**: istället för att kontrollera alla tre villkor, kan vi visa att mängden är ett span av vektorer i $V$. Ofta är det enklare!
>
> **Sammanfattning — två metoder för att visa att $W$ är ett delrum av $V$:**
> 1. Kontrollera de tre delrumsvillkoren (nollvektor, sluten add., sluten skalärm.)
> 2. Visa att $W = \text{span}\{\vec{u}_1, \dots, \vec{u}_p\}$ för några $\vec{u}_i \in V$
---
### 2.6 Specialfall och varningar
> [!warning] Nollvektorn
> $\text{span}\{\vec{0}\} = \{\vec{0}\}$ — nollvektorn spänner bara upp sig själv!
>
> Mer generellt: om alla vektorer i mängden är nollvektorer, så är spannet bara $\{\vec{0}\}$.
>
> **Varför?** $c_1 \vec{0} + c_2 \vec{0} + \dots = \vec{0}$ oavsett val av skalärer.
>
> ![[08_nollvektor.png|400]]
> [!warning] Redundanta vektorer ändrar inte spannet
> Om $\vec{u}_3 = 2\vec{u}_1 + \vec{u}_2$ (dvs. $\vec{u}_3$ är en linjärkombination av de andra), då gäller:
> $\text{span}\{\vec{u}_1, \vec{u}_2, \vec{u}_3\} = \text{span}\{\vec{u}_1, \vec{u}_2\}$
> Att lägga till en "redundant" vektor gör spannet varken större eller mindre.
---
## 3. Linjärt oberoende och beroende
> [3B1B: Linear combinations, span, and basis vectors](https://youtu.be/k7RM-ot2NWY)
Det linjära höljet handlar om *vilka vektorer vi kan nå*. Linjärt oberoende handlar om **effektivitet** — har vi onödiga vektorer i vår mängd?
### 3.1 Definition
Låt $V$ vara ett vektorrum och $\{\vec{v}_1, \vec{v}_2, \dots, \vec{v}_p\}$ vektorer i $V$.
Mängden sägs vara **linjärt oberoende** om den enda lösningen till
$c_1\vec{v}_1 + c_2\vec{v}_2 + \dots + c_p\vec{v}_p = \vec{0}$
är den **triviala lösningen** $c_1 = c_2 = \dots = c_p = 0$.
Om det finns en **icke-trivial** lösning (dvs. minst ett $c_j \neq 0$) sägs mängden vara **linjärt beroende**.
> [!tip] Intuition
> - **Linjärt oberoende:** Varje vektor "bidrar med något nytt" — ingen vektor kan byggas av de andra.
> - **Linjärt beroende:** Minst en vektor är "överflödig" — den kan skrivas som en kombination av de övriga.
>
> Tänk på det som ett lag: om en lagmedlem kan göra exakt det de andra redan kan, är den *beroende* av de andra.
### 3.2 Ekvivalenta formuleringar
Följande påståenden är **ekvivalenta** (alla säger samma sak):
1. $\{\vec{v}_1, \dots, \vec{v}_p\}$ är linjärt **beroende**
2. Minst en av vektorerna kan skrivas som en linjärkombination av de övriga
3. $\text{span}\{\vec{v}_1, \dots, \vec{v}_p\}$ förändras inte om vi tar bort (minst) en vektor
4. Ekvationen $c_1\vec{v}_1 + \dots + c_p\vec{v}_p = \vec{0}$ har en icke-trivial lösning
> [!abstract] Kontrapositivt (för oberoende)
> $\{\vec{v}_1, \dots, \vec{v}_p\}$ är linjärt **oberoende** $\iff$ ingen av $\vec{v}_j$ kan skrivas som en linjärkombination av de övriga $\iff$ att ta bort en vektor **minskar** spannet.
---
### 3.3 Exempel
> [!example]- Linjärt oberoende i $\mathbb{R}^3$
> $\left\{\begin{bmatrix}1\\0\\0\end{bmatrix}, \begin{bmatrix}0\\1\\0\end{bmatrix}, \begin{bmatrix}0\\0\\1\end{bmatrix}\right\}$ — är dessa linjärt oberoende?
>
> **Lösning:** Sätt upp ekvationen $c_1\vec{e}_1 + c_2\vec{e}_2 + c_3\vec{e}_3 = \vec{0}$:
>
> $c_1\begin{bmatrix}1\\0\\0\end{bmatrix} + c_2\begin{bmatrix}0\\1\\0\end{bmatrix} + c_3\begin{bmatrix}0\\0\\1\end{bmatrix} = \begin{bmatrix}0\\0\\0\end{bmatrix} \implies \begin{bmatrix}c_1\\c_2\\c_3\end{bmatrix} = \begin{bmatrix}0\\0\\0\end{bmatrix}$
>
> Enda lösningen: $c_1 = c_2 = c_3 = 0$. ✓ **Linjärt oberoende.**
>
> **Geometriskt:** Varje vektor pekar i en helt egen riktning (x, y, z). Ingen kan byggas av de andra.
>
> ![[04_lin_oberoende_R3.png|400]]
> [!example]- Linjärt beroende i $\mathbb{R}^2$
> $\left\{\begin{bmatrix}1\\2\end{bmatrix}, \begin{bmatrix}2\\4\end{bmatrix}\right\}$ — linjärt oberoende eller beroende?
>
> **Lösning:** Vi söker $c_1, c_2$ (ej båda noll) sådana att $c_1\begin{bmatrix}1\\2\end{bmatrix} + c_2\begin{bmatrix}2\\4\end{bmatrix} = \begin{bmatrix}0\\0\end{bmatrix}$.
>
> T.ex. $c_1 = 2,\ c_2 = -1$ ger: $2\begin{bmatrix}1\\2\end{bmatrix} - 1\begin{bmatrix}2\\4\end{bmatrix} = \begin{bmatrix}2-2\\4-4\end{bmatrix} = \begin{bmatrix}0\\0\end{bmatrix}$ ✓
>
> **Linjärt beroende** eftersom vi hittade en icke-trivial lösning.
>
> **Geometriskt:** $\begin{bmatrix}2\\4\end{bmatrix} = 2\begin{bmatrix}1\\2\end{bmatrix}$ — de pekar i **samma riktning**. Andra vektorn tillför inget nytt.
>
> ![[05_lin_beroende_R2.png|400]]
> [!example]- Tre vektorer i $\mathbb{R}^2$ — alltid beroende!
> **Påstående:** Vilka tre vektorer som helst i $\mathbb{R}^2$ är linjärt beroende.
>
> **Varför?** I $\mathbb{R}^2$ har vi bara två "riktningar" att jobba med. Två oberoende vektorer spänner redan upp hela $\mathbb{R}^2$, så en tredje vektor **måste** kunna skrivas som en kombination av de första två.
>
> Detta följer av den allmänna regeln: i $\mathbb{R}^n$ kan man ha **högst** $n$ linjärt oberoende vektorer.
>
> ![[06_tre_vektorer_R2.png|400]]
---
### 3.4 Metod: kontrollera med radreducering
I praktiken kontrollerar man linjärt oberoende genom att bilda en matris och **radreducera**:
**Steg-för-steg:**
1. Skriv vektorerna som **kolumner** i en matris
2. Radreducera till trappstegsform (echelon form)
3. Tolka resultatet:
- **Varje kolumn har en pivot** → linjärt oberoende (enda lösningen är triviala)
- **Minst en kolumn saknar pivot** → linjärt beroende (det finns fria variabler → icke-triviala lösningar)
> [!example]- Räkneexempel: radreducering
> Är $\left\{\begin{bmatrix}1\\2\\3\end{bmatrix}, \begin{bmatrix}4\\5\\6\end{bmatrix}, \begin{bmatrix}2\\1\\0\end{bmatrix}\right\}$ linjärt oberoende?
>
> **Steg 1:** Bilda matris med vektorerna som kolumner:
> $A = \begin{bmatrix}1 & 4 & 2\\2 & 5 & 1\\3 & 6 & 0\end{bmatrix}$
>
> **Steg 2:** Radreducera:
> $R_2 \leftarrow R_2 - 2R_1$: $\begin{bmatrix}1 & 4 & 2\\0 & -3 & -3\\3 & 6 & 0\end{bmatrix}$
>
> $R_3 \leftarrow R_3 - 3R_1$: $\begin{bmatrix}1 & 4 & 2\\0 & -3 & -3\\0 & -6 & -6\end{bmatrix}$
>
> $R_3 \leftarrow R_3 - 2R_2$: $\begin{bmatrix}1 & 4 & 2\\0 & -3 & -3\\0 & 0 & 0\end{bmatrix}$
>
> **Steg 3:** Tolka — tredje kolumnen har **ingen pivot** (tredje raden är nollrad). Det finns en **fri variabel** → **linjärt beroende**.
>
> **Hitta beroendet:** Från rad 2: $-3c_2 - 3c_3 = 0 \implies c_2 = -c_3$. Sätt $c_3 = 1$, då $c_2 = -1$. Från rad 1: $c_1 + 4(-1) + 2(1) = 0 \implies c_1 = 2$. Alltså $2\vec{v}_1 - \vec{v}_2 + \vec{v}_3 = \vec{0}$, dvs. $\vec{v}_3 = -2\vec{v}_1 + \vec{v}_2$.
>
> **Kontroll:** $-2\begin{bmatrix}1\\2\\3\end{bmatrix} + \begin{bmatrix}4\\5\\6\end{bmatrix} = \begin{bmatrix}2\\1\\0\end{bmatrix}$ ✓
>
> ![[07_radreducering.png|400]]
---
### 3.5 Viktiga satser och tumregler
> [!theorem] Sats
> Om $\{\vec{v}_1, \dots, \vec{v}_p\}$ är linjärt oberoende, så kan **ingen** av vektorerna $\vec{v}_j$ skrivas som en linjärkombination av de övriga.
> [!theorem] Dimensionsregeln
> I $\mathbb{R}^n$ gäller:
> - Högst $n$ vektorer kan vara linjärt oberoende
> - Om du har **fler än** $n$ vektorer i $\mathbb{R}^n$, är de **alltid** linjärt beroende
> - Om du har exakt $n$ linjärt oberoende vektorer, spänner de upp hela $\mathbb{R}^n$
> [!tip] Snabbkontroller för linjärt beroende
> Följande ger **direkt** att mängden är linjärt beroende (ingen radreducering behövs):
> 1. **Nollvektorn ingår:** Om $\vec{0} \in \{\vec{v}_1, \dots, \vec{v}_p\}$ → alltid beroende (sätt koefficienten för $\vec{0}$ till t.ex. 7 och resten till 0)
> 2. **Fler vektorer än dimensionen:** Om $p > n$ i $\mathbb{R}^n$ → alltid beroende
> 3. **En vektor är uppenbar multipel av en annan:** T.ex. $\vec{v}_2 = 3\vec{v}_1$
---
## 4. Samband mellan span och linjärt oberoende
Dessa två begrepp hänger ihop tätt:
| Fråga | Begrepp |
|---|---|
| Vilka vektorer kan vi **nå**? | Span |
| Är vår vektormängd **effektiv** (inga onödiga)? | Linjärt oberoende |
| Vad är en **minimal** uppsättning som spänner upp $V$? | **Bas** (nästa föreläsning!) |
En **bas** för ett vektorrum $V$ är en mängd vektorer som är:
1. Linjärt oberoende
2. Spänner upp hela $V$
> [!tip] Framåtblick
> Begreppet "bas" kombinerar span och linjärt oberoende. T.ex. $\{\vec{e}_1, \vec{e}_2, \vec{e}_3\}$ är en bas för $\mathbb{R}^3$ eftersom den är oberoende OCH spänner upp hela rummet. Mer om detta i nästa föreläsning.
---
## 5. Beslutsträd
### Är mängden linjärt oberoende?
```mermaid
flowchart TD
A["Givet: {v₁, ..., vₚ} i Rⁿ (eller annat vektorrum)"] --> B{"Innehåller mängden\nnollvektorn 0?"}
B -- Ja --> DEP["LINJÄRT BEROENDE\n(0 = 0·v₁ + ... + 0·vₚ\nger icke-trivial lösning\nom vi sätter koeff. för 0 ≠ 0)"]
B -- Nej --> C{"Fler vektorer\nän dimensionen?\n(p > n i Rⁿ)"}
C -- Ja --> DEP
C -- Nej --> D{"Är någon vektor\nen uppenbar multipel\nav en annan?"}
D -- Ja --> DEP
D -- Nej --> E["Bilda matris med\nvektorerna som kolumner\noch radreducera"]
E --> F{"Har varje kolumn\nen pivot?"}
F -- Ja --> INDEP["LINJÄRT OBEROENDE\n(enda lösningen är triviala)"]
F -- Nej --> DEP2["LINJÄRT BEROENDE\n(fria variabler → icke-trivial lösning)"]
```
### Spänner mängden upp hela rummet?
```mermaid
flowchart TD
A["Givet: {v₁, ..., vₚ} i V\nFråga: span{v₁,...,vₚ} = V?"] --> B{"Färre vektorer\nän dim(V)?\n(p < dim V)"}
B -- Ja --> NO["SPÄNNER INTE UPP V\n(för få vektorer)"]
B -- Nej --> C["Bilda matris med\nvektorerna som kolumner\noch radreducera"]
C --> D{"Har varje RAD\nen pivot?"}
D -- Ja --> YES["SPÄNNER UPP V\n(systemet Ax = b har\nlösning för alla b)"]
D -- Nej --> NO2["SPÄNNER INTE UPP V\n(det finns b utan lösning)"]
```
> [!tip] Läs beslutsträden noga
> Notera skillnaden: för **linjärt oberoende** kollar vi om varje **kolumn** har en pivot. För att **spänna upp** kollar vi om varje **rad** har en pivot. Om båda gäller samtidigt (varje rad OCH varje kolumn har pivot) har vi en **bas**.
---
## 6. Övningsuppgifter
### Span-uppgifter
> [!question]- Uppgift 1: Span i $\mathbb{R}^2$
> Beskriv geometriskt $\text{span}\left\{\begin{bmatrix}3\\-1\end{bmatrix}\right\}$.
>
> > [!hint]- Ledtråd 1
> > Vad är spannet av en enda vektor? Tänk på vad som händer när du multiplicerar en vektor med alla möjliga skalärer $c \in \mathbb{R}$. Vilken geometrisk figur bildas?
>
> > [!hint]- Ledtråd 2
> > Spannet av en enskild icke-noll vektor i $\mathbb{R}^2$ ger alltid en linje genom origo. Vilken linje? Tänk på sambandet mellan komponenterna: om $(x, y) = c(3, -1)$ så gäller $x = 3c$ och $y = -c$. Eliminera $c$ för att få en ekvation $y = kx$.
>
> > [!success]- Facit
> > $\text{span}\left\{\begin{bmatrix}3\\-1\end{bmatrix}\right\}$ är en **linje genom origo** i riktningen $(3, -1)$.
> >
> > > [!success]- Full lösning
> > > Varje vektor i spannet har formen $c\begin{bmatrix}3\\-1\end{bmatrix} = \begin{bmatrix}3c\\-c\end{bmatrix}$ för $c \in \mathbb{R}$.
> > >
> > > Om vi sätter $x = 3c$ och $y = -c$ får vi $c = -y$, alltså $x = 3(-y) = -3y$, dvs. $y = -\frac{1}{3}x$.
> > >
> > > Geometriskt är detta alla punkter på linjen $y = -\frac{1}{3}x$, som passerar genom origo med negativ lutning. När $c > 0$ pekar vi i riktningen $(3, -1)$ och när $c < 0$ pekar vi åt motsatt håll $(-3, 1)$. Hela linjen täcks.
> [!question]- Uppgift 2: Tillhör vektorn spannet?
> Tillhör $\begin{bmatrix}5\\3\end{bmatrix}$ spannet $\text{span}\left\{\begin{bmatrix}1\\1\end{bmatrix}, \begin{bmatrix}2\\0\end{bmatrix}\right\}$?
>
> > [!hint]- Ledtråd 1
> > Att en vektor $\vec{b}$ tillhör $\text{span}\{\vec{u}_1, \vec{u}_2\}$ betyder att det finns skalärer $c_1, c_2$ sådana att $c_1\vec{u}_1 + c_2\vec{u}_2 = \vec{b}$. Skriv upp detta komponentvis — du får ett ekvationssystem med två ekvationer och två obekanta.
>
> > [!hint]- Ledtråd 2
> > Ekvationssystemet blir: $c_1 + 2c_2 = 5$ och $c_1 = 3$. Den andra ekvationen ger dig $c_1$ direkt. Sätt in i den första.
>
> > [!success]- Facit
> > **Ja**, vektorn tillhör spannet: $\begin{bmatrix}5\\3\end{bmatrix} = 3\begin{bmatrix}1\\1\end{bmatrix} + 1\begin{bmatrix}2\\0\end{bmatrix}$.
> >
> > > [!success]- Full lösning
> > > Vi söker $c_1, c_2$ sådana att $c_1\begin{bmatrix}1\\1\end{bmatrix} + c_2\begin{bmatrix}2\\0\end{bmatrix} = \begin{bmatrix}5\\3\end{bmatrix}$.
> > >
> > > Komponentvis ger detta systemet:
> > > $c_1 + 2c_2 = 5 \quad \text{(rad 1)}$
> > > $c_1 + 0 \cdot c_2 = 3 \quad \text{(rad 2)}$
> > >
> > > Från rad 2: $c_1 = 3$. Insatt i rad 1: $3 + 2c_2 = 5 \implies c_2 = 1$.
> > >
> > > Vi hittade en lösning, alltså ligger vektorn i spannet. Vi kan verifiera: $3\begin{bmatrix}1\\1\end{bmatrix} + 1\begin{bmatrix}2\\0\end{bmatrix} = \begin{bmatrix}3+2\\3+0\end{bmatrix} = \begin{bmatrix}5\\3\end{bmatrix}$ ✓
> > >
> > > **Notera:** Om systemet hade saknat lösning (motsägelse) hade vektorn *inte* legat i spannet.
> [!question]- Uppgift 3: Span av polynom
> Låt $p_1(t) = 1 + t$, $p_2(t) = t + t^2$, $p_3(t) = 1 + 2t + t^2$ i $\mathcal{P}_2$.
>
> Tillhör polynomet $q(t) = 3 + 5t + 2t^2$ spannet $\text{span}\{p_1, p_2, p_3\}$?
>
> > [!hint]- Ledtråd 1
> > Vi söker skalärer $c_1, c_2, c_3$ sådana att $c_1 p_1(t) + c_2 p_2(t) + c_3 p_3(t) = q(t)$. Utveckla vänsterledet och jämför koefficienterna för $1$, $t$ och $t^2$ på båda sidor. Du får ett linjärt ekvationssystem.
>
> > [!hint]- Ledtråd 2
> > Utvecklat: $c_1(1+t) + c_2(t+t^2) + c_3(1+2t+t^2) = (c_1+c_3) + (c_1+c_2+2c_3)t + (c_2+c_3)t^2$.
> >
> > Jämför med $3 + 5t + 2t^2$:
> > - Konstant term: $c_1 + c_3 = 3$
> > - $t$-koefficient: $c_1 + c_2 + 2c_3 = 5$
> > - $t^2$-koefficient: $c_2 + c_3 = 2$
> >
> > Lös detta $3 \times 3$-system.
>
> > [!success]- Facit
> > **Ja**, $q(t) = 1 \cdot p_1(t) + 1 \cdot p_2(t) + 2 \cdot p_3(t)$.
> >
> > > [!success]- Full lösning
> > > Vi utvecklar linjärkombinationen:
> > > $c_1(1+t) + c_2(t+t^2) + c_3(1+2t+t^2)$
> > > $= (c_1 + c_3) + (c_1 + c_2 + 2c_3)t + (c_2 + c_3)t^2$
> > >
> > > Jämförelse med $q(t) = 3 + 5t + 2t^2$ ger systemet:
> > > $\begin{cases} c_1 + c_3 = 3 \\ c_1 + c_2 + 2c_3 = 5 \\ c_2 + c_3 = 2 \end{cases}$
> > >
> > > Från ekvation (1): $c_1 = 3 - c_3$.
> > > Insatt i ekvation (2): $(3 - c_3) + c_2 + 2c_3 = 5 \implies c_2 + c_3 = 2$.
> > > Detta är identiskt med ekvation (3), så vi har en fri variabel. Välj $c_3 = 2$: då ger ekvation (3) $c_2 = 0$ och ekvation (1) $c_1 = 1$.
> > >
> > > Men vänta — låt oss prova $c_3 = 2$, $c_2 = 0$, $c_1 = 1$:
> > > $1 \cdot(1+t) + 0 \cdot(t+t^2) + 2 \cdot(1+2t+t^2) = 1+t+2+4t+2t^2 = 3+5t+2t^2 \checkmark$
> > >
> > > Polynomet tillhör spannet. Det att systemet hade en fri variabel innebär dessutom att $\{p_1, p_2, p_3\}$ är **linjärt beroende** — $p_3 = p_1 + p_2$, vilket man kan verifiera direkt: $(1+t) + (t+t^2) = 1+2t+t^2$.
---
### Linjärt oberoende-uppgifter
> [!question]- Uppgift 4: Oberoende eller beroende i $\mathbb{R}^3$?
> Är $\left\{\begin{bmatrix}1\\0\\2\end{bmatrix}, \begin{bmatrix}0\\1\\-1\end{bmatrix}, \begin{bmatrix}1\\1\\1\end{bmatrix}\right\}$ linjärt oberoende?
>
> > [!hint]- Ledtråd 1
> > Bilda en $3 \times 3$-matris med vektorerna som kolumner och radreducera. Om varje kolumn har en pivot → oberoende. Om det finns en kolumn utan pivot → beroende.
>
> > [!hint]- Ledtråd 2
> > Matrisen blir $\begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\2 & -1 & 1\end{bmatrix}$. Börja med $R_3 \leftarrow R_3 - 2R_1$ för att eliminera första elementet i rad 3.
>
> > [!success]- Facit
> > **Linjärt beroende.** Beroendet: $\vec{v}_3 = \vec{v}_1 + \vec{v}_2$.
> >
> > > [!success]- Full lösning
> > > Radreducera:
> > > $\begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\2 & -1 & 1\end{bmatrix} \xrightarrow{R_3 - 2R_1} \begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & -1 & -1\end{bmatrix} \xrightarrow{R_3 + R_2} \begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & 0 & 0\end{bmatrix}$
> > >
> > > Tredje kolumnen saknar pivot (tredje raden är en nollrad). Det finns en fri variabel, alltså är mängden **linjärt beroende**.
> > >
> > > **Hitta beroendet:** Från trappstegsformen:
> > > - Rad 2: $c_2 + c_3 = 0 \implies c_2 = -c_3$
> > > - Rad 1: $c_1 + c_3 = 0 \implies c_1 = -c_3$
> > >
> > > Sätt $c_3 = -1$: $c_1 = 1,\ c_2 = 1,\ c_3 = -1$, dvs. $\vec{v}_1 + \vec{v}_2 - \vec{v}_3 = \vec{0}$.
> > >
> > > Alltså $\vec{v}_3 = \vec{v}_1 + \vec{v}_2$. Kontroll: $\begin{bmatrix}1\\0\\2\end{bmatrix} + \begin{bmatrix}0\\1\\-1\end{bmatrix} = \begin{bmatrix}1\\1\\1\end{bmatrix}$ ✓
> [!question]- Uppgift 5: Oberoende polynom?
> Är mängden $\{1 - t,\ t - t^2,\ 1 - t^2\}$ linjärt oberoende i $\mathcal{P}_2$?
>
> > [!hint]- Ledtråd 1
> > Precis som i $\mathbb{R}^n$ sätter vi upp ekvationen $c_1(1-t) + c_2(t-t^2) + c_3(1-t^2) = 0$ (nollpolynomet). Utveckla och jämför koefficienterna för $1$, $t$ och $t^2$. Nollpolynomet har alla koefficienter = 0.
>
> > [!hint]- Ledtråd 2
> > Du får systemet:
> > - Konstant: $c_1 + c_3 = 0$
> > - $t$: $-c_1 + c_2 = 0$
> > - $t^2$: $-c_2 - c_3 = 0$
> >
> > Addera alla tre ekvationer. Vad händer?
>
> > [!success]- Facit
> > **Linjärt beroende.** Beroendet: $(1-t) + (t-t^2) = (1-t^2)$, alltså $p_3 = p_1 + p_2$.
> >
> > > [!success]- Full lösning
> > > Sätt $c_1(1-t) + c_2(t-t^2) + c_3(1-t^2) = 0$. Utveckla:
> > > $(c_1 + c_3) + (-c_1 + c_2)t + (-c_2 - c_3)t^2 = 0$
> > >
> > > Eftersom nollpolynomet har alla koefficienter lika med noll:
> > > $\begin{cases} c_1 + c_3 = 0 \\ -c_1 + c_2 = 0 \\ -c_2 - c_3 = 0 \end{cases}$
> > >
> > > Från ekvation (1): $c_1 = -c_3$. Insatt i ekvation (2): $c_3 + c_2 = 0 \implies c_2 = -c_3$. Kontroll mot ekvation (3): $-(-c_3) - c_3 = 0$ ✓.
> > >
> > > Alltså: $c_3$ är fri. Välj $c_3 = -1$: $c_1 = 1,\ c_2 = 1,\ c_3 = -1$.
> > >
> > > Det ger: $(1-t) + (t-t^2) - (1-t^2) = 1 - t + t - t^2 - 1 + t^2 = 0$ ✓
> > >
> > > **Linjärt beroende** med beroendet $p_3 = p_1 + p_2$: $(1-t^2) = (1-t) + (t-t^2)$.
> > >
> > > **Observera:** detta är helt analogt med vektorfallet — vi identifierar polynomet $a + bt + ct^2$ med vektorn $\begin{bmatrix}a\\b\\c\end{bmatrix}$ och då blir $(1-t) \leftrightarrow \begin{bmatrix}1\\-1\\0\end{bmatrix}$, $(t-t^2) \leftrightarrow \begin{bmatrix}0\\1\\-1\end{bmatrix}$, $(1-t^2) \leftrightarrow \begin{bmatrix}1\\0\\-1\end{bmatrix}$, som vi kan radreducera precis som vanligt.
> [!question]- Uppgift 6: Oberoende matriser?
> Är följande mängd i $M_{2 \times 2}$ linjärt oberoende?
> $\left\{\begin{bmatrix}1 & 0\\0 & 0\end{bmatrix},\ \begin{bmatrix}0 & 1\\1 & 0\end{bmatrix},\ \begin{bmatrix}1 & 1\\1 & 0\end{bmatrix}\right\}$
>
> > [!hint]- Ledtråd 1
> > Samma teknik som i matris-spanexemplet: "veckla ut" varje $2 \times 2$-matris till en vektor i $\mathbb{R}^4$ genom att läsa radvis. $\begin{bmatrix}a & b\\c & d\end{bmatrix} \mapsto \begin{bmatrix}a\\b\\c\\d\end{bmatrix}$. Sedan bildar du en vanlig matris och radreducerar.
>
> > [!hint]- Ledtråd 2
> > De utvecklade vektorerna blir: $\begin{bmatrix}1\\0\\0\\0\end{bmatrix}$, $\begin{bmatrix}0\\1\\1\\0\end{bmatrix}$, $\begin{bmatrix}1\\1\\1\\0\end{bmatrix}$. Bilda $4 \times 3$-matrisen med dessa som kolumner och radreducera. Har varje kolumn en pivot?
>
> > [!success]- Facit
> > **Linjärt beroende.** Den tredje matrisen är summan av de två första.
> >
> > > [!success]- Full lösning
> > > Veckla ut matriserna radvis:
> > > $A_1 \mapsto \begin{bmatrix}1\\0\\0\\0\end{bmatrix}, \quad A_2 \mapsto \begin{bmatrix}0\\1\\1\\0\end{bmatrix}, \quad A_3 \mapsto \begin{bmatrix}1\\1\\1\\0\end{bmatrix}$
> > >
> > > Bilda matris och radreducera:
> > > $\begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & 1 & 1\\0 & 0 & 0\end{bmatrix} \xrightarrow{R_3 - R_2} \begin{bmatrix}1 & 0 & 1\\0 & 1 & 1\\0 & 0 & 0\\0 & 0 & 0\end{bmatrix}$
> > >
> > > Två pivoter, tre kolumner → tredje kolumnen saknar pivot → **linjärt beroende**.
> > >
> > > Beroendet avläses direkt: kolumn 3 = kolumn 1 + kolumn 2, alltså $A_3 = A_1 + A_2$.
> > >
> > > Kontroll: $\begin{bmatrix}1 & 0\\0 & 0\end{bmatrix} + \begin{bmatrix}0 & 1\\1 & 0\end{bmatrix} = \begin{bmatrix}1 & 1\\1 & 0\end{bmatrix}$ ✓
> [!question]- Uppgift 7: Spänna upp $\mathcal{P}_1$
> Låt $\mathcal{P}_1$ vara vektorrummet av alla polynom med grad $\leq 1$ (dvs. alla polynom $a + bt$). Dimensionen av $\mathcal{P}_1$ är 2.
>
> Spänner mängden $\{1 + t,\ 1 - t\}$ upp hela $\mathcal{P}_1$?
>
> > [!hint]- Ledtråd 1
> > Vi måste visa att ett godtyckligt polynom $a + bt$ kan skrivas som $c_1(1+t) + c_2(1-t)$. Utveckla högerledet och jämför koefficienter. Kan du alltid hitta $c_1$ och $c_2$?
>
> > [!hint]- Ledtråd 2
> > Utvecklat: $c_1(1+t) + c_2(1-t) = (c_1 + c_2) + (c_1 - c_2)t$. Vi behöver lösa:
> > - $c_1 + c_2 = a$
> > - $c_1 - c_2 = b$
> >
> > Har detta system alltid en lösning, oavsett val av $a$ och $b$?
>
> > [!success]- Facit
> > **Ja**, mängden spänner upp hela $\mathcal{P}_1$.
> >
> > > [!success]- Full lösning
> > > Vi vill visa att varje polynom $a + bt \in \mathcal{P}_1$ kan skrivas som $c_1(1+t) + c_2(1-t)$.
> > >
> > > Utveckla: $c_1(1+t) + c_2(1-t) = (c_1+c_2) + (c_1-c_2)t$.
> > >
> > > Jämförelse ger systemet:
> > > $\begin{cases} c_1 + c_2 = a \\ c_1 - c_2 = b \end{cases}$
> > >
> > > Addera ekvationerna: $2c_1 = a + b \implies c_1 = \frac{a+b}{2}$.
> > > Subtrahera: $2c_2 = a - b \implies c_2 = \frac{a-b}{2}$.
> > >
> > > Dessa formler ger en lösning **för alla** $a, b \in \mathbb{R}$. Alltså kan varje polynom i $\mathcal{P}_1$ skrivas som en linjärkombination av $\{1+t,\ 1-t\}$.
> > >
> > > **Exempel:** $q(t) = 5 + 3t$ ger $c_1 = \frac{5+3}{2} = 4$ och $c_2 = \frac{5-3}{2} = 1$:
> > > $4(1+t) + 1(1-t) = 4+4t+1-t = 5+3t$ ✓
> > >
> > > **Dessutom** är $\{1+t,\ 1-t\}$ linjärt oberoende (ingen är en multipel av den andra), och det finns 2 vektorer i ett 2-dimensionellt rum. Alltså är $\{1+t,\ 1-t\}$ en **bas** för $\mathcal{P}_1$.
---
### Konceptuella uppgifter
> [!question]- Uppgift 8: Sant eller falskt? (med motivering)
> Avgör om påståendena är sanna eller falska. Motivera kort.
>
> a) $\text{span}\{\vec{u}\} = \text{span}\{2\vec{u}\}$ för varje $\vec{u}$.
> b) Om $\vec{v} \in \text{span}\{\vec{u}_1, \vec{u}_2\}$ så är $\{\vec{u}_1, \vec{u}_2, \vec{v}\}$ linjärt beroende.
> c) Två vektorer i $\mathbb{R}^5$ är alltid linjärt oberoende.
> d) Om $\{\vec{v}_1, \vec{v}_2, \vec{v}_3\}$ är linjärt oberoende i $\mathbb{R}^3$, så spänner de upp hela $\mathbb{R}^3$.
> e) Om $\text{span}\{A_1, A_2, A_3\} = M_{2 \times 2}$ så är $\{A_1, A_2, A_3\}$ linjärt oberoende.
>
> > [!hint]- Ledtråd
> > För c) och e): fundera på om det finns motexempel. Finns det två vektorer i $\mathbb{R}^5$ som råkar vara beroende? Kan tre matriser spänna upp ett 4-dimensionellt rum?
>
> > [!success]- Facit och motivering
> >
> > a) **Sant.** Varje vektor $c \cdot \vec{u}$ i $\text{span}\{\vec{u}\}$ kan skrivas som $\frac{c}{2} \cdot (2\vec{u})$, som ligger i $\text{span}\{2\vec{u}\}$. Omvänt: varje $k \cdot (2\vec{u}) = (2k)\vec{u} \in \text{span}\{\vec{u}\}$. Mängderna är identiska.
> >
> > b) **Sant.** Om $\vec{v} = c_1\vec{u}_1 + c_2\vec{u}_2$ så ger $c_1\vec{u}_1 + c_2\vec{u}_2 + (-1)\vec{v} = \vec{0}$ en icke-trivial lösning (koefficienten för $\vec{v}$ är $-1 \neq 0$). Alltså linjärt beroende.
> >
> > c) **Falskt.** Motexempel: $\begin{bmatrix}1\\0\\0\\0\\0\end{bmatrix}$ och $\begin{bmatrix}2\\0\\0\\0\\0\end{bmatrix}$ är linjärt beroende trots att de ligger i $\mathbb{R}^5$, eftersom den ena är en multipel av den andra. Dimensionsregeln säger att man kan ha *högst* $n$ oberoende vektorer — den säger inte att färre än $n$ vektorer automatiskt är oberoende.
> >
> > d) **Sant.** I $\mathbb{R}^3$ gäller: 3 linjärt oberoende vektorer ger en matris med 3 pivotkolumner, alltså en pivot i varje rad (matrisen är $3 \times 3$). Då spänner de upp hela $\mathbb{R}^3$.
> >
> > e) **Falskt.** $\dim(M_{2\times 2}) = 4$, men vi har bara 3 matriser. Tre vektorer kan aldrig spänna upp ett 4-dimensionellt rum (vi behöver minst 4 pivotrader men har bara 3 kolumner). Så påståendets premiss $\text{span}\{A_1, A_2, A_3\} = M_{2\times 2}$ kan faktiskt aldrig vara sann — det gör hela påståendet vacuöst sant (sant på grund av att premissen aldrig uppfylls). Men det viktiga insikten är: **tre vektorer räcker aldrig för att spänna upp ett 4-dimensionellt rum**.
---
## Resurser
### Videor
- [3Blue1Brown: Linear combinations, span, and basis vectors (kap 2)](https://youtu.be/k7RM-ot2NWY) — span och linjärt oberoende visuellt förklarat
- [3Blue1Brown: Abstract vector spaces (kap 16)](https://youtu.be/TgKwz5Ikpc8) — span och oberoende i abstrakta vektorrum
- [3Blue1Brown: Inverse matrices, column space and null space (kap 7)](https://youtu.be/uQhTuRlWMxw) — kolonnrum som span
### Wikipedia
- [Linear span](https://en.wikipedia.org/wiki/Linear_span)
- [Linear independence](https://en.wikipedia.org/wiki/Linear_independence)
- [Linear combination](https://en.wikipedia.org/wiki/Linear_combination)
### Fördjupning
- [Immersive Linear Algebra — Chapter 2: Vectors](https://immersivemath.com/ila/ch02_vectors/ch02.html)
- [Georgia Tech — Interactive Linear Algebra: Linear Independence](https://textbooks.math.gatech.edu/ila/linear-independence.html)