# Radrum, Kolonnrum & Nollrum
> **Föreläsning:** V5L1 · **Ämne:** Linjär algebra
> **Förkunskaper:** Vektorrum, delrum ([[V4L1 M0067M]]), linjärt hölje, linjärt oberoende ([[V4L2 M0067M]]), bas, koordinater ([[V4L3 M0067M]]), dimension ([[V4L4 M0067M]]), basbyte ([[V4L5 M0067M]])
---
## Ordlista svenska ↔ engelska
| Svenska | Engelska |
|---|---|
| Kolonnrum (kolumnrum) | Column space |
| Radrum | Row space |
| Nollrum | Null space (kernel) |
| Rang | Rank |
| Dimensionssatsen | Rank–nullity theorem |
| Pivot | Pivot |
| Fri variabel | Free variable |
| Partikulär lösning | Particular solution |
| Homogen lösning | Homogeneous solution |
| Inverterbar | Invertible |
---
## 1. Tre fundamentala delrum kopplade till en matris
> [3B1B: Inverse matrices, column space and null space](https://youtu.be/uQhTuRlWMxw)
Givet en $m \times n$-matris $A$ definierar vi tre delrum. Dessa beskriver **allt** man behöver veta om det linjära systemet $A\vec{x} = \vec{b}$.
### 1.1 Kolonnrummet $\text{col}(A)$
> [!abstract] Definition: Kolonnrum
> Låt $A$ vara en $m \times n$-matris med kolumner $\vec{a}_1, \vec{a}_2, \dots, \vec{a}_n$.
>
> **Kolonnrummet** är spannet av kolumnerna:
>
> $\text{col}(A) = \text{span}\{\vec{a}_1, \vec{a}_2, \dots, \vec{a}_n\} \subseteq \mathbb{R}^m$
**Intuition:** Kolonnrummet är mängden av **alla vektorer $\vec{y}$** sådana att ekvationen $A\vec{x} = \vec{y}$ **har en lösning**. Det vill säga:
$\vec{y} \in \text{col}(A) \iff \text{det finns ett } \vec{x} \in \mathbb{R}^n \text{ sådant att } A\vec{x} = \vec{y}$
**Varför?** Att skriva $A\vec{x} = \vec{y}$ är samma sak som att skriva $x_1\vec{a}_1 + x_2\vec{a}_2 + \dots + x_n\vec{a}_n = \vec{y}$, alltså att $\vec{y}$ är en linjärkombination av kolumnerna i $A$. Det betyder precis att $\vec{y} \in \text{span}\{\vec{a}_1, \dots, \vec{a}_n\} = \text{col}(A)$.
> [!example]- Räkneexempel: Kolonnrum
> Låt $A = \begin{bmatrix}1 & 2 \\ 3 & 6\end{bmatrix}$.
>
> Kolumnerna är $\vec{a}_1 = \begin{bmatrix}1\\3\end{bmatrix}$ och $\vec{a}_2 = \begin{bmatrix}2\\6\end{bmatrix} = 2\vec{a}_1$.
>
> Eftersom $\vec{a}_2$ är en multipel av $\vec{a}_1$:
>
> $\text{col}(A) = \text{span}\left\{\begin{bmatrix}1\\3\end{bmatrix}\right\}$
>
> Det är en **linje genom origo** i $\mathbb{R}^2$. Bara vektorer på denna linje (dvs. av formen $t\begin{bmatrix}1\\3\end{bmatrix}$) kan vara högerled till $A\vec{x} = \vec{b}$ som har en lösning.
---
### 1.2 Radrummet $\text{row}(A)$
> [!abstract] Definition: Radrum
> Låt $A$ vara en $m \times n$-matris med rader $\vec{r}_1, \vec{r}_2, \dots, \vec{r}_m$.
>
> **Radrummet** är spannet av raderna (betraktade som vektorer i $\mathbb{R}^n$):
>
> $\text{row}(A) = \text{span}\{\vec{r}_1, \vec{r}_2, \dots, \vec{r}_m\} \subseteq \mathbb{R}^n$
**Alternativ formulering:** Radrummet av $A$ är samma sak som kolonnrummet av $A^T$:
$\text{row}(A) = \text{col}(A^T)$
> [!example]- Räkneexempel: Radrum
> Samma $A = \begin{bmatrix}1 & 2 \\ 3 & 6\end{bmatrix}$.
>
> Raderna är $\vec{r}_1 = \begin{bmatrix}1 & 2\end{bmatrix}$ och $\vec{r}_2 = \begin{bmatrix}3 & 6\end{bmatrix} = 3\vec{r}_1$.
>
> $\text{row}(A) = \text{span}\left\{\begin{bmatrix}1\\2\end{bmatrix}\right\} \subseteq \mathbb{R}^2$
---
### 1.3 Nollrummet $\text{null}(A)$
> [!abstract] Definition: Nollrum
> Låt $A$ vara en $m \times n$-matris.
>
> **Nollrummet** (eller **kärnan**) är mängden av alla lösningar till det homogena systemet:
>
> $\text{null}(A) = \{\vec{x} \in \mathbb{R}^n : A\vec{x} = \vec{0}\}$
**Intuition:** Nollrummet innehåller alla vektorer som $A$ "dödar" — skickar till nollvektorn.
> [!example]- Räkneexempel: Nollrum
> Samma $A = \begin{bmatrix}1 & 2 \\ 3 & 6\end{bmatrix}$. Lös $A\vec{x} = \vec{0}$:
>
> $\begin{bmatrix}1 & 2 & | & 0 \\ 3 & 6 & | & 0\end{bmatrix} \xrightarrow{R_2 - 3R_1} \begin{bmatrix}1 & 2 & | & 0 \\ 0 & 0 & | & 0\end{bmatrix}$
>
> En ekvation: $x_1 + 2x_2 = 0 \implies x_1 = -2x_2$. Sätt $x_2 = t$:
>
> $\vec{x} = t\begin{bmatrix}-2\\1\end{bmatrix}$
>
> $\text{null}(A) = \text{span}\left\{\begin{bmatrix}-2\\1\end{bmatrix}\right\}$
---
## 2. Koppling till lösbarhet: $A\vec{x} = \vec{b}$ och kolonnrummet
> [!theorem] Sats: Lösbarhet via kolonnrummet
> Det linjära systemet $A\vec{x} = \vec{b}$ **har en lösning** om och bara om
>
> $\vec{b} \in \text{col}(A)$
**Med andra ord:** Kan $\vec{b}$ skrivas som en linjärkombination av kolumnerna i $A$? Om ja → lösning finns. Om nej → systemet saknar lösning.
> [!example]- Räkneexempel: Har $A\vec{x} = \vec{b}$ en lösning?
> Låt $A = \begin{bmatrix}1 & 3 \\ 2 & 6\end{bmatrix}$ och $\vec{b} = \begin{bmatrix}4\\8\end{bmatrix}$.
>
> Vi vet att $\text{col}(A) = \text{span}\left\{\begin{bmatrix}1\\2\end{bmatrix}\right\}$ (samma linje som innan).
>
> Är $\begin{bmatrix}4\\8\end{bmatrix} = t\begin{bmatrix}1\\2\end{bmatrix}$? Ja, med $t = 4$. Alltså $\vec{b} \in \text{col}(A)$ och systemet har en lösning.
>
> Vad om $\vec{b} = \begin{bmatrix}1\\1\end{bmatrix}$? Då behöver vi $t = 1$ och $2t = 1$, dvs. $t = 1/2$ — motsägelse. Alltså $\vec{b} \notin \text{col}(A)$ och systemet saknar lösning.
---
## 3. Lösningens struktur: $\vec{x} = \vec{x}_P + \vec{x}_H$
Om $A\vec{x} = \vec{b}$ har en lösning kan vi beskriva **alla** lösningar med hjälp av nollrummet.
> [!theorem] Sats: Allmän lösning = partikulär + homogen
> Om $\vec{x}_P$ är **en** (partikulär) lösning till $A\vec{x} = \vec{b}$, så är **alla** lösningar av formen
>
> $\vec{x} = \vec{x}_P + \vec{x}_H$
>
> där $\vec{x}_H \in \text{null}(A)$ (dvs. $A\vec{x}_H = \vec{0}$).
**Bevis:** Om $A\vec{x}_P = \vec{b}$ och $A\vec{x}_H = \vec{0}$, så $A(\vec{x}_P + \vec{x}_H) = A\vec{x}_P + A\vec{x}_H = \vec{b} + \vec{0} = \vec{b}$ ✓.
Omvänt, om $A\vec{x} = \vec{b}$, sätt $\vec{x}_H = \vec{x} - \vec{x}_P$. Då $A\vec{x}_H = A\vec{x} - A\vec{x}_P = \vec{b} - \vec{b} = \vec{0}$, alltså $\vec{x}_H \in \text{null}(A)$. ∎
> [!tip] Koppling till differentialekvationer
> Om du har läst om differentialekvationer känner du igen denna struktur! För en linjär ODE $Ly = f(t)$ gäller exakt samma princip:
>
> $y(t) = y_P(t) + y_H(t)$
>
> där $y_P$ är en partikulärlösning till $Ly = f$ och $y_H$ löser den homogena ekvationen $Ly = 0$.
>
> Det beror på att **samma linjära algebra** ligger bakom — lineariteten i $A$ (respektive $L$) gör att skillnaden mellan två lösningar alltid tillhör nollrummet (respektive den homogena lösningen).
> [!example]- Räkneexempel: Allmän lösning
> Lös $A\vec{x} = \vec{b}$ där
>
> $A = \begin{bmatrix}1 & 3 & 1 \\ 2 & 6 & 4\end{bmatrix}, \quad \vec{b} = \begin{bmatrix}2\\8\end{bmatrix}$
>
> **Steg 1:** Radreducera $[A \mid \vec{b}]$:
>
> $\begin{bmatrix}1 & 3 & 1 & | & 2 \\ 2 & 6 & 4 & | & 8\end{bmatrix} \xrightarrow{R_2 - 2R_1} \begin{bmatrix}1 & 3 & 1 & | & 2 \\ 0 & 0 & 2 & | & 4\end{bmatrix}$
>
> **Steg 2:** Läs av. Från rad 2: $2x_3 = 4 \implies x_3 = 2$. Från rad 1: $x_1 + 3x_2 + 2 = 2 \implies x_1 = -3x_2$.
>
> $x_2$ är fri, sätt $x_2 = t$.
>
> **Partikulärlösning** (sätt $t = 0$): $\vec{x}_P = \begin{bmatrix}0\\0\\2\end{bmatrix}$
>
> **Homogen lösning:** $\vec{x}_H = t\begin{bmatrix}-3\\1\\0\end{bmatrix}$
>
> **Allmän lösning:**
>
> $\vec{x} = \underbrace{\begin{bmatrix}0\\0\\2\end{bmatrix}}_{\vec{x}_P} + t\underbrace{\begin{bmatrix}-3\\1\\0\end{bmatrix}}_{\in \text{null}(A)}$
---
## 4. Hitta baser för rad-, kolonn- och nollrummet
Givet en matris $A$ vill vi hitta baser för alla tre delrum. Nyckeln är **radreducering**.
### 4.1 Metod: komplett exempel
Låt oss gå igenom hela processen med ett exempel.
> [!example]- Genomarbetat exempel
> Låt
>
> $A = \begin{bmatrix}1 & 2 & 0 & 1 \\ 2 & 4 & 1 & 3 \\ 1 & 2 & 1 & 2\end{bmatrix}$
>
> Vi söker baser för $\text{row}(A)$, $\text{col}(A)$ och $\text{null}(A)$.
>
> ---
>
> **Steg 1: Radreducera $A$**
>
> $A = \begin{bmatrix}1 & 2 & 0 & 1 \\ 2 & 4 & 1 & 3 \\ 1 & 2 & 1 & 2\end{bmatrix} \xrightarrow{R_2 - 2R_1} \begin{bmatrix}1 & 2 & 0 & 1 \\ 0 & 0 & 1 & 1 \\ 1 & 2 & 1 & 2\end{bmatrix} \xrightarrow{R_3 - R_1} \begin{bmatrix}1 & 2 & 0 & 1 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1\end{bmatrix}$
>
> $\xrightarrow{R_3 - R_2} \begin{bmatrix}1 & 2 & 0 & 1 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0\end{bmatrix} = R \quad \text{(trappstegsform)}$
>
> Vi ser **2 pivoter** i kolumn 1 och kolumn 3. **Pivotkolumner:** 1 och 3. **Fria kolumner:** 2 och 4.
>
> ---
>
> **Steg 2: Bas för radrummet $\text{row}(A)$**
>
> > [!important] Regel: Bas för radrummet
> > De **nollskilda raderna** i trappstegsformen $R$ bildar en bas för $\text{row}(A)$.
>
> Radreducering ändrar inte radrummet (varje radoperation omskriver rader som linjärkombinationer av befintliga), så $\text{row}(A) = \text{row}(R)$.
>
> $\boxed{\text{Bas för row}(A): \left\{\begin{bmatrix}1\\2\\0\\1\end{bmatrix}, \begin{bmatrix}0\\0\\1\\1\end{bmatrix}\right\}}$
>
> ---
>
> **Steg 3: Bas för kolonnrummet $\text{col}(A)$**
>
> > [!important] Regel: Bas för kolonnrummet
> > **Pivotkolumnerna i den ursprungliga matrisen $A$** bildar en bas för $\text{col}(A)$.
>
> > [!warning] Viktigt: Använd kolumnerna i $A$, inte i $R$!
> > Radreducering ändrar radrummet aldrig, men den **ändrar** kolonnrummet. Pivotkolumnerna i $R$ pekar ut *vilka* kolumner som är oberoende, men basvektorerna ska hämtas från **originalmatrisen** $A$.
>
> Pivoterna sitter i kolumn 1 och kolumn 3, så vi tar kolumn 1 och 3 **från $A$**:
>
> $\boxed{\text{Bas för col}(A): \left\{\begin{bmatrix}1\\2\\1\end{bmatrix}, \begin{bmatrix}0\\1\\1\end{bmatrix}\right\}}$
>
> ---
>
> **Steg 4: Bas för nollrummet $\text{null}(A)$**
>
> > [!important] Regel: Bas för nollrummet
> > Lös $A\vec{x} = \vec{0}$ och uttryck lösningen i termer av de fria variablerna. Koefficientvektorerna bildar basen.
>
> Från trappstegsformen $R$:
>
> $x_1 + 2x_2 + x_4 = 0 \implies x_1 = -2x_2 - x_4$
> $x_3 + x_4 = 0 \implies x_3 = -x_4$
>
> Fria variabler: $x_2 = s$, $x_4 = t$.
>
> $\vec{x} = s\begin{bmatrix}-2\\1\\0\\0\end{bmatrix} + t\begin{bmatrix}-1\\0\\-1\\1\end{bmatrix}$
>
> $\boxed{\text{Bas för null}(A): \left\{\begin{bmatrix}-2\\1\\0\\0\end{bmatrix}, \begin{bmatrix}-1\\0\\-1\\1\end{bmatrix}\right\}}$
---
### 4.2 Sammanfattning av metoden
| Delrum | Lever i | Bas hittas genom | Hämta vektorer från |
|---|---|---|---|
| $\text{row}(A)$ | $\mathbb{R}^n$ | Nollskilda rader i trappstegsformen $R$ | Trappstegsformen $R$ |
| $\text{col}(A)$ | $\mathbb{R}^m$ | Pivotkolumner (markerade av pivoterna) | **Originalmatrisen $A$** |
| $\text{null}(A)$ | $\mathbb{R}^n$ | Lös $A\vec{x} = \vec{0}$, fria variabler → basvektorer | Lösningen till $A\vec{x} = \vec{0}$ |
> [!tip] Minnesregel
> - **Radrum:** Radreducera och läs av raderna (från $R$).
> - **Kolonnrum:** Radreducera och identifiera pivotkolumner, men hämta kolumnerna **från $A$** (inte $R$!).
> - **Nollrum:** Radreducera och lös det homogena systemet.
---
## 5. Dimensioner och pivoter — de centrala sambanden
Pivoterna i trappstegsformen avslöjar direkt dimensionerna av alla tre delrum.
> [!theorem] Dimensioner via pivoter
> Låt $A$ vara en $m \times n$-matris och låt $r$ = antalet pivoter i trappstegsformen. Då:
>
> $\dim(\text{col}(A)) = r \quad \text{(= antalet pivoter)}$
> $\dim(\text{row}(A)) = r \quad \text{(= antalet pivoter)}$
> $\dim(\text{null}(A)) = n - r \quad \text{(= antalet fria variabler)}$
**Varför?**
- $\dim(\text{col}(A)) = r$: Vi valde $r$ pivotkolumner som bas — alltså $r$ basvektorer.
- $\dim(\text{row}(A)) = r$: Det finns $r$ nollskilda rader i trappstegsformen — alltså $r$ basvektorer.
- $\dim(\text{null}(A)) = n - r$: Det finns $n$ variabler totalt, $r$ pivotvariabler, och $n - r$ fria variabler. Varje fri variabel ger en basvektor i nollrummet.
> [!example]- Verifiering med exemplet ovan
> I exemplet: $A$ är $3 \times 4$, $r = 2$ pivoter, $n = 4$ kolumner.
>
> - $\dim(\text{col}(A)) = 2$ ✓ (vi hittade 2 basvektorer)
> - $\dim(\text{row}(A)) = 2$ ✓ (vi hittade 2 nollskilda rader)
> - $\dim(\text{null}(A)) = 4 - 2 = 2$ ✓ (vi hittade 2 basvektorer, motsvarande 2 fria variabler)
---
## 6. Rang (Rank)
> [!abstract] Definition: Rang
> **Rangen** av en matris $A$ definieras som
>
> $\text{rang}(A) = \dim(\text{col}(A))$
>
> Ekvivalent: rangen är antalet pivoter i trappstegsformen av $A$.
>
> På engelska: $\text{rank}(A)$.
Eftersom $\dim(\text{col}(A)) = \dim(\text{row}(A))$ gäller:
$\text{rang}(A) = \dim(\text{col}(A)) = \dim(\text{row}(A)) = \text{antalet pivoter}$
> [!example]- Räkneexempel: Bestäm rangen
> $A = \begin{bmatrix}1 & 0 & 2 \\ 0 & 1 & 3 \\ 2 & 1 & 7\end{bmatrix}$
>
> Radreducera:
>
> $\xrightarrow{R_3 - 2R_1} \begin{bmatrix}1 & 0 & 2 \\ 0 & 1 & 3 \\ 0 & 1 & 3\end{bmatrix} \xrightarrow{R_3 - R_2} \begin{bmatrix}1 & 0 & 2 \\ 0 & 1 & 3 \\ 0 & 0 & 0\end{bmatrix}$
>
> 2 pivoter → $\text{rang}(A) = 2$.
---
## 7. Dimensionssatsen (Rank–Nullity Theorem)
> [3B1B: Nonsquare matrices](https://youtu.be/v8VSDg_WQlA)
Detta är ett av de viktigaste resultaten i hela linjär algebra.
> [!theorem] Sats: Dimensionssatsen
> Låt $A$ vara en $m \times n$-matris. Då gäller:
>
> $\boxed{\text{rang}(A) + \dim(\text{null}(A)) = n}$
>
> där $n$ är antalet **kolumner** i $A$.
**Med andra ord:** (antal pivoter) + (antal fria variabler) = (antal kolumner). Det totala antalet variabler delas upp i bundna (pivoter) och fria (nollrum).
**Bevis:** I trappstegsformen av $A$ (som har $n$ kolumner) är varje kolumn antingen en pivotkolumn eller en fri kolumn. Antalet pivotkolumner = $\text{rang}(A) = r$, antalet fria kolumner = $n - r = \dim(\text{null}(A))$. Summan: $r + (n-r) = n$. ∎
> [!theorem] Sats: Rang och transponat
> För varje matris $A$ gäller:
>
> $\text{rang}(A) = \dim(\text{col}(A)) = \dim(\text{row}(A))$
>
> och därmed:
>
> $\text{rang}(A) = \text{rang}(A^T)$
**Varför?** $\text{row}(A) = \text{col}(A^T)$, alltså $\dim(\text{row}(A)) = \dim(\text{col}(A^T)) = \text{rang}(A^T)$. Och vi har redan visat att $\dim(\text{row}(A)) = \dim(\text{col}(A)) = \text{rang}(A)$.
> [!example]- Verifiering av dimensionssatsen
> Från det genomarbetade exemplet: $A$ är $3 \times 4$, $\text{rang}(A) = 2$, $\dim(\text{null}(A)) = 2$.
>
> $\text{rang}(A) + \dim(\text{null}(A)) = 2 + 2 = 4 = n \quad ✓$
>
> Från rangexemplet: $A$ är $3 \times 3$, $\text{rang}(A) = 2$, alltså $\dim(\text{null}(A)) = 3 - 2 = 1$.
---
## 8. Den stora satsen om inverterbara matriser (utökning)
Vi kan nu lägga till flera ekvivalenta villkor till den sats vi byggt upp genom kursen. Alla dessa påståenden om en $n \times n$-matris $A$ är **ekvivalenta** (antingen gäller alla, eller inget).
> [!theorem] Sats: Ekvivalenta villkor för en $n \times n$-matris $A$
> Följande påståenden är ekvivalenta:
>
> 1. $A$ är **inverterbar**
> 2. $\det(A) \neq 0$
> 3. $A$ kan radreduceras till identitetsmatrisen: $A \sim I$
> 4. $A\vec{x} = \vec{0}$ har bara den triviala lösningen $\vec{x} = \vec{0}$, dvs. $\text{null}(A) = \{\vec{0}\}$
> 5. $A$:s kolumner är **linjärt oberoende** ($T_A$ är injektiv)
> 6. $A$:s kolumner **spänner upp** $\mathbb{R}^n$ ($T_A$ är surjektiv)
> 7. $A^T$ är inverterbar
> 8. $\text{rang}(A) = \dim(\text{col}(A)) = n$
> 9. $A$:s kolumner utgör en **bas** för $\mathbb{R}^n$
> 10. $\text{col}(A) = \mathbb{R}^n$
**Logik bakom kopplingarna:**
Alla dessa villkor kokar ner till samma sak: matrisen har **$n$ pivoter** i en $n \times n$-matris.
- $n$ pivoter → varje kolumn har en pivot → **linjärt oberoende** (5) → $A\vec{x} = \vec{0}$ har bara triviala lösningen (4) → $\text{null}(A) = \{\vec{0}\}$
- $n$ pivoter → varje rad har en pivot → kolumnerna **spänner upp** $\mathbb{R}^n$ (6) → $\text{col}(A) = \mathbb{R}^n$ (10)
- Oberoende + spänner upp → **bas** (9)
- $n$ pivoter → radreducerbar till $I$ (3) → $\det(A) \neq 0$ (2) → $A$ inverterbar (1)
- $\text{rang}(A) = n$ (8) är exakt påståendet att det finns $n$ pivoter
- Dimensionssatsen: $\text{rang}(A) = n \implies \dim(\text{null}(A)) = n - n = 0 \implies \text{null}(A) = \{\vec{0}\}$, som binder ihop (8) med (4)
- $\text{rang}(A) = \text{rang}(A^T)$ binder ihop $A$ och $A^T$ (7)
> [!example]- Räkneexempel: Testa villkoren
> Låt $A = \begin{bmatrix}1 & 2 \\ 3 & 7\end{bmatrix}$.
>
> - $\det(A) = 7 - 6 = 1 \neq 0$ → **inverterbar** ✓
> - Radreducera: $\begin{bmatrix}1 & 2\\0 & 1\end{bmatrix} \to \begin{bmatrix}1 & 0\\0 & 1\end{bmatrix} = I$ ✓
> - $\text{rang}(A) = 2 = n$ ✓
> - $\dim(\text{null}(A)) = 2 - 2 = 0$, alltså $\text{null}(A) = \{\vec{0}\}$ ✓
> - $\text{col}(A) = \mathbb{R}^2$ ✓
>
> Alla villkor uppfyllda — konsekvent! Om ett enda hade fallerat, hade alla fallit.
---
## 9. Övningsuppgifter
### Hitta delrum och baser
> [!question]- Uppgift 1: Hitta alla tre delrum
> Låt $A = \begin{bmatrix}1 & 1 & 2 \\ 2 & 1 & 3 \\ 3 & 2 & 5\end{bmatrix}$.
>
> Bestäm baser och dimensioner för $\text{row}(A)$, $\text{col}(A)$ och $\text{null}(A)$. Verifiera dimensionssatsen.
>
> > [!hint]- Ledtråd 1
> > Radreducera $A$ och räkna pivoterna.
>
> > [!hint]- Ledtråd 2
> > $R_2 - 2R_1$ och $R_3 - 3R_1$ ger en rad med nollor direkt i tredje raden.
>
> > [!success]- Facit
> > $\text{rang}(A) = 2$, $\dim(\text{null}(A)) = 1$.
> >
> > > [!success]- Full lösning
> > > Radreducera:
> > > $\begin{bmatrix}1 & 1 & 2\\2 & 1 & 3\\3 & 2 & 5\end{bmatrix} \xrightarrow{R_2 - 2R_1} \begin{bmatrix}1 & 1 & 2\\0 & -1 & -1\\3 & 2 & 5\end{bmatrix} \xrightarrow{R_3 - 3R_1} \begin{bmatrix}1 & 1 & 2\\0 & -1 & -1\\0 & -1 & -1\end{bmatrix}$
> > >
> > > $\xrightarrow{R_3 - R_2} \begin{bmatrix}1 & 1 & 2\\0 & -1 & -1\\0 & 0 & 0\end{bmatrix}$
> > >
> > > **2 pivoter** (kolumn 1, kolumn 2). Fri variabel: $x_3$.
> > >
> > > **Bas för $\text{row}(A)$:** $\left\{\begin{bmatrix}1\\1\\2\end{bmatrix}, \begin{bmatrix}0\\-1\\-1\end{bmatrix}\right\}$ (nollskilda rader i $R$)
> > >
> > > **Bas för $\text{col}(A)$:** $\left\{\begin{bmatrix}1\\2\\3\end{bmatrix}, \begin{bmatrix}1\\1\\2\end{bmatrix}\right\}$ (kolumn 1 och 2 **från $A$**)
> > >
> > > **Nollrum:** Från $R$: $x_1 + x_2 + 2x_3 = 0$ och $-x_2 - x_3 = 0 \implies x_2 = -x_3$.
> > > Insatt: $x_1 - x_3 + 2x_3 = 0 \implies x_1 = -x_3$. Sätt $x_3 = t$:
> > >
> > > **Bas för $\text{null}(A)$:** $\left\{\begin{bmatrix}-1\\-1\\1\end{bmatrix}\right\}$
> > >
> > > **Dimensionssatsen:** $\text{rang}(A) + \dim(\text{null}(A)) = 2 + 1 = 3 = n$ ✓
> [!question]- Uppgift 2: Lösbarhet och alla lösningar
> Låt $A = \begin{bmatrix}1 & 2 & 1 \\ 1 & 2 & 3\end{bmatrix}$.
>
> a) Bestäm $\text{rang}(A)$, $\text{col}(A)$ och $\text{null}(A)$.
> b) Avgör om $A\vec{x} = \begin{bmatrix}3\\5\end{bmatrix}$ har en lösning. Om ja, bestäm alla lösningar.
>
> > [!hint]- Ledtråd
> > Radreducera $[A \mid \vec{b}]$. Tänk på formeln $\vec{x} = \vec{x}_P + \vec{x}_H$.
>
> > [!success]- Facit
> > $\text{rang}(A) = 2$, $\dim(\text{null}(A)) = 1$. Systemet har lösning.
> >
> > > [!success]- Full lösning
> > > Radreducera:
> > > $\begin{bmatrix}1 & 2 & 1 & | & 3\\1 & 2 & 3 & | & 5\end{bmatrix} \xrightarrow{R_2 - R_1} \begin{bmatrix}1 & 2 & 1 & | & 3\\0 & 0 & 2 & | & 2\end{bmatrix}$
> > >
> > > **a)** 2 pivoter (kolumn 1 och 3). $\text{rang}(A) = 2$. Fri variabel: $x_2$.
> > >
> > > $\text{null}(A)$: $x_3 = 0$, $x_1 = -2x_2$. Bas: $\left\{\begin{bmatrix}-2\\1\\0\end{bmatrix}\right\}$.
> > >
> > > $\text{col}(A)$: kolumn 1 och 3 från $A$: $\left\{\begin{bmatrix}1\\1\end{bmatrix}, \begin{bmatrix}1\\3\end{bmatrix}\right\}$.
> > >
> > > Dessa spänner hela $\mathbb{R}^2$ (ej parallella), så $\text{col}(A) = \mathbb{R}^2$ och varje $\vec{b}$ ger en lösning.
> > >
> > > **b)** Från trappstegsformen: $x_3 = 1$, $x_1 + 2x_2 + 1 = 3 \implies x_1 = 2 - 2x_2$.
> > >
> > > Alla lösningar:
> > > $\vec{x} = \underbrace{\begin{bmatrix}2\\0\\1\end{bmatrix}}_{\vec{x}_P} + t\underbrace{\begin{bmatrix}-2\\1\\0\end{bmatrix}}_{\vec{x}_H \in \text{null}(A)}$
> [!question]- Uppgift 3: Rang och dimensionssatsen
> Låt $A$ vara en $5 \times 7$-matris med $\text{rang}(A) = 3$.
>
> Bestäm (utan beräkning):
> a) $\dim(\text{col}(A))$
> b) $\dim(\text{row}(A))$
> c) $\dim(\text{null}(A))$
> d) Lever $\text{null}(A)$ i $\mathbb{R}^5$ eller $\mathbb{R}^7$?
>
> > [!success]- Facit
> > a) $\dim(\text{col}(A)) = \text{rang}(A) = 3$
> >
> > b) $\dim(\text{row}(A)) = \text{rang}(A) = 3$
> >
> > c) $\dim(\text{null}(A)) = n - \text{rang}(A) = 7 - 3 = 4$
> >
> > d) $\text{null}(A) \subseteq \mathbb{R}^7$ (nollrummet lever i $\mathbb{R}^n$, där $n$ = antal kolumner)
---
### Konceptuella uppgifter
> [!question]- Uppgift 4: Sant eller falskt?
> Avgör om påståendena är sanna eller falska. Motivera kort.
>
> a) $\text{rang}(A) = \text{rang}(A^T)$ för alla matriser $A$.
> b) Om $A$ är en $4 \times 6$-matris kan $\text{rang}(A)$ vara 5.
> c) Om $\text{null}(A) = \{\vec{0}\}$ för en $3 \times 3$-matris $A$, så är $A$ inverterbar.
> d) Kolonnrummet och nollrummet lever alltid i samma $\mathbb{R}^k$.
> e) Om $A\vec{x} = \vec{b}$ har en unik lösning, så gäller $\text{null}(A) = \{\vec{0}\}$.
>
> > [!success]- Facit
> >
> > a) **Sant.** $\dim(\text{col}(A)) = \dim(\text{row}(A))$, och $\text{rang}(A^T) = \dim(\text{col}(A^T)) = \dim(\text{row}(A)) = \text{rang}(A)$.
> >
> > b) **Falskt.** Rangen kan aldrig överstiga vare sig antalet rader eller kolumner, alltså $\text{rang}(A) \leq \min(4, 6) = 4$.
> >
> > c) **Sant.** $\text{null}(A) = \{\vec{0}\}$ betyder att $A\vec{x} = \vec{0}$ bara har den triviala lösningen → $A$ inverterbar (villkor 4 i stora satsen).
> >
> > d) **Falskt.** $\text{col}(A) \subseteq \mathbb{R}^m$ och $\text{null}(A) \subseteq \mathbb{R}^n$. De lever i samma rum bara om $m = n$.
> >
> > e) **Sant.** Om $\vec{x} = \vec{x}_P + \vec{x}_H$ och lösningen är unik, så kan det inte finnas något $\vec{x}_H \neq \vec{0}$, alltså $\text{null}(A) = \{\vec{0}\}$.
---
## Resurser
### Videor
> 
> kolonnrum och nollrum visuellt
>
>Rang och Dimensionssatsen
> Span som grund för rad-/kolonnrum
>  Klassisk föreläsning om kolonnrum och nollrum
### Interaktiva verktyg
- [matrixcalc.org](https://matrixcalc.org/) — beräkna rang, nollrum och radreducera
### Wikipedia
- [Column space](https://en.wikipedia.org/wiki/Column_space)
- [Row and column spaces](https://en.wikipedia.org/wiki/Row_and_column_spaces)
- [Kernel (linear algebra)](https://en.wikipedia.org/wiki/Kernel_(linear_algebra))
- [Rank–nullity theorem](https://en.wikipedia.org/wiki/Rank%E2%80%93nullity_theorem)
### Fördjupning
- [Georgia Tech — Interactive Linear Algebra: Column and Null Spaces](https://textbooks.math.gatech.edu/ila/subspaces.html)