## Riktningsderivata
> Syfte: Generalisera partiella derivator till derivata i godtycklig riktning. Med partiella derivator mäter vi förändring längs koordinataxlarna ($x$, $y$, $z$), men ofta vill vi veta hur en funktion förändras i en helt annan riktning — t.ex. snett uppåt i ett landskap.
---
Givet $f(x,y,z)=\dots\quad f: \mathbb{R}^3\to \mathbb{R}$
**Gradienten** definieras som:
$\vec{\nabla}f=\begin{bmatrix}f_{1}(x,y,z)\\f_{2}(x,y,z)\\f_{3}(x,y,z) \end{bmatrix}=\begin{bmatrix} \frac{\partial f}{\partial x}\\ \frac{\partial f}{\partial y}\\ \frac{\partial f}{\partial z}\end{bmatrix}$
> Gradienten samlar alla partiella derivator i en vektor. Den beskriver hur funktionen förändras i varje koordinatriktning samtidigt. Gradienten är alltså ett verktyg för att "se" åt alla håll på en gång.
---
### Riktningsderivata
> Partiella derivator ger oss förändring längs $x$- respektive $y$-axeln. Riktningsderivatan generaliserar detta — den ger förändringen i en valfri riktning $\hat{u}$.
För en enhetsvektor $\hat{u}$ där $||\hat{u}||=1$:
$D_{\hat{u}}f=\vec{\nabla}f \cdot \hat{u}$
> $\hat{u}$ representerar en enhetsvektor i godtycklig riktning. Vi kräver att $||\hat{u}||=1$ så att riktningsderivatan mäter förändring per längdenhet — annars skulle resultatet skalas av vektorns längd.
> Notera: om $\hat{u}=\begin{bmatrix}1\\0\\0\end{bmatrix}$ fås $D_{\hat{u}}f=f_{1}$, dvs den vanliga partiella derivatan m.a.p. $x$. Riktningsderivatan inkluderar alltså partiella derivator som specialfall.
---
### Vilket $\hat{u}$ maximerar $D_{\hat{u}}f$?
> Vi använder definitionen av skalärprodukt för att se vilken riktning som ger störst riktningsderivata.
$D_{\hat{u}}f=\vec{\nabla}f \cdot \hat{u}=|\vec{\nabla}f|\times|\hat{u}|\times \cos \theta=|\vec{\nabla}f|\cos\theta$
> Eftersom $|\hat{u}|=1$ beror uttrycket enbart på vinkeln $\theta$ mellan $\vec{\nabla}f$ och $\hat{u}$. Cosinus är som störst (=1) när $\theta=0$, dvs när $\hat{u}$ pekar i samma riktning som $\vec{\nabla}f$.
**Slutsats:**
- $\vec{\nabla}f$ pekar i den riktning där $f$ ökar snabbast
- $|\vec{\nabla}f|$ ger den maximala ändringstakten
- $-\vec{\nabla}f$ pekar i den riktning där $f$ minskar snabbast
- $\vec{\nabla}f$ är normalvektor till nivåytan $f(x,y,z)=\text{konstant}$
> Tänk på en kulle: gradienten pekar åt det håll som är brattigast uppför. Nivåkurvorna (höjdkurvor) är vinkelräta mot gradienten, precis som höjdlinjer på en karta.
---
#### Exempel
Givet $f(x,y)=\sqrt{ x^2+y^2 }$
Grafen $z=f(x,y)=\sqrt{ x^2+y^2 }$ är en yta (kon),
medan $f(x,y)=1$ är en nivåkurva (cirkel med radie 1).
> Nivåkurvan $f(x,y)=c$ ger $\sqrt{x^2+y^2}=c$, alltså cirklar med radie $c$ centrerade kring origo. Gradienten i varje punkt pekar radiellt utåt — vinkelrätt mot dessa cirklar — eftersom funktionen ökar snabbast bort från origo.
> Man kan alltid gå från nivåkurva till graf och vice versa. En nivåkurva $f(x,y)=c$ motsvarar snittet mellan grafen $z=f(x,y)$ och horisontalplanet $z=c$.
---
## Taylorpolynom
> Syfte: Approximera funktioner kring en punkt med polynom. I envariabelfallet ger Taylorpolynomet en polynomapproximation nära $x=a$. I flervariabelfallet utvidgas detta till approximationer kring en punkt $(a,b)$.
> Idén bakom Taylorpolynom är att ersätta en komplicerad funktion med ett polynom som stämmer överens med funktionens värde och derivator i en viss punkt. Ju fler termer man tar med, desto bättre approximation — men enbart nära den valda punkten.
### Repetition: Taylorpolynom i en variabel
> Från envariabelanalys: vi approximerar $F(x)$ kring punkten $x_{0}$ genom att matcha funktionsvärde och successiva derivator.
$F(x)\approx F(x_{0})+\frac{F'(x_{0})}{1!}(x-x_{0})+\frac{F''(x_{0})}{2!}(x-x_{0})^2+\dots$
> Första termen ger värdet i punkten, andra termen fångar linjär förändring (tangentlinjen), tredje termen fångar krökning, osv.
---
### Taylorpolynom i flera variabler
> Vi vill nu utvidga detta till funktioner $f(\vec{x})$ av flera variabler. Tricket är att reducera problemet till envariabelfallet genom att införa en hjälpfunktion $F(t)$.
$f(\vec{x})=f(x,y)=f(x_{1},x_{2},x_{3},\dots,x_{n})$
Låt $\vec{a}=(a,b)$ vara punkten vi utvecklar kring, och $\vec{h}=(h,k)$ vara ett steg bort från $\vec{a}$.
> I det generella fallet: $\vec{a}=(a_{1},a_{2},\dots,a_{n})$ och $\vec{h}=(h_{1},h_{2},\dots,h_{n})$
Definiera hjälpfunktionen:
$F(t)=f(\vec{a}+t\vec{h})=f(a+th,\;b+tk)$
> $F(t)$ beskriver funktionsvärdet längs en rät linje från $\vec{a}$ (vid $t=0$) till $\vec{a}+\vec{h}$ (vid $t=1$).<font color="#76923c"> Genom att parametrisera linjen</font> med $t$ har vi gjort om flervariabelproblemet till ett envariabelproblem.
$F(0)=f(\vec{a})=f(a,b)$
$F(1)=f(\vec{a}+\vec{h})=f(a+h,\;b+k)$
> Vi bryr oss egentligen om $F(1)$ — dvs funktionsvärdet i den nya punkten — men vi skriver $F(t)$ som funktion av $t$ så att vi kan tillämpa det vanliga envariabel-Taylorpolynomet på $F$.
> [!abstract]- Shorthand
> Vad är det
$F´(t)=\\vec{\nabla}f(\vec{a}+t\vec{h})\bullet (\vec{h})=h\bullet \vec{\nabla} f(\vec{a}+t\vec{h})=\text{gör klart och påstå att icke kommutativt}$
> Insert callout med kedjeregel och productregel för flervariables analys