## Riktningsderivata > Syfte: Generalisera partiella derivator till derivata i godtycklig riktning. Med partiella derivator mäter vi förändring längs koordinataxlarna ($x$, $y$, $z$), men ofta vill vi veta hur en funktion förändras i en helt annan riktning — t.ex. snett uppåt i ett landskap. --- Givet $f(x,y,z)=\dots\quad f: \mathbb{R}^3\to \mathbb{R}$ **Gradienten** definieras som: $\vec{\nabla}f=\begin{bmatrix}f_{1}(x,y,z)\\f_{2}(x,y,z)\\f_{3}(x,y,z) \end{bmatrix}=\begin{bmatrix} \frac{\partial f}{\partial x}\\ \frac{\partial f}{\partial y}\\ \frac{\partial f}{\partial z}\end{bmatrix}$ > Gradienten samlar alla partiella derivator i en vektor. Den beskriver hur funktionen förändras i varje koordinatriktning samtidigt. Gradienten är alltså ett verktyg för att "se" åt alla håll på en gång. --- ### Riktningsderivata > Partiella derivator ger oss förändring längs $x$- respektive $y$-axeln. Riktningsderivatan generaliserar detta — den ger förändringen i en valfri riktning $\hat{u}$. För en enhetsvektor $\hat{u}$ där $||\hat{u}||=1$: $D_{\hat{u}}f=\vec{\nabla}f \cdot \hat{u}$ > $\hat{u}$ representerar en enhetsvektor i godtycklig riktning. Vi kräver att $||\hat{u}||=1$ så att riktningsderivatan mäter förändring per längdenhet — annars skulle resultatet skalas av vektorns längd. > Notera: om $\hat{u}=\begin{bmatrix}1\\0\\0\end{bmatrix}$ fås $D_{\hat{u}}f=f_{1}$, dvs den vanliga partiella derivatan m.a.p. $x$. Riktningsderivatan inkluderar alltså partiella derivator som specialfall. --- ### Vilket $\hat{u}$ maximerar $D_{\hat{u}}f$? > Vi använder definitionen av skalärprodukt för att se vilken riktning som ger störst riktningsderivata. $D_{\hat{u}}f=\vec{\nabla}f \cdot \hat{u}=|\vec{\nabla}f|\times|\hat{u}|\times \cos \theta=|\vec{\nabla}f|\cos\theta$ > Eftersom $|\hat{u}|=1$ beror uttrycket enbart på vinkeln $\theta$ mellan $\vec{\nabla}f$ och $\hat{u}$. Cosinus är som störst (=1) när $\theta=0$, dvs när $\hat{u}$ pekar i samma riktning som $\vec{\nabla}f$. **Slutsats:** - $\vec{\nabla}f$ pekar i den riktning där $f$ ökar snabbast - $|\vec{\nabla}f|$ ger den maximala ändringstakten - $-\vec{\nabla}f$ pekar i den riktning där $f$ minskar snabbast - $\vec{\nabla}f$ är normalvektor till nivåytan $f(x,y,z)=\text{konstant}$ > Tänk på en kulle: gradienten pekar åt det håll som är brattigast uppför. Nivåkurvorna (höjdkurvor) är vinkelräta mot gradienten, precis som höjdlinjer på en karta. --- #### Exempel Givet $f(x,y)=\sqrt{ x^2+y^2 }$ Grafen $z=f(x,y)=\sqrt{ x^2+y^2 }$ är en yta (kon), medan $f(x,y)=1$ är en nivåkurva (cirkel med radie 1). > Nivåkurvan $f(x,y)=c$ ger $\sqrt{x^2+y^2}=c$, alltså cirklar med radie $c$ centrerade kring origo. Gradienten i varje punkt pekar radiellt utåt — vinkelrätt mot dessa cirklar — eftersom funktionen ökar snabbast bort från origo. > Man kan alltid gå från nivåkurva till graf och vice versa. En nivåkurva $f(x,y)=c$ motsvarar snittet mellan grafen $z=f(x,y)$ och horisontalplanet $z=c$. --- ## Taylorpolynom > Syfte: Approximera funktioner kring en punkt med polynom. I envariabelfallet ger Taylorpolynomet en polynomapproximation nära $x=a$. I flervariabelfallet utvidgas detta till approximationer kring en punkt $(a,b)$. > Idén bakom Taylorpolynom är att ersätta en komplicerad funktion med ett polynom som stämmer överens med funktionens värde och derivator i en viss punkt. Ju fler termer man tar med, desto bättre approximation — men enbart nära den valda punkten. ### Repetition: Taylorpolynom i en variabel > Från envariabelanalys: vi approximerar $F(x)$ kring punkten $x_{0}$ genom att matcha funktionsvärde och successiva derivator. $F(x)\approx F(x_{0})+\frac{F'(x_{0})}{1!}(x-x_{0})+\frac{F''(x_{0})}{2!}(x-x_{0})^2+\dots$ > Första termen ger värdet i punkten, andra termen fångar linjär förändring (tangentlinjen), tredje termen fångar krökning, osv. --- ### Taylorpolynom i flera variabler > Vi vill nu utvidga detta till funktioner $f(\vec{x})$ av flera variabler. Tricket är att reducera problemet till envariabelfallet genom att införa en hjälpfunktion $F(t)$. $f(\vec{x})=f(x,y)=f(x_{1},x_{2},x_{3},\dots,x_{n})$ Låt $\vec{a}=(a,b)$ vara punkten vi utvecklar kring, och $\vec{h}=(h,k)$ vara ett steg bort från $\vec{a}$. > I det generella fallet: $\vec{a}=(a_{1},a_{2},\dots,a_{n})$ och $\vec{h}=(h_{1},h_{2},\dots,h_{n})$ Definiera hjälpfunktionen: $F(t)=f(\vec{a}+t\vec{h})=f(a+th,\;b+tk)$ > $F(t)$ beskriver funktionsvärdet längs en rät linje från $\vec{a}$ (vid $t=0$) till $\vec{a}+\vec{h}$ (vid $t=1$).<font color="#76923c"> Genom att parametrisera linjen</font> med $t$ har vi gjort om flervariabelproblemet till ett envariabelproblem. $F(0)=f(\vec{a})=f(a,b)$ $F(1)=f(\vec{a}+\vec{h})=f(a+h,\;b+k)$ > Vi bryr oss egentligen om $F(1)$ — dvs funktionsvärdet i den nya punkten — men vi skriver $F(t)$ som funktion av $t$ så att vi kan tillämpa det vanliga envariabel-Taylorpolynomet på $F$. > [!abstract]- Shorthand > Vad är det $F´(t)=\\vec{\nabla}f(\vec{a}+t\vec{h})\bullet (\vec{h})=h\bullet \vec{\nabla} f(\vec{a}+t\vec{h})=\text{gör klart och påstå att icke kommutativt}$ > Insert callout med kedjeregel och productregel för flervariables analys