•Bruke kolonner fra den radreduserte matrisen som basis for Col A -- du ma bruke de opprinnelige kolonnene fra A.
•Glemme a sjekke at nullvektoren ligger i W nar du viser at noe er et underrom.
•Forveksle dimensjonen til Col A (antall pivoter) med antall kolonner i A.
•Glemme dimensjonssetningen som kontroll: rang + dim(Nul) = antall kolonner.
Ortogonalitet og Gram-Schmidt
•Bruke projeksjonsformelen med en basis som IKKE er ortogonal -- du ma forst kjore Gram-Schmidt.
•Regnefeil i Gram-Schmidt: dobbeltsjekk prikkproduktene. En feil tidlig forplanter seg til alle folgende vektorer.
•Glemme at minste kvadraters losning kan vaere ikke-unik nar A har frie variabler.
•Forveksle proj_W(y) med losningen x-hatt. Projeksjonen er en vektor i R^m, mens x-hatt er i R^n.
Egenverdier og egenvektorer
•Konkludere at en matrise ikke er diagonaliserbar bare fordi den har gjentatte egenverdier. Du MA sjekke geometrisk multiplisitet.
•Glemme at symmetriske matriser ALLTID er diagonaliserbare (spektralteoremet).
•Blande rekkfolgen av egenverdier i D og egenvektorer i P -- de MA korrespondere.
•Forveksle algebraisk multiplisitet (fra det karakteristiske polynomet) med geometrisk multiplisitet (dimensjon til egenrommet).
Ortogonal diagonalisering og spektralteoremet
•Glemme a fordele kryssledds-koeffisienten likt: koeffisienten foran x_1*x_2 er 2*a_{12}, sa a_{12} = halvparten.
•Glemme Gram-Schmidt innad i egenrom med dimensjon > 1 -- egenvektorene er bare garantert ortogonale MELLOM forskjellige egenrom.
•Feil klassifisering av kjeglesnitt: sjekk fortegnene pa egenverdiene noyaktig.
•Glemme a normalisere egenvektorene slik at P faktisk blir ortogonal (P^T P = I).
Lineaere avbildninger og matriserepresentasjon
•Forveksle retningen pa basisskifte: P_{B<-C} konverterer FRA C-koordinater TIL B-koordinater.
•Glemme at kolonnene i matriserepresentasjonen er koordinatvektorer, ikke selve vektorene.
•Ved derivasjon av e^x*cos(x): glemme produktregelen. (e^x cos x)' = e^x cos x - e^x sin x.
•Blande rekkfolgen av faktorene i basisskifte-formelen for [T]_C.
Differensiallikningssystemer
•Glemme a normalisere egenvektorene for P er ortogonal -- da blir P^T x(0) feil.
•Feil fortegn pa koeffisientene c_i. Dobbeltsjekk ved a verifisere at x(0) = c_1 v_1 + ... + c_n v_n.
•Forveksle e^{lambda*t} med e^{lambda}: husk at variabelen t ma vaere med!
•Nar A ikke er symmetrisk: bruke P^T i stedet for P^{-1}. P^T = P^{-1} gjelder bare for ortogonale matriser.
Singulaerverdi-dekomposisjon (SVD)
•Forveksle egenverdier av B med egenverdier av B^T B. Singulaerverdier kommer fra B^T B.
•Glemme a sortere singulaerverdiene i synkende rekkefolge.
•Feil fortegn pa singulaervektorer: sjekk at u_i = (1/sigma_i)*B*v_i faktisk gir en enhetsvektor.
•Glemme a utvide {u_1, ..., u_r} til en full ortonormal basis for R^m nar rang(B) < m.
Ortogonale matriser og refleksjoner
•Glemme kravet ||v|| = 1 i Householder-formelen. Uten normalisering blir R ikke ortogonal.
•Ved beregning av R^2: glemme at v^T v = 1, slik at v v^T v v^T = v v^T (ikke (v v^T)^2).
•Nar oppgaven spor om f(A): glemme at egenverdien av f(A) er f(lambda), ikke f av matrisen.
•Forveksle v v^T (en n x n matrise) med v^T v (et tall). Rekkfolgen er avgjorende.
Indreprodukter og abstrakte indreproduktrom
•Bruke standard prikkprodukt nar oppgaven definerer et annet indreprodukt. Les oppgaveteksten noyaktig!
•Regnefeil i integraler nar du beregner indreprodukter i funksjonsrom. Dobbeltsjekk med innsetting av grensene.
•Glemme vektene i det vektede indreproduktet: langle x, u rangle = 2*x1*u1 + ... betyr at x1-leddet veier dobbelt.
•Forveksle ortonormal (lengde 1) med ortogonal (bare vinkelrett). Oppgaven spor ofte om ortonormal basis.
Eksamenstips
Vektorrom og underrom
•Oppgave 1a pa nesten alle eksamener (2019, 2021, 2024) ber deg finne basis for Col A og Nul A. Start alltid med radreduksjon.
•Abstrakte vektorrom (polynomer, funksjoner) dukker opp i Oppgave 3. Vis alltid de tre underromkravene eksplisitt.
•Nar vedlegget gir deg den radreduserte formen, bruk den! Ikke kast bort tid pa a radredusere selv.
Ortogonalitet og Gram-Schmidt
•Oppgave 1b+1c folger alltid monsteret: Gram-Schmidt -> projeksjon -> minste kvadrater. Tren pa dette til det sitter automatisk.
•Nar vedlegget gir deg rref av [A^T A | A^T b], bruk det direkte for a finne x-hatt.
•Vektede indreprodukter (2019 Oppg 1d): erstatt prikkproduktet med det vektede produktet i alle formler. Gram-Schmidt fungerer pa samme mate.
Egenverdier og egenvektorer
•Oppgave 2 handler alltid om egenverdier. Ofte far du oppgitt en egenvektor og ma finne resten.
•For 3x3 symmetriske matriser: bruk tr(A) = sum av egenverdier til a finne den manglende egenverdien etter at du har funnet to.
•Nar oppgaven spor 'er matrisen diagonaliserbar?': sjekk (1) er den symmetrisk? (2) har den n distinkte egenverdier? (3) har alle egenverdier geom. mult. = alg. mult.?
Ortogonal diagonalisering og spektralteoremet
•Kvadratiske former og kjeglesnitt: 2021 Oppg 2c og 2024 Oppg 4b. Alltid koblet til ortogonal diagonalisering.
•For a vise Q(x) <= lambda_max * ||x||^2: bruk variabelskiftet og at alle lambda_i <= lambda_max.
•Symmetriske matriser er ALLTID ortogonalt diagonaliserbare. Du trenger ikke bevise dette, bare bruke det.
Lineaere avbildninger og matriserepresentasjon
•Oppgave 3 handler alltid om abstrakte vektorrom (funksjoner eller polynomer) med matriserepresentasjon. Tren pa a finne [T]_B for derivasjon.
•Basisskifte-oppgaven (2019 Oppg 3a, 2024 Oppg 3b): skriv ut de nye basisvektorene som lineaerkombinasjoner av de gamle. Kolonnene i overgangsmatrisen leses direkte av.
•Kjernen ker S: finn nullrommet til [S]_B. Oversett tilbake til funksjoner/polynomer ved a bruke basisen B.
Differensiallikningssystemer
•Diff.likningssystemer dukker opp som del 2b etter ortogonal diagonalisering (2019 Oppg 2b). Losningen folger direkte.
•For ortogonale P: bruk c_i = v_i . x(0) / ||v_i||^2 i stedet for a invertere P.
•Nar T er en diff.operator pa et funksjonsrom (2021 Oppg 3b): sjekk om [T]_B er invertibel via determinanten.
Singulaerverdi-dekomposisjon (SVD)
•SVD dukket opp pa eksamen 2019 (Oppg 4b). Vedlegget gir deg egenverdiene til B^T B -- bruk dem!
•Sporsmalet 'finn y med ||y||=1 som maksimerer ||By||' har alltid svaret y = v_1 (forste hoyre singulaervektor).
•Husk: rang(B) = antall positive singulaerverdier. Nul(B) utspennes av v_i med sigma_i = 0.
Ortogonale matriser og refleksjoner
•Householder-refleksjoner dukket opp pa eksamen 2024 (Oppg 5). Beviset at R er ortogonal er kort og elegant -- oev pa det.
•Matrisefunksjoner f(A) = 2I + A - A^2 (2021 Oppg 5): bruk at Av = lambda*v gir f(A)v = f(lambda)v.
•Geometrisk tolkning: spor alltid etter rotasjon (det = +1) vs. refleksjon (det = -1).
Indreprodukter og abstrakte indreproduktrom
•Vektede indreprodukter (2019 Oppg 1d) og integralbaserte (2024 Oppg 3c) krever noyaktige beregninger. Sett opp integralene/summene systematisk.
•Gram-Schmidt med generelt indreprodukt er identisk med standard Gram-Schmidt -- bare erstatt prikkproduktet.
•Nar oppgaven sier 'finn ortonormal basis': husk a normalisere (dele pa normen) etter Gram-Schmidt.