eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
STK1100 Formelark | Eksamenssett
STK1100
Cheat Sheet
Formler, begreper og oppsummering
Sannsynlighet og statistiske metoder
eksamenssett.no
Formler
Sannsynlighetsregning
•
P
(
A
∣
B
)
=
P
(
A
∩
B
)
P
(
B
)
P(A|B) = \frac{P(A \cap B)}{P(B)}
P
(
A
∣
B
)
=
P
(
B
)
P
(
A
∩
B
)
(Betinget sannsynlighet)
•
P
(
A
)
=
∑
i
P
(
A
∣
B
i
)
P
(
B
i
)
P(A) = \sum_i P(A|B_i) P(B_i)
P
(
A
)
=
i
∑
P
(
A
∣
B
i
)
P
(
B
i
)
(Total sannsynlighet)
Nøkkelformler per tema
Sannsynlighetsregning og Bayes' formel
•
P
(
A
∣
B
)
=
P
(
A
∩
B
)
P
(
B
)
P(A \mid B) = \frac{P(A \cap B)}{P(B)}
P
(
A
∣
B
)
=
P
(
B
)
P
(
A
∩
B
)
(Betinget sannsynlighet)
Vanlige feil å unngå
Sannsynlighetsregning og Bayes' formel
•
Forveksle P(A|B) og P(B|A) -- de er generelt IKKE like. Bayes' formel snur rekkefølgen.
•
Glemme a bruke total sannsynlighet i nevneren til Bayes' formel.
•
I itererte Bayes-oppgaver: bruke den opprinnelige prior i stedet for den oppdaterte posterior.
•
Blande disjunkte og uavhengige hendelser. Disjunkte hendelser med positiv sannsynlighet er alltid avhengige.
Diskrete fordelinger (Poisson)
•
Glemme at Poisson krever E(X) = V(X). Sjekk alltid dette for a vurdere modellens gyldighet.
•
Forveksle rateparameteren lambda (per enhet) med den totale parameteren lambda*v0.
•
Ved bruk av MGF: glemme a evaluere i t = 0 etter derivering.
•
Blande P(X >= 1) = 1 - P(X = 0) med P(X > 1) = 1 - P(X = 0) - P(X = 1).
Kontinuerlige fordelinger
•
Forveksle parametriseringen av eksponensialfordelingen: noen bruker rate 1/mu, andre bruker forventning mu. STK1100 bruker mu som forventning.
•
Glemme at gamma-summeegenskapen kun gjelder nar skalaparameteren beta er lik.
•
Ved transformasjonsformelen: glemme a ta absoluttverdien av Jacobi-determinanten.
Eksamenstips
Sannsynlighetsregning og Bayes' formel
•
Oppgave 1 er nesten alltid Bayes/betinget sannsynlighet. Start her -- det gir rask uttelling.
•
Definer hendelsene med tydelige symboler (f.eks. M = mutasjon, O = overlever) for du begynner.
•
Sjekk alltid at sannsynlighetene summerer til 1 som en kontroll.
•
V2022 og V2023 hadde begge Bayes-oppgaver med praktisk kontekst. Forvent samme mønster.
Diskrete fordelinger (Poisson)
•
Poisson er brukt pa eksamen V2022, V2024 og delvis V2023. Forvent den hvert ar.
•
Vis at du kan bruke MGF til a utlede E(X) og V(X) -- dette er en vanlig 'vis at'-oppgave.
•
Komplementregelen P(X >= 1) = 1 - P(X = 0) = 1 - e^(-lambda) er ekstremt nyttig.
•
Nar oppgaven gir empirisk varians som er mye storre enn gjennomsnittet, kommenter overdispersjon.
Kontinuerlige fordelinger
•
MGF-utledning (vis at E(X) = ... via M'(0)) er en gjenganger. Oev pa a derivere raskt.
•
Gamma-summeegenskapen brukes nesten hvert ar til a utlede fordelingen til n*sigma-hat^2/sigma^2.
•
Nar du skal vise at en tetthet er gyldig, sjekk at den integrerer til 1 over definisjonsomradet.
•
P
(
B
j
∣
A
)
=
P
(
A
∣
B
j
)
P
(
B
j
)
∑
i
P
(
A
∣
B
i
)
P
(
B
i
)
P(B_j|A) = \frac{P(A|B_j)P(B_j)}{\sum_i P(A|B_i)P(B_i)}
P
(
B
j
∣
A
)
=
∑
i
P
(
A
∣
B
i
)
P
(
B
i
)
P
(
A
∣
B
j
)
P
(
B
j
)
(Bayes' formel)
Diskrete fordelinger
•
Poisson:
P
(
X
=
x
)
=
λ
x
x
!
e
−
λ
P(X=x) = \frac{\lambda^x}{x!}e^{-\lambda}
P
(
X
=
x
)
=
x
!
λ
x
e
−
λ
,
E
(
X
)
=
V
(
X
)
=
λ
E(X) = V(X) = \lambda
E
(
X
)
=
V
(
X
)
=
λ
•
Poisson MGF:
M
X
(
t
)
=
e
λ
(
e
t
−
1
)
M_X(t) = e^{\lambda(e^t - 1)}
M
X
(
t
)
=
e
λ
(
e
t
−
1
)
•
Sum av uavhengige Poisson:
Pois
(
λ
1
)
+
Pois
(
λ
2
)
=
Pois
(
λ
1
+
λ
2
)
\text{Pois}(\lambda_1) + \text{Pois}(\lambda_2) = \text{Pois}(\lambda_1 + \lambda_2)
Pois
(
λ
1
)
+
Pois
(
λ
2
)
=
Pois
(
λ
1
+
λ
2
)
Kontinuerlige fordelinger
•
Eksponensial:
f
(
x
)
=
1
μ
e
−
x
/
μ
f(x) = \frac{1}{\mu}e^{-x/\mu}
f
(
x
)
=
μ
1
e
−
x
/
μ
,
E
(
X
)
=
μ
E(X)=\mu
E
(
X
)
=
μ
,
V
(
X
)
=
μ
2
V(X)=\mu^2
V
(
X
)
=
μ
2
,
M
X
(
t
)
=
1
1
−
t
μ
M_X(t) = \frac{1}{1-t\mu}
M
X
(
t
)
=
1
−
t
μ
1
•
Gamma:
f
(
x
)
=
x
α
−
1
β
α
Γ
(
α
)
e
−
x
/
β
f(x) = \frac{x^{\alpha-1}}{\beta^\alpha \Gamma(\alpha)}e^{-x/\beta}
f
(
x
)
=
β
α
Γ
(
α
)
x
α
−
1
e
−
x
/
β
,
E
(
X
)
=
α
β
E(X)=\alpha\beta
E
(
X
)
=
α
β
,
V
(
X
)
=
α
β
2
V(X)=\alpha\beta^2
V
(
X
)
=
α
β
2
•
Normal:
f
(
x
)
=
1
2
π
σ
e
−
1
2
(
x
−
μ
σ
)
2
f(x) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}
f
(
x
)
=
2
π
σ
1
e
−
2
1
(
σ
x
−
μ
)
2
•
χ
n
2
=
Gamma
(
n
/
2
,
2
)
\chi^2_n = \text{Gamma}(n/2, 2)
χ
n
2
=
Gamma
(
n
/2
,
2
)
•
Laplace:
f
(
x
)
=
1
2
σ
e
−
∣
x
∣
/
σ
f(x) = \frac{1}{2\sigma}e^{-|x|/\sigma}
f
(
x
)
=
2
σ
1
e
−
∣
x
∣/
σ
,
E
(
∣
X
∣
)
=
σ
E(|X|) = \sigma
E
(
∣
X
∣
)
=
σ
,
V
(
∣
X
∣
)
=
σ
2
V(|X|) = \sigma^2
V
(
∣
X
∣
)
=
σ
2
Estimering
•
L
(
θ
)
=
∏
f
(
x
i
;
θ
)
L(\theta) = \prod f(x_i; \theta)
L
(
θ
)
=
∏
f
(
x
i
;
θ
)
,
ℓ
(
θ
)
=
∑
ln
f
(
x
i
;
θ
)
\ell(\theta) = \sum \ln f(x_i; \theta)
ℓ
(
θ
)
=
∑
ln
f
(
x
i
;
θ
)
•
MLE:
d
ℓ
d
θ
=
0
\frac{d\ell}{d\theta} = 0
d
θ
d
ℓ
=
0
•
Poisson MLE:
λ
^
=
X
ˉ
\hat{\lambda} = \bar{X}
λ
^
=
X
ˉ
•
Eksponensial MLE:
μ
^
=
X
ˉ
\hat{\mu} = \bar{X}
μ
^
=
X
ˉ
•
V
(
X
ˉ
)
=
σ
2
/
n
V(\bar{X}) = \sigma^2 / n
V
(
X
ˉ
)
=
σ
2
/
n
(Varians til gjennomsnittet)
Sentralgrenseteoremet og konfidensintervaller
•
X
ˉ
≈
N
(
μ
,
σ
2
/
n
)
\bar{X} \approx N(\mu, \sigma^2/n)
X
ˉ
≈
N
(
μ
,
σ
2
/
n
)
for stor
n
n
n
•
Standard KI:
θ
^
±
z
α
/
2
⋅
SE
(
θ
^
)
\hat{\theta} \pm z_{\alpha/2} \cdot \text{SE}(\hat{\theta})
θ
^
±
z
α
/2
⋅
SE
(
θ
^
)
•
z
0.025
=
1.960
z_{0.025} = 1.960
z
0.025
=
1.960
,
z
0.05
=
1.645
z_{0.05} = 1.645
z
0.05
=
1.645
,
z
0.005
=
2.576
z_{0.005} = 2.576
z
0.005
=
2.576
Lineaer regresjon
•
β
^
1
=
∑
(
x
i
−
x
ˉ
)
(
y
i
−
y
ˉ
)
∑
(
x
i
−
x
ˉ
)
2
\hat{\beta}_1 = \frac{\sum(x_i-\bar{x})(y_i-\bar{y})}{\sum(x_i-\bar{x})^2}
β
^
1
=
∑
(
x
i
−
x
ˉ
)
2
∑
(
x
i
−
x
ˉ
)
(
y
i
−
y
ˉ
)
,
β
^
0
=
y
ˉ
−
β
^
1
x
ˉ
\hat{\beta}_0 = \bar{y} - \hat{\beta}_1\bar{x}
β
^
0
=
y
ˉ
−
β
^
1
x
ˉ
•
γ
^
1
=
∑
x
i
y
i
∑
x
i
2
\hat{\gamma}_1 = \frac{\sum x_iy_i}{\sum x_i^2}
γ
^
1
=
∑
x
i
2
∑
x
i
y
i
(uten konstantledd)
•
V
(
β
^
1
)
=
σ
2
∑
(
x
i
−
x
ˉ
)
2
V(\hat{\beta}_1) = \frac{\sigma^2}{\sum(x_i-\bar{x})^2}
V
(
β
^
1
)
=
∑
(
x
i
−
x
ˉ
)
2
σ
2
•
V
(
γ
^
1
)
=
σ
2
∑
x
i
2
V(\hat{\gamma}_1) = \frac{\sigma^2}{\sum x_i^2}
V
(
γ
^
1
)
=
∑
x
i
2
σ
2
Nyttige integraler
•
∫
0
∞
x
a
−
1
e
−
x
/
b
d
x
=
b
a
Γ
(
a
)
\int_0^\infty x^{a-1} e^{-x/b} \, dx = b^a \Gamma(a)
∫
0
∞
x
a
−
1
e
−
x
/
b
d
x
=
b
a
Γ
(
a
)
•
Γ
(
a
)
=
(
a
−
1
)
!
\Gamma(a) = (a-1)!
Γ
(
a
)
=
(
a
−
1
)!
for heltall
a
a
a
•
Γ
(
1
/
2
)
=
π
\Gamma(1/2) = \sqrt{\pi}
Γ
(
1/2
)
=
π
•
P
(
A
)
=
∑
i
P
(
A
∣
B
i
)
P
(
B
i
)
P(A) = \sum_{i} P(A \mid B_i) P(B_i)
P
(
A
)
=
i
∑
P
(
A
∣
B
i
)
P
(
B
i
)
(Total sannsynlighet)
•
P
(
B
j
∣
A
)
=
P
(
A
∣
B
j
)
P
(
B
j
)
∑
i
P
(
A
∣
B
i
)
P
(
B
i
)
P(B_j \mid A) = \frac{P(A \mid B_j) P(B_j)}{\sum_i P(A \mid B_i) P(B_i)}
P
(
B
j
∣
A
)
=
∑
i
P
(
A
∣
B
i
)
P
(
B
i
)
P
(
A
∣
B
j
)
P
(
B
j
)
(Bayes' formel)
•
P
(
A
c
)
=
1
−
P
(
A
)
P(A^c) = 1 - P(A)
P
(
A
c
)
=
1
−
P
(
A
)
(Komplementregelen)
Diskrete fordelinger (Poisson)
•
P
(
X
=
x
)
=
λ
x
x
!
e
−
λ
P(X = x) = \frac{\lambda^x}{x!} e^{-\lambda}
P
(
X
=
x
)
=
x
!
λ
x
e
−
λ
(Poisson punktsannsynlighet)
•
E
(
X
)
=
V
(
X
)
=
λ
E(X) = V(X) = \lambda
E
(
X
)
=
V
(
X
)
=
λ
(Forventning = Varians)
•
M
X
(
t
)
=
e
λ
(
e
t
−
1
)
M_X(t) = e^{\lambda(e^t - 1)}
M
X
(
t
)
=
e
λ
(
e
t
−
1
)
(Momentgenererende funksjon)
•
X
1
+
X
2
∼
Pois
(
λ
1
+
λ
2
)
X_1 + X_2 \sim \text{Pois}(\lambda_1 + \lambda_2)
X
1
+
X
2
∼
Pois
(
λ
1
+
λ
2
)
(Sum av uavhengige Poisson)
•
X
∼
Pois
(
λ
v
0
)
X \sim \text{Pois}(\lambda v_0)
X
∼
Pois
(
λ
v
0
)
nar raten er \(\lambda\) per enhet over \(v_0\) enheter
Kontinuerlige fordelinger
•
f
X
(
x
)
=
1
μ
e
−
x
/
μ
f_X(x) = \frac{1}{\mu} e^{-x/\mu}
f
X
(
x
)
=
μ
1
e
−
x
/
μ
for \(x > 0\) (Eksponensialfordeling)
•
E
(
X
)
=
μ
,
V
(
X
)
=
μ
2
,
M
X
(
t
)
=
1
1
−
t
μ
E(X) = \mu, \quad V(X) = \mu^2, \quad M_X(t) = \frac{1}{1-t\mu}
E
(
X
)
=
μ
,
V
(
X
)
=
μ
2
,
M
X
(
t
)
=
1
−
t
μ
1
(Eksponensial)
•
f
X
(
x
)
=
x
α
−
1
β
α
Γ
(
α
)
e
−
x
/
β
f_X(x) = \frac{x^{\alpha-1}}{\beta^\alpha \Gamma(\alpha)} e^{-x/\beta}
f
X
(
x
)
=
β
α
Γ
(
α
)
x
α
−
1
e
−
x
/
β
(Gammafordeling)
•
Gamma
(
n
/
2
,
2
)
=
χ
n
2
\text{Gamma}(n/2, 2) = \chi^2_n
Gamma
(
n
/2
,
2
)
=
χ
n
2
(Kjikvadrat = spesialtilfelle av gamma)
•
∑
X
i
∼
Gamma
(
∑
α
i
,
β
)
\sum X_i \sim \text{Gamma}(\sum \alpha_i, \beta)
∑
X
i
∼
Gamma
(
∑
α
i
,
β
)
for uavhengige med samme \(\beta\)
Simultanfordelinger og marginalfordelinger
•
f
X
(
x
)
=
∫
f
(
x
,
y
)
d
y
f_X(x) = \int f(x,y) \, dy
f
X
(
x
)
=
∫
f
(
x
,
y
)
d
y
(Marginaltetthet)
•
f
Y
∣
X
(
y
∣
x
)
=
f
(
x
,
y
)
f
X
(
x
)
f_{Y|X}(y|x) = \frac{f(x,y)}{f_X(x)}
f
Y
∣
X
(
y
∣
x
)
=
f
X
(
x
)
f
(
x
,
y
)
(Betinget tetthet)
•
Uavhengighet:
f
(
x
,
y
)
=
f
X
(
x
)
⋅
f
Y
(
y
)
f(x,y) = f_X(x) \cdot f_Y(y)
f
(
x
,
y
)
=
f
X
(
x
)
⋅
f
Y
(
y
)
for alle
(
x
,
y
)
(x,y)
(
x
,
y
)
•
F
Y
(
y
)
=
∫
−
∞
y
f
Y
(
t
)
d
t
F_Y(y) = \int_{-\infty}^{y} f_Y(t) \, dt
F
Y
(
y
)
=
∫
−
∞
y
f
Y
(
t
)
d
t
(Kumulativ fordeling)
•
P
(
Y
≥
X
)
=
∬
y
≥
x
f
(
x
,
y
)
d
x
d
y
P(Y \geq X) = \iint_{y \geq x} f(x,y) \, dx \, dy
P
(
Y
≥
X
)
=
∬
y
≥
x
f
(
x
,
y
)
d
x
d
y
(Sannsynlighet over region)
Maksimum likelihood-estimering (MLE)
•
L
(
θ
)
=
∏
i
=
1
n
f
(
x
i
;
θ
)
L(\theta) = \prod_{i=1}^n f(x_i; \theta)
L
(
θ
)
=
i
=
1
∏
n
f
(
x
i
;
θ
)
(Likelihood-funksjonen)
•
ℓ
(
θ
)
=
∑
i
=
1
n
ln
f
(
x
i
;
θ
)
\ell(\theta) = \sum_{i=1}^n \ln f(x_i; \theta)
ℓ
(
θ
)
=
i
=
1
∑
n
ln
f
(
x
i
;
θ
)
(Log-likelihood)
•
d
ℓ
d
θ
=
0
\frac{d\ell}{d\theta} = 0
d
θ
d
ℓ
=
0
(Likelihoodligningen)
Egenskaper ved estimatorer
•
E
(
θ
^
)
=
θ
E(\hat{\theta}) = \theta
E
(
θ
^
)
=
θ
(Forventningsretthet)
•
SE
(
θ
^
)
=
V
(
θ
^
)
\text{SE}(\hat{\theta}) = \sqrt{V(\hat{\theta})}
SE
(
θ
^
)
=
V
(
θ
^
)
(Standardfeil)
•
V
(
a
X
+
b
)
=
a
2
V
(
X
)
V(aX + b) = a^2 V(X)
V
(
a
X
+
b
)
=
a
2
V
(
X
)
(Variansregel for lineaer transformasjon)
•
V
(
∑
X
i
)
=
∑
V
(
X
i
)
V\left(\sum X_i\right) = \sum V(X_i)
V
(
∑
X
i
)
=
∑
V
(
X
i
)
(for uavhengige variabler)
Sentralgrenseteoremet og normalapproksimasjon
•
X
ˉ
≈
N
(
μ
,
σ
2
n
)
\bar{X} \approx N\left(\mu, \frac{\sigma^2}{n}\right)
X
ˉ
≈
N
(
μ
,
n
σ
2
)
for stor \(n\) (SGT)
•
Z
=
X
ˉ
−
μ
σ
/
n
≈
N
(
0
,
1
)
Z = \frac{\bar{X} - \mu}{\sigma/\sqrt{n}} \approx N(0,1)
Z
=
σ
/
n
X
ˉ
−
μ
≈
N
(
0
,
1
)
(Standardisering)
•
Z
′
=
θ
^
−
θ
SE
^
(
θ
^
)
≈
N
(
0
,
1
)
Z' = \frac{\hat{\theta} - \theta}{\widehat{\text{SE}}(\hat{\theta})} \approx N(0,1)
Z
′
=
SE
(
θ
^
)
θ
^
−
θ
≈
N
(
0
,
1
)
(Slutsky / plug-in)
Konfidensintervaller
•
θ
^
±
z
α
/
2
⋅
SE
(
θ
^
)
\hat{\theta} \pm z_{\alpha/2} \cdot \text{SE}(\hat{\theta})
θ
^
±
z
α
/2
⋅
SE
(
θ
^
)
(Standard normalbasert KI)
•
[
2
n
μ
^
χ
2
n
,
α
/
2
2
,
2
n
μ
^
χ
2
n
,
1
−
α
/
2
2
]
\left[\frac{2n\hat{\mu}}{\chi^2_{2n, \alpha/2}}, \, \frac{2n\hat{\mu}}{\chi^2_{2n, 1-\alpha/2}}\right]
[
χ
2
n
,
α
/2
2
2
n
μ
^
,
χ
2
n
,
1
−
α
/2
2
2
n
μ
^
]
(Kjikvadratbasert KI for \(\mu\))
•
[
n
σ
^
2
χ
n
,
α
/
2
2
,
n
σ
^
2
χ
n
,
1
−
α
/
2
2
]
\left[\frac{n\hat{\sigma}^2}{\chi^2_{n, \alpha/2}}, \, \frac{n\hat{\sigma}^2}{\chi^2_{n, 1-\alpha/2}}\right]
[
χ
n
,
α
/2
2
n
σ
^
2
,
χ
n
,
1
−
α
/2
2
n
σ
^
2
]
(KI for \(\sigma^2\))
•
z
0.025
=
1.960
,
z
0.05
=
1.645
,
z
0.005
=
2.576
z_{0.025} = 1.960, \quad z_{0.05} = 1.645, \quad z_{0.005} = 2.576
z
0.025
=
1.960
,
z
0.05
=
1.645
,
z
0.005
=
2.576
(Kritiske verdier)
Lineaer regresjon
•
β
^
1
=
∑
(
x
i
−
x
ˉ
)
(
y
i
−
y
ˉ
)
∑
(
x
i
−
x
ˉ
)
2
\hat{\beta}_1 = \frac{\sum(x_i - \bar{x})(y_i - \bar{y})}{\sum(x_i - \bar{x})^2}
β
^
1
=
∑
(
x
i
−
x
ˉ
)
2
∑
(
x
i
−
x
ˉ
)
(
y
i
−
y
ˉ
)
(MKM stigningstall)
•
β
^
0
=
y
ˉ
−
β
^
1
x
ˉ
\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x}
β
^
0
=
y
ˉ
−
β
^
1
x
ˉ
(MKM konstantledd)
•
γ
^
1
=
∑
x
i
y
i
∑
x
i
2
\hat{\gamma}_1 = \frac{\sum x_i y_i}{\sum x_i^2}
γ
^
1
=
∑
x
i
2
∑
x
i
y
i
(MKM uten konstantledd)
•
V
(
β
^
1
)
=
σ
2
∑
(
x
i
−
x
ˉ
)
2
V(\hat{\beta}_1) = \frac{\sigma^2}{\sum(x_i - \bar{x})^2}
V
(
β
^
1
)
=
∑
(
x
i
−
x
ˉ
)
2
σ
2
(Varians til stigningstall)
•
V
(
γ
^
1
)
=
σ
2
∑
x
i
2
V(\hat{\gamma}_1) = \frac{\sigma^2}{\sum x_i^2}
V
(
γ
^
1
)
=
∑
x
i
2
σ
2
(Varians uten konstantledd)
•
Forveksle Gamma(1/2, 2) med Gamma(2, 1/2) -- skriv alltid (formparameter, skalaparameter).
Simultanfordelinger og marginalfordelinger
•
Sette feil integrasjonsgrenser nar man integrerer ut en variabel. Tegn alltid omradet!
•
Konkludere med uavhengighet bare fordi man ser et produkt -- sjekk at faktorene kun avhenger av en variabel hver.
•
Glemme at betinget tetthet er udefinert nar f_X(x) = 0.
•
Beregne P(Y >= X) med feil integrasjonsomrade. Tegn omradet i xy-planet forst.
Maksimum likelihood-estimering (MLE)
•
Glemme a ta logaritmen av likelihood-funksjonen for derivering -- det er mye enklere a jobbe med log-likelihood.
•
Derivere log-likelihood feil, saerlig med absoluttverdier som i Laplace-fordelingen.
•
Anta at MLE og momentestimator alltid er like -- det gjelder for eksponensialfamilien, men ikke generelt.
•
Glemme a sjekke at losningen gir et maksimum, ikke et minimum (andrederivert-test).
Egenskaper ved estimatorer
•
Glemme at V(X1 + X2) = V(X1) + V(X2) kun gjelder for UAVHENGIGE variabler.
•
Blande varians og standardfeil -- standardfeil er kvadratroten av variansen.
•
Glemme a kvadrere konstanten foran i variansregelen: V(aX) = a^2 V(X), IKKE a V(X).
•
Plugge inn estimatet i standardfeilen uten a nevne at det er en estimert standardfeil.
Sentralgrenseteoremet og normalapproksimasjon
•
Bruke SGT nar n er for liten (f.eks. n = 5). Argumenter alltid for at n er 'tilstrekkelig stor'.
•
Glemme a nevne SGT eksplisitt -- skriv 'ved sentralgrenseteoremet' nar du bruker det.
•
Forveksle sigma/sqrt(n) (standardfeil) med sigma (standardavvik). Standardfeilen er ALLTID mindre.
•
Anta at plug-in alltid fungerer -- for lite n gir estimert SE ekstra variabilitet og darligere dekningsgrad.
Konfidensintervaller
•
Snu ulikheten feil nar du loser for theta fra den pivotale ulikheten.
•
Forveksle chi^2_{n, 0.025} og chi^2_{n, 0.975}. Husk: den ovre persentilen gir den nedre grensen for theta.
•
Bruke z-verdier i stedet for chi^2-verdier nar fordelingen er eksakt kjikvadrat.
•
Glemme a dividere alpha pa 2 for tosidig konfidensintervall.
Lineaer regresjon
•
Forveksle formelen for beta_1-hat (med x-bar) og gamma_1-hat (uten x-bar).
•
Glemme at V(beta_1-hat) har sum(x_i - x-bar)^2 i nevneren, mens V(gamma_1-hat) har sum(x_i^2).
•
Konkludere med at en modell er 'bedre' bare fordi R^2 er hoyere -- vurder parsimonitet.
•
Glemme a sjekke forutsetningene: uavhengige feil med konstant varians.
•
Bruk det oppgitte integralet \(\int_0^\infty x^{a-1} e^{-x/b} dx = b^a \Gamma(a)\) aktivt -- det er oppgitt pa eksamen av en grunn.
Simultanfordelinger og marginalfordelinger
•
Simultanfordeling-oppgaven krever mye integrasjon. Oev pa a sette opp dobbeltintegraler raskt.
•
Uavhengighetssjekk: prøv a faktorisere f(x,y). Dersom det finnes et xy-ledd, er de avhengige.
•
Pa V2024 ble det spurt om kumulativ fordeling og median -- vit hvordan du gar fra f_Y til F_Y.
•
Denne oppgaven er gjerne den mest beregningskrevende. Alloker nok tid.
Maksimum likelihood-estimering (MLE)
•
MLE-utledning kommer ALLTID pa eksamen. Oev pa Poisson, eksponensial og Laplace.
•
Vis alltid fullstendig utledning: likelihood -> log-likelihood -> deriver -> sett lik 0 -> los.
•
Nar oppgaven ber om momentestimator i tillegg, argumenter kort for at E(X) = theta gir same resultat.
•
Husk formelen for derivering av ln: d/d(theta) [ln(theta)] = 1/theta.
Egenskaper ved estimatorer
•
Beregn alltid E(theta-hat) forst for a sjekke forventningsretthet -- det gir poeng selv om du ikke klarer variansen.
•
Bruk regnereglene steg for steg og vis alle mellomregninger tydelig.
•
Nar standardfeilen avhenger av ukjente parametre, estimer den ved a plugge inn MLE.
•
V2024 Oppg 1d og V2022 Oppg 2e hadde begge 'finn standardfeilen'-oppgaver. Forvent dette.
Sentralgrenseteoremet og normalapproksimasjon
•
SGT-argumentet er et standardsvar: nevn at X_i er i.i.d., oppgi E og V, og konkluder med normalapproks.
•
V2024 hadde en simuleringsoppgave om sammenligning av KI -- forstatt a diskutere dekningsgrad vs n.
•
Nar oppgaven sier 'argumenter for at Z er tilnaermet N(0,1)', er det SGT som ettersporres.
•
Husk z-verdiene: z_0.025 = 1.960, z_0.05 = 1.645, z_0.005 = 2.576.
Konfidensintervaller
•
KI-konstruksjon er pa HVER eksamen. Forstatt de tre metodene: normal, kjikvadrat, algebraisk losning.
•
Nar oppgaven oppgir chi^2-persentiler, forventes eksakt KI via kjikvadrat -- ikke bruk normalapproks da.
•
V2024 testet to ulike KI for same parameter og ba om diskusjon. Vaer forberedt pa a sammenligne.
•
Sjekk alltid at nedre grense < ovre grense som en fornuftssjekk.
Lineaer regresjon
•
Utledning av MKM (deriver summen av kvadrater, sett lik null) er en standard 'vis at'-oppgave.
•
V2024 testet modellvalg mellom med og uten konstantledd -- dette er et typisk format.
•
Forventning og varians av gamma_1-hat under FEIL modell (bias-varians avveining) er et avansert tema som dukket opp V2024d.
•
Regresjonsoppgaven kobler sammen MKM, estimatoregenskaper og KI -- det er en syntese-oppgave.