I sannolikhet och statistik , givet två stokastiska processer
{
X
t
}
{\displaystyle \left\{X_{t}\right\}}
och
{
Y
t
}
{\displaystyle \left\{Y_{t}\right\}}
, är korskovariansen en funktion som ger kovariansen för en process med den andra vid par av tidpunkter . Med den vanliga notationen
E
\displaystyle \operatorname {E} }
μ
X
( t ) =
E
{
X
t
]
{\displaystyle \mu _{X}(t) =\operatörsnamn {\operatörsnamn {E} } [X_{t}]}
för förväntningsoperatorn , om processerna har medelfunktionerna [ och
μ
Y
( t ) = E [
Y
t
]
{\displaystyle \mu _{Y}(t)=\operatörsnamn {E} [Y_ {t}]}
, då ges korskovariansen av
K
X Y
(
t
1
,
t
2
) = cov (
X
t
1
,
Y
t
2
) = E [ (
X
t
1
−
μ
X
(
t
1
) ) (
Yt
2
−
μ
Y
( t
2
)
_ ) ] = E [
X
t
1
Y
t
2
] −
μ
X
(
t
1
)
μ
Y
(
t
2
) .
{\displaystyle \operatörsnamn {K} _{XY}(t_{1},t_{2})=\operatörsnamn {cov} (X_{t_{1}},Y_{t_{2}})=\operatörsnamn { E} [(X_{t_{1}}-\mu _{X}(t_{1}))(Y_{t_{2}}-\mu _{Y}(t_{2}))]=\ operatornamn {E} [X_{t_{1}}Y_{t_{2}}]-\mu _{X}(t_{1})\mu _{Y}(t_{2}).\,}
Korskovarians är relaterad till den mer vanligt förekommande korskorrelationen mellan processerna i fråga.
I fallet med två slumpmässiga vektorer
X
= (
X
1
,
X
2
, … ,
X
p
)
T
{\displaystyle \mathbf {X} =(X_{1},X_{2},\ldots ,X_{p}) ^{\rm {T}}}
och
Y
= (
Y
1
,
Y
2
, … ,
Y
q
)
T
{\displaystyle \mathbf {Y} =(Y_{1},Y_{2},\ldots ,Y_{ q})^{\rm {T}}}
, korskovariansen skulle vara en
p × q
{\displaystyle p\times q}
matris
K
X Y
{\displaystyle \operatornamn {K} _{XY}}
(ofta betecknad
cov ( X , Y )
{\displaystyle \operatorname {cov} (X,Y)}
) med poster
K
X Y
( j , k ) = cov (
X
j
,
Y
k
) .
{\displaystyle \operatorname {K} _{XY}(j,k)=\operatörsnamn {cov} (X_{j},Y_{k}).\,} Således används termen korskovarians
för att särskilja detta koncept från kovariansen av en slumpmässig vektor
X
{\displaystyle \mathbf {X} } ,
som förstås vara matrisen av kovarianser mellan de skalära komponenterna av
X
{\displaystyle \mathbf {X} }
själv.
Vid signalbehandling kallas korskovariansen ofta korskorrelation och är ett mått på likheten mellan två signaler , som vanligtvis används för att hitta egenskaper i en okänd signal genom att jämföra den med en känd. Det är en funktion av den relativa tiden mellan signalerna glidpunktsprodukten , kallas ibland för och har tillämpningar inom mönsterigenkänning och kryptoanalys .
Korskovarians av slumpmässiga vektorer
Korskovarians av stokastiska processer
Definitionen av korskovarians av slumpmässiga vektorer kan generaliseras till stokastiska processer enligt följande:
Definition
Låt
{ X ( t ) }
{\displaystyle \{X(t)\}}
och
{ Y ( t ) }
{\displaystyle \{Y(t)\}}
beteckna stokastiska processer. Sedan definieras korskovariansfunktionen för processerna
K
X Y
{\displaystyle K_{XY}} av:
K
X Y
(
t
1
,
t
2
)
=
d e f
cov (
X
t
1
,
Y
t
2
) = E
[
(
X (
t
1
) −
μ
X
(
t
1
)
)
(
Y (
t
2
) −
μ
Y
(
t
2
)
)
]
{\displaystyle \operatorname {K} _{XY}(t_{1},t_{2}){\stackrel {\mathrm {def} }{=}}\ \operatorname { cov} (X_{t_{1}},Y_{t_{2}})=\operatörsnamn {E} \left[\left(X(t_{1})-\mu _{X}(t_{1} )\right)\left(Y(t_{2})-\mu _{Y}(t_{2})\right)\right]}
()
där
μ
X
( t ) = E
[
X ( t )
]
{\displaystyle \mu _{X}(t)=\operatörsnamn {E} \left[X(t)\right]}
och
μ
Y
( t ) = E
[
Y ( t )
]
{\displaystyle \mu _{Y}(t)=\operatörsnamn {E} \left[Y(t)\right]}
.
Om processerna är komplext värderade stokastiska processer, måste den andra faktorn vara komplex konjugerad :
K
X Y
(
t
1
,
t
2
)
=
d e f
cov (
X
t
1
,
Y
t
2
) = E
[
(
X (
t
1
) −
μ
X
(
t
1
)
)
(
Y (
t
2
) −
μ
Y
(
t
2
)
)
¯
]
{\displaystyle \operatörsnamn {K} _{XY}(t_{1},t_{2}){\stackrel {\mathrm {def} }{=}}\ \operatörsnamn {cov} (X_{t_{1}},Y_{t_{2}})=\operatörsnamn {E} \left[\left(X(t_{1})-\mu _{X}(t_{1 })\right){\overline {\left(Y(t_{2})-\mu _{Y}(t_{2})\right)}}\right]}
Definition för gemensamma WSS-processer
Om
{
X
t
}
{\displaystyle \left\{X_{t}\right\}}
och
{
Y
t
}
{\displaystyle \left\{Y_{t}\right\}}
är ett gemensamt vidsynt stationärt , då är följande sant:
μ
X
(
t
1
) =
μ
X
(
t
2
) ≜
μ
X
{\displaystyle \mu _{X}(t_{1})=\mu _{X}(t_{2})\triangleq \mu _{ X}}
för alla
t
1
,
t
2
{\displaystyle t_{1},t_{2}}
,
μ
Y
(
t
1
) =
μ
Y
(
t
2
) ≜
μ
Y
{\displaystyle \mu _{Y}( t_{1})=\mu _{Y}(t_{2})\triangleq \mu _{Y}}
för alla
t
1
,
t
2
{\displaystyle t_{1},t_{2}}
och
0
K
X Y
(
t
1
,
t
2
) =
K
X Y
(
t
2
−
t
1
, )
{\displaystyle \operatörsnamn {K} _{XY}(t_{1},t_{2})=\operatörsnamn {K} _{XY}(t_{2}-t_{1},0)}
för alla
t
1
,
t
2
{\displaystyle t_{1},t_{2}}
Genom att ställa in
τ =
t
2
−
t
1
{\displaystyle \tau =t_{2}-t_{1}}
(fördröjningen, eller hur lång tid som signalen har förskjutits), kan vi definiera
K
X Y
( τ ) =
K
X Y
(
t
2
−
t
1
) ≜
K
X Y
(
t
1
,
t
2
)
{\displaystyle \operatörsnamn {K} _{XY}(\tau )=\operatörsnamn {K} _{XY}(t_{2}-t_{1})\triangleq \operatörsnamn {K} _{XY}(t_{1},t_{2})}
.
Korskovariansfunktionen för två gemensamma WSS-processer ges därför av:
K
X Y
( τ ) = cov (
X
t
,
Y
t − τ
) = E [ (
X
t
−
μ
X
) (
Yt
− τ −
μ
Y
)
] = E [
X
t
Y
t
τ _
− ] −
μ
X
μ
Y
{\displaystyle \operatörsnamn {K} _{XY}(\tau )=\operatörsnamn {cov} (X_{t},Y_{t-\tau })=\operatörsnamn {E} [( X_{t}-\mu _{X})(Y_{t-\tau }-\mu _{Y})]=\operatörsnamn {E} [X_{t}Y_{t-\tau }]-\ mu _{X}\mu _{Y}}
()
vilket motsvarar
K
X Y
( τ ) = cov (
X
t + τ
,
Y
t
) = E [ (
X
t + τ
−
μ
X
) (
Y
t
−
μ
Y
) ] = E [
X
t + τ
Y
t
] −
μ
X
μ
Y
{\displaystyle \operatörsnamn {K} _{XY}(\tau )=\operatörsnamn {cov} (X_{t+\tau },Y_{t})=\operatörsnamn {E} [(X_ {t+\tau }-\mu _{X})(Y_{t}-\mu _{Y})]=\operatörsnamn {E} [X_{t+\tau }Y_{t}]-\mu _{ X}\mu _{Y}}
.
Okorrelation
Två stokastiska processer
{
X
t
}
{\displaystyle \left\{X_{t}\right\}}
och
{
Y
t
}
{\displaystyle \left\{Y_{t}\right\}}
kallas okorrelerade om deras kovarians
K
X
Y
(
t
1
,
t
2
)
{\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})}
är noll för alla tider. Formellt:
0
{
X
t
}
,
{
Y
t
}
okorrelerade
⟺
K
X
Y
(
t
1
,
t
2
) = ∀
t
1
,
t
2
{\displaystyle \left\{X_{t}\right\},\left\{Y_ {t}\right\}{\text{ okorrelerad}}\quad \iff \quad \operatörsnamn {K} _{\mathbf {X} \mathbf {Y} }(t_{1},t_{2})= 0\quad \forall t_{1},t_{2}}
.
Korskovarians av deterministiska signaler
Korskovariansen är också relevant vid signalbehandling där korskovariansen mellan två breda stationära slumpmässiga processer kan uppskattas genom att medelvärdesberäkning av produkten av prover uppmätta från en process och prover uppmätta från den andra (och dess tidsförskjutningar). Samplen som ingår i medelvärdet kan vara en godtycklig delmängd av alla sampel i signalen (t.ex. sampel inom ett ändligt tidsfönster eller en undersampling av en av signalerna). För ett stort antal sampel konvergerar medelvärdet till den sanna kovariansen.
Korskovarians kan också hänvisa till en "deterministisk" korskovarians mellan två signaler. Detta består av summering över alla tidsindex. Till exempel, för tidsdiskreta signaler
f [ k ]
{\displaystyle f[k]}
och
g [ k ]
{\displaystyle g[k]}
definieras korskovariansen som
( f ⋆ g ) [ n ]
=
d e f
∑
k ∈
Z
f [ k ]
¯
g [ n + k ] =
∑
k ∈
Z
f [ k − n ]
¯
g [ k ]
{\displaystyle (f\star g)[n]\ {\stackrel {\mathrm {def} }{=}}\ \sum _{k\in \mathbb {Z} }{\overline {f[k]}}g[n+k] =\summa _{k\in \mathbb {Z} }{\overline {f[kn]}}g[k]}
där linjen indikerar att det komplexa konjugatet tas när signalerna är komplext värderade .
För kontinuerliga funktioner
f ( x )
{\displaystyle f(x)}
och
g ( x )
{\displaystyle g(x)}
definieras den (deterministiska) korskovariansen som
( f ⋆ g ) ( x )
=
d e f
∫
f ( t )
¯
g ( x + t ) d t = ∫
f ( t − x )
¯
g ( t ) d t
{\displaystyle (f\star g) (x)\ {\stackrel {\mathrm {def} }{=}}\ \int {\overline {f(t)}}g(x+t)\,dt=\int {\overline {f(tx) )}}g(t)\,dt}
.
Egenskaper
Den (deterministiska) korskovariansen för två kontinuerliga signaler är relaterad till faltningen av
( f ⋆ g ) ( t ) = (
f ( − τ )
¯
∗ g ( τ ) ) ( t )
{\displaystyle (f\star g)(t)=({\overline {f(-\tau )} }*g(\tau ))(t)}
och den (deterministiska) korskovariansen för två diskreta tidssignaler är relaterad till den diskreta faltningen av
( f ⋆ g ) [ n ] = (
f [ − k ]
¯
∗ g [ k ] ) [ n ]
{\displaystyle (f\star g)[n]=({\överlinje {f[-k]}} *g[k])[n]}
.
Se även
externa länkar