Sannolikhet och datavetenskap koncept
Inom sannolikhetsteori och teoretisk datavetenskap är McDiarmids ojämlikhet en koncentrationsojämlikhet som begränsar avvikelsen mellan det samplade värdet och det förväntade värdet för vissa funktioner när de utvärderas på oberoende slumpvariabler . McDiarmids ojämlikhet gäller funktioner som uppfyller en bounded differences- egenskap, vilket innebär att att ersätta ett enda argument till funktionen samtidigt som alla andra argument lämnas oförändrade inte kan orsaka en för stor förändring av funktionens värde.
Påstående
En funktion
f :
X
1
×
X
2
× ⋯ ×
X
n
→
R
{\displaystyle f:{\mathcal {X}}_{1}\times {\mathcal {X}}_{2}\times \cdots \ gånger {\mathcal {X}}_{n}\rightarrow \mathbb {R} }
uppfyller egenskapen bounded differences om värdet av
i
{\displaystyle i}:
e koordinaten
x
i
{\displaystyle x_{i}}
ändras värdet av
f
{\displaystyle f}
med högst
c
i
{\displaystyle c_{i}}
. Mer formellt, om det finns konstanter
c
1
,
c
2
, … ,
c
n
{\displaystyle c_{1},c_{2},\dots ,c_{n}}
så att för alla
i ∈ [ n ]
{\displaystyle i\in [n]}
, och alla
x
1
∈
X
1
,
x
2
∈
X
2
, … ,
x
n
∈
X
n
{\displaystyle x_{1}\i {\mathcal {X}}_{1}, \,x_{2}\i {\mathcal {X}}_{2},\,\ldots ,\,x_{n}\i {\mathcal {X}}_{n}}
,
sup
x
i
′
∈
X
i
|
f (
x
1
, … ,
x
i − 1
,
x
i
,
x
i + 1
, … ,
x
n
) − f (
x
1
, … ,
x
i − 1
,
x
i
′
,
x
i + 1
, … ,
x
n
)
|
≤
c
i
.
{\displaystyle \sup _{x_{i}'\in {\mathcal {X}}_{i}}\left|f(x_{1},\dots ,x_{i-1},x_{i} ,x_{i+1},\ldots ,x_{n})-f(x_{1},\dots ,x_{i-1},x_{i}',x_{i+1},\ldots, x_{n})\right|\leq c_{i}.}
McDiarmid's Inequality — Låt
f :
X
1
×
X
2
× ⋯ ×
X
n
→
R
{\displaystyle f:{\mathcal {X}}_{1}\times {\mathcal {X}}_{2}\times \ cdots \times {\mathcal {X}}_{n}\rightarrow \mathbb {R} }
uppfyller egenskapen bounded differences med gränser
c
1
,
c
2
, … ,
c
n
{\displaystyle c_{1},c_{2 },\dots ,c_{n}}
.
Betrakta oberoende slumpvariabler
X
1
,
X
2
, … ,
X
n
{\displaystyle X_{1},X_{2},\dots ,X_{n}}
där
X
i
∈
X
i
{\displaystyle X_{i}\in {\mathcal {X}}_{i}}
för alla
i
{\displaystyle i}
. Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
(
f (
X
1
,
X
2
, … ,
X
n
) −
E
[ f (
X
1
,
X
2
, … ,
X
n
) ] ≥ ε
)
≤ exp
(
−
2
ε
2
∑
i = 1
n
c
i
2
)
,
{\displaystyle {\text{P}}\left(f(X_{1},X_{2},\ldots ,X_{n})-\mathbb {E} [f(X_{1}, X_{2},\ldots ,X_{n})]\geq \varepsilon \right)\leq \exp \left(-{\frac {2\varepsilon ^{2}}{\sum _{i=1} ^{n}c_{i}^{2}}}\höger),}
P
( f (
X
1
,
X
2
, … ,
X
n
) −
E
[ f (
X
1
,
X
2
, … ,
X
n
) ] ≤ − ε ) ≤ exp
(
−
2
ε
2
∑
i = 1
n
c
i
2
)
,
{\displaystyle {\text{P}}(f(X_{1},X_{2},\ldots ,X_ {n})-\mathbb {E} [f(X_{1},X_{2},\ldots ,X_{n})]\leq -\varepsilon )\leq \exp \left(-{\frac { 2\varepsilon ^{2}}{\summa _{i=1}^{n}c_{i}^{2}}}\höger),}
och som en omedelbar konsekvens,
P
(
|
f (
X
1
,
X
2
, … ,
X
n
) −
E
[ f (
X
1
,
X
2
, … ,
X
n
) ]
|
≥ ε ) ≤ 2 exp
(
−
2
ε
2
∑
i = 1
n
c
i
2
)
.
{\displaystyle {\text{P}}(|f(X_{1},X_{2},\ldots,X_{n})-\mathbb {E} [f(X_{1},X_{2} ,\ldots ,X_{n})]|\geq \varepsilon )\leq 2\exp \left(-{\frac {2\varepsilon ^{2}}{\sum _{i=1}^{n} c_{i}^{2}}}\höger).}
Tillägg
Obalanserade fördelningar
En starkare gräns kan ges när argumenten till funktionen samplas från obalanserade distributioner, så att omsampling av ett enstaka argument sällan orsakar en stor förändring av funktionsvärdet.
McDiarmid's Inequality (obalanserad) — Låt
f :
X
n
→
R
{\displaystyle f:{\mathcal {X}}^{n}\rightarrow \mathbb {R} }
tillfredsställa egenskapen bounded differences med gränser
c
1
,
c
2
, … ,
c
n
{\displaystyle c_{1},c_{2},\dots ,c_{n}}
.
Betrakta oberoende slumpvariabler
X
1
,
X
2
, … ,
X
n
∈
X
{\displaystyle X_{1},X_{2},\ldots ,X_{n}\in {\mathcal {X}}}
ritade från en fördelning där det finns ett särskilt värde
χ
0
∈
X
{\displaystyle \chi _{0}\in {\mathcal {X}}}
som inträffar med sannolikheten
1 − p
{\displaystyle 1-p}
. Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
(
|
f (
X
1
, … ,
X
n
) −
E
[ f (
X
1
, … ,
X
n
) ]
|
≥ ε ) ≤ 2 exp
(
−
ε
2
2 p ( 2 − p )
∑
i = 1
n
c
i
2
+
2 3
e
max
i
c
i
)
.
{\displaystyle {\text{P}}(|f(X_{1},\ldots ,X_{n})-\mathbb {E} [f(X_{1},\ldots ,X_{n})] |\geq \varepsilon )\leq 2\exp \left({\frac {-\varepsilon ^{2}}{2p(2-p)\summa _{i=1}^{n}c_{i}^ {2}+{\frac {2}{3}}\varepsilon \max _{i}c_{i}}}\right).}
Detta kan användas för att karakterisera till exempel värdet av en funktion på grafer när den utvärderas på glesa slumpmässiga grafer och hypergrafer , eftersom det i en gles slumpmässig graf är mycket mer sannolikt att någon speciell kant saknas än att den finns.
Skillnader avgränsade med hög sannolikhet
McDiarmids ojämlikhet kan utvidgas till det fall där funktionen som analyseras inte strikt uppfyller egenskapen bounded differences, men stora skillnader förblir mycket sällsynta.
McDiarmid's Inequality (Skillnader avgränsade med hög sannolikhet) — Låt
f :
X
1
×
X
2
× ⋯ ×
X
n
→
R
{\displaystyle f:{\mathcal {X}}_{1}\times {\mathcal {X}} _{2}\times \cdots \times {\mathcal {X}}_{n}\rightarrow \mathbb {R} } vara
en funktion och
Y
⊆
X
1
×
X
2
× ⋯ ×
X
n
{\displaystyle {\ mathcal {Y}}\subseteq {\mathcal {X}}_{1}\times {\mathcal {X}}_{2}\times \cdots \times {\mathcal {X}}_{n}}
vara en delmängd av dess domän och låt
c
1
,
c
2
, … ,
c
n
≥
0
{\displaystyle c_{1},c_{2},\dots ,c_{n}\geq 0}
vara konstanter så att för alla par
(
x
1
, … ,
x
n
) ∈
Y
{\displaystyle (x_{1},\ldots ,x_{n})\in {\mathcal {Y}}}
och
(
x
1
′
, … ,
x
n
′
) ∈
Y
{\displaystyle (x'_{1},\ldots ,x'_{n})\in {\mathcal {Y}}}
,
|
f (
x
1
, … ,
x
n
) − f (
x
1
′
, … ,
x
n
′
)
|
≤
∑
i :
x
i
≠
x
i
′
c
i
.
{\displaystyle \left|f(x_{1},\ldots,x_{n})-f(x'_{1},\ldots,x'_{n})\right|\leq \sum _{ i:x_{i}\neq x'_{i}}c_{i}.}
Betrakta oberoende slumpvariabler
X
1
,
X
2
, … ,
X
n
{\displaystyle X_{1},X_{2},\dots ,X_{n}}
där
X
i
∈
X
i
{\displaystyle X_{i}\in {\mathcal {X}}_{i}}
för alla
i
{\displaystyle i}
. Låt
p = 1 −
P
( (
X
1
, … ,
X
n
) ∈
Y
)
{\displaystyle p=1-\mathrm {P} ((X_{1},\ldots ,X_{n})\in {\ mathcal {Y}})}
och låt
m =
E
[ f (
X
1
, … ,
X
n
) ∣ (
X
1
, … ,
X
n
) ∈
Y
]
{\displaystyle m=\mathbb {E} [f(X_ {1},\ldots ,X_{n})\mid (X_{1},\ldots,X_{n})\in {\mathcal {Y}}]}
. Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
(
f (
X
1
, … ,
X
n
) − m ≥ ε
)
≤ p + exp
(
−
2 max
(
0
, ε − p
∑
i = 1
n
c
i
)
2
∑
i = 1
n
c
i
2
)
,
{\displaystyle {\text{P}}\left(f(X_{1},\ldots,X_{n})-m\geq \varepsilon \right)\leq p+\exp \left(-{\frac { 2\max \left(0,\varepsilon -p\sum _{i=1}^{n}c_{i}\right)^{2}}{\sum _{i=1}^{n}c_ {i}^{2}}}\höger),}
och som en omedelbar konsekvens,
P
(
|
f (
X
1
, … ,
X
n
) − m
|
≥ ε ) ≤ 2 p + 2 exp
(
−
2 max
(
0
, ε − p
∑
i = 1
n
c
i
)
2
∑
i = 1
n
c
i
2
)
.
{\displaystyle {\text{P}}(|f(X_{1},\ldots ,X_{n})-m|\geq \varepsilon )\leq 2p+2\exp \left(-{\frac { 2\max \left(0,\varepsilon -p\sum _{i=1}^{n}c_{i}\right)^{2}}{\sum _{i=1}^{n}c_ {i}^{2}}}\höger).}
Det finns starkare förbättringar av denna analys i vissa distributionsberoende scenarier, som de som uppstår i inlärningsteori .
Sub-Gaussiska och subexponentiella normer
Låt
k
{\displaystyle k}:
e centrerade villkorliga versionen av en funktion
f
{\displaystyle f}
vara
f
k
( X ) ( x ) := f (
x
1
, … ,
x
k − 1
,
X
k
,
x
k + 1
, … ,
x
n
) −
E
X
k
′
f (
x
1
, … ,
x
k − 1
,
X
k
′
,
x
k + 1
, … ,
x
n
) ,
{\displaystyle f_{k}(X)(x):=f(x_{1},\ldots ,x_{k-1},X_ {k},x_{k+1},\ldots ,x_{n})-\mathbb {E} _{X'_{k}}f(x_{1},\ldots ,x_{k-1} ,X'_{k},x_{k+1},\ldots ,x_{n}),}
så att
f
k
( X )
{\displaystyle f_{k}(X)}
är en slumpmässig variabel beroende på slumpmässiga värden på
x
1
, … ,
x
k − 1
,
x
k + 1
, … ,
x
n
{\displaystyle x_ {1},\ldots ,x_{k-1},x_{k+1},\ldots,x_{n}}
.
McDiarmid's Inequality (Sub-Gaussian norm) — Låt
f :
X
1
×
X
2
× ⋯ ×
X
n
→
R
{\displaystyle f:{\mathcal {X}}_{1}\times {\mathcal {X}}_ {2}\times \cdots \times {\mathcal {X}}_{n}\rightarrow \mathbb {R} }
vara en funktion. Betrakta oberoende slumpvariabler
X = (
X
1
,
X
2
, … ,
X
n
)
{\displaystyle X=(X_{1},X_{2},\dots ,X_{n})}
där
X
i
∈
X
i
{ \displaystyle X_{i}\in {\mathcal {X}}_{i}}
för alla
i
{\displaystyle i}
.
Låt
f
k
( X )
{\displaystyle f_{k}(X)}
hänvisa till den
k
{\displaystyle k}:
e centrerade villkorliga versionen av
f
{\displaystyle f}
. Låt
‖ ⋅
‖
ψ
2
{\displaystyle \|\cdot \|_{\psi _{2}}}
beteckna den sub-Gaussiska normen för en slumpvariabel.
Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
(
f (
X
1
, … ,
X
n
) − m ≥ ε
)
≤ exp
(
−
ε
2
32 e
‖
∑
k ∈ [ n ]
‖
f
k
( X )
‖
ψ
2
2
‖
∞
‖
.
{\displaystyle {\text{P}}\left(f(X_{1},\ldots ,X_{n})-m\geq \varepsilon \right)\leq \exp \left({\frac {-\ varepsilon ^{2}}{32e\left\|\sum _{k\in [n]}\|f_{k}(X)\|_{\psi _{2}}^{2}\right\ |_{\infty }}}\right).}
McDiarmid's Inequality (Sub-exponentiell norm) — Låt
f :
X
1
×
X
2
× ⋯ ×
X
n
→
R
{\displaystyle f:{\mathcal {X}}_{1}\times {\mathcal {X}}_ {2}\times \cdots \times {\mathcal {X}}_{n}\rightarrow \mathbb {R} }
vara en funktion. Betrakta oberoende slumpvariabler
X = (
X
1
,
X
2
, … ,
X
n
)
{\displaystyle X=(X_{1},X_{2},\dots ,X_{n})}
där
X
i
∈
X
i
{ \displaystyle X_{i}\in {\mathcal {X}}_{i}}
för alla
i
{\displaystyle i}
.
Låt
f
k
( X )
{\displaystyle f_{k}(X)}
hänvisa till den
k
{\displaystyle k}:
e centrerade villkorliga versionen av
f
{\displaystyle f}
. Låt
‖ ⋅
‖
ψ
1
{\displaystyle \|\cdot \|_{\psi _{1}}}
beteckna den subexponentiella normen för en slumpvariabel.
Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
(
f (
X
1
, … ,
X
n
) − m ≥ ε
)
≤ exp
(
−
ε
2
4
e
2
‖
∑
k ∈ [ n ]
‖
f
k
( X )
‖
ψ
1
2
‖
2
‖ _ _ _
max
k ∈ [ n ]
‖
‖
f
k
( X )
‖
ψ
1
‖
∞
)
.
{\displaystyle {\text{P}}\left(f(X_{1},\ldots ,X_{n})-m\geq \varepsilon \right)\leq \exp \left({\frac {-\ varepsilon ^{2}}{4e^{2}\left\|\sum _{k\in [n]}\|f_{k}(X)\|_{\psi _{1}}^{2 }\right\|_{\infty }+2\varepsilon e\max _{k\in [n]}\left\|\|f_{k}(X)\|_{\psi _{1}} \right\|_{\infty }}}\right).}
Bennett och Bernstein bildar
Förfiningar av McDiarmids ojämlikhet i stil med Bennetts ojämlikhet och Bernstein-ojämlikheter möjliggörs genom att definiera en variansterm för varje funktionsargument. Låta
B
:=
max
k ∈ [ n ]
sup
x
1
, … ,
x
k − 1
,
x
k + 1
, … ,
x
n
|
f (
x
1
, … ,
x
k − 1
,
X
k
,
x
k + 1
, … ,
x
n
) −
E
X
k
f (
x
1
, … ,
x
k − 1
,
X
k
,
x
k + 1
, … ,
x
n
)
|
,
V
k
:=
sup
x
1
, … ,
x
k − 1
,
x
k + 1
, … ,
x
n
E
X
k
(
f (
x
1
, … ,
x
k − 1
,
X
k
,
x
k + 1
, … ,
x
n
) −
E
X
k
f (
x
1
, … ,
x
k − 1
,
X
k
,
x
k + 1
, … ,
x
n
)
)
2
,
σ ~
2
:=
∑
k = 1
n
V
k
.
{\displaystyle {\begin{aligned}B&:=\max _{k\in [n]}\sup _{x_{1},\dots ,x_{k-1},x_{k+1},\ prickar ,x_{n}}\left|f(x_{1},\dots ,x_{k-1},X_{k},x_{k+1},\dots ,x_{n})-\mathbb {E} _{X_{k}}f(x_{1},\dots ,x_{k-1},X_{k},x_{k+1},\dots ,x_{n})\right| ,\\V_{k}&:=\sup _{x_{1},\dots ,x_{k-1},x_{k+1},\dots ,x_{n}}\mathbb {E} _ {X_{k}}\left(f(x_{1},\dots,x_{k-1},X_{k},x_{k+1},\dots,x_{n})-\mathbb { E} _{X_{k}}f(x_{1},\dots,x_{k-1},X_{k},x_{k+1},\dots,x_{n})\right)^ {2},\\{\tilde {\sigma }}^{2}&:=\summa _{k=1}^{n}V_{k}.\end{aligned}}}
McDiarmid's Inequality (Bennett-form) — Låt
f :
X
n
→
R
{\displaystyle f:{\mathcal {X}}^{n}\rightarrow \mathbb {R} }
tillfredsställa egenskapen bounded differences med gränser
c
1
,
c
2
, … ,
c
n
{\displaystyle c_{1},c_{2},\dots ,c_{n}}
. Betrakta oberoende slumpvariabler
X
1
,
X
2
, … ,
X
n
{\displaystyle X_{1},X_{2},\dots ,X_{n}}
där
X
i
∈
X
i
{\displaystyle X_{i}\in {\mathcal {X}}_{i}}
för alla
i
{\displaystyle i}
. Låt
B
{\displaystyle B}
och
σ ~
2
{\displaystyle {\tilde {\sigma }}^{2}}
definieras som i början av detta avsnitt.
Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
( f (
X1
,
… ,
Xn
−ε2Blog
) −E
[
f (
X1
,
… ,
Xn
≥ε
) ] ) ≤exp ( (
1
Bεσ
2
_
_ _
_
_ _
_ _
_ _
_
_
)
_
+ ~ ) . _ _
{\displaystyle {\text{P}}(f(X_{1},\ldots ,X_{n})-\mathbb {E} [f(X_{1},\ldots ,X_{n})]\ geq \varepsilon )\leq \exp \left(-{\frac {\varepsilon }{2B}}\log \left(1+{\frac {B\varepsilon }{{\tilde {\sigma }}^{2 }}}\eller hur).}
McDiarmid's Inequality (Bernstein-form) — Låt
f :
X
n
→
R
{\displaystyle f:{\mathcal {X}}^{n}\rightarrow \mathbb {R} }
tillfredsställa egenskapen bounded differences med gränser
c
1
,
c
2
, … ,
c
n
{\displaystyle c_{1},c_{2},\dots ,c_{n}}
. Låt
B
{\displaystyle B}
och
σ ~
2
{\displaystyle {\tilde {\sigma }}^{2}}
definieras som i början av detta avsnitt.
Sedan, för alla
ε >
0
{\displaystyle \varepsilon >0}
,
P
( f (
X1
,
… ,
Xn
−ε22
) −E
[
f (
X1
2
, … ,
Xn
(
) ] ≥ε ) ≤exp (
_
σ
_
_
_
_
_
_
+
_
Bε3
_
_
_
_
~ ) ) . _
{\displaystyle {\text{P}}(f(X_{1},\ldots ,X_{n})-\mathbb {E} [f(X_{1},\ldots ,X_{n})]\ geq \varepsilon )\leq \exp \left(-{\frac {\varepsilon ^{2}}{2\left({\tilde {\sigma }}^{2}+{\frac {B\varepsilon }{ 3}}\right)}}\right).}
Bevis
Följande bevis på McDiarmids ojämlikhet konstruerar Doob-martingalen som spårar det villkorliga förväntade värdet av funktionen när fler och fler av dess argument samplas och betingas, och sedan tillämpar en martingalkoncentrationsojämlikhet ( Azumas ojämlikhet) . Ett alternativt argument som undviker användningen av martingaler finns också, som drar fördel av funktionsargumentens oberoende för att tillhandahålla ett Chernoff-bundet -liknande argument.
För bättre läsbarhet kommer vi att introducera en notationsstenografi:
z
i ⇁ j
{\displaystyle z_{i\rightharpoondown j}}
kommer att beteckna
z
i
, … ,
z
j
{\displaystyle z_{i},\dots ,z_{j} }
för alla
z ∈
X
n
{\displaystyle z\in {\mathcal {X}}^{n}}
och heltal
1 ≤ i ≤ j ≤ n
{\displaystyle 1\leq i\leq j\leq n} ,
så att t.ex.
f (
X1⇁
)
+
( i − 1 )
, y ,
x
( i
−
1 ) ⇁n
,
)
Xi
:
1
,
= f (
X1
xi
, … , y ,
xn
+ 1
_
, … . _
_
_
_ _
{\displaystyle f(X_{1\rightharpoondown (i-1)},y,x_{(i+1)\rightharpoondown n}):=f(X_{1},\ldots ,X_{i-1}, y,x_{i+1},\ldots ,x_{n}).}
Välj valfri
x
1
′
,
x
2
′
, … ,
x
n
′
{\displaystyle x_{1}',x_{2}',\ldots ,x_{n}'}
. Sedan, för alla
x
1
,
x
2
, … ,
x
n
{\displaystyle x_{1},x_{2},\ldots ,x_{n}} ,
genom triangelolikhet ,
|
f (
x
1 ⇁ n
) − f (
x
1 ⇁ n
′
)
|
≤
|
f (
x
1 ⇁ n
) − f (
x
1 ⇁ ( n − 1 )
′
,
x
n
)
|
+
cn
_
≤
|
f (
x
1 ⇁ n
) − f (
x
1 ⇁ ( n − 2 )
′
,
x
( n − 1 ) ⇁ n
)
|
+
c
n − 1
+
c
n
≤
…
≤
∑
i = 1
n
c
i
,
{\displaystyle {\begin{aligned}&|f(x_{1\rightharpoondown n})-f(x'_{1\rightharpoondown n})|\\[6pt]\leq {}&|f(x_{1\rightharpoondown \,n})-f(x'_{1\rightharpoondown (n-1)},x_{n})| +c_{n}\\\leq {}&|f(x_{1\rightharpoondown n})-f(x'_{1\rightharpoondown (n-2)},x_{(n-1)\rightharpoondown n })|+c_{n-1}+c_{n}\\\leq {}&\ldots \\\leq {}&\summa _{i=1}^{n}c_{i},\end {Justerat}}}
och därmed är
f
{\displaystyle f}
avgränsad.
Eftersom
f
{\displaystyle f}
är avgränsad, definiera Doob-martingalen
{
Z
i
}
{\displaystyle \{Z_{i}\}}
(varje
Z
i
{\displaystyle Z_{i}}
är en slumpvariabel beroende på slumpen värden på
X
1
, … ,
X
i
{\displaystyle X_{1},\ldots ,X_{i}} )
som
Z
i
:=
E
[ f (
X
1 ⇁ n
) ∣
X
1 ⇁ i
]
{\displaystyle Z_{i}:=\mathbb {E} [f(X_{1\rightharpoondown n})\mid X_{1\ högerharpundown i}]}
för alla
i ≥ 1
{\displaystyle i\geq 1}
och
Z
0
:=
E
[ f (
X
1 ⇁ n
) ]
{\displaystyle Z_{0}:=\mathbb {E} [f(X_{1\rightharpoondown n })]}
, så att
Z
n
= f (
X
1 ⇁ n
)
{\displaystyle Z_{n}=f(X_{1\rightharpoondown n})}
.
Definiera nu de slumpmässiga variablerna för varje
i
{\displaystyle i}
U
i
:=
sup
x ∈
X
i
E
[ f (
X
1 ⇁ ( i − 1 )
, x ,
X
( i + 1 ) ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
,
X
i
= x ] −
[
f (
X
1 ⇁ ( i − 1 )
,
X
i ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
] ,
L
i
:=
inf
x ∈
X
i
E
[ f (
X
1 ⇁ ( i - 1 ) )
, x ,
X
( i + 1 ) ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
,
X
i
= x ] −
[
f (
X
1 ⇁ ( i − 1 )
,
X
i ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
] .
{\displaystyle {\begin{aligned}U_{i}&:=\sup _{x\in {\mathcal {X}}_{i}}\mathbb {E} [f(X_{1\rightharpoondown (i) -1)},x,X_{(i+1)\rightharpoondown n})\mid X_{1\rightharpoondown (i-1)},X_{i}=x]-\mathbb {[} f(X_{ 1\rightharpoondown (i-1)},X_{i\rightharpoondown n})\mid X_{1\rightharpoondown (i-1)}],\\L_{i}&:=\inf _{x\in { \mathcal {X}}_{i}}\mathbb {E} [f(X_{1\rightharpoondown (i-1)},x,X_{(i+1)\rightharpoondown n})\mid X_{1 \rightharpoondown (i-1)},X_{i}=x]-\mathbb {[} f(X_{1\rightharpoondown (i-1)},X_{i\rightharpoondown n})\mid X_{1\ rightharpoondown (i-1)}].\\\end{aligned}}}
Eftersom
X
i
, … ,
X
n
{\displaystyle X_{i},\ldots ,X_{n}}
är oberoende av varandra, påverkar inte villkoret på
X
i
= x
{\displaystyle X_{i}=x}
sannolikheter för de andra variablerna, så dessa är lika med uttrycken
U
i
=
sup
x ∈
X
i
E
[ f (
X
1 ⇁ ( i − 1 )
, x ,
X
( i + 1 ) ⇁ n
) − f (
X
1 ⇁ ( i − 1 )
,
X
i ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
] ,
Li
=
inf
x ∈
X
i
E
[ f (
X
1 ⇁
n
i - 1 )
( , x ,
X
( i + 1 ) ⇁
⇁
) − f (
X
1
( i ) − 1 )
,
X
i ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
] .
{\displaystyle {\begin{aligned}U_{i}&=\sup _{x\in {\mathcal {X}}_{i}}\mathbb {E} [f(X_{1\rightharpoondown (i- 1)},x,X_{(i+1)\rightharpoondown n})-f(X_{1\rightharpoondown (i-1)},X_{i\rightharpoondown n})\mid X_{1\rightharpoondown (i) -1)}],\\L_{i}&=\inf _{x\in {\mathcal {X}}_{i}}\mathbb {E} [f(X_{1\rightharpoondown (i-1) )},x,X_{(i+1)\rightharpoondown n})-f(X_{1\rightharpoondown (i-1)},X_{i\rightharpoondown n})\mid X_{1\rightharpoondown (i- 1)}].\\\end{aligned}}}
Observera att
}
Li
≤
Z
i
−
Z
i − 1
≤
U
i
{\displaystyle L_{i}\leq Z_{i}-Z_{i-1}\leq U_{i}
. Dessutom,
U
i
−
L
i
=
sup
u ∈
X
i
, ℓ ∈
X
i
E
[ f (
X
1 ⇁ ( i − 1 )
, u ,
X
( i + 1 ) ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
] −
E
[ f (
X
1 ⇁ ( i − 1 )
, ℓ ,
X
( i + 1 ) ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
]
=
sup
u ∈
X
i
, ℓ ∈
X
i
E
[ f (
X
1 ⇁ ( i − 1 )
, u ,
X
( i + 1 ) ⇁ n
) − f (
X
1 ⇁ ( i − 1 )
, l ,
X
( i + 1 ) ⇁ n
) ∣
X
1 ⇁ ( i − 1 )
]
≤
sup
x
u
∈
X
i
,
x
l
∈
X
i
E
[
c
i
∣
X
1 ⇁ ( i − 1 )
]
≤
c
i
{\displaystyle {\begin{aligned}U_{i}-L_{i }&=\sup _{u\in {\mathcal {X}}_{i},\ell \in {\mathcal {X}}_{i}}\mathbb {E} [f(X_{1\ rightharpoondown (i-1)},u,X_{(i+1)\rightharpoondown n})\mid X_{1\rightharpoondown (i-1)}]-\mathbb {E} [f(X_{1\rightharpoondown (i-1)},\ell ,X_{(i+1)\rightharpoondown n})\mid X_{1\rightharpoondown (i-1)}]\\[6pt]&=\sup _{u\in {\mathcal {X}}_{i},\ell \in {\mathcal {X}}_{i}}\mathbb {E} [f(X_{1\rightharpoondown (i-1)},u, X_{(i+1)\rightharpoondown n})-f(X_{1\rightharpoondown (i-1)},l,X_{(i+1)\rightharpoondown n})\mid X_{1\rightharpoondown (i) -1)}]\\&\leq \sup _{x_{u}\in {\mathcal {X}}_{i},x_{l}\in {\mathcal {X}}_{i}} \mathbb {E} [c_{i}\mid X_{1\rightharpoondown (i-1)}]\\[6pt]&\leq c_{i}\end{aligned}}}
Om vi sedan tillämpar den allmänna formen av Azumas ojämlikhet på
{
Z
i
}
{\displaystyle \left\{Z_{i}\right\}} ,
har vi
P
( f (
X
1
, … ,
X
n
) −
E
[ f (
X
1
, … ,
Xn
exp
) ] ≥ ε ) = P (
Zn
(
−
Z
0
≥ ε ) ≤
_
−
2
ε
2
∑
i
= 1nci2
_
_
_
_
)
_ .
{\displaystyle {\text{P}}(f(X_{1},\ldots ,X_{n})-\mathbb {E} [f(X_{1},\ldots ,X_{n})]\ geq \varepsilon )=\operatörsnamn {P} (Z_{n}-Z_{0}\geq \varepsilon )\leq \exp \left(-{\frac {2\varepsilon ^{2}}{\sum _{ i=1}^{n}c_{i}^{2}}}\höger).}
Den ensidiga gränsen i den andra riktningen erhålls genom att tillämpa Azumas olikhet på
{
−
Z
i
}
{\displaystyle \left\{-Z_{i}\right\}}
och den tvåsidiga gränsen följer av en unionsbunden .
◻
{\displaystyle \square }
Se även