大家好,欢迎来到IT知识分享网。
原文地址1:https://www.face2ai.com/Math-Probability-4-7-Conditional-Expectation转载请标明出处
Abstract: 本文介绍期望的条件版本,也就是条件期望
Keywords: Expectation,Prediction,Law of Total Probability
条件期望
条件期望的定义和基本性质 Definition and Basic Properties
在我们举个例子之前我们回忆一下,我们整章都在说的期望,一个随机变量的期望取决于分布,而且我们提到过,不同的随机变量有同样的分布的时候,期望是一样的,那么我们可以进一步说每个分布对应唯一的期望,但是我们知道分布是有条件版本的,所以对应的期望就是条件分布的期望,而期望这个数值在预测过程中满足最小M.S.E. 的要求,所以某些时候用条件期望来预测某个值的出现是合理的。
那么当我们随机选取这个调查中的某一家人,其中有n个家庭成员,那么他们的手机持有量是多少呢?
这个问题就是一个典型的预测问题。
Definition Conditional Expectation/Mean.Let X X X and Y Y Y be random variables such that the mean of Y Y Y exists and is finite.The conditional expectation(or conditional mean) of Y Y Y given X = x X=x X=x is denoted by E ( Y ∣ x ) E(Y|x) E(Y∣x) and is defined to be the expectation of the conditional distribution of Y Y Y given X = x X=x X=x .
这个定义就是条件期望或者条件均值的定义了,如果 Y Y Y 存在并且有限,条件 X = x X=x X=x 条件期望 E ( Y ∣ x ) E(Y|x) E(Y∣x)
当然上面这个定义对条件有一定要求,因为条件 X也是随机变量,所以其取值也有范围,比如有些情况下 f 1 ( x ) = 0 f_1(x)=0 f1(x)=0 这种情况就很尴尬了,不过也没关系,因为条件发生的概率都是0了,那么在此条件下再发生别的更是不可能,所以这种情况变得无关紧要;另一种尴尬就是 f 1 ( x ) ≠ 0 f_1(x)\neq 0 f1(x)=0 也就是条件是某个正常的值了,但是这时候Y可能不存在期望,或者期望是无穷的情况,这时条件期望未定义;
Definition Conditional Means as Random Variables.Let h ( x ) h(x) h(x) stand for the function of x x x that is denoted E ( Y ∣ x ) E(Y|x) E(Y∣x) in either (1) or (2).Define the symble E ( Y ∣ X ) E(Y|X) E(Y∣X) to mean h ( X ) h(X) h(X) and call it the conditional mean of Y Y Y given X X X
想一下,我们前面给出了条件的具体取值,比如当给定 X = x 0 X=x_0 X=x0 的条件下, Y Y Y 的期望是什么。如果我们不给定条件特定的值,那么条件变成一个变量,从微积分的角度来看求条件期望的公式如下
E ( Y ∣ X = x ) = ∫ − ∞ ∞ Y f 1 ( Y ∣ X = x ) d y E(Y|X=x)=\int^{\infty}_{-\infty}Yf_1(Y|X=x)dy E(Y∣X=x)=∫−∞∞Yf1(Y∣X=x)dy
如果 X X X 也是变量那么这个两个变量的单积分表达式的结果就是个 X X X 的函数.
注意,当给定条件 X X X 时的条件期望 E ( Y ∣ X ) E(Y|X) E(Y∣X) 是一个随机变量,有自己的分布;给定条件 X = x X=x X=x 时,条件概率 h ( x ) = E ( Y ∣ x ) h(x)=E(Y|x) h(x)=E(Y∣x) 是一函数,这个函数与其他普通函数一样使用;
他们的联系是 X X X 有一定个概率等于 x x x 这时候, E ( Y ∣ X = x ) = h ( x ) E(Y|X=x)=h(x) E(Y∣X=x)=h(x) 按照函数 h h h 来完成计算。
接着我们提出条件版的全概率公式:
Theorem Law of Total Probability for Expectation.Let X X X and Y be random variables such that Y has finite mean.Then
E [ E ( Y ∣ X ) ] = E ( Y ) E[E(Y|X)]=E(Y) E[E(Y∣X)]=E(Y)
证明第一步用到了函数的期望,谁是函数?我上面说啦, h ( x ) = E ( Y ∣ x ) h(x)=E(Y|x) h(x)=E(Y∣x) 可以当做函数使用,然后又用到了条件概率分布和边缘分布的关系,最后得到预料之内的结论。
接下来这个定理反应的是当给定条件 X = x X=x X=x 下的概率,和把 X X X 当做已知常数 x x x 是一致的.
Let X X X and Y Y Y be random variables,and let Z = r ( X , Y ) Z=r(X,Y) Z=r(X,Y) for some function r.The conditional distribution of Z Z Z given X = x X=x X=x is the same as the conditional distribution of r ( x , Y ) r(x,Y) r(x,Y) given X = x X=x X=x
上面这个定理是说当某个随机变量 Z Z Z 是另外两个随机变量 X , Y X,Y X,Y 的某个函数 r r r 结果,那么当其中一个随机变量 X X X 或者 Y Y Y 被给定为条件的时候 E ( Z ∣ X = x ) = E [ r ( x , Y ) ∣ X = x ] E(Z|X=x)=E[r(x,Y)|X=x] E(Z∣X=x)=E[r(x,Y)∣X=x]
作为期望的第一步扩展,我们这里给出条件方差的定义,当然也有条件距,条件偏度,条件m.g.f,多变量的条件协方差等,篇幅时间都有限,不可能都一一练习,大家要多看例子,不然后面数理统计容易懵逼
Defintion Conditional Variance.For every given value x x x ,let V a r ( Y ∣ x ) Var(Y|x) Var(Y∣x) denote the variance ofthe conditional distribution of Y Y Y given X = x X=x X=x .That is
V a r ( Y ∣ x ) = E { [ Y − E ( Y ∣ x ) ] 2 ∣ x } Var(Y|x)=E\{[Y-E(Y|x)]^2|x\} Var(Y∣x)=E{
[Y−E(Y∣x)]2∣x}
这就是我们说当给定 X = x X=x X=x 时 Y Y Y 的条件期望是 V a r ( Y ∣ x ) Var(Y|x) Var(Y∣x)
条件期望用来预测 Prediction
上面我们临床试验的例子描述了一种场景,并说如果在一个随机样本空间 n n n (足够大) 中有 X X X 个成功治愈的样例,那么我们怎么估计 P P P 这就是一个非常接近数理统计的例子,或者说这就是一个统计了题目。
Theorem The prediction d ( X ) d(X) d(X) that minimizes E { [ Y − d ( X ) ] 2 } E\{[Y-d(X)]^2\} E{
[Y−d(X)]2} is d ( X ) = E ( Y ∣ X ) d(X)=E(Y|X) d(X)=E(Y∣X)
证明过程略复杂,当时我们还是详细的写一下,毕竟后面统计要用到。在证明之前我们先仔细看看这个定理说的到底是个什么事,我们想要预测某个随机变量 X X X 的某个函数( d d d )的结果,误差函数被定义为 [ Y − d ( X ) ] 2 [Y-d(X)]^2 [Y−d(X)]2 其结果是 d ( X ) = E ( Y ∣ X ) d(X)=E(Y|X) d(X)=E(Y∣X)
误差函数或者损失函数是机器学习里的名词,这里指的就是类似于前面 M.S.E. 和M.A.E. 的一个指标,最小化时有最优结果。
证明:
我们证明X有一个连续分布,离散分布与连续情况基本一致。
- 令 d ( X ) = E ( Y ∣ X ) d(X)=E(Y|X) d(X)=E(Y∣X) , d ′ ( X ) d'(X) d′(X) 是一个任意的预测结果,我们只需要证明 E { [ Y − d ( X ) ] 2 } ≤ E { [ Y − d ′ ( X ) ] 2 } E\{[Y-d(X)]^2\}\leq E\{[Y-d'(X)]^2\} E{
[Y−d(X)]2}≤E{
[Y−d′(X)]2} 成立 - 根据 E { E [ r ( X , Y ) ∣ X ] } = E [ r ( X , Y ) ] E\{E[r(X,Y)|X]\}=E[r(X,Y)] E{
E[r(X,Y)∣X]}=E[r(X,Y)] 有 Z ′ = [ Y − d ′ ( X ) ] 2 Z’=[Y-d'(X)]^2 Z′=[Y−d′(X)]2 并且 h ′ ( x ) = E ( Z ′ ∣ x ) h'(x)=E(Z’|x) h′(x)=E(Z′∣x) 可以把1中的不等式转化成连续函数的期望的形式
∫ h ( x ) f 1 ( x ) d x ≤ ∫ h ′ ( x ) f 1 ( x ) d x \int h(x)f_1(x)dx\leq \int h'(x)f_1(x)dx ∫h(x)f1(x)dx≤∫h′(x)f1(x)dx - 所以我们就把上面要证明的目标转换成了证明 h ( x ) ≤ h ′ ( x ) h(x)\leq h'(x) h(x)≤h′(x)
- 那么我们如果证明了 E { [ Y − d ( X ) ] 2 ∣ x } ≤ E { [ Y − d ′ ( X ) ] 2 ∣ x } E\{[Y-d(X)]^2|x\}\leq E\{[Y-d'(X)]^2|x\} E{
[Y−d(X)]2∣x}≤E{
[Y−d′(X)]2∣x} 就相当于证明了3 - 假定4中的 x x x 为常数,根据MSE很容易证明结论
证毕
这个证明有点粗糙,但是大概框架给出了,大家需要查阅这两天的博客就能得出完成的证明过程了。
M.S.E. 还和 V a r Var Var 有关系:当我们预测在给定条件 X = x X=x X=x 的条件下预测 Y Y Y 为 E ( Y ∣ x ) E(Y|x) E(Y∣x) 时其M.S.E就是 V a r ( Y ∣ x ) Var(Y|x) Var(Y∣x) 如果在 X X X 未知的情况下最佳预测就是 E [ Y ] E[Y] E[Y]
Theorem Law of Total Probability for Variance.If X X X and Y Y Y are arbitrary random variables for which the necessary expectations and variances exist,then V a r ( X ) = E [ V a r ( Y ∣ X ) ] + V a r [ E ( Y ∣ X ) ] Var(X)=E[Var(Y|X)]+Var[E(Y|X)] Var(X)=E[Var(Y∣X)]+Var[E(Y∣X)]
总结
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/124753.html