文章目录
1.前言2.泊松过程的定义2.1 计数过程2.2 计数过程的独立增量和平稳增量2.3 泊松过程的定义2.3.1 泊松过程的定义12.3.2 泊松过程的定义22.3.3 两种定义等价性证明2.3.4 二项分布逼近泊松分布3 泊松过程的间隔时,到达时定义3.1 间隔时的定义3.2 到达时的定义3.3 导出泊松过程的第三种定义4 泊松过程到达时的条件分布4.1 求取到达时的条件分布4.2 分类的泊松过程5.非齐次泊松过程6 复合泊松分布6.1 复合泊松变量6.2 复合泊松过程7 一些例题8 后记1.前言
我如约把这个系列推到了第二篇。最近老师项目催得紧,再加上上周学的东西有点难懂(老师还说是非重点),作业也有点难。
在写这周作业的时候,我就发现回顾一下之前的内容还是很有必要的。因为老师是上完这一章之后统一布置了个作业,三周的课这么多内容,不知道题用什么方法解。
泊松过程主要分为下面几块内容讲。
第一个肯定是泊松过程的定义、基本性质之类的。接下来讲间隔时和到达时。然后说到达时的条件分布。最后提一提非齐次的泊松过程。
2.泊松过程的定义
2.1 计数过程
计数过程首先是一个随机过程。若N(t)N(t)N(t)表示截至时间t,时间发生的次数,则称随机过程{N(t),t≥0}\{N(t),t\geq0\}{N(t),t≥0}为计数过程。也就是说N(t)N(t)N(t)满足如下条件。
i) N(t)≥0N(t)\geq0N(t)≥0
ii) N(t)N(t)N(t)为整数
iii) 若s<t,N(s)≤N(t)s<t,N(s)\leq N(t)s<t,N(s)≤N(t)
iv) 对于s<t,N(t)−N(s)s<t,N(t)-N(s)s<t,N(t)−N(s)等于事件在区间(s,t](s,t](s,t]发生的次数
2.2 计数过程的独立增量和平稳增量
独立增量是指任意不重叠的时间段之间,随机变量的增量相互独立;平稳增量是指对于具有相同时间间隔的增量都服从相同分布。放在计数过程里指的是:
计数过程具有独立增量是指:任意不重叠的时间段之间,事件发生的次数都是相互独立的。
计数过程具有平稳增量是指:在任意时间长度内,事件发生的次数只和时间长度有关。
顺便,由于计数过程的特殊性质,具有平稳增量的计数过程在区间(s,s+t](s,s+t](s,s+t]内发生的次数服从的分布为:
[N(t+s)−N(s)][N(t+s)-N(s)][N(t+s)−N(s)]~[N(t)−N(0)][N(t)-N(0)][N(t)−N(0)]~N(t)N(t)N(t)
2.3 泊松过程的定义
2.3.1 泊松过程的定义1
i) N(0)=0N(0)=0N(0)=0
ii) 过程具有独立增量
iii) 在任意时间间隔ttt内事件发生的次数服从均值为λt\lambda tλt的泊松分布。也就是说,对于任意s,t≥0s,t\geq0s,t≥0,都有:
P[N(t)−N(s)=n]=e−λt(λt)nn!,n=0,1,...P[N(t)-N(s)=n]=e^{-\lambda t}\frac{(\lambda t)^n}{n!},n=0,1,...P[N(t)−N(s)=n]=e−λtn!(λt)n,n=0,1,...
由条件iii)可知,泊松过程具有平稳增量,所以
E[N(t)]=λtE[N(t)]=\lambda tE[N(t)]=λt
由于定义的iii)比较难验证,所以有下面的定义2
2.3.2 泊松过程的定义2
i) N(0)=0N(0)=0N(0)=0
ii) 过程具有独立增量和平稳增量
iii) P[N(h)=1]=λh+o(h)P[N(h)=1]=\lambda h+o(h)P[N(h)=1]=λh+o(h)
iv) P[N(h)≥2]=o(h)P[N(h)\geq2]=o(h)P[N(h)≥2]=o(h)
其中,o(h)o(h)o(h)表示h的无穷小量,即
limh→0=o(h)/h=0{lim}_{h\to 0} =o(h)/h=0limh→0=o(h)/h=0
2.3.3 两种定义等价性证明
过程分为从1到2和从2到1两步。书上有2->1的过程,我不想再抄一遍了。简单分为这几步:
1.利用定义2,求得P[N(t)−N(s)=0]P[N(t)-N(s)=0]P[N(t)−N(s)=0]
2.充分利用定义2,将P[N(t)−N(s)=n]P[N(t)-N(s)=n]P[N(t)−N(s)=n]拆开,求得P[N(t)−N(s)=n]P[N(t)-N(s)=n]P[N(t)−N(s)=n]满足的表达式
3.利用数学归纳法验证,对于任意n,定义2满足定义1中的条件3
后面证明非齐次泊松分布时,还会用到这里的证明。
从1->2比较容易证明。有了条件三的表达式,平稳增量是隐含的。然后再利用泰勒公式展开e−λte^{-\lambda t}e−λt求得P[N(h)]P[N(h)]P[N(h)]
2.3.4 二项分布逼近泊松分布
假设计数过程服从泊松分布,将时间段[0,t]分为等长的k份,且k很大。存在某个t/k的间隔内,事件发生两次及以上的概率为
P(存在发生超过2次的时间间隔)≤Σi=1kP(第i个间隔内,发生超过2次)=ko(t/k)=to(t/k)t/k=0,k→∞P(存在发生超过2次的时间间隔)\leq \Sigma_{i=1}^{k}P(第i个间隔内,发生超过2次)=ko(t/k)=t\frac{o(t/k)}{t/k}=0,k\to \inftyP(存在发生超过2次的时间间隔)≤Σi=1kP(第i个间隔内,发生超过2次)=ko(t/k)=tt/ko(t/k)=0,k→∞
第一个小于等于号是因为概率的次可加性,划分的事件不是两两无交的,因此取小于等于。
因此在每个时间间隔内,事件最多发生一次(以概率1,并非完全不可能,本段文字下同),因此每个时间段都可以分为事件发生一次/不发生。N(t)N(t)N(t)等于事件发生一次的时间段的数目,又由平稳增量和独立增量可知,每个小区间内都遵循独立同分布的二项分布,且概率为λt/k\lambda t/kλt/k。所以当k→∞k\to \inftyk→∞时,N(t)N(t)N(t)具有泊松分布,均值为
N(t)=limk→∞k[λt/k+o(t/k)]=λt+limk→∞t[o(t/k)/(t/k)]=λtN(t)=lim_{k\to \infty}k[\lambda t/k+o(t/k)]=\lambda t+lim_{k\to \infty}t[o(t/k)/(t/k)]=\lambda tN(t)=limk→∞k[λt/k+o(t/k)]=λt+limk→∞t[o(t/k)/(t/k)]=λt
3 泊松过程的间隔时,到达时定义
3.1 间隔时的定义
我们知道泊松过程是一个计数过程。之前都是从计数的角度讨论计数过程(也就是讨论n),现在我们换一个角度,从t的角度讨论一下计数过程。
间隔时是指,相邻两个计数发生的时间间隔。n-1次计数到n次计数的时间间隔,记作XnX_nXn。
首先我们可以求出Xn>tX_n>tXn>t的概率。间隔时>t说明在[0,t]的时间间隔内,没有事件发生。
P(Xn>t)=P(N(s+t)−N(s)=0)=P(N(t)=0)=e−λtP(X_n>t)=P(N(s+t)-N(s)=0)=P(N(t)=0)=e^{-\lambda t}P(Xn>t)=P(N(s+t)−N(s)=0)=P(N(t)=0)=e−λt
同时由独立增量和平稳增量,我们有
P(Xn>t∣Xn−1=s)=P[N(s+t)−N(s)=0∣Xn−1=s]=P[N(s+t)−N(s)=0]=P(N(t)=0)=e−λtP(X_n>t|X_{n-1}=s)=P[N(s+t)-N(s)=0|X_{n-1}=s]=P[N(s+t)-N(s)=0]=P(N(t)=0)=e^{-\lambda t}P(Xn>t∣Xn−1=s)=P[N(s+t)−N(s)=0∣Xn−1=s]=P[N(s+t)−N(s)=0]=P(N(t)=0)=e−λt
也就是说,间隔时是独立同分布的!遵循指数分布。这个性质相当重要。
3.2 到达时的定义
到达时,或者说等待时,用公式定义为 如下:
Sn=Σi=1nXiS_n=\Sigma_{i=1}^{n}X_iSn=Σi=1nXi
也就是第n个事件发生的事件,或者说前n个事件发生的间隔时之和。由于S1=X1S_1=X_1S1=X1遵循的指数分布同时也是参数为(1,λ)(1,\lambda)(1,λ)的gamma分布,而gamma分布具有可加性,因此SnS_nSn遵循参数为(n,λ)(n,\lambda)(n,λ)的gamma分布。这个性质在后面的题目中也可能用到。
其它求到达时的概率密度的方法,有直接对SnS_nSn定义求导的方法,也可以使用独立增量的性质求取(把事件分为前t时间段发生n-1次,第[t,t+dt]时间段发生1次),书上都很详细。
3.3 导出泊松过程的第三种定义
由到达时,可以给出泊松过程的第三种定义。
对于一串服从均值为1/λ1/\lambda1/λ的指数分布的独立同分布的序列{Xn,n≥1}\{X_n,n\geq1\}{Xn,n≥1},事件n发生在时间
Sn=Σi=1nXiS_n=\Sigma_{i=1}^{n}X_iSn=Σi=1nXi
处。这个计数过程也就是服从参数为λ\lambdaλ的泊松过程。
这个定义会在后续的更新过程中用到。
4 泊松过程到达时的条件分布
泊松过程到达时的分布已经在上一节给出了,但是为什么这里还要研究它的条件分布呢?因为这个条件分布具有非常好的性质:服从均匀分布。
首先观察第一个到达时的条件分布。如果已知[0,t]之间有一个事件发生,那么到达时的条件分布为
P(X1<s∣N(t)=1)=P(X1<s,N(t)=1)/P(N(t)=1)P(X_1<s|N(t)=1)=P(X_1<s,N(t)=1)/P(N(t)=1)P(X1<s∣N(t)=1)=P(X1<s,N(t)=1)/P(N(t)=1)
P(X1<s,N(t)=1)P(X_1<s,N(t)=1)P(X1<s,N(t)=1)表示[0,s)时间段内发生一次,而[s,t]时间段内没有发生,而不同时间段内的分布是独立的:
P(X1<s,N(t)=1)=λse−λs×e−λ(t−s)=λse−λtP(X_1<s,N(t)=1)=\lambda se^{-\lambda s}\times e^{-\lambda (t-s)}=\lambda se^{-\lambda t}P(X1<s,N(t)=1)=λse−λs×e−λ(t−s)=λse−λt
所以
P(X1<s∣N(t)=1)=λse−λt/(λte−λt)=s/tP(X_1<s|N(t)=1)=\lambda se^{-\lambda t}/(\lambda te^{-\lambda t})=s/tP(X1<s∣N(t)=1)=λse−λt/(λte−λt)=s/t
可以看到,第一个到达时的条件分布是均匀分布。
4.1 求取到达时的条件分布
先求取到达时的条件概率密度函数。假设已知时间段[0,t]内事件发生n次到达时S1,S2,S3,...S_1,S_2,S_3,...S1,S2,S3,...分别为t1,t2,t3,...t_1,t_2,t_3,...t1,t2,t3,...,且0<t1<t2<,...,<tn<t0<t_1<t_2<,...,<t_n<t0<t1<t2<,...,<tn<t那么到达时SiS_iSi落在tit_iti邻域内的概率为
P[ti≤Si≤ti+hi,i=1,2,...,n∣N(t)=n]=P(在[ti,ti+ti+hi]间隔内只发生一次事件,其它时间段没有任何事件发生)P[N(t)=n]=e−λ(t−h1−h2...−hn)∏λhie−λhi(λt)ne−λt/n!=n!/tn×∏hiP[t_i\leq S_i \leq t_i+h_i,i=1,2,...,n|N(t)=n] \\ =\frac{P(在[t_i,t_i+t_i+h_i]间隔内只发生一次事件,其它时间段没有任何事件发生)}{P[N(t)=n]} \\=\frac{e^{-\lambda(t-h_1-h_2...-h_n)}\prod \lambda h_ie^{-\lambda h_i} }{(\lambda t)^ne^{-\lambda t}/n!} \\=n!/t^n\times\prod h_i P[ti≤Si≤ti+hi,i=1,2,...,n∣N(t)=n]=P[N(t)=n]P(在[ti,ti+ti+hi]间隔内只发生一次事件,其它时间段没有任何事件发生)=(λt)ne−λt/n!e−λ(t−h1−h2...−hn)∏λhie−λhi=n!/tn×∏hi
通过上面的式子可以推导出下面的条件概率密度函数:
f(t1,t2,...,tn)=P[ti≤Si≤ti+hi,i=1,2,...,n∣N(t)=n]/∏hi=n!/tnf(t_1,t_2,...,t_n)=P[t_i\leq S_i \leq t_i+h_i,i=1,2,...,n|N(t)=n] /\prod h_i=n!/t^n f(t1,t2,...,tn)=P[ti≤Si≤ti+hi,i=1,2,...,n∣N(t)=n]/∏hi=n!/tn
那么这个式子是什么意义呢。分子是AnnA_n^nAnn,也就是n个排列组合,分母是有编号的n个均匀分布取值t1,t2,...,tnt_1,t_2,...,t_nt1,t2,...,tn的概率。把这两个合在一起,就是排过序的n个均匀分布取值t1,t2,...,tnt_1,t_2,...,t_nt1,t2,...,tn的概率。
这句话很绕,但是我换一个例子来说明。假设在上课之前10分钟,5个同学全部都会到教室。这5个人都是独立的,随时都可能到达,也就是说他们到达的时间服从[0,10]内的独立的均匀分布。我们考虑一次采样,这5个人达到的时间为:3,1,2,7,43,1,2,7,43,1,2,7,4。将他们到达的时间排序后,得到到达时(因为到达时表达的是第一个到的人,第二个,…第n个到的人到达的时间)为1,2,3,4,71,2,3,4,71,2,3,4,7。所以到达时为1,2,3,4,71,2,3,4,71,2,3,4,7,可能有5!5!5!种可能(排序)。
4.2 分类的泊松过程
分类的泊松过程描述这样一件事:事件的发生遵循泊松分布。在事件发生时,它会被随机分为两类,分类成哪一类的概率只和事件发生的时间有关(因此独立于泊松过程)。那么这两类事件的发生也都遵循泊松分布,且期望为λ∫0tP(s)ds\lambda\int _0^tP(s)dsλ∫0tP(s)ds,其中P(s)P(s)P(s)表示在时间s,事件被分为第一类的概率。可以看到,不分类的泊松分布,也就是P(s)=1P(s)=1P(s)=1时,期望就为λt\lambda tλt。
证明:
P[N1(t)=m,N2(t)=n]\ \ \ \ P[N_1(t)=m,N_2(t)=n]P[N1(t)=m,N2(t)=n]
=Σk=1∞P[N1(t)=m,N2(t)=n∣N(t)=k×P[N(t)=k]=\Sigma_{k=1}^{\infty}P[N_1(t)=m,N_2(t)=n|N(t)=k\times P[N(t)=k]=Σk=1∞P[N1(t)=m,N2(t)=n∣N(t)=k×P[N(t)=k]
=P[N1(t)=m,N2(t)=n∣N(t)=m+n]×P[N(t)=m+n]=P[N_1(t)=m,N_2(t)=n|N(t)=m+n]\times P[N(t)=m+n]=P[N1(t)=m,N2(t)=n∣N(t)=m+n]×P[N(t)=m+n]
第二个等号是由于,[0,t]时间,两类分别为m,n,那么总的计数一定为m+n,因为我们有且仅有互补的两类。
由于已知计数的次数,每次计数的到达时都服从[0,t]内的均匀分布。而事件被划分类别的概率只和事件发生的时间有关。所以,在[0,t]内每件事被划分为第一类的概率为
p=∫0tp(事件在s时刻发生)P(s)ds=∫0t1tP(s)dsp=\int _0^tp(事件在s时刻发生)P(s)ds=\int _0^t\frac{1}{t}P(s)dsp=∫0tp(事件在s时刻发生)P(s)ds=∫0tt1P(s)ds
因此,已知共发生m+n次,有m个被分为第一类,n个被分为第二类的概率为
P[N1(t)=m,N2(t)=n∣N(t)=m+n]=Cm+nmpm(1−p)nP[N_1(t)=m,N_2(t)=n|N(t)=m+n]=C_{m+n}^mp^m(1-p)^nP[N1(t)=m,N2(t)=n∣N(t)=m+n]=Cm+nmpm(1−p)n
最后,求得
P[N1(t)=m,N2(t)=n]=Cm+nmpm(1−p)n×(λt)m+ne−λt/(m+n)!=(m+n)!m!n!×pm(1−p)n×(λt)m+ne−λt(m+n)!=(λtp)mm!e−λtp×(λt(1−p))nn!e−λt(1−p)\begin{aligned} P[N_1(t)=m,N_2(t)=n]&=C_{m+n}^mp^m(1-p)^n\times(\lambda t)^{m+n}e^{-\lambda t}/(m+n)! \\ &=\frac{(m+n)!}{m!n!}\times p^m(1-p)^n\times \frac{(\lambda t)^{m+n}e^{-\lambda t}}{(m+n)!} \\ &=\frac{(\lambda tp)^{m}}{m!}e^{-\lambda tp} \times \frac{(\lambda t(1-p))^{n}}{n!}e^{-\lambda t(1-p)} \end{aligned}P[N1(t)=m,N2(t)=n]=Cm+nmpm(1−p)n×(λt)m+ne−λt/(m+n)!=m!n!(m+n)!×pm(1−p)n×(m+n)!(λt)m+ne−λt=m!(λtp)me−λtp×n!(λt(1−p))ne−λt(1−p)
因此,最后的结果就是两个相互独立的泊松分布概率乘积,也就证明了结果。
5.非齐次泊松过程
非齐次泊松过程是指不满足平稳增量的泊松过程。也就是说,每一时刻的固定的λ\lambdaλ变成一个随时间变化的量λ(t)\lambda(t)λ(t)。如果令
m(t)=∫0tλ(s)dsm(t)=\int_0^t\lambda(s)dsm(t)=∫0tλ(s)ds
P[N(t+s)−N(t)=n]=e−(m(t+s)−m(t))(m(t+s)−m(t))nn!P[N(t+s)-N(t)=n]=e^{-(m(t+s)-m(t))}\frac {(m(t+s)-m(t))^n}{n!}P[N(t+s)−N(t)=n]=e−(m(t+s)−m(t))n!(m(t+s)−m(t))n
可以看到,如果λ\lambdaλ固定,m(t)=λtm(t)=\lambda tm(t)=λt,m(t+s)−m(t)=λsm(t+s)-m(t)=\lambda sm(t+s)−m(t)=λs,和齐次泊松过程的分布一样。
证明和齐次泊松过程类似。也是先求P0(s)P_0(s)P0(s),然后求Pn(s)P_n(s)Pn(s)。书上的证明,到求P0(s)P_0(s)P0(s)就结束了,并且说,过程同齐次。自己在证明的时候还是绕了点弯子,所以这里给出求出P0(s)=e−[m(t+s)−m(t)]P_0(s)=e^{-[m(t+s)-m(t)]}P0(s)=e−[m(t+s)−m(t)]后的过程。其中Pi(s)=P(N(t+s)−N(t)=i)P_i(s)=P(N(t+s)-N(t)=i)Pi(s)=P(N(t+s)−N(t)=i)
首先还是把过程分为,前[0,t)和[t,t+h]两个阶段。其中h=dth=dth=dt。可以划分为三个不相交的子集:前一个阶段发生了n,n-1,小于n-1次;后一个阶段发生了0,1,大于1次。分别求这三种情况的概率之和。
Pn(s+h)=Pn(s)P0(h)+Pn−1(s)P1(h)+P≤(n−2)(s)P≥2(h)=Pn(s)(1−λh+o(h))+Pn−1(s)(λh+o(h))+P≤(n−2)(s)o(h)\begin{aligned} P_n(s+h) &=P_n(s)P_0(h)+P_{n-1}(s)P_1(h)+P_{\leq(n-2)}(s)P_{\geq2}(h)\\ &=P_n(s)(1-\lambda h+o(h))+P_{n-1}(s)(\lambda h+o(h))+P_{\leq(n-2)}(s)o(h) \end{aligned}\\ Pn(s+h)=Pn(s)P0(h)+Pn−1(s)P1(h)+P≤(n−2)(s)P≥2(h)=Pn(s)(1−λh+o(h))+Pn−1(s)(λh+o(h))+P≤(n−2)(s)o(h)
把Pn(s)P_n(s)Pn(s)挪到左边,并且等式两端同时除以h得到
[Pn(s+h)−Pn(s)]/h=−λ[Pn(s)−Pn−1(s)]+P≤(n−2)(s)o(h)/h[P_n(s+h) -P_n(s)]/h=-\lambda [P_n(s)-P_{n-1}(s)]+P_{\leq(n-2)}(s)o(h)/h [Pn(s+h)−Pn(s)]/h=−λ[Pn(s)−Pn−1(s)]+P≤(n−2)(s)o(h)/h
由于o(h)o(h)o(h)是hhh的无穷小量,因此h→0h\to 0h→0时,上式子变为
Pn(s)′=−λ[Pn(s)−Pn−1(s)]P_n(s)'=-\lambda [P_n(s)-P_{n-1}(s)] Pn(s)′=−λ[Pn(s)−Pn−1(s)]
这里的λ\lambdaλ其实应该是函数λ(t+s)\lambda(t+s)λ(t+s),由于λ\lambdaλ的来源是P0(h)P_0(h)P0(h),虽然略写为P0(h)P_0(h)P0(h),但是这里的P0(h)=P(N(t+s+h)−N(t+s)=0)P_0(h)=P(N(t+s+h)-N(t+s)=0)P0(h)=P(N(t+s+h)−N(t+s)=0),也就是从s+ts+ts+t时刻往下的小区间内没有事件发生的概率。P1(h)P_1(h)P1(h)也是同样的道理。这个要弄清楚!否则只是胡乱地抄一遍公式罢了。
现在,把等式两边同时乘以em(s+t)−m(t)e^{m(s+t)-m(t)}em(s+t)−m(t),就可以得到所需的答案了——但是在这之前,还得说为什么要这么处理,因为:
d[em(s+t)−m(t)]/ds=em(s+t)−m(t)d[m(s+t)]/ds=λ(s+t)em(s+t)−m(t)d[e^{m(s+t)-m(t)}]/ds=e^{m(s+t)-m(t)}d[m(s+t)]/ds=\lambda (s+t)e^{m(s+t)-m(t)}d[em(s+t)−m(t)]/ds=em(s+t)−m(t)d[m(s+t)]/ds=λ(s+t)em(s+t)−m(t)
所以我们可以把原式凑成:
em(s+t)−m(t)[Pn(s)′+λ(s+t)Pn(s)]=λ(s+t)em(s+t)−m(t)Pn−1(s)e^{m(s+t)-m(t)}[P_n(s)'+\lambda(s+t) P_n(s)]=\lambda (s+t)e^{m(s+t)-m(t)}P_{n-1}(s)em(s+t)−m(t)[Pn(s)′+λ(s+t)Pn(s)]=λ(s+t)em(s+t)−m(t)Pn−1(s)
然后等式左边就得到d[em(s+t)−m(t)Pn(s)]=λ(s+t)em(s+t)−m(t)Pn−1(s)d[e^{m(s+t)-m(t)}P_n(s)]=\lambda (s+t)e^{m(s+t)-m(t)}P_{n-1}(s)d[em(s+t)−m(t)Pn(s)]=λ(s+t)em(s+t)−m(t)Pn−1(s)
接下来就使用数学归纳法,证明非齐次泊松分布的概率分布满足这个等式即可。
6 复合泊松分布
6.1 复合泊松变量
复合泊松变量是指:
W=Σ1NXiW=\Sigma_1^NX_iW=Σ1NXi
其中,N服从均值为λ\lambdaλ泊松分布(注意,N不是泊松过程!),XiX_iXi是服从F分布的独立同分布的变量,而且与N也相互独立。那么我们可以得到W的期望和方差为:
E(W)=E(Σi=1NXi)=E(E(Σi=1NXi∣N=n))=E(Σi=1nE(Xi∣N=n))=E(NE(X))=E(N)E(X)=λE(X)E(W)=E(\Sigma_{i=1}^NX_i)=E(E(\Sigma_{i=1}^NX_i|N=n))=E(\Sigma_{i=1}^nE(X_i|N=n))=E(NE(X))=E(N)E(X)=\lambda E(X) E(W)=E(Σi=1NXi)=E(E(Σi=1NXi∣N=n))=E(Σi=1nE(Xi∣N=n))=E(NE(X))=E(N)E(X)=λE(X)
Var(W)=E(W2)−E2(W)=E(E([Σi=1NXi]2∣N=n))−E2(W)=E(Σi=1nE([Xi]2∣N=n))−E2(W)=E(NE(X2))−E2(W)=λE(X2)−λ2E2(X)\begin{aligned} Var(W)&=E(W^2)-E^2(W) \\ &=E(E([\Sigma_{i=1}^NX_i]^2|N=n))-E^2(W) \\ &=E(\Sigma_{i=1}^nE([X_i]^2|N=n))-E^2(W) \\ &=E(NE(X^2))-E^2(W) \\ &=\lambda E(X^2)-\lambda^2E^2(X) \end{aligned} Var(W)=E(W2)−E2(W)=E(E([Σi=1NXi]2∣N=n))−E2(W)=E(Σi=1nE([Xi]2∣N=n))−E2(W)=E(NE(X2))−E2(W)=λE(X2)−λ2E2(X)
算出来和书上不太对,书上没有减号后面的部分。看看有没有大佬帮我指正一下。第四个等号是因为X独立同分布,协方差为0,我感觉可能是因为这一步的原因?
抛开我没算出来的方差不谈,它的期望还是很好的,就等于N的均值乘以X的均值。
6.2 复合泊松过程
这时候我们可以开始考虑泊松过程了,将上面的N替换为服从参数为α\alphaα的泊松过程N(t),X服从的分布替换为Fs(x)F_s(x)Fs(x),也就是X的分布是与发生时刻s有关的。
Wt=Σ1N(t)XiW_t=\Sigma_1^{N(t)}X_iWt=Σ1N(t)Xi
由于已知N(t)后,[0,t]内到达时是均匀分布。因此WtW_tWt的分布服从参数为λ=αt\lambda =\alpha tλ=αt,F(x)=1/t∫0tFs(x)dxF(x)=1/t\int_0^t F_s(x)dxF(x)=1/t∫0tFs(x)dx的泊松变量的分布。
7 一些例题
P90 Problem2.9假设事件发生服从参数λ\lambdaλ的泊松过程,每次事件发生时,我们必须决定是否停止。我们的目标是:在时间T之前最后一次发生事时停止。也就是说,如果决定停止之后,在T之前没有事件发生,我们赢了;如果决定停止之后,在T之前还有事件发生,或者决定继续,但是在T之前没有事件发生,我们都就输了。现在我们采取如下策略:在特定时间点s后第一次发生事件时停止。其中0≤s<T0\leq s < T0≤s<T。
a)如果采用这个策略,请问赢的概率是多少?
b)s取多少可以使赢的概率最大?
c)证明采取最优s赢得概率为1/e
这个题目比较简单。对于a)问,赢的情况为:(s,T]之间有且只有一件事发生。因此其概率就等于
P[N(T−s)=1]=λ(T−s)e−λ(T−s)P[N(T-s)=1]=\lambda (T-s)e^{-\lambda(T-s)}P[N(T−s)=1]=λ(T−s)e−λ(T−s)
对其求导,得到在s=T−1/λs=T-1/\lambdas=T−1/λ时取极值。但是考虑到s≥0s\geq 0s≥0的限制,如果T<1/λT<1/\lambdaT<1/λ,s=0s= 0s=0时取最大值。
然后把s带入,可以得到c)问的答案。原题需要证明最优的概率为1/e,是在T≥1/λT\geq 1/\lambdaT≥1/λ的条件下才成立的,不知这里是不是作者没有考虑周全,还是我哪里理解错了。
P90 Problem2.11假设汽车经过某路口的数目服从参数λ\lambdaλ的泊松过程,一个行人站在该路口,如果他认为接下来T个单位时间没有车经过,他才会过马路。请求出行人过马路之前等待的时间的期望。
这个问题困扰了我很久,最后发现是因为对泊松过程的知识体系没有完全掌握导致的。这个问题考察对间隔时的理解。由于作者没有给出这道题的答案,所以我只能说说我自己的思路和过程。
这道题的场景很诡异,它竟然让人有了预测未来的能力。这道题的情景是这样的:一个人站在一个路口。假如它能往前看T个时间长度的车辆情况,发现未来T个时间长度没有车会经过,他就会过马路。
其实我觉得不如换种说法,一个人站在路口,如果他发现过去的T时间内没有车经过,他就过马路。这样的情景虽然不合常理,但是便于列式子计算。这种说法比前一种说法,长了T个时间长度。
废话说完了,还是用数学的语言表达一下这道题的思路:
这道题要求等待时间的期望。我们用XiX_iXi表示第i车的间隔时,也就是第i-1和第i车之间的时间,而且Xi<TX_i<TXi<T。这道题要求E(Σi=0NXi)E(\Sigma_{i=0}^N X_i)E(Σi=0NXi),其中N表示t时间及之前经过的车的数量。利用期望的可加性,可以得出
E(Σi=0NXi)=E(Σi=0NE(Xi))=E(NE(X))=E(N)E(X)E(\Sigma_{i=0}^N X_i)=E(\Sigma_{i=0}^N E( X_i))=E(N E( X))=E(N) E(X)E(Σi=0NXi)=E(Σi=0NE(Xi))=E(NE(X))=E(N)E(X)
E(X)=∫0Txf(x)dx=∫0Txλe−λx=−e−λx(λx+1)/λ∣0T=[1−e−λT(λT+1)]/λE(X)=\int_0^T xf(x)dx=\int_0^T x\lambda e^{-\lambda x}=-e^{-\lambda x} (\lambda x+1)/\lambda|_0^T= [1-e^{-\lambda T}(\lambda T+1)]/\lambdaE(X)=∫0Txf(x)dx=∫0Txλe−λx=−e−λx(λx+1)/λ∣0T=[1−e−λT(λT+1)]/λ
对于N,我们可以看到它是服从几何分布的:前N次Xi<TX_i<TXi<T,第N+1次Xi≥TX_i\geq TXi≥T所以
E(N)+1=E(N+1)=1/P(Xi≥T)=1/P[N(T)=0]=eλTE(N)+1=E(N+1)=1/P(X_i\geq T)=1/P[N(T)=0]=e^{\lambda T}E(N)+1=E(N+1)=1/P(Xi≥T)=1/P[N(T)=0]=eλT
E(N)=eλT−1E(N)=e^{\lambda T}-1E(N)=eλT−1
所以最后我算出来的期望就是上面的俩期望相乘。最后的结果有点恶心,我就不写了。正确与否我也不敢肯定。。。
2.15 考虑一个r面硬币,每次抛出,一定会有一面朝上(或者认为是r面体,观察哪一面朝下,当然这个不太好观察),第i面朝上的概率为PiP_iPi且Σi=1rPi=1\Sigma_{i=1}^rP_i=1Σi=1rPi=1。对于给定的数字n1,...nrn_1,...n_rn1,...nr,令NiN_iNi表示第i面第nin_ini次朝上时抛出的次数,令
N=min(Ni)N=min(N_i)N=min(Ni)
a)求NiN_iNi的分布
b)请问NiN_iNi是否独立?
现在假设抛硬币的次数服从λ=1\lambda=1λ=1的泊松过程。令TiT_iTi表示第i面第nin_ini次朝上时的时间,且令
T=min(Ti)T=min(T_i)T=min(Ti)
c)求TiT_iTi的分布
d)请问TiT_iTi是否独立?
e)求E(T)E(T)E(T)的表达式
f)利用e中的结果,求E(N)E(N)E(N)
这道题我们老师说“很有意思”,但是并不是特别难。
a)NiN_iNi出现当且仅当抛出第NiN_iNi次时,为第i面,然后前Ni−1N_i-1Ni−1次出现了ni−1n_i-1ni−1次i面朝上和Ni−niN_i-n_iNi−ni次其它面。这个概率就不打出来了。
b)不独立:考虑当某个NiN_iNi已经确定时,那么一定有Nj≠Ni,j≠iN_j\neq N_i,j\neq iNj=Ni,j=i,就好像当你投一个色子出来1个点的时候,就不可能同时还投出了6个点,事件是相互关联的。
c)TiT_iTi的分布其实就是分类的泊松过程的等待时。我们知道分类的泊松过程(条件:分类最多只和事件发生的时间有关)之间也是相互独立的,而且均值为λPit\lambda P_itλPit。所以TiT_iTi服从Gamma(ni,Pit)Gamma(n_i,P_it)Gamma(ni,Pit)
d)根据c的分析,分类泊松过程相互独立
e)首先设事件
Ii={1,在i时刻还未出现T,或者说T>i0,反之I_i=\begin{cases} 1,在i时刻还未出现T,或者说T>i\\ 0,反之 \end{cases}Ii={1,在i时刻还未出现T,或者说T>i0,反之
那么,
E(T)=E(∫0∞Itdt)=∫0∞dtE(It)=∫0∞P(It=1)dt=∫0∞P(Ti>t,i=1,2...,r)dtE(T)=E(\int_{0}^\infty I_tdt)=\int_{0}^\infty dtE(I_t)=\int_{0}^\infty P(I_t=1)dt=\int_{0}^\infty P(T_i>t,i=1,2...,r)dtE(T)=E(∫0∞Itdt)=∫0∞dtE(It)=∫0∞P(It=1)dt=∫0∞P(Ti>t,i=1,2...,r)dt
由于分类的泊松过程相互独立,所以
∫0∞P(Ti>t,i=1,2...,r)dt=∫0∞∏1r[1−P(Ti≤t)]dt,Ti服从Gamma(ni,Pit)\int_{0}^\infty P(T_i>t,i=1,2...,r)dt=\int_{0}^\infty \prod_1^r[1-P(T_i\leq t)]dt,T_i服从Gamma(n_i,P_it)∫0∞P(Ti>t,i=1,2...,r)dt=∫0∞1∏r[1−P(Ti≤t)]dt,Ti服从Gamma(ni,Pit)
f)E(T)=E(E(T∣N))=E(NE(X))=E(Nλ)=E(N)E(T)=E(E(T|N))=E(NE(X))=E(N\lambda )=E(N)E(T)=E(E(T∣N))=E(NE(X))=E(Nλ)=E(N)
Problem 2.31 考虑非齐次的泊松过程{N(t),t≥0}\{N(t),t\geq 0\}{N(t),t≥0}且λ(t)>0\lambda(t)>0λ(t)>0,令
N∗(t)=N(m−1(t))N^*(t)=N(m^{-1}(t))N∗(t)=N(m−1(t))
请证明{N∗(t),t≥0}\{N^*(t),t\geq 0\}{N∗(t),t≥0}是参数λ=1\lambda=1λ=1的泊松过程
整道题基本上就是反函数那边有点绕。
P[N∗(t+s)−N∗(t)=n]=P[N(m−1(t+s))−N(m−1(t))=n]=[∫0m−1(t+s)λ(x)dx−∫0m−1(t)λ(x)dx]nn!e−[∫0m−1(t+s)λ(x)dx−∫0m−1(t)λ(x)dx]P[N^*(t+s)-N^*(t)=n]=P[N(m^{-1}(t+s))-N(m^{-1}(t))=n]=\frac{[ \int_0^{m^{-1}(t+s)} \lambda(x)dx-\int_0^{m^{-1}(t)} \lambda(x)dx]^n}{n!}e^{-[ \int_0^{m^{-1}(t+s)} \lambda(x)dx-\int_0^{m^{-1}(t)} \lambda(x)dx]}P[N∗(t+s)−N∗(t)=n]=P[N(m−1(t+s))−N(m−1(t))=n]=n![∫0m−1(t+s)λ(x)dx−∫0m−1(t)λ(x)dx]ne−[∫0m−1(t+s)λ(x)dx−∫0m−1(t)λ(x)dx]
单拿出一个积分来看,换元x=m−1(u)x=m^{-1}(u)x=m−1(u):
∫0m−1(t)λ(x)dx=∫0m−1(t)λ(m−1(u))dm−1(u)=∫0tλ(m−1(u))[m−1(u)]′du\int_0^{m^{-1}(t)} \lambda(x)dx=\int_0^{m^{-1}(t) }\lambda(m^{-1}(u))dm^{-1}(u)=\int_0^t\lambda(m^{-1}(u))[m^{-1}(u)]'du∫0m−1(t)λ(x)dx=∫0m−1(t)λ(m−1(u))dm−1(u)=∫0tλ(m−1(u))[m−1(u)]′du
而
dm−1(u)/du=1/[dm(m−1(u))/d(m−1(u))]=1/λ(m−1(u))dm^{-1}(u)/du=1/[dm(m^{-1}(u))/d(m^{-1}(u))]=1/\lambda(m^{-1}(u))dm−1(u)/du=1/[dm(m−1(u))/d(m−1(u))]=1/λ(m−1(u))
带入可得
∫0m−1(t)λ(x)dx=∫0tdu=t=1∗t\int_0^{m^{-1}(t)} \lambda(x)dx=\int_0^tdu=t=1*t∫0m−1(t)λ(x)dx=∫0tdu=t=1∗t
然后把这个结果带入到第一个式子,就可以把两个积分直接简化,
P[N∗(t+s)−N∗(t)=n]=[t+s−t]nn!e−[t+s−t]=snn!e−sP[N^*(t+s)-N^*(t)=n]=\frac{[t+s-t]^n}{n!}e^{-[t+s-t]}=\frac{s^n}{n!}e^{-s}P[N∗(t+s)−N∗(t)=n]=n![t+s−t]ne−[t+s−t]=n!sne−s
就可以得到增量是服从λ=1\lambda=1λ=1的泊松过程,证毕。
8 后记
前后拖了十来天才把这篇泊松过程写完了,最后还是把作业题补充上了。内容记述得也不是特别详细,然而老师又讲完了下一章的更新过程QAQ。努力地写下一篇吧