跳至主要內容

概率论与数理统计:学习笔记

A1exlindev大约 8 分钟数学

概率统计笔记

考点有哪些?

  • 概率计算
  • 概率密度的定义,性质
  • 常见分布的性质
  • 常见统计分布的定义和性质

大题考什么?

  • 概率计算:摸球问题等
  • 参数估计
  • 假设检验

常见的分布

离散的

  • 伯努利分布-二项分布

概率相同的,相互独立的伯努利分布,可以加。

E[X]=np,Var[X]=np(1p) E[X] = np, \text{Var}[X] = np(1-p)

  • 泊松分布

P(X)=eλλkk! P(X) = \frac{e^{-\lambda}\lambda^k}{k!}

E[X]=Var[X]=λ E[X] = \text{Var}[X] = \lambda

可以用泰勒展开辅助记忆, 也就是

ex=xkk! e^x = \sum^\infty \frac{x^k}{k!}

除过去就是泊松分布的概率和。满足归一性。

  • 几何分布

定义:前n1n-1次失败,最后一次成功的概率。 矿井逃生问题。具有无记忆性。

P(X)=(1p)k1p P(X) = (1-p)^{k-1}p

连续的

  • 均匀分布

在一个区间上等概率,也就是

fX(x)=1ba f_X(x) = \frac{1}{b-a}

E[X]=a+b2,Var[X]=(ba)212 E[X] = \frac{a+b}{2}, \text{Var}[X] = \frac{(b-a)^2}{12}

这个性质是很直观的,均匀分布的期望就呆在区间的正中间。

  • 指数分布

fX=λxλx f_X = \lambda \cdot x^{-\lambda x}

FX(X)=fXdx=1eλx F_X(X) = \int f_X dx = 1-e^{-\lambda x}

所谓的稀有事件可以认为是服从指数分布的。比如电灯泡的寿命,(暴毙是稀有的),银行大厅来客人的时间等等。

E(X)=1λ,Var[X]=1λ2 E(X) = \frac{1}{\lambda}, \text{Var}[X] = \frac{1}{\lambda^2}

  • 正态分布

很重要的分布,式子是这样子的

fX(x)=12πσe(xμ)22σ2 f_X(x) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}

其中,σ\sigma是标准差,μ\mu是平均值。

正态分布有很多重要的性质。

  • 两个正态分布的和仍然是正态分布,而且有(如果两个变量独立)

C1N1(μ1,σ1)+C2N2(μ2,σ2)=N(C1μ1+C2μ2,C12σ12+C22σ22) C_1N_1(\mu_1, \sigma_1) + C_2N_2(\mu_2, \sigma_2) = N(C_1\mu_1 + C_2\mu_2, C_1^2\sigma_1^2 + C_2^2\sigma_2^2)

数字特征,和运算性质

随机变量的矩

我们定义,偏度(衡量偏斜程度),也就是样本是否均匀分布在均值两侧。

=E[(XE[X])3]Var[X]32 = \frac{E[(X-E[X])^3]}{\text{Var}[X]^{\frac32}}

定义峰度是

=E[(XE[X])4]Var[X]42 = \frac{E[(X-E[X])^4]}{\text{Var}[X]^{\frac42}}

以上两个式子,分子均是随机变量的kk阶中心距,分母是方差的k2\frac{k}{2}次方,用来标准化值。(消除尺度对数值的影响)

协方差和相关系数

协方差 Covariance

Cov(X,Y)=E[XY]E[X]E[Y] Cov(X,Y) = E[XY] - E[X]E[Y]

  • 如果协方差为 0, 说明两个变量不相关。注意:不独立

我们定义相关系数rr

r=Cov(X,Y)σXσY r = \frac{Cov(X,Y)}{\sigma_X\sigma_Y}

显然,协方差为 0 的时候这玩意也是零,于是不相关。

期望的性质

  • 常数的期望就是常数本身
  • 期望是线性的。也就是

E[AX+BY]=AE[X]+BE[Y] E[AX+BY] = AE[X] + BE[Y]

  • 如果X,YX,Y独立,有

E[XY]=E[X]E[Y] E[XY] = E[X]E[Y]

方差的性质

  • 常数的方差是零。这是符合直觉的。
  • 方差之和:

Var[aX+bY]=a2Var[X]+b2Var[Y] \text{Var}[aX + bY] = a^2\text{Var}[X] + b^2\text{Var}[Y]

数理统计

三种分布

  • 卡方分布

所谓卡方分布,就是数个服从标准正态分布的随机变量加起来。用在符合正态分布的总体当中,也就是

X2(n)=nXi2 \Chi^2(n) = \sum^n X_i^2

XN(0,1) X \sim N(0,1)

其中,nn称为卡方分布的自由度。显然,卡方是可以加起来的。

X2(a)+X2(b)=X2(a+b) \Chi^2(a) + \Chi^2(b) = \Chi^2(a+b)

如果里面的变量 iid.

  • t 分布

t 分布看上去不是很好记。t 的分子是标准正态分布,分母有一个根号,根号里边是卡方分布除以它的自由度。

T=XYn=N(0,1)X2(n)n T = \frac{X}{\sqrt{\frac{Y}{n}}} = \frac{N(0, 1)}{\sqrt{\frac{\Chi^2(n)}{n}}}

为什么捏?

  • F 分布

F 分布就是卡除卡

--框框老师

卡方除卡方。很简单,两个参数就是分子和分母卡方的自由度。

基础:样本的性质-统计量

样本的统计性质和上面的定义差不多,但是有一点点区别。

  • 样本均值 $\bar{X} = \frac{1}{n}\sum X_i $

  • 样本方差 $S^2 = \frac{1}{n}\sum (X_i - \bar{X})^2 $

  • 修正样本方差 $S^2 = \frac{1}{n-1}\sum (X_i - \bar{X})^2 $

其实常用的就这几个。

重点:正态分布的抽样分布

  • 分位数

P(Xϕα(n))=α P(X \leq \phi_\alpha (n)) = \alpha

用人话来讲,就是有 α\alpha 的概率,随机变量小于 ϕα(n)\phi_\alpha (n)。其中,ϕ\phi是一种特定的分布。

抽样分布基本定理

对于服从正态分布的样本,有

样本均值服从正态分布

XˉN(μ,σ2n) \bar{X} \sim N(\mu, \frac{\sigma^2}{n})

样本方差是卡方分布的函数

nσ2Sn2X2(n1) \frac{n}{\sigma^2} \cdot S_n^2 \sim \Chi^2(n-1)

而且样本均值和样本方差相互独立。

这些性质说明正态分布其实非常特殊。

推论

XˉμSnn=XˉμSnn1t(n1) \frac{\bar{X} - \mu}{S^*_n}\sqrt{n} = \frac{\bar{X} - \mu}{S_n}\sqrt{n - 1}\sim t(n-1)

以上就是做题要用到的内容辣。

大数定律,中心极限定理

虽然是重点但是考的不是很难好像)

大数定律指出的是,随着样本数量的增加,频率会收敛于概率。

而中心极限定理指出的是,一些随机变量之和,随着样本数量增加,和的分布会收敛于正态分布。

切比雪夫不等式

切比雪夫不等式

随机变量的波动幅度受方差控制,也就是

P(XE[X]ϵ)Var[X]ϵ2 P(|X - E[X]| \geq \epsilon) \leq \frac{\text{Var}[X]}{\epsilon^2}

看个真题

例题

设随机变量ζ\zeta的数学期望E[ζ]=μE[\zeta] = \mu,方差Var[ζ]=σ2\text{Var}[\zeta] = \sigma^2,求$P(|\zeta - \mu| \geq 3\sigma) \le $ ___

这个题目就是直接套用切比雪夫不等式即可,也就是代入ϵ=3σ\epsilon = 3\sigma,然后等式右侧变成

σ29σ2=19 \frac{\sigma^2}{9\sigma^2} = \frac{1}{9}

大数定律

虽然大数定律有很多条,但是表达形式基本是一样的。

大数定律 I

X1,X2,,XnX_1, X_2, \cdots, X_n是相互独立的随机变量,且具有相同的数学期望E[Xi]=μE[X_i] = \mu,方差D[Xi]=σ2D[X_i] = \sigma^2,则对于任意ϵ>0\epsilon > 0,有

limnP(X1+X2++Xnnμϵ)=0 \lim_{n \to \infty} P\left(\left|\frac{X_1 + X_2 + \cdots + X_n}{n} - \mu\right| \geq \epsilon\right) = 0

切比雪夫弱大数定律和辛钦若大数定律采用这一形式。

以上两条大数定律要求的条件有一点差别,我在这里抄一下。

对于切比雪夫弱大数定律,要求

  • 随机变量有相同的均值(不要求iid)
  • 随机变量互相独立
  • 随机变量的方差有公共上界

对于辛钦若大数定律,要求

  • 随机变量iid
  • 且随机变量的均值存在。

马尔可夫大数定律

对于任意随机变量序列,只要满足

limn1n2Var[i=1nXi]=0 \lim_{n\to\infty}{\frac{1}{n^2}\text{Var}[\sum_{i=1}^n{X_i}]} = 0

就满足弱大数定律。

数理统计第一问:参数估计

矩法估计

矩法估计的核心思想:用样本的kk阶原点矩估计总体的kk阶原点矩。总体的分布有几个参数,我就从1算到几阶矩,搞到nn条方程,就能把参数解出来。

使用矩法估计的步骤

I 将总体的参数表示为各阶原点矩的函数

II 用样本的kk阶原点矩代替总体的kk阶原点矩,得到参数的估计量θ^k\hat{\theta}_k.

III θ^k\hat{\theta}_k代替θ\theta,得到总体的分布函数F(x;θ^k)F(x;\hat{\theta}_k)

最大似然估计

最大似然估计的核心思想:观测总体,得到一批样本。我们认为得到这一批样本是概率最大的结果。也就是此点概率最大(离散)或者概率密度函数在这里有最大值(连续)。

我们定义似然函数L(θ)L(\theta)

离散样本

L(x;θ)=P(X1=x1,X2=x2,,Xn=xn;θ) L(x;\theta) = P(X_1 = x_1, X_2 = x_2, \cdots, X_n = x_n; \theta)

连续样本

L(x;θ)=f(x1,x2,,xn;θ) L(x;\theta) = f(x_1, x_2, \cdots, x_n; \theta)

最大似然估计的步骤

I 写出似然函数L(θ)L(\theta)

II 求出L(θ)L(\theta)的最大值点θ^\hat{\theta},一般是求导.

数理统计第二问:假设检验

我们认为,小概率事件在一次实验中基本不会发生。如果在一个假设(Hypothesis)下,发生了一个小概率事件,那么我们就认为这个假设是错误的。

我们只考参数假设检验:检验总体的参数是否满足某个假设。而且只靠双侧检验。

假设检验的步骤

  • 提出假设 确定原假设H0H_0和备选假设H1H_1. 考试中,原假设一般在题目中给出. 然后假设原假设成立.

  • 定义统计量 如果假设成立(一般是,某个参数值成立,比如μ=μ0\mu = \mu_0),我们就可以根据样本的统计量和参数,来构造特定的统计量检验这个假设。注意,新构造变量的分布应当已知。这里就要用到第六章学到的几个分布。

  • 根据要求的置信度,求出构造出统计量的分布,所对应的分位点,然后代入对应数值。观察是否落在拒绝域内。即可回答接受或拒绝假设。

对于双侧检验,我们需要确定Y的1α/21-\alpha/2分位点和1α/21-\alpha/2分位点,然后看Y是否落在这两个分位点之间。落在外面就拒绝。

上次编辑于:
贡献者: Alexlin625