自学内容网 自学内容网

信号与噪声分析——第二节:随机变量的统计特征

2.1  单个随机变量的统计特征

        随机变量是什么?

                        当随机变量X的取值个数是有限个的时候,我们称它为离散随机变量

                        当随机变量X的取值个数是无限个的时候,我们称它为连续随机变量

1. 分布函数和概率密度

1.分布函数

           分布函数  F(x)  定义为随机变量 X小于或等于某个值 x 的概率,即:
                                     F(x) = P(X \leq x)            -\infty <x<\infty

这表示随机变量在 x 及其以下取值的累积概率。

分布函数具有以下性质:

单调非减性:对于任意 x_1 < x_2,有 F(x_1) \leq F(x_2)

                即:F(x_2)-F(x_1)= P\left \{x_1< X \leqslant x_2 \right \}\geqslant 0

且:P\left \{ x_1< X\leq x_2 \right \}=P\left \{ X\leq x_2 \right \}-P\left \{ X\leq x_1 \right \}=F(x_2)-F(x_1)


极限性质:x \to -\inftyF(x) \to 0;当 x \to +\inftyF(x) \to 1

2. 概率密度函数

        对于连续型随机变量,概率密度函数 p(x) 是分布函数的导数,即:
                                                ​​​​​​​ p(x) = \frac{dF(x)}{dx}
        概率密度函数通常用于描述连续型变量,表示在某个特定点附近随机变量取值的密度,而不是直接的概率值。

总的来说就是:概率密度函数并不直接表示某个点取值的概率,而是用来计算区间上的概率

比如区间对于 [a,b],有:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        P(a<X \leq b) = \int_a^b p(x) dx

概率密度函数的性质:

1. 非负性
                对于任意的 x,概率密度函数p(x)\geqslant 0
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x) \geq 0, \quad \forall x \in \mathbb{R}

2. 积分为1
                整个实数范围内的概率密度函数积分等于1

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        \int_{-\infty}^{+\infty} p(x) dx = 1

3. 在任意区间上的概率
        概率密度函数并不直接表示某个点取值的概率,而是用来计算区间上的概率                                                                       P(a<X \leq b) = \int_a^b p(x) dx

4. 概率密度函数等于分布函数对x求导:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x) = \frac{dF(x)}{dx}

2. 随机变量的数字特征

        随机变量的数字特征是用来描述随机变量行为的统计量,主要包括数学期望、方差、协方差和相关系数

1. 数学期望(均值)

        数学期望是随机变量取值的加权平均,反映了随机变量的中心位置
对于连续型随机变量,其期望为:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        E(X) = \int_{-\infty}^{+\infty} x p(x) \, dx       (其中p(x)为随机变量的概率密度)

2. 方差

           方差衡量随机变量取值的波动性,定义为期望与其均值的偏差平方的期望:
        ​​​​​​​        ​​​​​​​      ​​​  D(X) = E[X - E(X)]^{2}= E(X^2) - E^{2}(X)=\sigma ^{2}_x

2.2 多个随机变量的统计特征

二维随机变量是两个随机变量 (X, Y) 组成的随机变量​​​​​向量。

连续型二维随机变量
如果X 和 Y 是连续型随机变量,它们的联合概率密度函数 p_{X,Y}(x, y) 定义为:
        ​​​​​​​        ​​​​​​​        P(a \leq X \leq b, c \leq Y \leq d) = \int_{a}^{b} \int_{c}^{d} p_{X,Y}(x, y) \, dx\, dy
该联合密度函数给出了X和 Y同时落在某些区间内的概率。

1. 二维随机变量的分布函数和概率密度函数:

1.联合分布函数:

对于两个随机变量 X 和 Y,其联合分布函数定义为:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        F(x, y) = P(X \leq x, Y \leq y)
这个函数表示随机变量 X 和 Y 同时小于或等于某个值的概率。

如果:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        F(x,y)=F(x)F(y)

则称X和Y相互独立

2. 联合概率密度函数:

对于连续型随机变量,联合概率密度函数p(x,y)定义为:
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x, y) = \frac{\partial^2 F(x, y)}{\partial x \partial y}

联合概率密度的归一性:

                                         \iint_{-\infty}^{+\infty} p(x, y) \, dx \, dy = 1

如果:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(x,y)=p(x)p(y)

则称X和Y相互独立

p(x,y)=p(x)p(y) , F(x,y)=F(x)F(y) 是X和Y相互独立的充要条件

3. 边缘分布

        边缘分布是从联合分布中提取单个随机变量的分布。对于联合概率密度函数,可以通过对其他变量积分得到边缘概率密度
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​p_X(x) = \int_{-\infty}^{+\infty} p(x, y) \, dy
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p_Y(y) = \int_{-\infty}^{+\infty} p(x, y) \, dx

2. 二维随机变量的数字特征:

        二维随机变量的数字特征是用于定量描述两个随机变量之间的特性以及它们之间相互关系的统计量。

1. 联合期望

连续型随机变量:

                                        E(X+Y)=E(X)+E(Y)
        ​​​​​​​        ​​​​​​​        ​​​​​​​E(X) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} x p_{X,Y}(x, y) \, dx \, dy
        ​​​​​​​        ​​​​​​​        ​​​​​​​E(Y) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} y p_{X,Y}(x, y) \, dx \, dy
其中,p_{X,Y}(x, y) 是X和 Y的联合概率密度函数

如果:随机变量X和Y相互独立,且E(X)E(Y)存在,则E(XY)也存在,则有

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        E(XY)=E(X)E(Y)

2. 联合方差

对于 X 的方差:
        ​​​​​​​        D(X) = E[X - E(X)]^{2} = E(X^2) - E^{2}(X)

对于 Y 的方差:
        ​​​​​​​        D(Y) = E[Y - E(Y)]^{2} = E(Y^2) - E^{2}(Y)

对于连续型随机变量的联合方差:
        ​​​​​​​        ​​​​​​​        E(X^2) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} x^2 p_{X,Y}(x, y) \, dx \, dy

3. 协方差

        协方差用于衡量两个随机变量之间的线性相关性。它反映了两个变量是如何一起变化的:当一个变量增加时,另一个变量是否也有增加(正相关)或减少(负相关)的趋势。

对于两个随机变量 X 和 Y,它们的协方差定义为: ​​​​​​​        

\text{Cov}(X, Y) = E[(X - E(X))(Y - E(Y))] =R(X,Y)-m_xm_y

          ​​​​​​​        ​​​​​​​        ​​​​​​​        \text{Cov}(X, Y) = E(XY) - E(X)E(Y)

4. 归一化协方差函数——相关系数

        相关系数是协方差的标准化形式,用于定量衡量两个随机变量之间的线性相关性。相关系数的取值范围为 [-1, 1]

        ​​​​​​​        ​​​​​​​                ​​​​​​​        ​​​​​​​       \rho_{X,Y} = \frac{\text{Cov}(X, Y)}{\sigma_X \sigma_Y}

其中 \sigma_X 和 \sigma_Y分别是 X和 Y 的标准差,定义为:
        ​​​​​​​        ​​​​​​​                ​​​​​​​        \sigma_X = \sqrt{D(X)}, \quad \sigma_Y = \sqrt{D(Y)}

5. 相关函数:

        ​​​​​​​        ​​​​​​​        R(X,Y)=E[XY]= \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} xy p_{X,Y}(x, y) \, dx \, dy


原文地址:https://blog.csdn.net/m0_73951316/article/details/143135763

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!