第二章 信号分析与信息论基础

20
第第第 第第第第第第第第第第 2.1 第第第第第第 2.2 第第第第第第 2.3 第第第第第第第第 2.4 第第 第第第

Upload: mahon

Post on 05-Jan-2016

105 views

Category:

Documents


0 download

DESCRIPTION

第二章 信号分析与信息论基础. 2.1  确知信号分析 2.2  随机信号分析 2.3  信息及信息的度量 2.4  信道统计特性. 本章教学内容及要求.   信号通过系统的过程。确定信号的时域和频域 分析。 傅 立叶变换关系式, 傅 立叶变换的主要运算 特性,常用信号的付立叶变换。   卷积定义式,时域卷积定理,频域卷积定理。   信号的能量和能量谱密度;信号的功率和功率 谱密度。   信号的表达方法,信号通过线性系统传输后的 变化及表达。 信息及信息量、信道模型、随参信道传输媒质的特点、信道容量计算。. 2.1  确知信号分析. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: 第二章 信号分析与信息论基础

第二章 信号分析与信息论基础

2.1  确知信号分析2.2  随机信号分析2.3  信息及信息的度量2.4  信道统计特性

Page 2: 第二章 信号分析与信息论基础

本章教学内容及要求

  信号通过系统的过程。确定信号的时域和频域分析。傅立叶变换关系式,傅立叶变换的主要运算特性,常用信号的付立叶变换。  卷积定义式,时域卷积定理,频域卷积定理。  信号的能量和能量谱密度;信号的功率和功率谱密度。  信号的表达方法,信号通过线性系统传输后的变化及表达。信息及信息量、信道模型、随参信道传输媒质的特

点、信道容量计算。

Page 3: 第二章 信号分析与信息论基础

2.1  确知信号分析  信号是通过电的某一物理量(如电压或电流)表示出的与时间 t 之间的函数关系。确知信号:能用函数表达式准确表示出来的信号。它与时间的关系是确知的。随机信号:与上述相反。  通信中传输的信号及噪声都是随机信号。

2.1.1  周期信号与非周期信号周期信号:满足条件 s(t)=s(t+T0) -∞ < t <∞, T0 >

0 非周期信号:不满足上述条件。功率信号:信号在( 0 , T )内的平均功率 S( 式 2-2)

值为一定值。能量信号:当 T→ ∞ 时,式 (2-3) 是绝对可积的。

Page 4: 第二章 信号分析与信息论基础

2.1.2   信号的傅里叶变换傅里叶变换: 式 (2-7)傅里叶反变换: 式 (2-6)式( 2-8 )是傅里叶变换的指数形式,傅里叶变换是

一个连续函数,称为频谱密度函数,简称频谱函数。

典型的连续时间信号:1.Sa(t) 信号(抽样信号): Sa(t)=sin(t)/t 波形 特点:偶函数;零值点( ±n π ); (0~ ∞) 的积分为

π/22. 单位阶跃信号: U(t)=0 (t<0); U(t)=1 (t>0); 3. 单位冲激信号:∫例:( 1 )阶跃信号构成矩形脉冲信号:  g(t)=u(t)-u(t-t0)( 2 )阶跃信号构成符号函数: Sgn(t)=2u(t)-1

Page 5: 第二章 信号分析与信息论基础

常用信号的傅里叶变换:矩形函数(图 2-1 )的傅里叶变换见式( 2-9 ),其频

谱函数见图( 2-2 )。冲激函数的傅里叶变换。余弦函数的傅里叶变换。

傅里叶变换的性质:时移特性:频移特性:

时域卷积与频域卷积时域卷积: Γ[f1(t)*f2(t)]=F1(ω) F2(ω)频域卷积: Γ[f1(t) f2(t)]=(1/2 π) [F1(ω)*F2(ω)]

Page 6: 第二章 信号分析与信息论基础

例:已知  Γ[f(t)]=F(ω)  求   Γ[f(t)COS ω0 t]=?解: Γ[COS ω0 t]= π[δ(ω- ω0)+ δ(ω+ω0)] 冲激强度为 π ,根据卷积定理: Γ[f(t)COS ω0 t] = ( 1/2 π)F(ω)* {π[δ(ω- ω0)+ δ(ω+ω0)] } =(1/2) [F(ω- ω0)+ F(ω+ω0)]

2.1.3   信号通过线性系统线性系统:输出信号与输入信号满足线性关系(允许有延迟)。 f0(t)=Kfi(t-td) ( 2-13 )该系统传递函数: H(ω) = 式( 2-14 ) 线性不失真系统的幅频特性 |H(ω)| 是与 ω 无关的常数,相频特性则是 ω 的线性函数。

Page 7: 第二章 信号分析与信息论基础

2.2  随机信号分析2.2.1 高斯平稳随机过程1 、随机过程的一般概念

通信过程中的随机信号和噪声均可归纳为依赖于时间参数 t 的随机过程。这种过程的基本特征是,它是时间 t 的函数,但在任一时刻观察到的值却是不确定的,是一个随机变量。2 、随机过程的定义定义:随机过程是依赖于时间参量 t 变化的随机变量的总体或集合;也可以叫做样本函数的总体或集合。习惯用 ξ(t) 表示。3 、随机过程的统计特性的描述 设 ξ(t) 表示一个随机过程,则在任意一个时刻 t1上, ξ(t1) 是一个随机变量。显然,这个随机变量的统计特性,可以用概率分布函数或概率密度函数去描述。

Page 8: 第二章 信号分析与信息论基础

4 、随机过程的数字特征 随机过程的数字特性,比如,随机过程的数学期望、方差及相关函数等。1 )数学期望 随机过程 ξ(t) 的数学期望被定义为

可把 t1 直接写成 t 。随机过程的数学期望被认为是时间 t 的函数。

数学期望的物理意义:信号或噪声的直流功率。2 )方差 随机过程的方差定义为

方差的物理意义:信号或噪声交流功率。

Page 9: 第二章 信号分析与信息论基础

3 )自相关函数

5 、 平稳随机过程 狭义平稳概念:所谓平稳随机过程,是指它的任何

n 维分布函数或概率密度函数与时间起点无关。也就是说,如果对于任意的 n 和 τ ,随机过程 ξ(t) 的 n 维概率密度函数满足:

则称 ξ(t) 是平稳随机过程。

6 、广义平稳过程广义平稳概念:若一个随机过程的数学期望及方差与时间无关,而其相关函数仅与 τ 有关,则称这个随机过程为广义平稳随机过程。

用途: a 、用来判断广义平稳;b 、用来求解随机过程的功率谱密度及平均功率。

Page 10: 第二章 信号分析与信息论基础

通信系统中的信号及噪声,大多数可视为平稳的随机过程。因此,研究平稳随机过程有很大的实际意义。7 、自相关函数

我们已经知道,平稳随机过程的自相关函数和时间 t无关,而只与时间间隔 τ 有关,即: R(τ)= E{ξ(t)ξ(t+τ)}

自相关函数的性质:1 )

R(0) 为 ξ(t) 的均方值 ( 平均功率 ) 。自相关函数在 τ=0处的数值等于该过程的平均功率 ( 包括直流功率和交流功率 ) 。2 )对偶性 R(τ)= R(- τ) 即自相关函数是 τ 的偶函数。

Page 11: 第二章 信号分析与信息论基础

证明:

3 )当 τ= 0 时 , 自相关函数取最大值,即 R(0)≥ R(τ)4 )

5)

8 、功率谱密度: 付氏变换沟通了确定信号时域和频域的关系,那么为什么随机过程在频率域中要讨论功率谱密度,而不讨论付氏变换呢?主要原因有二。1) 、对于随机过程来说,它由许许多多个样本函数来构成 , 所以我们无法求其付氏变换,可以说 , 随机过程不存

在付氏变换。

Page 12: 第二章 信号分析与信息论基础

2) 、随机过程属于功率信号而不属于能量信号,所以我们讨论功率谱密度。 对于任意的功率信号 f(t) 的功率谱为:

9 、高斯分布概率密度函数

由 f(x) 的表达式可画出图形9 、高斯分布和高斯过程 高斯分布这个概念在通信中是经常出现的。而在一般情况下,噪声都可以认为具有高斯分布的形式。由信息论的观点来说,如果是连续信源,当信号的功率一定时,信号幅度的概率密度函数服从高斯分布时,载

Page 13: 第二章 信号分析与信息论基础

荷的信息量最大,即有效性最好;另一方面,如果是起伏噪声,当噪声功率N一定时,幅度呈现高斯分布的噪声对通信系统的影响也最为恶劣。因此,在系统设计中,常以高斯噪声为着眼点来考虑信噪比、带宽等问题。因此,高斯分布是通信系统的统计分析中最常见、最重要的一种分布。高斯过程定义:通俗地讲,在任意时刻 t 去观察随机过程,若其随机变量的概率分布都满足高斯分布 , 这个随机过程就是高斯过程。

2.2.2 窄带高斯噪声任何通信系统都有发送机和接收机,为了提高系统的可靠性,即输出信噪比,通常在接收机的输入端接有一个带通滤波器,信道内的噪声构成了一个随机过程,经过该带通滤波器之后,则变成了窄带随机过程。

Page 14: 第二章 信号分析与信息论基础

窄带条件:中心频率为 ω 0 ,带宽为△ f ,当△ ω << ω 0 时,就可认为满足窄带条件。若随机过程的功率谱满足该条件则称为窄带随机过程。若带通滤波器的传输函数满足该条件则称为窄带滤波器。随机过程通过窄带滤波器传输之后变成窄带随机过程。(图 2-7 )(图 2-8 )窄带过程的数学表示1 、用包络和相位的变化表示 由窄带条件可知 ,窄带过程是功率谱限制在 ω0附近的很窄范围内的一个随机过程 ,从示波器观察 ( 或由

理论上可以推知 ): 这个过程中的一个样本函数 ( 一个实现 )的波形是一个频率为 ω0且幅度和相位都做缓慢变化的余弦波。所以可以表示成:

Page 15: 第二章 信号分析与信息论基础

2.3.1 通信系统的统计模型(图 2-12 )信源:通信的起点。输出消息(包括文字、符号、声音、图像、数据等)。信源编码器:将消息变为信号(提高信号传输效率)。信道编码器:信号处理的设备(提高信号传输的的可靠性)。干扰源:即噪声源。2.3.2 信息的定义 从统计学的信息指的是消息中包含的不确定性。2.3.3 信息的度量 信息的度量,与信息发生的概率成反比。如果一个事件发生的概率是 1 ,这是一个必然事件,那么它的信息量就是 0 。离散信源信息量 I=loga(1/P(x))=-loga(P(x)) (2-58)

2.3  信息及信息的度量

Page 16: 第二章 信号分析与信息论基础

P(x) 为事件发生的概率,若 a=2 ,信息量单位为比特( bit ) ; 若 a=e ,信息量单位为奈特( nit ) ; 若 a=1

0 ,信息量单位为哈特莱。式( 2-59 )求信息量总和 例 2-1 、例 2-2 、例 2-3 。

2.3.4 离散信源的平均信息量如离散信息信号序列发生的概率如下所示。 符号 xi x1 x2 …… xn 符号发生概率 P(xi) P(x1) P(x2) …… P(xn)这样每个符号的平均信息量(也称为熵)为 H ( x )

Page 17: 第二章 信号分析与信息论基础

可以证明,当每个符号等概率出现时,平均信息量最大。 式( 2-62 ) 例 2-4 。

2.3.5 连续信源的平均信息量当连续信源出现的概率密度为 f(x) 时,连续信源的平

均信息量为

即为连续信源的熵,又称为相对熵。例 2-5 。

Page 18: 第二章 信号分析与信息论基础

2.4.1 离散信道的信道容量信道容量:信道在理想状态下(无差错传输或差错率

等于零)的最大传信速率,通常用 C 表示。条件熵定义( 2-67 )( 2-68 )互信息量定义( 2-69 )( 2-70 )无损信道: H ( x/y)=0, I(x,y)=H(x)=H(y)全损信道: H ( x/y)=H(x) Rt=RB[H(x)-H(x/y)]=Ht(x)-Ht(x/y) (bit/s) (2-71)实际信息传输速率 Rt 的最大值记为 C ,即   C=maxRt=max[Ht(x)-Ht(x/y)] (2-72)例 2-6 、 2-7 。

  2.4  信道统计特性

Page 19: 第二章 信号分析与信息论基础

2.4.2  连续信道的信道容量香农信道容量公式:   C=B log2(1+s/(n0 B)) (bit/s) (2-78)式中, B 为信道带宽( Hz) , S 为信号功率( W ), n

0 为噪声单边功率谱密度( W/Hz) , N=n0B 为噪声功率( W )。上式成立的条件是:信号为高斯分布(此时信息熵最大),噪声为高斯白噪声。香农信道容量公式告诉我们以下重要结论:①C 随 S/N增大而增大;②当 n0 →0 时 C → ∞ ,即无干扰信道的信道容量为无穷大;③C 随着 B 的增大而增大,但不能无限增大,即   当 B → ∞ 时, C → 1.44(S/n0)④C 一定时, B 与 S/N 可以互换;

Page 20: 第二章 信号分析与信息论基础

⑤若信源信息速率 Rb ≤ C ,则理论上可以实现无差错传输。若 Rb > C ,则不可能实现无差错传输。

信道容积 Vc 的概念 信号体积 Vs ≤ 信道容积 Vc 时才能实现通信