信息的概念是什么

来源:学生作业帮助网 编辑:作业帮 时间:2024/04/27 20:48:38

信息的概念是什么
信息的概念是什么

信息的概念是什么
信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科.
  信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法.信息传输和信息压缩是信息论研究中的两大领域.这两个方面又由信息传输定理、信源-信道隔离定理相互联系.
  香农被称为是“信息论之父”.人们通常将香农于1948年10月发表于《贝尔系统技术学报》上的论文《A Mathematical Theory of Communication》(通信的数学理论)作为现代信息论研究的开端.这一文章部分基于哈里·奈奎斯特和拉尔夫·哈特利先前的成果.在该文中,香农给出了信息熵(以下简称为“熵”)的定义:
  H = - ∑ pilogpi
  i
  这一定义可以用来推算传递经二进制编码后的原信息所需的信道带宽.熵度量的是消息中所含的信息量,其中去除了由消息的固有结构所决定的部分,比如,语言结构的冗余性以及语言中字母、词的使用频度等统计特性.南丰公益书院
  信息论中熵的概念与物理学中的热力学熵有着紧密的联系.玻耳兹曼与吉布斯在统计物理学中对熵做了很多的工作.信息论中的熵也正是受之启发.
  互信息(Mutual Information)是另一有用的信息度量,它是指两个事件集合之间的相关性.两个事件X和Y的互信息定义为:
  I(X,Y) = H(X) + H(Y) - H(X,Y)
  其中 H(X,Y) 是联合熵(Joint Entropy),其定义为:
  H(X,Y) = - ∑ p(x,y)logp(x,y)
  x,y
  互信息与多元对数似然比检验以及皮尔森χ2校验有着密切的联系.
  应用
  信息论被广泛应用在:
  南丰公益书院
  编码学
  密码学与密码分析学
  数据传输
  数据压缩
  检测理论
  估计理论
  信息论第一定律
  信息论是一门用数理统计方法来研究信息的度量、传递和变换规律的科学.它主要是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论.
  信息论的研究范围极为广阔.一般把信息论分成三种不同类型:
  (1)狭义信息论是一门应用数理统计方法来研究信息处理和信息传递的科学.它研究存在于通讯和控制系统中普遍存在着的信息传递的共同规律,以及如何提高各信息传输系统的有效性和可靠性的一门通讯理论.
  (2)一般信息论主要是研究通讯问题,但还包括噪声理论、信号滤波与预测、调制与信息处理等问题.
  (3)广义信息论不仅包括狭义信息论和一般信息论的问题,而且还包括所有与信息有关的领域,如心理学、语言学、神经心理学、语义学等.
  信息就是一种消息,它与通讯问题密切相关.1984年贝尔研究所的申农在题为《通讯的数学理论》的论文中系统地提出了关于信息的论述,创立了信息论.维纳提出的关于度量信息量的数学公式开辟了信息论的广泛应用前景.1951年美国无线电工程学会承认信息论这门学科,此后得到迅速发展.20世纪50年代是信息论向各门学科冲击的时期,60年代信息论不是重大的创新时期,而是一个消化、理解的时期,是在已有的基础上进行重大建设的时期.研究重点是信息和信源编码问题.到70年代,由于数字计算机的广泛应用,通讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题.人们越来越认识到信息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享.信息的概念和方法已广泛渗透到各个科学领域,它迫切要求突破申农信息论的狭隘范围,以便使它能成为人类各种活动中所碰到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展.目前,人们已把早先建立的有关信息的规律与理论广泛应用于物理学、化学、生物学等学科中去.一门研究信息的产生、获取、变换、传输、存储、处理、显示、识别和利用的信息科学正在形成.
  信息科学是人们在对信息的认识与利用不断扩大的过程中,在信息论、电子学、计算机科学、人工智能、系统工程学、自动化技术等多学科基础上发展起来的一门边缘性新学科.它的任务主要是研究信息的性质,研究机器、生物和人类关于各种信息的获取、变换、传输、处理、利用和控制的一般规律,设计和研制各种信息机器和控制设备,实现操作自动化,以便尽可能地把人脑从自然力的束缚下解放出来,提高人类认识世界和改造世界的能力.信息科学在安全问题的研究中也有着重要应用.
  ——摘自《安全科学技术百科全书》(中国劳动社会保障出版社,2003年6月出版)