发信人: xjzhangxw()
整理人: bsese(2000-01-07 01:00:50), 站内信件
|
改造后的熵.7.—概念.6.—复杂程度(2)
“改造后的熵.6.”从一个特殊的思路引入了一个描述物质(广义集合)内部差异 程度(状态丰富程度)的物理量—复杂程度。指出它是对广义集合的分布函数一 种运算(数学上称为泛函数)后得到的一个数。这个数的单位可以与计算机界用 的比特一致。
改造后的熵.6.发表后wasguru 补充了它与统计力学的关系。统计力学是对客观事 物的热力学状况做微观的物理说明的。所以Wasguru 的补充已经帮助我们把复杂 程度与统计物理的“热力学几率”对应了起来。而后者与热力学的熵S是正比例的 关系,即
S=klogW
这里的W 对应于我们的复杂程度。K是Boltzmann 常数。---所以我们的复杂程度 已经与热力学熵对应起来了。或者说这为神秘的熵给了一个通俗的说明:熵就是 微观尺度的复杂程度。
下面我们再谈谈它与信息论中的信息熵的公式的关系。
申侬的信息熵的基本公式是
H=-∑pilogpi (i=1,2,…k,共有k项相加)
信息熵是从一个概率分布计算出来的。如果一个广义集合内的N个个体中有ni个个 体与其他的个体不同。例如都是符号“A”,那么依照古典概率的定义在随机抽样 中A被抽中的概率pi就是ni/N。对应广义集合内的其他符号也这么考虑,复杂程度 的公式就可以写成
C=-∑nilogpi 或者
C=N[-∑pilogpi]
即有
C=NH
N是这个广义集合(客观事物)个体总个数。H 的含义是从广义集合中任取一个( 不是N个)个体,其结局的不确定性(信息熵)。这个公式已经把信息熵H与我们 的复杂程度C联系起来了。或者说面对一个客观存在的事物,不仅可以计算出它的 复杂程度C,当从N个中随机地任取一个时,其结局的不确定性(信息熵)H的N倍 恰好是其复杂程度。
也可以这么说:信息熵是对客观事物进行从随机试验的角度分析了结局的不确定 性(信息熵)。而我们是从客观事物的内在差异性(各个个体的标志值不尽相同 、状态的丰富程度)的角度分析了客观事物本身的复杂程度。它们的本质没有多 大差别。信息熵更接近通讯模型,我们的复杂程度更注重客观事物本身。我们没 有批判信息论是唯心论,但是我们的唯物论立场很明显一些。
本讲简略地指出复杂程度既与热力学中的熵(有个Bolztmann常数)对应又指出它 与信息论中的信息熵对应(比例系数是个体个数)。复杂程度立足于把客观事物 看成广义集合,从其分布函数直接计算其复杂程度。它容易理解。这消除了人们 对熵的神秘感。
由于信息熵有很多性质,而复杂程度于它成正比例,所以信息论的很多知识也自 然可以借鉴过来用在复杂程度上。
张学文于1999/8/24
-- ※ 来源:.月光软件站 http://www.moon-soft.com.[FROM: 202.100.166.12]
|
|