我想请问一个关于环保的名字怎么解释
最近在学一门课,是经济学的企业环保。中间有一个词,叫做entropie,懒得写大写了,是名词。有谁知道它是什么东西么,我找到的定义是,index,in welcher Weise Energier verfuegbar ist.谁能给我解释一下,它干什么用的,这个定义太抽象了,最好能举个例子。谢啦! 熵 中间有一个词,叫做entropie,懒得写大写了,是名词。
有谁知道它 ...
samzhao 发表于 2011-7-5 09:55 http://www.dolc.de/forum/images/common/back.gif
"懒得写大写了" Entropieaus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Der Begriff Entropie (griechisches Kunstwort εντροπία , von εν~ – ein~, in~ und τροπή – Wendung, Umwandlung) steht für:
Mathematik
Entropieschätzung, verschiedene Methoden zur statistischen Schätzung der Shannon-Entropie auf der Basis von endlichen Stichproben.
Entropiezahl in der Funktionalanalysis
bedingte Entropie einer Zufallsvariablen in der Stochastik
Physik
Entropie (Thermodynamik), die physikalische Zustandsgröße in der Thermodynamik und der statistischen Mechanik
Entropiebilanz, Summe der in dem System produzierten, in das System importierten und der aus dem System exportierten Entropie
Entropie-Elastizität, eine Form der Elastizität bei Elastomeren; siehe: Elastomer#Entropie-Elastizität
Entropiekraft in der physikalischen Chemie
Informationstheorie
Entropie (Informationstheorie), die Shannon-Entropie als Maß der Informationsdichte
den speziellen Fall der Rényi-Entropie
relative Entropie als Synonym für Transinformation oder die Kullback-Leibler-Divergenz, die auch eine der in der Mathematik behandelten Entropien ist
Entropierate, unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen
Entropiekodierung, eine Methode zur verlustfreien Datenkompression
Sozialwissenschaften
Entropie (Sozialwissenschaften), Informationsmangel (übernommen aus der Informationstheorie)
den Theil-Index in den Sozialwissenschaften und der Ökonometrie, der auch unter dem irreführenden Begriff Theil-Entropie bekannt ist.
来源于wikipedia
http://de.wikipedia.org/wiki/Entropie
楼主可以自己去查 回复 5# permanent19
我查了,这就是一个系数,作用是评定一个系统好坏,特点是,如果如果Entropie的值越高,说明这个系统的越混乱,它是一个数学方法计算的方式。这个是信息学的东西。
我们那个门课就咣叽砸给我们一个这个词,也没说是要考这个计算,还是要考这个的原理。
我是想找一个例子。具体的,我了解的事物的例子。 其他方面我不懂 我只学过物理化学上面
熵是混乱和无序的度量.熵值越大,混乱无序的程度越大. 我们这个宇宙是熵增的宇宙.热力学第二定律,体现的就是这个特征. 生命是高度的有序,智慧是高度的有序. 在一个熵增的宇宙为什么会出现生命?会进化出智慧?(负熵) 热力学第二定律还揭示了, 局部的有序是可能的,但必须以其他地方更大无序为代价. 人生存,就要能量,要食物,要以动植物的死亡(熵增)为代价. 万物生长靠太阳.动植物的有序, 又是以太阳核反应的衰竭(熵增),或其他的熵增形势为代价的. 人关在完全封闭的铅盒子里,无法以其他地方的熵增维持自己的负熵. 在这个相对封闭的系统中,熵增的法则破坏了生命的有序. 熵是时间的箭头,在这个宇宙中是不可逆的. 熵与时间密切相关,如果时间停止"流动",熵增也就无从谈起. "任何我们已知的物质能关住"的东西,不是别的,就是"时间". 低温关住的也是"时间". 生命是物质的有序"结构"."结构"与具体的物质不是同一个层次的概念. 就象大厦的建筑材料,和大厦的式样不是同一个层次的概念一样. 生物学已经证明,凡是到了能上网岁数的人, 身体中的原子,已经没有一个是刚出生时候的了. 但是,你还是你,我还是我,生命还在延续. 倒是死了的人,没有了新陈代谢,身体中的分子可以保留很长时间. 意识是比生命更高层次的有序.可以在生命之间传递. 说到这里,我想物质与意识的层次关系应该比较清楚了. 这里之所以将"唯物"二字加上引号. 是因为并不彻底.为什么熵减是这个宇宙的本质,还没法回答.
不管对哪一种能量来说,情况都是如此。在蒸汽机中,有一个热库把水变成蒸汽,还有一个冷库把蒸汽冷凝成水。起决定性作用的正是这个温度差。在任何单一的、毫无差别的温度下——不管这个温度有多高——是不可能得到任何功的。
“熵”(entropy)是德国物理学家克劳修斯(Rudolf Clausius, 1822 – 1888)在1850年创造的一个术语,他用它来表示任何一种能量在空间中分布的均匀程度。能量分布得越均匀,熵就越大。如果对于我们所考虑的那个系统来说,能量完全均匀地分布,那么,这个系统的熵就达到最大值。
在克劳修斯看来,在一个系统中,如果听任它自然发展,那么,能量差总是倾向于消除的。让一个热物体同一个冷物体相接触,热就会以下面所说的方式流动:热物体将冷却,冷物体将变热,直到两个物体达到相同的温度为止。如果把两个水库连接起来,并且其中一个水库的水平面高于另一个水库,那么,万有引力就会使一个水库的水面降低,而使另一个水面升高,直到两个水库的水面均等,而势能也取平为止。
因此,克劳修斯说,自然界中的一个普遍规律是:能量密度的差异倾向于变成均等。换句话说,“熵将随着时间而增大”。
对于能量从密度较高的地方向密度较低的地方流动的研究,过去主要是对于热这种能量形态进行的。因此,关于能量流动和功-能转换的科学就被称为“热力学”,这是从希腊文“热运动”一词变来的。
人们早已断定,能量既不能创造,也不能消灭。这是一条最基本的定律;所以人们把它称为“热力学第一定律”。
克劳修斯所提出的熵随时间而增大的说法,看来差不多也是非常基本的一条普遍规律,所以它被称为“热力学第二定律”。
-----------------------------摘自人民网 信息论中的熵:信息的度量单位:由信息论的创始人Shannon在著作《通信的数学理论》中提出、建立在概率统计模型上的信息度量。他把信息定义为“用来消除不确定性的东西”。
Shannon公式:I(A)=-logP(A)
I(A)度量事件A发生所提供的信息量,称之为事件A的自信息,P(A)为事件A发生的概率。如果一个随机试验有N个可能的结果或一个随机消息有N个可能值,若它们出现的概率分别为p1,p2,…,pN,则这些事件的自信息的平均值:
H=-SUM(pi*log(pi)),i=1,2…N。H称为熵。 有序和无序(熵产生原理)
经典热力学认为:体系总是自发的趋向于平衡,趋向于无序。但是实际上趋向平衡和无序并不是自然界的普遍规律。例:在生物体内能将简单分子的混合物转变成为复杂而高度有组织的大分子(蛋白质),化学中的化学振荡,物理学中的激光,大气中云彩的奇特花纹等都是高度有序的现象。那么,在什么条件下(或限度内)一个体系能够从无序的状态变成一个比较有序的状态呢?详尽地解决这个问题是复杂而困难的,但是热力学第二定律仍能给出一个普遍性的答案。
I.Prigogine 将熵增加原理推广到任意体系,将体系的熵变分解为两部分:
dS = deS + diS diS ≥ deS (1)
式中diS 是由于体系内部发生的不可逆过程所引起的熵产生;deS是由于体系与环境通过界面进行能量和物质交换时进入或流出体系的熵流。
dis≥0(不可为负); deS可正,可负,可为零。对于孤立体系:
deS = 0 dS = diS ≥ 0 (2)
上式告诉我们:孤立体系的熵永远不减少。对于开放体系,在deS < 0 的情况下,只要这个负熵流足够强,它除了抵消体系内部的熵产生diS外,还能使体系的总熵减少,就可使体系朝着有序的方向发展,进入相对有序的状态。若体系向外流出熵正好抵消体系内的熵产生,则体系处于稳定状态。可见熵增加原理只是后来发展起来推广到开放体系的熵产生原理的一个特例。 信息熵的意义不仅作为不确定程度或信息量大小的度量,而在于它的应用。熵H是信息源编码的主要参考参数,是信源压缩可望达到的极限目标。由熵的计算可以确定最佳的编码方案(码长最短的方案),以及在什么条件下编码,码字才能充分反映信源的信息。
信息熵是传输信息时若接收者事先就完全知道所传的内容,他便没有得到什么信息。反之,若传输的内容使他感到意外,他便得到了很多信息。接收者所得到的信息量,在数量上就等于通信前后“不确定性”的消除量(减少量)。若将事件看作是随机变量,则事件出现概率越大,它的不确定程度就越小;反之就大。因此,信息量是概率的单调递减函数。
页:
[1]
2