我们正在努力恢复Google Play商店上的Unionpedia应用程序
🌟我们简化了设计以优化导航!
Instagram Facebook X LinkedIn

不确定性和熵 (信息论)

快捷方式: 差异相似杰卡德相似系数参考

不确定性和熵 (信息论)之间的区别

不确定性 vs. 熵 (信息论)

不确定性,是一個出現在哲學、統計學、經濟學、金融、保險、心理學、社會學及資訊工程的概念。在经济学中关于风险管理的概念,指经济主体对于未来的经济状况(尤其是收益和损失)的分布范围和状态不能确知,又稱為奈特氏不確定性。 決策論專家對於不確定性有更深入的分析。Doug Hubbard認為「不確定性」是當我們沒有足夠知識來描述當前情況或估計將來的結果。關於「不確定性的測量」,可以根據所有可能的結果,套用概率密度函數來分析。風險則是可能出現負面效果或損失的「不確定性」狀態。. 在信息论中,熵(entropy)是接收的每条消息中包含的信息的平均量,又被稱為信息熵、信源熵、平均自信息量。这里,“消息”代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)来自信源的另一个特征是样本的概率分布。这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息。由于一些其他的原因,把信息(熵)定义为概率分布的对数的相反数是有道理的。事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(即期望)就是这个分布产生的信息量的平均值(即熵)。熵的单位通常为比特,但也用Sh、nat、Hart计量,取决于定义用到对数的底。 采用概率分布的对数作为信息的量度的原因是其可加性。例如,投掷一次硬币提供了1 Sh的信息,而掷m次就为m位。更一般地,你需要用log2(n)位来表示一个可以取n个值的变量。 在1948年,克劳德·艾尔伍德·香农將熱力學的熵,引入到信息论,因此它又被稱為香农熵。.

之间不确定性和熵 (信息论)相似

不确定性和熵 (信息论)有(在联盟百科)0共同点。

上面的列表回答下列问题

不确定性和熵 (信息论)之间的比较

不确定性有15个关系,而熵 (信息论)有36个。由于它们的共同之处0,杰卡德指数为0.00% = 0 / (15 + 36)。

参考

本文介绍不确定性和熵 (信息论)之间的关系。要访问该信息提取每篇文章,请访问: