保持好奇心並付諸行動
我們在消息理論測量一段資訊所包含的資訊量其中一種會使用Entropy來計算。讓X作為一個discrete R.V. 並且表示成P(X)可以視作:
測量一組資訊的方法有好幾種,例如像是使用entropy, mutual information, relative entropy等等方法,另外需要了解這些方法之間的交互作用。
mutual information用來測量兩個random variables之間的關係,主要是有多少資訊量被傳輸過去。其中一個random variable會告訴我有多少資訊量從另一個random variable傳過來。