互信息(Mutual Information)是信息論里一種有用的信息度量,它可以看成是一個隨機變量中包含的關于另一個隨機變量的信息量,或者說是一個隨機變量由于已知另一個隨機變量而減少的不肯定性。互信息的定義與交叉近似。
定義
設兩個隨機變量的聯合分布為,邊際分布分別為,互信息是聯合分布與乘積分布的相對熵,即
含義
互信息與多元對數似然比檢驗以及皮爾森校驗有著密切的聯系。
信息的含義
信息是物質、能量、信息及其屬性的標示。逆維納信息定義信息是確定性的增加。逆香農信息定義信息是事物現象及其屬性標識的集合。
互信息的含義
一般而言,信道中總是存在著噪聲和干擾,信源發出消息x,通過信道后信宿只可能收到由于干擾作用引起的某種變形的y。信宿收到y后推測信源發出x的概率,這一過程可由后驗概率p(x|y)來描述。相應地,信源發出x的概率p(x)稱為先驗概率。我們定義x的后驗概率與先驗概率比值的對數為y對x的互信息量(簡稱互信息)。
根據熵的連鎖規則,有
因此,
這個差叫做X和Y的互信息,記作。
按照熵的定義展開可以得到:
性質
非負性
,且等號成立的充要條件是X和Y相互獨立。
鏈法則
數據處理不等式
如果構成馬式鏈,則
其他
某個詞t和某個類別Ci傳統的互信息定義如下:
互信息是計算語言學模型分析的常用方法,它度量兩個對象之間的相互性。在過濾問題中用于度量特征對于主題的區分度。互信息的定義與交叉熵近似。互信息本來是信息論中的一個概念,用于表示信息之間的關系, 是兩個隨機變量統計相關性的測度,使用互信息理論進行特征抽取是基于如下假設:在某個特定類別出現頻率高,但在其他類別出現頻率比較低的詞條與該類的互信息比較大。通常用互信息作為特征詞和類別之間的測度,如果特征詞屬于該類的話,它們的互信息量最大。由于該方法不需要對特征詞和類別之間關系的性質作任何假設,因此非常適合于文本分類的特征和類別的配準工作。
參考資料 >