人工智能之樸素貝葉斯(NB)
前沿:學習過概率的人一定知道貝葉斯定理,在信息領域內有著無與倫比的地位。貝葉斯算法是基于貝葉斯定理的一類算法,主要用來解決分類和回歸問題。
人工智能之機器學習中最為廣泛的兩種分類模型是1)決策樹模型(Decision Tree Model)和2) 樸素貝葉斯模型(Naive Bayesian Model)。決策樹DT已經講過,請參見之前有關文章。
今天我們重點探討一下樸素貝葉斯(NB),注意這里NB不是牛X, 而是Naive Bayesian。 ^_^
樸素貝葉斯是經典的機器學習算法之一,也是為數不多的基于概率論的分類算法。樸素貝葉斯原理簡單,也很容易實現(xiàn),多用于文本分類、垃圾郵件過濾、情感分析等。
英國數學家托馬斯·貝葉斯(Thomas Bayes)在1763年發(fā)表的一篇論文中,首先提出了貝葉斯定理。
貝葉斯定理的應用需要大量的計算,因此歷史上很長一段時間,無法得到廣泛應用。只有計算機誕生以后,它才獲得真正的重視。人們發(fā)現(xiàn),許多統(tǒng)計量是無法事先進行客觀判斷的,而互聯(lián)網時代出現(xiàn)的大型數據集,再加上高速運算能力,為驗證這些統(tǒng)計量提供了方便,也為應用貝葉斯定理創(chuàng)造了條件,它的威力正在日益顯現(xiàn)。
概念和定義:
樸素貝葉斯法是基于貝葉斯定理與特征條件獨立假設的分類方法。樸素貝葉斯分類器NBC (NaiveBayes Classifier)發(fā)源于古典數學理論,有著堅實的數學基礎,以及穩(wěn)定的分類效率。樸素貝葉斯分類器(NBC)模型所需估計的參數很少,對缺失數據不太敏感,算法也比較簡單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。但是實際上并非總是如此,這是因為NBC模型假設屬性之間相互獨立,這個假設在實際應用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。
貝葉斯分類是一系列分類算法總稱,這類算法均以貝葉斯定理為基礎,故統(tǒng)稱為貝葉斯分類。而樸素貝葉斯分類是貝葉斯分類中最簡單,也是常見的一種分類方法。
理論基礎:
樸素貝葉斯最核心的部分是貝葉斯法則,而貝葉斯法則的基石是條件概率。貝葉斯法則如下:
這里的C表示類別,輸入待判斷數據,式子給出要求解的某一類的概率。
樸素貝葉斯分類器基于一個簡單的假定:給定目標值時屬性之間相互條件獨立。
樸素貝葉斯分類器模型:
Vmap=arg maxP( Vj | a1,a2...an) Vj屬于V集合,其中Vmap是給定一個example,得到的最可能的目標值。其中a1...an是這個example里面的屬性。Vmap目標值,就是后面計算得出的概率最大的一個。所以用max來表示。
貝葉斯公式應用到 P( Vj | a1,a2...an)中?傻玫 Vmap= arg max P(a1,a2...an | Vj ) P( Vj ) / P(a1,a2...an)。又因為樸素貝葉斯分類器默認a1...an互相獨立。所以P(a1,a2...an)對于結果沒有用處?傻玫絍map= arg max P(a1,a2...an | Vj ) P( Vj )。
"樸素貝葉斯分類器基于一個簡單的假定:給定目標值時屬性之間相互條件獨立。換言之。該假定說明給定實例的目標值情況下。觀察到聯(lián)合的a1,a2...an的概率正好是對每個單獨屬性的概率乘積:P(a1,a2...an | Vj ) =Πi P(ai| Vj )
因此,樸素貝葉斯分類器模型:Vnb=arg max P( Vj ) Π iP ( ai | Vj )

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?