AI學(xué)習(xí)必須了解的算法,你知道幾個(gè)?

近些年,隨著人類對(duì)于深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等方面的逐漸深入與突破,人工智能在生活中的應(yīng)用日益廣泛,與我們的生活、學(xué)習(xí)相互融合,成為我們的便捷助手、親密玩伴,我們都知道這些功能的實(shí)現(xiàn)都離不開算法的支撐,那么對(duì)于AI學(xué)習(xí),最重要的10大算法你知道嗎?

 


決策樹

 

決策樹是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過構(gòu)成決策樹來求取凈現(xiàn)值的期望值大于等于零的概率,評(píng)價(jià)項(xiàng)目風(fēng)險(xiǎn),判斷其可行性的決策分析方法,是直觀運(yùn)用概率分析的一種圖解法。由于這種決策分支畫成圖形很像一棵樹的枝干,故稱決策樹。

 

決策樹易于理解和實(shí)現(xiàn),人們?cè)谠趯W(xué)習(xí)過程中不需要使用者了解很多的背景知識(shí),這同時(shí)是它的能夠直接體現(xiàn)數(shù)據(jù)的特點(diǎn),只要通過解釋后都有能力去理解決策樹所表達(dá)的意義。



    隨機(jī)森林



在機(jī)器學(xué)習(xí)中,隨機(jī)森林是一個(gè)包含多個(gè)決策樹的分類器, 并且其輸出的類別是由個(gè)別樹輸出的類別的眾數(shù)而定。

 

邏輯回歸

 

邏輯回歸,是一種廣義的線性回歸分析模型,常用于數(shù)據(jù)挖掘,疾病自動(dòng)診斷,經(jīng)濟(jì)預(yù)測(cè)等領(lǐng)域。例如,探討引發(fā)疾病的危險(xiǎn)因素,并根據(jù)危險(xiǎn)因素預(yù)測(cè)疾病發(fā)生的概率等。

 

Adaboost

 

Adaboost是一種迭代算法,其核心思想是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個(gè)更強(qiáng)的最終分類器(強(qiáng)分類器)

 

其算法本身是通過改變數(shù)據(jù)分布來實(shí)現(xiàn)的,它根據(jù)每次訓(xùn)練集之中每個(gè)樣本的分類是否正確,以及上次的總體分類的準(zhǔn)確率,來確定每個(gè)樣本的權(quán)值。

 

將修改過權(quán)值的新數(shù)據(jù)集送給下層分類器進(jìn)行訓(xùn)練,最后將每次訓(xùn)練得到的分類器融合起來,作為最后的決策分類器。使用adaboost分類器可以排除一些不必要的訓(xùn)練數(shù)據(jù)特征,并放在關(guān)鍵的訓(xùn)練數(shù)據(jù)上面。

 

樸素貝葉斯

 

樸素貝葉斯法是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類方法。最為廣泛的兩種分類模型是決策樹模型和樸素貝葉斯模型。

和決策樹模型相比,樸素貝葉斯分類器發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。同時(shí),樸素貝葉斯分類器模型所需估計(jì)的參數(shù)很少,對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡單。

 

理論上,樸素貝葉斯分類器模型與其他分類方法相比具有最小的誤差率。但是實(shí)際上并非總是如此,這是因?yàn)?/span>NBC模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,這給樸素貝葉斯分類器模型的正確分類帶來了一定影響。

 

K近鄰

 

所謂K近鄰算法,即是給定一個(gè)訓(xùn)練數(shù)據(jù)集,對(duì)新的輸入實(shí)例,在訓(xùn)練數(shù)據(jù)集中找到與該實(shí)例最鄰近的K個(gè)實(shí)例(也就是上面所說的K個(gè)鄰居), 這K個(gè)實(shí)例的多數(shù)屬于某個(gè)類,就把該輸入實(shí)例分類到這個(gè)類中。

 

K均值

 

k均值聚類是最著名的劃分聚類算法,由于簡潔和效率使得他成為所有聚類算法中最廣泛使用的。給定一個(gè)數(shù)據(jù)點(diǎn)集合和需要的聚類數(shù)目kk由用戶指定,k均值算法根據(jù)某個(gè)距離函數(shù)反復(fù)把數(shù)據(jù)分入k個(gè)聚類中。

 

支持向量機(jī)

 

支持向量機(jī)(SVM)是一類按監(jiān)督學(xué)習(xí)方式對(duì)數(shù)據(jù)進(jìn)行二元分類的廣義線性分類器,其決策邊界是對(duì)學(xué)習(xí)樣本求解的最大邊距超平面。

 

SVM使用鉸鏈損失函數(shù)計(jì)算經(jīng)驗(yàn)風(fēng)險(xiǎn)并在求解系統(tǒng)中加入了正則化項(xiàng)以優(yōu)化結(jié)構(gòu)風(fēng)險(xiǎn),是一個(gè)具有稀疏性和穩(wěn)健性的分類器。

 

SVM可以通過核方法進(jìn)行非線性分類,是常見的核學(xué)習(xí)方法之一。

 

神經(jīng)網(wǎng)絡(luò)

 

人工神經(jīng)網(wǎng)絡(luò)是生物神經(jīng)網(wǎng)絡(luò)在某種簡化意義下的技術(shù)復(fù)現(xiàn),它的主要任務(wù)是根據(jù)生物神經(jīng)網(wǎng)絡(luò)的原理和實(shí)際應(yīng)用的需要建造實(shí)用的人工神經(jīng)網(wǎng)絡(luò)模型,設(shè)計(jì)相應(yīng)的學(xué)習(xí)算法,模擬人腦的某種智能活動(dòng),然后在技術(shù)上實(shí)現(xiàn)出來用以解決實(shí)際問題。因此,生物神經(jīng)網(wǎng)絡(luò)主要研究智能的機(jī)理;人工神經(jīng)網(wǎng)絡(luò)主要研究智能機(jī)理的實(shí)現(xiàn),兩者相輔相成。 邏輯回歸 邏輯回歸

the end

評(píng)論(0)