AI學習必須了解的算法,你知道幾個?
近些年,隨著人類對于深度學習、神經網絡等方面的逐漸深入與突破,人工智能在生活中的應用日益廣泛,與我們的生活、學習相互融合,成為我們的便捷助手、親密玩伴,我們都知道這些功能的實現都離不開算法的支撐,那么對于AI學習,最重要的10大算法你知道嗎?
決策樹
決策樹是在已知各種情況發生概率的基礎上,通過構成決策樹來求取凈現值的期望值大于等于零的概率,評價項目風險,判斷其可行性的決策分析方法,是直觀運用概率分析的一種圖解法。由于這種決策分支畫成圖形很像一棵樹的枝干,故稱決策樹。
決策樹易于理解和實現,人們在在學習過程中不需要使用者了解很多的背景知識,這同時是它的能夠直接體現數據的特點,只要通過解釋后都有能力去理解決策樹所表達的意義。
在機器學習中,隨機森林是一個包含多個決策樹的分類器, 并且其輸出的類別是由個別樹輸出的類別的眾數而定。
邏輯回歸
邏輯回歸,是一種廣義的線性回歸分析模型,常用于數據挖掘,疾病自動診斷,經濟預測等領域。例如,探討引發疾病的危險因素,并根據危險因素預測疾病發生的概率等。
Adaboost
Adaboost是一種迭代算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構成一個更強的最終分類器(強分類器)。
其算法本身是通過改變數據分布來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的準確率,來確定每個樣本的權值。
將修改過權值的新數據集送給下層分類器進行訓練,最后將每次訓練得到的分類器融合起來,作為最后的決策分類器。使用adaboost分類器可以排除一些不必要的訓練數據特征,并放在關鍵的訓練數據上面。
樸素貝葉斯
樸素貝葉斯法是基于貝葉斯定理與特征條件獨立假設的分類方法。最為廣泛的兩種分類模型是決策樹模型和樸素貝葉斯模型。
和決策樹模型相比,樸素貝葉斯分類器發源于古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。同時,樸素貝葉斯分類器模型所需估計的參數很少,對缺失數據不太敏感,算法也比較簡單。
理論上,樸素貝葉斯分類器模型與其他分類方法相比具有最小的誤差率。但是實際上并非總是如此,這是因為NBC模型假設屬性之間相互獨立,這個假設在實際應用中往往是不成立的,這給樸素貝葉斯分類器模型的正確分類帶來了一定影響。
K近鄰
所謂K近鄰算法,即是給定一個訓練數據集,對新的輸入實例,在訓練數據集中找到與該實例最鄰近的K個實例(也就是上面所說的K個鄰居), 這K個實例的多數屬于某個類,就把該輸入實例分類到這個類中。
K均值
k均值聚類是最著名的劃分聚類算法,由于簡潔和效率使得他成為所有聚類算法中最廣泛使用的。給定一個數據點集合和需要的聚類數目k,k由用戶指定,k均值算法根據某個距離函數反復把數據分入k個聚類中。
支持向量機
支持向量機(SVM)是一類按監督學習方式對數據進行二元分類的廣義線性分類器,其決策邊界是對學習樣本求解的最大邊距超平面。
SVM使用鉸鏈損失函數計算經驗風險并在求解系統中加入了正則化項以優化結構風險,是一個具有稀疏性和穩健性的分類器。
SVM可以通過核方法進行非線性分類,是常見的核學習方法之一。
神經網絡
人工神經網絡是生物神經網絡在某種簡化意義下的技術復現,它的主要任務是根據生物神經網絡的原理和實際應用的需要建造實用的人工神經網絡模型,設計相應的學習算法,模擬人腦的某種智能活動,然后在技術上實現出來用以解決實際問題。因此,生物神經網絡主要研究智能的機理;人工神經網絡主要研究智能機理的實現,兩者相輔相成。 邏輯回歸 邏輯回歸
- 贊