24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

韓璐 8年前 (2017-02-20)

本文篩選并簡(jiǎn)單介紹了一些最常見(jiàn)算法類(lèi)別,還為每一個(gè)類(lèi)別列出了一些實(shí)際的算法并簡(jiǎn)單介紹了它們的優(yōu)缺點(diǎn)。

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

目錄

正則化算法(Regularization Algorithms)

集成算法(Ensemble Algorithms)

決策樹(shù)算法(Decision Tree Algorithm)

回歸(Regression)

人工神經(jīng)網(wǎng)絡(luò )(Artificial Neural Network)

深度學(xué)習(Deep Learning)

支持向量機(Support Vector Machine)

降維算法(Dimensionality Reduction Algorithms)

聚類(lèi)算法(Clustering Algorithms)

基于實(shí)例的算法(Instance-based Algorithms)

貝葉斯算法(Bayesian Algorithms)

關(guān)聯(lián)規則學(xué)習算法(Association Rule Learning Algorithms)

圖模型(Graphical Models)

正則化算法(Regularization Algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

它是另一種方法(通常是回歸方法)的拓展,這種方法會(huì )基于模型復雜性對其進(jìn)行懲罰,它喜歡相對簡(jiǎn)單能夠更好的泛化的模型。

例子:

嶺回歸(Ridge Regression)

最小絕對收縮與選擇算子(LASSO)

GLASSO

彈性網(wǎng)絡(luò )(Elastic Net)

最小角回歸(Least-Angle Regression)

優(yōu)點(diǎn):

其懲罰會(huì )減少過(guò)擬合

總會(huì )有解決方法

缺點(diǎn):

懲罰會(huì )造成欠擬合

很難校準

集成算法(Ensemble algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

集成方法是由多個(gè)較弱的模型集成模型組,其中的模型可以單獨進(jìn)行訓練,并且它們的預測能以某種方式結合起來(lái)去做出一個(gè)總體預測。

該算法主要的問(wèn)題是要找出哪些較弱的模型可以結合起來(lái),以及結合的方法。這是一個(gè)非常強大的技術(shù)集,因此廣受歡迎。

Boosting

Bootstrapped Aggregation(Bagging)

AdaBoost

層疊泛化(Stacked Generalization)(blending)

梯度推進(jìn)機(Gradient Boosting Machines,GBM)

梯度提升回歸樹(shù)(Gradient Boosted Regression Trees,GBRT)

隨機森林(Random Forest)

優(yōu)點(diǎn):

當先最先進(jìn)的預測幾乎都使用了算法集成。它比使用單個(gè)模型預測出來(lái)的結果要精確的多

缺點(diǎn):

需要大量的維護工作

決策樹(shù)算法(Decision Tree Algorithm)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

決策樹(shù)學(xué)習使用一個(gè)決策樹(shù)作為一個(gè)預測模型,它將對一個(gè) item(表征在分支上)觀(guān)察所得映射成關(guān)于該 item 的目標值的結論(表征在葉子中)。

樹(shù)模型中的目標是可變的,可以采一組有限值,被稱(chēng)為分類(lèi)樹(shù);在這些樹(shù)結構中,葉子表示類(lèi)標簽,分支表示表征這些類(lèi)標簽的連接的特征。

例子:

分類(lèi)和回歸樹(shù)(Classification and Regression Tree,CART)

Iterative Dichotomiser 3(ID3)

C4.5 和 C5.0(一種強大方法的兩個(gè)不同版本)

優(yōu)點(diǎn):

容易解釋

非參數型

缺點(diǎn):

趨向過(guò)擬合

可能或陷于局部最小值中

沒(méi)有在線(xiàn)學(xué)習

回歸(Regression)算法

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

回歸是用于估計兩種變量之間關(guān)系的統計過(guò)程。當用于分析因變量和一個(gè) 多個(gè)自變量之間的關(guān)系時(shí),該算法能提供很多建模和分析多個(gè)變量的技巧。具體一點(diǎn)說(shuō),回歸分析可以幫助我們理解當任意一個(gè)自變量變化,另一個(gè)自變量不變時(shí),因變量變化的典型值。最常見(jiàn)的是,回歸分析能在給定自變量的條件下估計出因變量的條件期望。

回歸算法是統計學(xué)中的主要算法,它已被納入統計機器學(xué)習。

例子:

普通最小二乘回歸(Ordinary Least Squares Regression,OLSR)

線(xiàn)性回歸(Linear Regression)

邏輯回歸(Logistic Regression)

逐步回歸(Stepwise Regression)

多元自適應回歸樣條(Multivariate Adaptive Regression Splines,MARS)

本地散點(diǎn)平滑估計(Locally Estimated Scatterplot Smoothing,LOESS)

優(yōu)點(diǎn):

直接、快速

知名度高

缺點(diǎn):

要求嚴格的假設

需要處理異常值

人工神經(jīng)網(wǎng)絡(luò )

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

人工神經(jīng)網(wǎng)絡(luò )是受生物神經(jīng)網(wǎng)絡(luò )啟發(fā)而構建的算法模型。

它是一種模式匹配,常被用于回歸和分類(lèi)問(wèn)題,但擁有龐大的子域,由數百種算法和各類(lèi)問(wèn)題的變體組成。

例子:

感知器

反向傳播

Hopfield 網(wǎng)絡(luò )

徑向基函數網(wǎng)絡(luò )(Radial Basis Function Network,RBFN)

優(yōu)點(diǎn):

在語(yǔ)音、語(yǔ)義、視覺(jué)、各類(lèi)游戲(如圍棋)的任務(wù)中表現極好。

算法可以快速調整,適應新的問(wèn)題。

缺點(diǎn):

需要大量數據進(jìn)行訓練

訓練要求很高的硬件配置

模型處于「黑箱狀態(tài)」,難以理解內部機制

元參數(Metaparameter)與網(wǎng)絡(luò )拓撲選擇困難。

深度學(xué)習(Deep Learning)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

深度學(xué)習是人工神經(jīng)網(wǎng)絡(luò )的最新分支,它受益于當代硬件的快速發(fā)展。

眾多研究者目前的方向主要集中于構建更大、更復雜的神經(jīng)網(wǎng)絡(luò ),目前有許多方法正在聚焦半監督學(xué)習問(wèn)題,其中用于訓練的大數據集只包含很少的標記。

例子:

深玻耳茲曼機(Deep Boltzmann Machine,DBM)

Deep Belief Networks(DBN)

卷積神經(jīng)網(wǎng)絡(luò )(CNN)

Stacked Auto-Encoders

優(yōu)點(diǎn)/缺點(diǎn):見(jiàn)神經(jīng)網(wǎng)絡(luò )

支持向量機(Support Vector Machines)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

給定一組訓練事例,其中每個(gè)事例都屬于兩個(gè)類(lèi)別中的一個(gè),支持向量機(SVM)訓練算法可以在被輸入新的事例后將其分類(lèi)到兩個(gè)類(lèi)別中的一個(gè),使自身成為非概率二進(jìn)制線(xiàn)性分類(lèi)器。

SVM 模型將訓練事例表示為空間中的點(diǎn),它們被映射到一幅圖中,由一條明確的、盡可能寬的間隔分開(kāi)以區分兩個(gè)類(lèi)別。

隨后,新的示例會(huì )被映射到同一空間中,并基于它們落在間隔的哪一側來(lái)預測它屬于的類(lèi)別。

優(yōu)點(diǎn):

在非線(xiàn)性可分問(wèn)題上表現優(yōu)秀

缺點(diǎn):

非常難以訓練

很難解釋

降維算法(Dimensionality Reduction Algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

和集簇方法類(lèi)似,降維追求并利用數據的內在結構,目的在于使用較少的信息總結或描述數據。

這一算法可用于可視化高維數據或簡(jiǎn)化接下來(lái)可用于監督學(xué)習中的數據。許多這樣的方法可針對分類(lèi)和回歸的使用進(jìn)行調整。

例子:

主成分分析(Principal Component Analysis (PCA))

主成分回歸(Principal Component Regression (PCR))

偏最小二乘回歸(Partial Least Squares Regression (PLSR))

Sammon 映射(Sammon Mapping)

多維尺度變換(Multidimensional Scaling (MDS))

投影尋蹤(Projection Pursuit)

線(xiàn)性判別分析(Linear Discriminant Analysis (LDA))

混合判別分析(Mixture Discriminant Analysis (MDA))

二次判別分析(Quadratic Discriminant Analysis (QDA))

靈活判別分析(Flexible Discriminant Analysis (FDA))

優(yōu)點(diǎn):

可處理大規模數據集

無(wú)需在數據上進(jìn)行假設

缺點(diǎn):

難以搞定非線(xiàn)性數據

難以理解結果的意義

聚類(lèi)算法(Clustering Algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

聚類(lèi)算法是指對一組目標進(jìn)行分類(lèi),屬于同一組(亦即一個(gè)類(lèi),cluster)的目標被劃分在一組中,與其他組目標相比,同一組目標更加彼此相似(在某種意義上)。

例子:

K-均值(k-Means)

k-Medians 算法

Expectation Maximi 封層 ation (EM)

最大期望算法(EM)

分層集群(Hierarchical Clstering)

優(yōu)點(diǎn):

讓數據變得有意義

缺點(diǎn):

結果難以解讀,針對不尋常的數據組,結果可能無(wú)用。

基于實(shí)例的算法(Instance-based Algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

基于實(shí)例的算法(有時(shí)也稱(chēng)為基于記憶的學(xué)習)是這樣學(xué) 習算法,不是明確歸納,而是將新的問(wèn)題例子與訓練過(guò)程中見(jiàn)過(guò)的例子進(jìn)行對比,這些見(jiàn)過(guò)的例子就在存儲器中。

之所以叫基于實(shí)例的算法是因為它直接從訓練實(shí)例中建構出假設。這意味這,假設的復雜度能隨著(zhù)數據的增長(cháng)而變化:最糟的情況是,假設是一個(gè)訓練項目列表,分類(lèi)一個(gè)單獨新實(shí)例計算復雜度為 O(n)

例子:

K 最近鄰(k-Nearest Neighbor (kNN))

學(xué)習向量量化(Learning Vector Quantization (LVQ))

自組織映射(Self-Organizing Map (SOM))

局部加權學(xué)習(Locally Weighted Learning (LWL))

優(yōu)點(diǎn):

算法簡(jiǎn)單、結果易于解讀

缺點(diǎn):

內存使用非常高

計算成本高

不可能用于高維特征空間

貝葉斯算法(Bayesian Algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

貝葉斯方法是指明確應用了貝葉斯定理來(lái)解決如分類(lèi)和回歸等問(wèn)題的方法。

例子:

樸素貝葉斯(Naive Bayes)

高斯樸素貝葉斯(Gaussian Naive Bayes)

多項式樸素貝葉斯(Multinomial Naive Bayes)

平均一致依賴(lài)估計器(Averaged One-Dependence Estimators (AODE))

貝葉斯信念網(wǎng)絡(luò )(Bayesian Belief Network (BBN))

貝葉斯網(wǎng)絡(luò )(Bayesian Network (BN))

優(yōu)點(diǎn):

快速、易于訓練、給出了它們所需的資源能帶來(lái)良好的表現

缺點(diǎn):

如果輸入變量是相關(guān)的,則會(huì )出現問(wèn)題

關(guān)聯(lián)規則學(xué)習算法(Association Rule Learning Algorithms)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

關(guān)聯(lián)規則學(xué)習方法能夠提取出對數據中的變量之間的關(guān)系的最佳解釋。比如說(shuō)一家超市的銷(xiāo)售數據中存在規則 {洋蔥,土豆}=> {漢堡},那說(shuō)明當一位客戶(hù)同時(shí)購買(mǎi)了洋蔥和土豆的時(shí)候,他很有可能還會(huì )購買(mǎi)漢堡肉。

例子:

Apriori 算法(Apriori algorithm)

Eclat 算法(Eclat algorithm)

FP-growth

圖模型(Graphical Models)

24K金純干貨:從貝葉斯到深度學(xué)習及各自?xún)?yōu)缺點(diǎn)

圖模型或概率圖模型(PGM/probabilistic graphical model)是一種概率模型,一個(gè)圖(graph)可以通過(guò)其表示隨機變量之間的條件依賴(lài)結構(conditional dependence structure)。

例子:

貝葉斯網(wǎng)絡(luò )(Bayesian network)

馬爾可夫隨機域(Markov random field)

鏈圖(Chain Graphs)

祖先圖(Ancestral graph)

優(yōu)點(diǎn):

模型清晰,能被直觀(guān)地理解

缺點(diǎn):

確定其依賴(lài)的拓撲很困難,有時(shí)候也很模糊

【編者按】本文由機器之心編譯,文章來(lái)源:static.coggle.it。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到