-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
多目標(biāo)分類算法(多目標(biāo)分類算法是什么)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于多目標(biāo)分類算法的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、哪些機(jī)器學(xué)習(xí)算法可以處理多分類
maxsoft作為logistics二分類的改進(jìn)版,天生適合多分類;神經(jīng)網(wǎng)絡(luò)(如bp神經(jīng)網(wǎng)絡(luò),隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò),RBF神經(jīng)網(wǎng)絡(luò)等);通過建立多個(gè)支持向量機(jī)或者最小二乘支持向量機(jī)分類模型,通過投票算法選擇概率最大的分類標(biāo)簽;也可以通過聚類算法(KNN,kMeans等)等無監(jiān)督學(xué)習(xí)算法實(shí)現(xiàn)分類。
樸素貝葉斯分類器算法是最受歡迎的學(xué)習(xí)方法之一,按照相似性分類,用流行的貝葉斯概率定理來建立機(jī)器學(xué)習(xí)模型,特別是用于疾病預(yù)測(cè)和文檔分類。 它是基于貝葉斯概率定理的單詞的內(nèi)容的主觀分析的簡(jiǎn)單分類。
如果特征數(shù)量遠(yuǎn)大于訓(xùn)練樣本數(shù),則使用邏輯回歸或線性核方法的SVM。
如果特征數(shù)較小,而樣本數(shù)量相對(duì)較多,可以考慮高斯核方法的SVM。
如果特征數(shù)少兒樣本數(shù)極大,可以考慮增加一些特征,再使用邏輯回歸或線性核方法的SVM
神經(jīng)網(wǎng)絡(luò)則對(duì)上述情況都可適用,但訓(xùn)練時(shí)間較長(zhǎng)。
想要學(xué)習(xí)了解更多機(jī)器學(xué)習(xí)的信息,推薦CDA數(shù)據(jù)分析師課程。CDA 與國(guó)際知名考試服務(wù)機(jī)構(gòu) Pearson VUE 合作,認(rèn)證考點(diǎn)覆蓋全球。課程內(nèi)容綜合使用統(tǒng)計(jì)分析方法、統(tǒng)計(jì)模型、運(yùn)籌學(xué)、機(jī)器學(xué)習(xí)、文本挖掘算法,而非單一的機(jī)器學(xué)習(xí)算法。 點(diǎn)擊預(yù)約免費(fèi)試聽課。
二、多目標(biāo)優(yōu)化算法的多目標(biāo)是什么意思
多目標(biāo)優(yōu)化的本質(zhì)在于,大多數(shù)情況下,某目標(biāo)的改善可能引起其他目標(biāo)性能的降低,同時(shí)使多個(gè)目標(biāo)均達(dá)到最優(yōu)是不可能的,只能在各目標(biāo)之間進(jìn)行協(xié)調(diào)權(quán)衡和折中處理,使所有目標(biāo)函數(shù)盡可能達(dá)到最優(yōu),而且問題的最優(yōu)解由數(shù)量眾多,甚至無窮大的Pareto最優(yōu)解組成。
三、多目標(biāo)進(jìn)化算法中的pareto解及pareto前沿介紹
多目標(biāo)求解會(huì)篩選出一個(gè)相對(duì)較優(yōu)的解的集合,在這個(gè)集合里就要用到pareto找出相對(duì)優(yōu)的解或者最優(yōu)解。
多目標(biāo)優(yōu)化問題的數(shù)學(xué)模型一般可以寫成如下形式:
fig 2表示n個(gè)目標(biāo)函數(shù),目標(biāo)是都使之達(dá)到最小。
fig 3是其變量的約束集合,可以理解為變量的取值范圍,下面介紹具體的解之間的支配,占優(yōu)關(guān)系。
1:解A優(yōu)于解B(解A強(qiáng)帕累托支配解B)
假設(shè)現(xiàn)在有兩個(gè)目標(biāo)函數(shù),解A對(duì)應(yīng)的目標(biāo)函數(shù)值都比解B對(duì)應(yīng)的目標(biāo)函數(shù)值好,則稱解A比解B優(yōu)越,也可以叫做解A強(qiáng)帕累托支配解B,舉個(gè)例子,就很容易懂了.
下圖中代表的是兩個(gè)目標(biāo)的的解的情況,橫縱坐標(biāo)表示兩個(gè)目標(biāo)函數(shù)值,E點(diǎn)表示的解所對(duì)應(yīng)的兩個(gè)目標(biāo)函數(shù)值都小于C,D兩個(gè)點(diǎn)表示的解所對(duì)應(yīng)的兩個(gè)目標(biāo)函數(shù)值,所以解E優(yōu)于解C,D.
2:解A無差別于解B(解A能帕累托支配解B)
同樣假設(shè)兩個(gè)目標(biāo)函數(shù),解A對(duì)應(yīng)的一個(gè)目標(biāo)函數(shù)值優(yōu)于解B對(duì)應(yīng)的一個(gè)目標(biāo)函數(shù)值,但是解A對(duì)應(yīng)的另一個(gè)目標(biāo)函數(shù)值要差于解B對(duì)應(yīng)的一個(gè)目標(biāo)函數(shù)值,則稱解A無差別于解B,也叫作解A能帕累托支配解B,舉個(gè)例子,還是上面的圖,點(diǎn)C和點(diǎn)D就是這種情況,C點(diǎn)在第一個(gè)目標(biāo)函數(shù)的值比D小,在第二個(gè)函數(shù)的值比D大。
3:最優(yōu)解
假設(shè)在設(shè)計(jì)空間中,解A對(duì)應(yīng)的目標(biāo)函數(shù)值優(yōu)越其他任何解,則稱解A為最優(yōu)解,舉個(gè)例子,下圖的x1就是兩個(gè)目標(biāo)函數(shù)的最優(yōu)解,使兩個(gè)目標(biāo)函數(shù)同時(shí)達(dá)到最小,但是前面也說過,實(shí)際生活中這種解是不可能存在的。真要存在就好了,由此提出了帕累托最優(yōu)解.
4:帕累托最優(yōu)解
同樣假設(shè)兩個(gè)目標(biāo)函數(shù),對(duì)于解A而言,在 變量空間 中找不到其他的解能夠優(yōu)于解A(注意這里的優(yōu)于一定要兩個(gè)目標(biāo)函數(shù)值都優(yōu)于A對(duì)應(yīng)的函數(shù)值),那么解A就是帕累托最優(yōu)解.
舉個(gè)例子,下圖中應(yīng)該找不到比 x1 對(duì)應(yīng)的目標(biāo)函數(shù)都小的解了吧,即找不到一個(gè)解優(yōu)于 x1 了,同理也找不到比 x2 更優(yōu)的解了,所以這兩個(gè)解都是帕累托最優(yōu)解,實(shí)際上,x1-x2 這個(gè)范圍的解都是帕累托最優(yōu)解,不信自己慢慢想。因此對(duì)于多目標(biāo)優(yōu)化問題而言,帕累托最優(yōu)解只是問題的一個(gè)可接受解,一般都存在多個(gè)帕累托最優(yōu)解,這個(gè)時(shí)候就需要人們自己決策了。
5:帕累托最優(yōu)前沿
還是看 剛才 那張圖 ,如下圖所示,更好的理解一下帕累托最優(yōu)解,實(shí)心點(diǎn)表示的解都是帕累托最優(yōu)解,所有的帕累托最優(yōu)解構(gòu)成帕累托最優(yōu)解集,這些解經(jīng)目標(biāo)函數(shù)映射構(gòu)成了該問題的Pareto最優(yōu)前沿或Pareto前沿面,說人話,即帕累托最優(yōu)解對(duì)應(yīng)的目標(biāo)函數(shù)值就是帕累托最優(yōu)前沿。
對(duì)于兩個(gè)目標(biāo)的問題,其Pareto最優(yōu)前沿通常是條線。而對(duì)于多個(gè)目標(biāo),其Pareto最優(yōu)前沿通常是一個(gè)超曲面。
圖片來源于網(wǎng)絡(luò),侵刪。
四、常見的分類算法有哪些?他們各自的優(yōu)缺點(diǎn)是什么?
優(yōu)點(diǎn):
1)所需估計(jì)的參數(shù)少,對(duì)于缺失數(shù)據(jù)不敏感。
2)有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。
缺點(diǎn):
1)假設(shè)屬性之間相互獨(dú)立,這往往并不成立。(喜歡吃番茄、雞蛋,卻不喜歡
吃番茄炒蛋)。
2)需要知道先驗(yàn)概率。
3)分類決策存在錯(cuò)誤率。
優(yōu)點(diǎn):
1)不需要任何領(lǐng)域知識(shí)或參數(shù)假設(shè)。
2)適合高維數(shù)據(jù)。
3)簡(jiǎn)單易于理解。
4)短時(shí)間內(nèi)處理大量數(shù)據(jù),得到可行且效果較好的結(jié)果。
5)能夠同時(shí)處理數(shù)據(jù)型和常規(guī)性屬性。
缺點(diǎn):
1)對(duì)于各類別樣本數(shù)量不一致數(shù)據(jù),信息增益偏向于那些具有更多數(shù)值的特征。
2)易于過擬合。
3)忽略屬性之間的相關(guān)性。
4)不支持在線學(xué)習(xí)。
優(yōu)點(diǎn):
1)可以解決小樣本下機(jī)器學(xué)習(xí)的問題。
2)提高泛化性能。
3)可以解決高維、非線性問題。超高維文本分類仍受歡迎。
4)避免神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)選擇和局部極小的問題。
缺點(diǎn):
1)對(duì)缺失數(shù)據(jù)敏感。
2)內(nèi)存消耗大,難以解釋。
3)運(yùn)行和調(diào)差略煩人。
優(yōu)點(diǎn):
1)思想簡(jiǎn)單,理論成熟,既可以用來做分類也可以用來做回歸;
2)可用于非線性分類;
3)訓(xùn)練時(shí)間復(fù)雜度為 O(n);
4)準(zhǔn)確度高,對(duì)數(shù)據(jù)沒有假設(shè),對(duì) outlier 不敏感;
缺點(diǎn):
1)計(jì)算量太大
2)對(duì)于樣本分類不均衡的問題,會(huì)產(chǎn)生誤判。
3)需要大量的內(nèi)存。
4)輸出的可解釋性不強(qiáng)。
優(yōu)點(diǎn):
1)速度快。
2)簡(jiǎn)單易于理解,直接看到各個(gè)特征的權(quán)重。
3)能容易地更新模型吸收新的數(shù)據(jù)。
4)如果想要一個(gè)概率框架,動(dòng)態(tài)調(diào)整分類閥值。
缺點(diǎn):
特征處理復(fù)雜。需要?dú)w一化和較多的特征工程。
優(yōu)點(diǎn):
1)分類準(zhǔn)確率高。
2)并行處理能力強(qiáng)。
3)分布式存儲(chǔ)和學(xué)習(xí)能力強(qiáng)。
4)魯棒性較強(qiáng),不易受噪聲影響。
缺點(diǎn):
1)需要大量參數(shù)(網(wǎng)絡(luò)拓?fù)洹㈤y值、閾值)。
2)結(jié)果難以解釋。
3)訓(xùn)練時(shí)間過長(zhǎng)。
優(yōu)點(diǎn):
1)adaboost 是一種有很高精度的分類器。
2)可以使用各種方法構(gòu)建子分類器,Adaboost 算法提供的是框架。
3)當(dāng)使用簡(jiǎn)單分類器時(shí),計(jì)算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其
簡(jiǎn)單。
4)簡(jiǎn)單,不用做特征篩選。
5)不用擔(dān)心 overfitting。
缺點(diǎn):
對(duì) outlier (離群值)比較敏感
以上就是關(guān)于多目標(biāo)分類算法相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
多目標(biāo)灰狼優(yōu)化算法(多目標(biāo)灰狼優(yōu)化算法代碼)
多目標(biāo)分類算法(多目標(biāo)分類算法是什么)
多目標(biāo)優(yōu)化模型(多目標(biāo)優(yōu)化模型求解)