Search
Search
#1. Weka演算法Classifier-tree-J48原始碼分析(一)演算法和基本 ...
Weka演算法Classifier-tree-J48原始碼分析(一)演算法和基本資料結構. 2019-01-27 254. 大概一年沒打理部落格了,重新拿起筆不知道該從哪裡寫起,想來想去就從最近 ...
#2. Weka決策樹分類法使用教學/ Weka J48 Decision Tree ...
決策樹是資料探勘(data mining) 分類(classifition)中的代表性演算法。它是一種監督式演算法,一般是用於預測、建立模型上。它可以協助我們將多維度的 ...
完成資料預處理後,我們就可以開始進行模型訓練了。因為我們是要建立決策樹,所以選擇“Classify”選項卡,然後在“Classifier”中選擇J48。你可以能會疑惑 ...
J48 原理:本來名稱為C4.8,由於是Java實現的演算法,再加上C4.8為商業收費演算法。 其實J48是自上而下的,遞迴的分治策略,選擇某個屬性放置在根節點,為每個可能的 ...
#5. 用Weka對資料集進行分群與分類! - Medium
讓我們進入分類(Classify)這個書籤開始分類吧,點選choose 選擇你要的演算法,在本例子中使用「決策樹J48 」以及「隨機森林」。 (一)決策樹(Decision ...
#6. 【ALGORITHM】使用J48和IBk(KNN)演算法進行分類 - 程式人生
我做過很多不同種類蘑菇的記錄。這些應該分為可食用和有毒分類必須使用k近鄰(1)和J48。 兩種演算法的精度均達到99.88%與我相關的是假陽性率J48的 ...
#7. j48決策樹 - 軟體兄弟
j48 決策樹,Weka決策樹分類法使用教學/ Weka J48 Decision Tree Classification . ... J48的決策樹正確率為96%。, Weka算法Classifier-tree-J48源碼分析算法和基本數據 ...
#8. j48參數 - 藥師家
J48 的決策樹正確率為96%。, Weka算法Classifier-tree-J48源碼分析算法和基本數據 ... 知識發現。,Auto-WEKA則是同時選擇學習演算法和它們參數,讓使用者不必一再嘗試。
#9. Weka算法Classifier-tree-J48源代码分析(一个)基本数据结构 ...
Weka为一个Java基础上的机器学习工具。上手简单,并提供图形化界面。提供如分类、聚类、频繁项挖掘等工具。本篇文章主要写一下分类器算法中的J48算法及事实上现。
#10. a. 設定分類演算法與目標屬性
學生成績資料集. 小美:讀GP. 阿明:讀MS. 讀GP的機率為. 13%. 讀MS的機率為. 87%. 9. 分類演算法. J48 (Decision Tree). 決策樹. (Quinlan, 1993).
#11. C4.5算法- 維基百科,自由的百科全書
C4.5算法與ID3算法一樣使用了信息熵的概念,並和ID3一樣通過學習數據來建立決策樹。 在Springer LNCS於2008年發表的優秀論文中,該算法在前10大數據挖掘算法中排名第 ...
#12. 决策树J48算法- 山竹小果 - 博客园
J48 原理基于从上到下的策略,递归的分治策略,选择某个属性放置在根节点, ... J48分类算法可信度高,建立的决策树简单易懂,并且结果非常容易理解。
#13. 資料探勘工具Weka提供了多種不同的演算法以及設定演算法的 ...
試著跑跑看,結果預設正確率為98.6667%,竟然比Auto-WEKA的結果還好? 後來我試了下其他分類法,SMO (96.67%)、J48 (98%)、NaiveBayes (96%)、最好的則是 ...
#14. 朝陽科技大學資訊工程系碩士論文
接下來開始進行分類,點選Classify 如圖6 所示,WEKA 提供了多種. 的分類器,在這裡挑選J48 演算法當作範例。挑選完畢後按下Start 進行分. 類,Classifier ...
#15. 中華大學碩士論文
利用特殊的資料探勘演算法從資料中萃取出特別的樣式及評估[42];Berry and ... 樹分類技術,以J48(C4.5)演算法加以分析,透過資料的分析,找出學生傷病的.
#16. 轉寄 - 博碩士論文行動網
本研究使用三種人工智慧的演算法,包括單純貝式演算法、J48演算法、OneR演算法,進行訓練資料集的模式訓練,和測試資料集的分析預測。結果發現單純貝式演算法的模型準 ...
#17. weka的算法介紹 - 台部落
J48 ():C4.5決策樹算法(決策樹在分析各個屬性時,是完全獨立的)。 LMT():組合樹結構和Logistic迴歸模型,每個葉子節點是一個Logistic迴歸模型, ...
#18. 3. classification and regression - SlideShare
9 分類演算法J48 (Decision Tree) 決策樹(Quinlan, 1993) 天氣溼度起風開場停辦開場停辦開場晴朗雨天陰天高正常有無; 10. 10 決策樹演算法目標(1/2) ...
#19. 第一章. 大數據基本概念
決策樹演算法介紹. ➔ Weka安裝. ➔ 資料集介紹. ➔ Weka實作 ... Weka實作. ❏ 選擇模型. 3. 點選“Classify”. 4. 點選“Choose” 挑選模型. 5. 選擇決策樹"J48" ...
#20. 混合式會議主題分類法
法有各自的優缺點,因此本研究採用混合式分類,期望能整合傳統分類演算法,達到更 ... C4.5(J48),SVM的Kernel Function為Radial Basis Function(RBF),並預期DTF ...
#21. 資料探勘技術在大專課程學習網站之應用THE APPLICATIONS ...
我們所使用的是C4.5-base 的演算法J48 來做分類. 分析(weka.classifiers.trees.j48)。 Cluster:分群分析WEKA 支援的有. ○ weka.clusterers.EM. ○ weka.clusterers.
#22. 比較三種資料探勘演算法預測類型風溼性關節炎預後之研究
J48演算法 之最佳準確率(0.939)、最佳敏感性(0.925)與最佳特異性(0.952)皆優於Simple Logistic 及SMO。2.選擇屬性關聯程度高,由臨床專家做進一步分析探討與相關文獻 ...
#23. 國立交通大學機構典藏:CUDT: 以CUDA為基礎之決策樹演算法
本論文基於NVIDIA's CUDA 提出一個新的決策樹的演算法,在此架構中CPU 負責流程處理, ... The result shows out system is 6~5x times faster than Weka-j48.
#24. 以基因演算法為基礎建立自動化文件分類模式
文件分類領域中存在文件特徵維度過高的問題,因此,我們以基因演算法(Genetic ... 開放API 之演算法NaïveBayes(NB)、J48(DT)、SimpleCart(CART)、RandomForest.
#25. 機器學習:WEKA的應用之J48(C4.5) - 开发者知识库
J48 是一種決策樹算法,那下面首先說一下什么是決策樹。 決策樹(Decision Tree)是在已知各種情況發生概率的基礎上,通過構成決策樹來求取凈現值的 ...
#26. 義守大學資訊管理研究所
資料探勘軟體的NB Tree、J48、貝氏網路(Bayes Net)、純樸貝氏法(Naïve Bayes)以及多. 層感知機(Multilayer Perceptron)共五種分類演算法。
#27. Liewean Cheng's Lecture Notes
week 3, Ch.5 以決策樹(decision tree)為主之分類(Classification)演算法: J48演算法, 當有些屬性為數值(numeric) 型態時 · ☆練習(4):用J48做成決策樹, 請 ...
#28. 成員:黃咨翰,黃逸展,陳偉倫執導教授:薛幼苓Yuling hsueh
料,透過求出SU值及FAST演算法的方法來降低資料的複雜度,. 最後再把資料放入模型中判斷病人是否患有 ... Building model : 將第2步選出來的特徵,利用J48 、 Naive.
#29. 類神經網路與資料探勘技術在醫療診斷之應用研究
(KNN/IBK)、決策樹法(C4.5/J48)等資料探勘技術來對10 種醫療診斷資料作分類預測與結果的比較分析。 ... 靠的演算法來準確預測未知的問題,是機器學習法主要面對之 ...
#30. 中英文的文字蘊涵與閱讀測驗的初步探索An Exploration of ...
三種不同的分類演算法訓練分類模型,分別是. 支持向量機(Support Vector Machines, SVMs)、. Weka J48 決策樹(J48 Decision Trees)與Weka線.
#31. WEKA分类器(Classify)之J48决策树 - 知乎专栏
可以看到包括bayesfunctionslazymetamiscrulestrees我们这一节具体分析一下Trees下的集J48-决策树;Classifier output (分类器输出);Instances代表…
#32. 應用協同過濾與決策樹於地點感知餐廳推薦
我們常聽到的決策樹演算方法有J48、ID3、CART、C4.5. 等方法,不同的演算法會使用不同的分支規則,像是J48 主要. 是使用Entropy、Gain Ratio,C4.5 是使用Gain Ratio, ...
#33. 國防大學理工學院資訊工程學系資訊工程碩士班碩士學位論文以 ...
TF-PDF Proportion Document Frequency 特徵選取演算法. ... 計算,而目前決策樹的相關類型有很多,例如ID3 C4 C4.5 J48 演算法等,在Weka 當中的J48 類器就是使用Java ...
#34. 使用多數決策略之圖書自動分類的研究
參考已分類的訓練資料,藉由機器學習演算法,自動學習並建. 立分類模型。常見的分類演算法(Wang ... 於J48,故可合理推測,若未來以大量數據進行實驗,則雙階層分類法.
#35. 以環境適應值為基礎之鯨魚演算法應用於肝病資料集分類
劉振隆,李懿巡,肝病,環境適應值為基礎之鯨魚演算法,ILPD,Weka,Liver Disease ... 分析方法中除了原始與改良式鯨魚演算法外,亦採用Weka探勘軟體內建的J48決策樹、純樸 ...
#36. 初探0與1眼裡的彩色世界作者: 李艾登嘉義高中高二10班指導 ...
機器學習的資料探勘分類器包括J48 決策樹(J48 decision tree)、k–近鄰演算法(k-nearest neighbor, kNN)及卷積神經網路(Convolutional neural networks, CNN)等(Wu et ...
#37. 決策樹演算法機器學習入門3 - QPHII
Weka決策樹分類法使用教學/ Weka J48 Decision Tree … 決策樹可以幫你分析出第一年薪資會是判斷工作好壞的重要屬性,其次是法定假日。 這兒先 ...
#38. c4.5決策樹– 決策分析模式 - Pghd
c4.5決策樹. 機器學習,WEKA的應用之J48(C4,5). c4.5決策樹- 決策分析模式. 決策樹C45分析與Java實作– Epic. C4,5演算法是一種用來對數據實作出決策樹Decision tree ...
#39. 分類演算法之比較以帕金森氏症電子監控資料為例 - Scribd
演算法 包含以下十種類型:(1)Decision tree(2)Rule inductio... by Jimmy Lu in Types ... 測試資料, 並將random seed 當作實驗的參數之一DECISION TREE(J48)
#40. 國立臺北護理健康大學資訊管理研究所碩士論文
演算法 做為特徵選取,以基本模型(base model)方法與集成方法(ensemble methods)的計算結果做比較。當中,基礎模型,選擇以人工 ... (DT)模型,使用的演算法為:J48。
#41. 國立中山大學海洋環境及工程研究所碩士論文
Tsallis 之分佈由C. Tsallis 於1996 年提出來解決模擬退火之問題,此演算法被證 ... 因此本研究的分類分析是以J48 的技術為主,在Weka 軟體裡是選擇J48 的.
#42. 決策樹C4.5分析與Java實作 - Epic
C4.5演算法是一種用來對數據實作出決策樹(Decision tree analysis)分析的演算法, ... J48 AnsC45= new J48(); //C4.5的分析物件在weka.jar上叫做J48().
#43. 適用於網路入侵偵測不平衡資料之階層式多重分類器
種流行的分類演算法,同時不需修改原始訓練資料統計分布,可以降低入侵偵測中因為 ... 本研究中使用J48 版本,是WEKA 程式提供以java 實現的C4.5 決策樹演. 算法[25]。
#44. Weka與決策樹 - ITW01
如果想自己實現資料探勘演算法的話,可以看一看weka的介面文件。 ... 選擇「trees」下的「J48」,這就是我們需要的C4.5演算法,還好它沒有變紅。
#45. 使用資料探勘技術偵測P2P 殭屍網路
資料探勘演算法則選擇了廣被運用的. J48、Naive Bayes 和Bayesian networks 演算法. 來交叉測試並作討論。其中,J48 演算法是. WEKA 中以C4.5 演算法所實作出來的演算.
#46. 決策樹r R語言隨機森林 - Yzkgo
Weka決策樹分類法使用教學/ Weka J48 Decision Tree … ... 機器學習——十大數據挖掘之一的決策樹CART演算法決策樹這個模型一共有三種實現方式,前面我們已經介紹了ID3和C4.5兩 ...
#47. 屏東大學機構典藏NPTUIR
... 發現,CNN+BiLSTM的正確率最高為80.38,F1值可以來到0.89;而傳統機器學習法中數值最高的KNN演算法的正確率為75.67,F1值為0.88;其次是J48演算法 ...
#48. Liewean Cheng's Lecture Notes
訓練集, 套入J48演算法, 可以建立一個樹, 其中size=? leave=? ☆j48圖(1)☆ j48圖(2) ...
#49. C5.0演算法學習 | 健康跟著走
c4 5 c5 0 - C5.0是決策樹模型中的演算法,79年由JRQuinlan發展,並提出了ID3演算法,主要針對離散型屬性資料,其後又不斷的 ... C4.5, 使用信息增益, RWeka包中J48().
#50. 科技部補助專題研究計畫成果報告 - 國立成功大學機構典藏
提出一個類別值與屬性相互關係離散化演算法(class-attribute interdependency ... 貝氏分類器、決策樹和基於規則分類器分別為軟體Weka 中的naïveBayes、J48 和JRip,.
#51. 實價登錄房屋特徵探討臺中房價 - ntcuir
WEKA 的決策樹演算法的名稱為分類樹J48,是使用於生成經過修剪或未經. 修剪的C4.5 決策樹,C4.5 演算法是Ross 在1993 年提出,以ID3 算法為基礎演. 化而來 ...
#52. 决策树,C4.5,J48之间什么关系?_Foools的博客 - 程序员 ...
J48 决策树算法:J48决策树算法:由Ross Quinlan开发的ID3在C4.5决策树之前。C4.5后来在WEKA中使用Java开发为J48。他们都采用贪婪和自上而下的决策树方法。
#53. 第19 屆行動計算研討會使用機器學習辨識駕駛情境Recognizing ...
J48 演算法 ,其優點為簡單、快速且準確. 率高等。 四、實驗結果. 我們使用前面所提到的演算法建. 立了多類分類辨識(multi-class classifica- tion)模型。
#54. 機器學習經典算法優缺點總結 - Big Data in Finance
分類樹是使用樹結構算法將數據分成離散類的方法。 優點: 非常靈活,可以允許有部分錯分成本,還可指定先驗概率分佈,可使用自動的成本複雜性 ...
#55. 校務發展與大數據分析 - ISAC中華民國大專校院資訊服務協會
數位教學分析:尋找輔導標的. 33. 報表. WEB. Classification:J48 ... Weka整合了大量的資料探勘的演算法 ... 利用J48決策樹演算法進行建模預測.
#56. TingAnJiang/decision-tree - GitHub
C4.5是ID3的升級版,C4.5演算法利用屬性的獲利比率(Gain Ratio)克服問題。 ... 將Survived改為因數型,使J48()函數可辨別formula_Tit <- Survived~.
#57. 行政院原子能委員會委託研究計畫研究報告
術等資料之收集;包含:決策樹、模糊理論、圖型識別演算法、 ... 本研究採用Weka 軟體,使用J48 演算技術,此J48 是. 以完成C4.5 分類樹演算法為基礎。
#58. decision tree 決策樹 - Jdbar
一文看懂決策樹– Decision tree (3 個步驟+3 種典型算法+10 個優缺點). ... 機器學習; 在線決策樹軟件; Weka決策樹分類法使用教學/ Weka J48 Decision Tree ...
#59. 資料挖掘十大演算法之決策樹詳解(2) - 趣讀
在2006年12月召開的ieee 資料挖掘國際會議上icdm, international conference on data mining,與會的各位專家選出了當時的十大資料挖掘演算法top 10 ...
#60. weka決策樹分析股票數據
... Weka開源項目實現J48決策樹、支持向量機演算法在10個UCI數據集上對這兩個演算法進行性能相關的內容,由股票新手通為您收集整理請點擊查看詳情.
#61. 博碩士論文104453007 完整後設資料紀錄
經過實驗結果得知以2015年的訓練資料集而言,在單一分類技術中以最鄰近演算法表現最佳,在多重分類技術中分別以Bagging的最鄰近演算法、AdaBoost的J48 ...
#62. 資訊增益與資訊增益率詳解 - w3c菜鳥教程
資訊增益與資訊增益率詳解,熟悉決策樹演算法的人都知道id3以及c4 5兩種 ... 有些人或許會感到不解,但是看weka使用j48跑測試樣例的結果,大家或許就 ...
#63. CUDT: 以CUDA為基礎之決策樹演算法 - 9lib TW
本論文基於NVIDIA's CUDA 提出一個新的決策樹的演算法,在此架構中CPU 負責流 ... The result shows out system is 6~5x times faster than Weka-j48.
#64. 國立政治大學資訊科學系應用資料探勘技術於分析電信網路障礙 ...
提供未來能自動分類使用,本節使用決策樹J48 演算法(Quinlan, J. R, 1993)及分類規則. JRIPPER(W. W. Cohen, 1995) 二種演算法對障礙查修資料進行分析。J48 使用的方法 ...
#65. 数据挖掘与Weka中- 3.5 - 修剪决策树
为了得到一个具有工业强度的决策树归纳算法,我们需要添加一些 更复杂的东西,尤其是修剪。 我们这节课要谈论修剪决策树。 ... 打开Weka,选择J48,看下它的参数。
#66. Data Mining 工具介紹(Weka / R) - ppt download - SlidePlayer
放置Classifiers→trees→J48 (即C4.5演算法之實作) 放置Visualization→TextViewer ... 在TrainingSetMaker按右鍵選trainingSet到J48 在J48按右鍵選text到TextViewer.
#67. weka 教學安裝資料探勘、機器學習工具 - BQONY
... Environment for Knowledge Analysis)的縮寫。 Weka 的K Means分群演算法使用 教學 :SimpleKMeans / ... Weka 決策樹分類法使用 教學 / Weka J48
#68. 决策树
J48 (), 函数, 实现C4.5算法的核心函数. post(), 函数, 对rpart()结果绘制演示图. prune.rpart(), 函数, 对rpart()的结果进行剪枝. rpart(), 函数, 建立CART决策树的 ...
#69. 銘傳Moodle大數據分析與學生學習成效 - 財團法人高等教育評 ...
使用資料探勘演算法構建和執行模型,去發. 掘並總結出我們感興趣的知識。在這步驟,我們 ... 關的演算法有很多, 例如: ... 圖五利用J48演算法執行分類的預測結果 ...
#70. 分類器比較幫你選擇分類器的分類器:Auto-WEKA - Gahzw
boosting 對分類器的訓練是序列的,這些演算法及 ... J48的決策樹正確率為96%。 ... 隨機森林是使用Bagging + 隨機特徵方法所產生出來的Ensemble learning 演算法。
#71. 實驗1:基於Weka的典型數據挖掘應用 - ZenDei
b)調用特征選擇演算法(Select attributes),選擇關鍵特征。 ... (3)分別使用決策樹(J48)、隨機森林(RandomForest)、神經網路(MultilayerPerceptron)、朴素貝葉 ...
#72. 利用機器學習擷取數位音樂之情感特徵之線上鋼琴視覺化輔助 ...
本研究將採用決策. 樹作為分析教師評分的結果,並且將J48 演算法轉換成C#.net 線上版本。 萃取後的特徵資料將會送入機器學習分類器(Weka),透過分類後,會產生該評分老師的 ...
#73. weka - 華人百科
選擇"trees"下的"J48",這就是我們需要的C4.5算法,還好它沒有變紅。 點擊"Choose"右邊的文本框,彈出新視窗為該演算法設定各種參數。點"More"查看參數說明,點 ...
#74. 布丁布丁吃什麼? @ 網路精華實用文章
Weka決策樹分類法使用教學/ Weka J48 Decision Tree Classification ... 決策樹是資料探勘(data mining) 分類(classifition)中的代表性演算法。
#75. 決策數– 決策分析模式 - Maybeda
Microsoft 決策樹演算法技術參考05/08/2018 M o 本文內容適用于, ... Weka決策樹分類法使用教學/ Weka J48 Decision Tree Classification Tutorial 是由布丁布丁吃布丁 ...
#76. 把它放在一起訓練一棵樹 - 他山教程
我們使用J48,一種流行的演算法C4.5 的JAVA 實現。 ... J48 //J48 is a JAVA implementation of the C4.5 algorithm J48 classifier4 = new J48(); ...
#77. 常用R語言包介紹 - w3c學習教程
r與python差異比較大的一個地方就是,python的機器學習演算法集中程度比較 ... 演算法;jpip函式,多維的學習規則演算法;j48函式,基於c4.5演算法的 ...
#78. WEKA介面及基本功能介紹| 深海小魚's Blog - 點部落
分類法(Classify)->有各種演算法,像是id3、j48,也提供強大的決策樹可以參考! 分群法(Cluster)->裡面有最著名的分群演算法K-means可供使用。
#79. weka 分群教學用資料探勘的分群演算法來為樣本分群是一種 ...
Weka決策樹分類法使用教學/ Weka J48 Decision Tree … ... Weka 的K Means 分群 演算法使用 教學 : ,Mac OS X版本, Part 2: Classification ...
#80. (11) 證書號數 - 專利商品網
支援向量機方法以及適應性漸進演算法對該資料集進行訓練,以獲得該分類器。 ... 器之外,J48 決策樹(Decision tree J48)方法訓練網站資料.
#81. R軟體在決策樹的實務應用| 誠品線上
內容詳細介紹不同套件函數在決策樹的使用方法、模型效度檢定法,決策樹與複迴歸 ... 套件{tree}的函數應用壹、套件{RWeka}函數J48 ( )函數一、函數J48 ( )語法二、函數 ...
#82. weka 教學pdf WEKA使用教程(經典教程轉載)_Coding - rTNDN
PDF 檔案教學與學習應用時的參考與工具分析。 觀估計(Optimistic estimate)機率方式處理。WEKA 裡面J48 的元件就是利用C4.5 的演算法來產生分 ...
#83. Weka演算法Classifier-trees-REPTree源碼分析(二)
可以看出,這個剪枝過程和J48相比還是簡單不少的。 三、Tree.backfitHoldOutSet. protected void backfitHoldOutSet() throws Exception { // Insert ...
#84. 睡眠感知床墊WhizPAD 基本功能測試及睡眠狀態判斷準確性評估
睡眠狀態判讀,表1 為選擇“J48 Tree”機器學習演算法所得學習結果,當機器學習使用WhizPAD 即. 時資料加上前6 分鐘資料(N=6)進行判讀時,準確率較其他資料形式為高, ...
#85. WEKA 3-5-5 Explorer 使用者指南
Explorer,而不會逐個解釋WEKA 中的資料預處理工具和學習演算法。要獲得關於各種飾. 選器(filter)和學習演算法的更多資訊,可參考Data Mining [2] 一書。
#86. 黃潤棠
因資料來源有許多問題,例如空值、離群值會讓演算法誤判與欄位定義不明的資料無法 ... 決策樹(J48演算法)做分類,找出影響銷售量的關聯規則,最後將其建立規則庫。
#87. 機器學習模型之研究- 以電信業者為例 - TPIsoftware
J48 (實現C4.5決策樹算法的JAVA 開放原始碼). C4.5算法是由Ross Quinlan開發的用於 ... Leo Breiman和Adele Cutler發展出推論出隨機森林的演算法。
#88. R軟體在決策樹的實務應用 - PChome 24h購物
壹、套件{RWeka}函數J48 ( )函數 ... R 軟體決策樹演算法多數採用CART 法,CART是一種二元分類法,父節點分支為二個子節點,分割準則為左節點與右節點二個子節點(child ...
#89. WEKA - 台灣Word
如果想自己實現數據挖掘演算法的話,可以看一看weka的介面文檔。在weka中集成自己的演算 ... 選擇「trees」下的「J48」,這就是我們需要的C4.5算 法,還好它沒有變紅。
#90. 國立臺北護理健康大學資訊管理研究所碩士論文
根據個別病患的特徵對應到電腦的知識庫,並由軟體演算法產生對病人特徵的建 ... DT(即Decision Tree J48),cfs1 到3 代表三個分類器,圖25 藍色字體表.
#91. Weka分類的訓練與使用 - 千年一遇
圖解紀錄J48的訓練與使用,採用weka內建的資料集 ... 本質上就是將一些資料,帶進某種演算法,然後該演算法得出一些規則,而這些規則也稱作模型,假設 ...
#92. weka 教學WEKA - Eyflka
Weka決策樹分類法使用教學/ Weka J48 Decision Tree … ... 雖然Weka有很多用來預測的分類演算法,當時是看的優酷上的視頻,學習算法和評價方法,Weka軟件使用教程( ...
#93. Weka---classifier:J48 - 什麼鳥東西- 痞客邦
這一篇文章是來介紹Weka的一種分類器---J48 J48是一個決策樹分類器,藉由各種二分法組出一個樹狀圖,把不同種類的玻璃去做分類,下圖的有一個混淆矩陣 ...
#94. [作業] 資料結構與演算法作業五- 看板b99902HW - 批踢踢實業坊
而給予線索二叉樹(threaded binary tree)上的一節點(node),該演算法可以. ... (2) 請使用C 語言或任何的虛擬碼來寫出一個時間複雜度演算法(time ...
#95. 數位媒體內容屬性與讀者瀏覽行為量化指標之研究
文獻探討. 3-2 資料收集. 3-3 資料處理. 3-4 特徵工程. 3-5 產生資料集. 決策樹分析. J48 演算法. REPTree 演算法. 歸納並分析結果. 多元回歸分析. 圖十一、研究架構圖 ...
#96. 以Weka對資料集進行分群與分類分析之實作 - 快樂學程式
兩個部分皆採用兩種不同類型的Datasets ,「現有Dataset」與「創意Dataset」;此外,每一個Dataset都會用兩種屬於該分群分析或分類分析的演算法。
#97. [Day 15] 決策樹(分類器) - iT 邦幫忙 - iThome
決策樹演算法可以使用不同的方式來評估分枝的好壞(亂度),例如像是Information gain、Gain ratio、Gini index。 從訓練資料找出規則,讓每一個決策能夠使 ...
#98. 機器學習決策樹演算法實戰:理論+ 詳細的Python 3 程式碼實現
決策樹是什麼?決策樹(decision tree)是一種基本的分類與迴歸方法。舉個通俗易懂的例子,如下圖所示的流程圖就是一個決策樹,長方形代表判斷模組(decision ...
#99. 每日頭條
目錄○ 概要○ 決策樹模型○ 特徵選擇○ 決策樹學習○ 決策樹剪枝○ 決策樹算法○ ID3 ○ C4.5/C5.0 ○ CHAID ○ CART ○ QUEST概要決策樹作為一種 ...
j48演算法 在 [作業] 資料結構與演算法作業五- 看板b99902HW - 批踢踢實業坊 的八卦
稍微賺一下文章數跟批幣XD
==
5.1 樹(Trees)
(1) 請使用 C 語言或任何的虛擬碼(pseudo-code)來寫出一個演算法(algorithm)。
而給予線索二叉樹(threaded binary tree)上的一節點(node),該演算法可以
有效率的找出該節點的雙親(parent)。
(2) 請使用 C 語言或任何的虛擬碼來寫出一個時間複雜度演算法(time complexity)
為 O(N) 的演算法,來檢查一個擁有 N 個節點的樹是否為二元搜尋樹(binary
search tree)。請簡要地解釋為什麼你寫的演算法時間複雜度為 O(N)。
(3) 請使用 C 語言或任何的虛擬碼來寫出在課本第 230 頁,練習題 5 當中所描述
的演算法(5.6 小節)。請簡要地解釋你的演算法時間複雜度為何。
(4) 請使用 C 語言或任何的虛擬碼來寫出在課本第 243 頁,練習題 6 當中所描述
的演算法(5.8 小節)。
(5) 證明你在 5.1(4) 當中所演演算法的時間複雜度。
(6) 課本第 247 頁,練習題 2 (5.9 小節)。
(7) 課本第 247 頁,練習題 4 (5.9 小節)。
5.2 決策樹(Decision Tree)
在這個問題中,我們會探究樹在人工智慧(Articial Intelligence)與機器學習(Machine
Learning)這兩個領域上的一種應用。決策樹在機器學習上是最早被利用的工具之一。在
決策樹中,非葉節點(non-leaf node)代表著我們所考慮的選擇(choice)或因素(factor)
,而葉節點(leaf node)則代表了我們在上述因素下最後做出的決定。為了簡單起見,我
們只考慮擁有二元性因素(binary factor)的決策樹,也就是,二元決策樹(binary
decision tree)。
例如:下面的樹是一個決定要不要打高爾夫球的二元決策樹。如果天氣是陰天(cloudy)
的話,則我們會決定去打高爾夫球;如果不是陰天的話,我們會檢查今天有沒有刮風
(windy),如果刮風的話,我們只會在天氣晴朗(clear)且不潮溼(humid)的情況下去打高
爾夫球。另一方面,如果沒有刮風的話,我們只會在沒有下雨(rainy)但潮濕的情況下不
去打高爾夫球。
圖請見作業的檔案。
這樣的決策樹也被稱為"分類樹(classification tree)"。它把(晴天,雨天,潮濕)這
三種不同的情況,分類到決策類別 play? = {是(yes), 否(no)} 當中。決策樹並不是任
意生成的。事實上,它是藉由給予一連串例子,讓程式自動學習所得到的結果。換句話
說,你可以用這些例子來教導你的程式。
表請見作業的檔案。
決策樹可以由上往下以遞迴的方式來生成。首先,我們需要找到根的分支。在上表的例子
當中,總共有 9 個是及 5 個否(9Y5N)。如果我們考慮的是天氣是否晴朗這個因素,我
們可以將這 14 個例子分成 2 個分支:在天氣晴朗的分支上有 2Y3N,而另外一個分支則
有 7Y2N;如果我們考慮的因素改為是否為陰天,我們也可以將這 14 個例子分成兩個分
支:在陰天的分支上有 4Y0N,而另一個分支則有 5Y5N。我們可以繼續確認可能的分支條
件。
要建立好的分支選擇,你可以檢查在分支之後的亂度(confusion)。對於一個aYbN的
混合物(mixture),其亂度定義為:
confusion(a, b) = 1 - ( a / ( a + b )) ^ 2 - ( b / ( a + b )) ^ 2
而 (c+e)Y(d+f)N 在分支成為 cYdN 及 eYfN 之後,其總亂度為:
total(c, d, e, f) = (c + d) * confusion(c, d) / (c + d + e + f)
+ (e + f) * confusion(e, f) / (c + d + e + f)
例如:如果以天氣是否晴朗來當作分支依據的話,其總亂度為:
5 / 14 * (1 - (2 / 5) ^ 2 - (3 - 5) ^ 2)
+ 9 / 14 * (1 - (7 / 9) ^ 2 - (2 / 9) ^ 2)
如果我們可以找到一個分支條件使得分支完後的總亂度最小,則可以限制住我們產生出
任意的分支。
現在,當我們對根找到一個好的分支,則我們可以把所有的例子分成兩個子集合:一個是
根左孩子(left-child),另一個則是根的右孩子(right-child)。而同樣的方法可以分別
用在這兩個孩子上,使其又個別產生出兩個孩子,依循此法做遞迴,則可以建出整棵決策
樹來。
遞迴?那終止條件該是什麼?如果該節點已經沒有亂度存在的話,也就是所有例子組成
aY0N 或 0YbN 的情形時,我們就不需要在繼續分支下去了,也就是說該節點在決策樹當
中是葉子(leaf)。在這種狀況之下,我們可以宣告該葉子有一個最終的決定(是或否)。
下列是一個簡單的決策樹生成演算法:
DecisionTree(examples)
if 在examples當中沒有亂度 then
建立一個擁有最終決定的葉子節點並將其回傳
else
找到一個可以將總亂度化為最小的分支條件,並將其存在根當中
依此分支條件將example分成兩個子集合,分別分配給左小孩和右小孩
令左子樹 = DecisionTree(分配給左小孩的examples)
令右子樹 = DecisionTree(分配給右小孩的examples)
回傳整棵樹
end if
在這個問題當中,你需要寫一個會根據所給例子來生成相對應之二元決策樹的程式。
有趣的是,對於二元決策樹,你可以將其表示為 C 語言中的 if(...){...}else{...}。
也就是說,在你的程式建出二元決策樹後,它必須自己產生另外一個程式來對以後的例子
做出決定。
(1) 實作出上述的決策樹演算法。你的程式必須能讀入例子,並輸出一段程式碼來表示
你的程式根據所給例子所建成的二元決策樹(格式請參閱課程網)。
(2) 用圖示來說明你在程式內部用來表示決策樹的資料結構。請盡可能的明確表示。
(3) 以下表的例子來建構函式 f 的二元決策樹,並畫出你所得的樹。
(表請見作業檔案)
(4) 請建出你自己的資料集(data set),該資料集至少要有兩個因素,且至少擁有六個
例子。你的程式必須對該資料集建出一個至少兩層的決策樹。列出所有的例子、畫
出生成的決策樹,並簡單解釋所生成的樹。
(5) 如果你的分支方法不是採用最小亂度的分支法,而是採用隨機分支法,也就是隨機
挑選出一個因素當作分支的條件來做分支。由於隨機選取的關係,你可能會重新選
取到在上層已經選過的因素。使用問題 5.2(3) 所給的例子,來比較採用最小亂度
分支法所形成的決策樹及採用隨機分支法所形成的決策樹的平均高度(至少一千次
的平均)。簡單說明你的發現。
如果你有興趣擴展你的程式使其在機器學習上更有用處,則你可以在完成作業後,隨時
聯絡老師。
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 140.112.214.43
※ 編輯: syuusyou 來自: 140.112.214.43 (05/06 16:02)
... <看更多>