Langsung ke konten utama

Tutorial Lengkap (Step by Step) Supervised Learning: Regresi Random Forest dengan R

Regresi Random Forest dengan R

Halo teman-teman, jumpa lagi dengan blog sederhana ini. Pada unggahan-unggahan sebelumnya, beberapa kali kita telah berbagi dan praktik bagaimana melakukan web scraping, crawling Twitter, intinya selain kita juga belajar pemodelan dari data, kita juga belajar bersama bagaimana memperoleh data dari sejumlah media dari internet. Pada kesempatan kali ini, kita akan mencoba melanjutkan bahasan tentang penerapan machine learning berjenis supervised learning, yaitu Random Forest Model untuk regresi.

Kita akan bahas regresinya dulu sebelum ke klasifikasi, karena saya sendiri pun awaalnya sempat kebingungan mengenai pemanfaatan Random Forest ini dalam regresi dan klasifikasi. Informasi awal yang bisa saya bagikan adalah bahwa fitur-fitur hasil pemodelan yang perlu dimunculkan dalam regresi Random Forest cenderung lebih sedikit dibandingkan dengan klasifikasi Random Forest.

Sebagai adat-istiadat kita dalam bahasan blog ini, kita mulai dengan melakukan pendefinisian dari model terlebih dahulu. Menurut Hussain dkk. dalam Purnomo dkk., (2022), Random Forest merupakan salah satu algoritma klasifikasi yang memiliki akurasi terbaik dan pada dasarnya merupakan metode pembelajaran mesin (machine learning) berjenis ensemble menggunakan Decision Tree sebagai base classifier-nya. Menurut Erdiansyah dkk. (2022) dalam penelitiannya mengenai komparasi metode K-Nearest Neighbor dan Random Forest didapatkan hasil bahwa Random Forest merupakan metode yang lebih baik daripada K-Nearest Neighbor. Dari beberapa literatur ini, kita bisa simpulkan bahwa Random Forest merupakan salah satu model pembelajaran mesin yang menggunakan model Decision Tree sebagai dasar pengambilan keputusannya dan memiliki akurasi yang lebih baik daripada model lain, salah satunya K-Nearest Neighbor.

Bila di dalam Decision Tree, hasil atau output keputusan hanya sebanyak satu, di dalam Random Forest dihasilkan banyak keputusan untuk setiap pohonnya. Kemudian dari hasil putusan setiao pohon (Decision Tree) itu, kemudian dilakukan aggregasi keputusan berdasarkan hasil yang terbanyak (decision voting). Untuk lebih mudahnya, kita bisa menyimak ilustrasi berikut:

Ilustrasi Random Forest (Guo, 2011)

Berdasarkan ilustrasi di atas, sampling yang digunakan dalam pemodelan training dataset Random Forest adalah random sampling with replacement sejumlah pohon yang kita tentukan. Di dalam proses sampling tersebut, kita kemudian dikenalkan dengan istilah "bagging" yang merupakan singkatan dari bootstrap aggregating. Proses bootstrap merupakan sebuah teknik sampling dengan mengubah susunan sample terpilih disertai dengan replikasi dan pengacakan. Jumlah replikasi ini ditentukan secara bebas, yang jelas dengan mengandalkan Central Limit Theorem (CLT), semakin banyak replikasi dan pengacakan terhadap sampel atau jumlah bootstrap semakin besar, maka distribusi dari statistiknya akan mendekati atau  mengikuti distribusi normal. Semakin besar ukuran bootstrap, semakin mendekati nilai dari parameter populasinya. Kabar baiknya pula, penggunaan resampling dengan bootstrap ini tidak perlu memenuhi asumsi kenormalan. Untuk lebih tergambar bagaimana proses bootstrap, kita bisa menyimak contoh berikut:

Contoh sederhana penerapan Bootstrap resampling

Sebagaimana pepatah mengatakan "tak ada gading yang tak retak", model Random Forest pun juga tidak lepas dari kesalahan yang tidak berdosa atau yang biasa kita sebut error estimate. Di dalam Random Forest, ukuran error estimate diperoleh dengan melihat besarnya Out of Bag (OOB) error estimate. Ukuran ini biasanya dinyatakan dalam satuan persen. Untuk melihat nilai OOB ini, dalam regresi random Forest, kita dapat menggunakan fungsi tuneRF().

Mengingat yang kita bahas adalah regresi Random Forest, bukan klasifikasi, maka dalam praktik berikut ini, kita tidak perlu melihat atau memanggil confusion matrix atau k-fold cross validation. Kita cukup melihat ukuran-ukuran besarnya Mean Square Error, Root Mean Square Error, R Square Model, OOB, variabel penentu dalam model regresi, dan berapa jumlah tree yang optimal.

Itu sekilas ulasan singkat teorinya, berikutnya kita akan beranjak mengenai penerapan regresi Random Forest menggunakan R. Kali ini kita akan mencoba menggunakan data kualitas udara dengan variabel Ozone sebagai variabel dependennya. Untuk melakukan pemodelan regresi Random Forest, kita dapat mengikuti beberapa code berikut:

#Aktivasi package Random Forest
library(randomForest)
#Import Data
data("airquality")
head(airquality)
##   Ozone Solar.R Wind Temp Month Day
## 1    41     190  7.4   67     5   1
## 2    36     118  8.0   72     5   2
## 3    12     149 12.6   74     5   3
## 4    18     313 11.5   62     5   4
## 5    NA      NA 14.3   56     5   5
## 6    28      NA 14.9   66     5   6
#Melihat Struktur Data
str(airquality)
## 'data.frame':    153 obs. of  6 variables:
##  $ Ozone  : int  41 36 12 18 NA 28 23 19 8 NA ...
##  $ Solar.R: int  190 118 149 313 NA NA 299 99 19 194 ...
##  $ Wind   : num  7.4 8 12.6 11.5 14.3 14.9 8.6 13.8 20.1 8.6 ...
##  $ Temp   : int  67 72 74 62 56 66 65 59 61 69 ...
##  $ Month  : int  5 5 5 5 5 5 5 5 5 5 ...
##  $ Day    : int  1 2 3 4 5 6 7 8 9 10 ...
#mengecek apakah terdapat missing data
sum(!complete.cases(airquality))
## [1] 42
#Imputasi NA dengan nilai median kolom atau median setiap variabel
for(i in 1:ncol(airquality)) {
  airquality[ , i][is.na(airquality[ , i])] <- median(airquality[ , i], na.rm=TRUE)
}
#Partisi Data
library(caret)
inTrain <- createDataPartition(y= airquality$Ozone, p = 0.75, list = F)
train <- airquality[inTrain,]
head(train)
##   Ozone Solar.R Wind Temp Month Day
## 2  36.0     118  8.0   72     5   2
## 3  12.0     149 12.6   74     5   3
## 5  31.5     205 14.3   56     5   5
## 7  23.0     299  8.6   65     5   7
## 8  19.0      99 13.8   59     5   8
## 9   8.0      19 20.1   61     5   9
test <- airquality[-inTrain,]
head(test)
##    Ozone Solar.R Wind Temp Month Day
## 1     41     190  7.4   67     5   1
## 4     18     313 11.5   62     5   4
## 6     28     205 14.9   66     5   6
## 13    11     290  9.2   66     5  13
## 20    11      44  9.7   62     5  20
## 22    11     320 16.6   73     5  22
#Pemodelan Random Forest data Train
set.seed(1)
rf_train <- randomForest(Ozone ~., data = train, ntree = 1000)
rf_train
## 
## Call:
##  randomForest(formula = Ozone ~ ., data = train, ntree = 1000) 
##                Type of random forest: regression
##                      Number of trees: 1000
## No. of variables tried at each split: 1
## 
##           Mean of squared residuals: 399.2217
##                     % Var explained: 53.92
#Memperoleh pohon keputusan dengan Mean Square Error terendah
paste0("Model Random Forest yang menghasilkan MSE terendah menggunakan Tree sebanyak ",which.min(rf_train$mse))
## [1] "Model Random Forest yang menghasilkan MSE terendah menggunakan Tree sebanyak 80"
#Menghitung Root Mean Square Error (RMSE) dari model pohon terbaik dengan MSE terendah
sqrt(rf_train$mse[which.min(rf_train$mse)])
## [1] 19.38739
#Plot dari model rfku data Train
plot(rf_train, main = "Model Random Forest")
text(309,700, c("Terlihat bahwa setelah Tree sekitar 400, Errornya sudah stabil\nnamun, jumlah Tree terbaik sebanyak 80"),
     cex = 0.7)
abline(v = 400, col = "red")
abline(v = 80, col = "blue")
text(80, 550, c("Tree\nterbaik"))
Plot trees model regresi Random Forest

#Mendapatkan variabel paling penting atau variabel penentu Random Forest
varImpPlot(rf_train)
text(10000, 5.5, c("Variabel paling penting \ndalam model Random Forest ini \nadalah Wind diikuti Temp"),
     col = "royalblue")
plot of chunk unnamed-chunk-11
Plot variabel penting atau penentu dalam model regresi Random Forest

#Memperoleh m yang meminimkan error OOB dengan tuned model dari RF
#Khusus untuk Regresi Random Forest, tidak perlu K-Fold Cross Validation
#Karena ukuran itu sebenarnya telah terakomodir dalam OOB Tuned model
rf_train_tuned <- tuneRF(
  x=train[,-1], #variabel independen
  y=train$Ozone, #variabel dependennya
  ntreeTry=500,
  mtryStart=4, 
  stepFactor=1.5,
  improve=0.01,
  trace=FALSE #tidak memperlihatkan proses tuned
)
## 0.01169198 0.01 
## 0.01840849 0.01 
## -0.06050044 0.01
plot of chunk unnamed-chunk-12
Plot m terbaik yang meminimkan OOB error

rf_train_tuned
##   mtry OOBError
## 2    2 382.0144
## 3    3 389.1786
## 4    4 393.7827
## 5    5 405.1264
#Memprediksi dengan data test
pred <- predict(rf_train, test)
head(pred)
##        1        4        6       13       20       22 
## 36.28580 26.17141 26.46786 23.20636 17.23661 25.75947
#Melihat akurasi Regresi Random Forest
library(forecast)
accuracy(pred, test$Ozone)
##                 ME    RMSE      MAE       MPE     MAPE
## Test set -1.071276 12.8955 10.25191 -33.05202 47.39807
#Melihat R square Regresi Random Forest
R2(pred, test$Ozone, formula = "traditional")
## [1] 0.7786036
#Memprediksi nilai Ozone dengan input baru
databaru <- data.frame(Solar.R=150, Wind=8, Temp=70, Month=5, Day=5)
databaru
##   Solar.R Wind Temp Month Day
## 1     150    8   70     5   5
#Menggunakan model dengan data baru untuk memprediksi Ozon
predict(rf_train, newdata = databaru)
##        1 
## 25.95828

Demikian sedikit berbagi kita kali ini mengenai pemodelan regresi Random Forest dengan menggunakan R. Jangan lupa untuk terus mengikuti unggahan-unggahan terbaru di blog ini. Selamat memahami dan mempraktikkan!

Komentar

Postingan populer dari blog ini

Mencari P - Value dan Titik Kritis Uji F, Uji t, Uji Chi Square, dan Uji Z Normal dengan R

Mencari nilai p-value dan titik kritis Bagi teman-teman yang pernah mengenal statistika, pasti familier dengan istilah p-value dan titik kritis. P-value biasanya didefinisikan sebagai probabiltas atau peluang maksimal yang diamati dari hasil uji statistik, bahasa gampangnya adalah besarnya kesalahan penelitian berdasarkan uji statistik. Sebagai contoh sederhana, dari 100 orang dengan nama masing-masing dan diklasifikasikan ke dalam gender nama perempuan dan nama laki-laki, didapatkan nilai p-value uji statistiknya sebesar 0,05 atau 5%. Itu artinya, dari 100 orang, ada kemungkinan sebanyak 5 orang yang namanya salah klasifikasi. Dari namanya terdeteksi sebagai nama perempuan, padahal aktualnya yang bersangkutan bergender laki-laki. Sedangkan titik kritis atau titik uji adalah nilai batas pengujian hipotesis statistik, apakah masuk dalam wilayah tolak hipotesis, ataukah gagal menolaknya. Titik ini berkaitan erat dengan nilai p-value . Kalau biasanya kita mendapatkan kedua nilai ini da...

Cara Mendowload dan Install R serta RStudio di Windows (Step by Step)

Cara Download dan Install R serta R Studio di Windows Halo teman-teman, mohon maaf karena beberapa waktu ini, blog ini sempat vakum dari unggahan. Kali ini saya akan coba berbagai mengenai bagaimana cara mengunduh ( download ) dan menginstal ( install ) program R sekaligus R Studio khususnya di Windows. Unggahan kali ini sedikit terbalik karena semestinya saya unggah terlebih dahulu pertama kali di blog ini, namun bukan masalah, mengingat kemarin ada beberapa pihak yang meminta untuk menerangkap bagaimana tahapan mengunduh dan instalasi R dan R Studio, jadinya saya dahulukan pada unggahan ini sebelum pembahasan mengenai Data Mining , Data Science , atau bahasan Big Data kita terlampau jauh. Baik, kita akan mulai dengan bagaimana mengunduh R dan R Studio melalui mesin pencari Google. R dan R Studio ini memang beberapa waktu terakhir ini booming , apalagi dengan munculnya konsep mengenai Big Data , Data Modelling, Data Mining, dan Data Science serta Data Visualization . Sebenarnya, men...

Analisis Tipologi Klassen (Klassen Typology) dan Visualisasi Spasialnya dengan R

Tipologi Klassen dan visualisasinya dengan R Halo teman-teman, sebelumnya kita telah membahas tentang analisis Shift Share dan Location Quotient (LQ) dengan menggunakan R. Kali ini, kita akan membahas mengenai satu lagi alat analisis yang sebenarnya merupakan alat analisis tiga serangkai dari SS dan LQ, yaitu analisis Tipologi Klassen. Dalam penelitian ekonomi kewilayahan, ketiga analisis ini seringkali digunakan, baik dalam rangka melihat perkembangan dan transformasi struktur ekonomi suatu wilayah maupun melihat keunggulan kompetitif dan keunggulan komparatif wilayah satu dengan wilayah lainnya dengan mengacu wilayah referensi. Terlebih dulu, sebelum melakukan visualisasi spasial menggunakan fungsi plot(), ada baiknya kita bahas terlebih dahulu mengenai Tipologi Klassen itu sendiri. Tipologi Klassen merupakan teknik pengelompokan sektor, subsektor, lapangan usaha, atau komoditas tertentu di wilayah analisis berdasarkan pertumbuhan nilai tambah wilayah analisis terhadap nasional atau...