Tutorial Lengkap (Step by Step) Supervised Learning: Regresi Random Forest dengan R

Regresi Random Forest dengan R

Halo teman-teman, jumpa lagi dengan blog sederhana ini. Pada unggahan-unggahan sebelumnya, beberapa kali kita telah berbagi dan praktik bagaimana melakukan web scraping, crawling Twitter, intinya selain kita juga belajar pemodelan dari data, kita juga belajar bersama bagaimana memperoleh data dari sejumlah media dari internet. Pada kesempatan kali ini, kita akan mencoba melanjutkan bahasan tentang penerapan machine learning berjenis supervised learning, yaitu Random Forest Model untuk regresi.

Kita akan bahas regresinya dulu sebelum ke klasifikasi, karena saya sendiri pun awaalnya sempat kebingungan mengenai pemanfaatan Random Forest ini dalam regresi dan klasifikasi. Informasi awal yang bisa saya bagikan adalah bahwa fitur-fitur hasil pemodelan yang perlu dimunculkan dalam regresi Random Forest cenderung lebih sedikit dibandingkan dengan klasifikasi Random Forest.

Sebagai adat-istiadat kita dalam bahasan blog ini, kita mulai dengan melakukan pendefinisian dari model terlebih dahulu. Menurut Hussain dkk. dalam Purnomo dkk., (2022), Random Forest merupakan salah satu algoritma klasifikasi yang memiliki akurasi terbaik dan pada dasarnya merupakan metode pembelajaran mesin (machine learning) berjenis ensemble menggunakan Decision Tree sebagai base classifier-nya. Menurut Erdiansyah dkk. (2022) dalam penelitiannya mengenai komparasi metode K-Nearest Neighbor dan Random Forest didapatkan hasil bahwa Random Forest merupakan metode yang lebih baik daripada K-Nearest Neighbor. Dari beberapa literatur ini, kita bisa simpulkan bahwa Random Forest merupakan salah satu model pembelajaran mesin yang menggunakan model Decision Tree sebagai dasar pengambilan keputusannya dan memiliki akurasi yang lebih baik daripada model lain, salah satunya K-Nearest Neighbor.

Bila di dalam Decision Tree, hasil atau output keputusan hanya sebanyak satu, di dalam Random Forest dihasilkan banyak keputusan untuk setiap pohonnya. Kemudian dari hasil putusan setiao pohon (Decision Tree) itu, kemudian dilakukan aggregasi keputusan berdasarkan hasil yang terbanyak (decision voting). Untuk lebih mudahnya, kita bisa menyimak ilustrasi berikut:

Ilustrasi Random Forest (Guo, 2011)

Berdasarkan ilustrasi di atas, sampling yang digunakan dalam pemodelan training dataset Random Forest adalah random sampling with replacement sejumlah pohon yang kita tentukan. Di dalam proses sampling tersebut, kita kemudian dikenalkan dengan istilah "bagging" yang merupakan singkatan dari bootstrap aggregating. Proses bootstrap merupakan sebuah teknik sampling dengan mengubah susunan sample terpilih disertai dengan replikasi dan pengacakan. Jumlah replikasi ini ditentukan secara bebas, yang jelas dengan mengandalkan Central Limit Theorem (CLT), semakin banyak replikasi dan pengacakan terhadap sampel atau jumlah bootstrap semakin besar, maka distribusi dari statistiknya akan mendekati atau  mengikuti distribusi normal. Semakin besar ukuran bootstrap, semakin mendekati nilai dari parameter populasinya. Kabar baiknya pula, penggunaan resampling dengan bootstrap ini tidak perlu memenuhi asumsi kenormalan. Untuk lebih tergambar bagaimana proses bootstrap, kita bisa menyimak contoh berikut:

Contoh sederhana penerapan Bootstrap resampling

Sebagaimana pepatah mengatakan "tak ada gading yang tak retak", model Random Forest pun juga tidak lepas dari kesalahan yang tidak berdosa atau yang biasa kita sebut error estimate. Di dalam Random Forest, ukuran error estimate diperoleh dengan melihat besarnya Out of Bag (OOB) error estimate. Ukuran ini biasanya dinyatakan dalam satuan persen. Untuk melihat nilai OOB ini, dalam regresi random Forest, kita dapat menggunakan fungsi tuneRF().

Mengingat yang kita bahas adalah regresi Random Forest, bukan klasifikasi, maka dalam praktik berikut ini, kita tidak perlu melihat atau memanggil confusion matrix atau k-fold cross validation. Kita cukup melihat ukuran-ukuran besarnya Mean Square Error, Root Mean Square Error, R Square Model, OOB, variabel penentu dalam model regresi, dan berapa jumlah tree yang optimal.

Itu sekilas ulasan singkat teorinya, berikutnya kita akan beranjak mengenai penerapan regresi Random Forest menggunakan R. Kali ini kita akan mencoba menggunakan data kualitas udara dengan variabel Ozone sebagai variabel dependennya. Untuk melakukan pemodelan regresi Random Forest, kita dapat mengikuti beberapa code berikut:

#Aktivasi package Random Forest
library(randomForest)
#Import Data
data("airquality")
head(airquality)
##   Ozone Solar.R Wind Temp Month Day
## 1    41     190  7.4   67     5   1
## 2    36     118  8.0   72     5   2
## 3    12     149 12.6   74     5   3
## 4    18     313 11.5   62     5   4
## 5    NA      NA 14.3   56     5   5
## 6    28      NA 14.9   66     5   6
#Melihat Struktur Data
str(airquality)
## 'data.frame':    153 obs. of  6 variables:
##  $ Ozone  : int  41 36 12 18 NA 28 23 19 8 NA ...
##  $ Solar.R: int  190 118 149 313 NA NA 299 99 19 194 ...
##  $ Wind   : num  7.4 8 12.6 11.5 14.3 14.9 8.6 13.8 20.1 8.6 ...
##  $ Temp   : int  67 72 74 62 56 66 65 59 61 69 ...
##  $ Month  : int  5 5 5 5 5 5 5 5 5 5 ...
##  $ Day    : int  1 2 3 4 5 6 7 8 9 10 ...
#mengecek apakah terdapat missing data
sum(!complete.cases(airquality))
## [1] 42
#Imputasi NA dengan nilai median kolom atau median setiap variabel
for(i in 1:ncol(airquality)) {
  airquality[ , i][is.na(airquality[ , i])] <- median(airquality[ , i], na.rm=TRUE)
}
#Partisi Data
library(caret)
inTrain <- createDataPartition(y= airquality$Ozone, p = 0.75, list = F)
train <- airquality[inTrain,]
head(train)
##   Ozone Solar.R Wind Temp Month Day
## 2  36.0     118  8.0   72     5   2
## 3  12.0     149 12.6   74     5   3
## 5  31.5     205 14.3   56     5   5
## 7  23.0     299  8.6   65     5   7
## 8  19.0      99 13.8   59     5   8
## 9   8.0      19 20.1   61     5   9
test <- airquality[-inTrain,]
head(test)
##    Ozone Solar.R Wind Temp Month Day
## 1     41     190  7.4   67     5   1
## 4     18     313 11.5   62     5   4
## 6     28     205 14.9   66     5   6
## 13    11     290  9.2   66     5  13
## 20    11      44  9.7   62     5  20
## 22    11     320 16.6   73     5  22
#Pemodelan Random Forest data Train
set.seed(1)
rf_train <- randomForest(Ozone ~., data = train, ntree = 1000)
rf_train
## 
## Call:
##  randomForest(formula = Ozone ~ ., data = train, ntree = 1000) 
##                Type of random forest: regression
##                      Number of trees: 1000
## No. of variables tried at each split: 1
## 
##           Mean of squared residuals: 399.2217
##                     % Var explained: 53.92
#Memperoleh pohon keputusan dengan Mean Square Error terendah
paste0("Model Random Forest yang menghasilkan MSE terendah menggunakan Tree sebanyak ",which.min(rf_train$mse))
## [1] "Model Random Forest yang menghasilkan MSE terendah menggunakan Tree sebanyak 80"
#Menghitung Root Mean Square Error (RMSE) dari model pohon terbaik dengan MSE terendah
sqrt(rf_train$mse[which.min(rf_train$mse)])
## [1] 19.38739
#Plot dari model rfku data Train
plot(rf_train, main = "Model Random Forest")
text(309,700, c("Terlihat bahwa setelah Tree sekitar 400, Errornya sudah stabil\nnamun, jumlah Tree terbaik sebanyak 80"),
     cex = 0.7)
abline(v = 400, col = "red")
abline(v = 80, col = "blue")
text(80, 550, c("Tree\nterbaik"))
Plot trees model regresi Random Forest

#Mendapatkan variabel paling penting atau variabel penentu Random Forest
varImpPlot(rf_train)
text(10000, 5.5, c("Variabel paling penting \ndalam model Random Forest ini \nadalah Wind diikuti Temp"),
     col = "royalblue")
plot of chunk unnamed-chunk-11
Plot variabel penting atau penentu dalam model regresi Random Forest

#Memperoleh m yang meminimkan error OOB dengan tuned model dari RF
#Khusus untuk Regresi Random Forest, tidak perlu K-Fold Cross Validation
#Karena ukuran itu sebenarnya telah terakomodir dalam OOB Tuned model
rf_train_tuned <- tuneRF(
  x=train[,-1], #variabel independen
  y=train$Ozone, #variabel dependennya
  ntreeTry=500,
  mtryStart=4, 
  stepFactor=1.5,
  improve=0.01,
  trace=FALSE #tidak memperlihatkan proses tuned
)
## 0.01169198 0.01 
## 0.01840849 0.01 
## -0.06050044 0.01
plot of chunk unnamed-chunk-12
Plot m terbaik yang meminimkan OOB error

rf_train_tuned
##   mtry OOBError
## 2    2 382.0144
## 3    3 389.1786
## 4    4 393.7827
## 5    5 405.1264
#Memprediksi dengan data test
pred <- predict(rf_train, test)
head(pred)
##        1        4        6       13       20       22 
## 36.28580 26.17141 26.46786 23.20636 17.23661 25.75947
#Melihat akurasi Regresi Random Forest
library(forecast)
accuracy(pred, test$Ozone)
##                 ME    RMSE      MAE       MPE     MAPE
## Test set -1.071276 12.8955 10.25191 -33.05202 47.39807
#Melihat R square Regresi Random Forest
R2(pred, test$Ozone, formula = "traditional")
## [1] 0.7786036
#Memprediksi nilai Ozone dengan input baru
databaru <- data.frame(Solar.R=150, Wind=8, Temp=70, Month=5, Day=5)
databaru
##   Solar.R Wind Temp Month Day
## 1     150    8   70     5   5
#Menggunakan model dengan data baru untuk memprediksi Ozon
predict(rf_train, newdata = databaru)
##        1 
## 25.95828

Demikian sedikit berbagi kita kali ini mengenai pemodelan regresi Random Forest dengan menggunakan R. Jangan lupa untuk terus mengikuti unggahan-unggahan terbaru di blog ini. Selamat memahami dan mempraktikkan!

Add Comments


EmoticonEmoticon