Langsung ke konten utama

Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing : Stopwords Bahasa Indonesia dengan R Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R. Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah ta

Tutorial Lengkap (Step by Step) Supervised Learning: Regresi Random Forest dengan R

Regresi Random Forest dengan R

Halo teman-teman, jumpa lagi dengan blog sederhana ini. Pada unggahan-unggahan sebelumnya, beberapa kali kita telah berbagi dan praktik bagaimana melakukan web scraping, crawling Twitter, intinya selain kita juga belajar pemodelan dari data, kita juga belajar bersama bagaimana memperoleh data dari sejumlah media dari internet. Pada kesempatan kali ini, kita akan mencoba melanjutkan bahasan tentang penerapan machine learning berjenis supervised learning, yaitu Random Forest Model untuk regresi.

Kita akan bahas regresinya dulu sebelum ke klasifikasi, karena saya sendiri pun awaalnya sempat kebingungan mengenai pemanfaatan Random Forest ini dalam regresi dan klasifikasi. Informasi awal yang bisa saya bagikan adalah bahwa fitur-fitur hasil pemodelan yang perlu dimunculkan dalam regresi Random Forest cenderung lebih sedikit dibandingkan dengan klasifikasi Random Forest.

Sebagai adat-istiadat kita dalam bahasan blog ini, kita mulai dengan melakukan pendefinisian dari model terlebih dahulu. Menurut Hussain dkk. dalam Purnomo dkk., (2022), Random Forest merupakan salah satu algoritma klasifikasi yang memiliki akurasi terbaik dan pada dasarnya merupakan metode pembelajaran mesin (machine learning) berjenis ensemble menggunakan Decision Tree sebagai base classifier-nya. Menurut Erdiansyah dkk. (2022) dalam penelitiannya mengenai komparasi metode K-Nearest Neighbor dan Random Forest didapatkan hasil bahwa Random Forest merupakan metode yang lebih baik daripada K-Nearest Neighbor. Dari beberapa literatur ini, kita bisa simpulkan bahwa Random Forest merupakan salah satu model pembelajaran mesin yang menggunakan model Decision Tree sebagai dasar pengambilan keputusannya dan memiliki akurasi yang lebih baik daripada model lain, salah satunya K-Nearest Neighbor.

Bila di dalam Decision Tree, hasil atau output keputusan hanya sebanyak satu, di dalam Random Forest dihasilkan banyak keputusan untuk setiap pohonnya. Kemudian dari hasil putusan setiao pohon (Decision Tree) itu, kemudian dilakukan aggregasi keputusan berdasarkan hasil yang terbanyak (decision voting). Untuk lebih mudahnya, kita bisa menyimak ilustrasi berikut:

Ilustrasi Random Forest (Guo, 2011)

Berdasarkan ilustrasi di atas, sampling yang digunakan dalam pemodelan training dataset Random Forest adalah random sampling with replacement sejumlah pohon yang kita tentukan. Di dalam proses sampling tersebut, kita kemudian dikenalkan dengan istilah "bagging" yang merupakan singkatan dari bootstrap aggregating. Proses bootstrap merupakan sebuah teknik sampling dengan mengubah susunan sample terpilih disertai dengan replikasi dan pengacakan. Jumlah replikasi ini ditentukan secara bebas, yang jelas dengan mengandalkan Central Limit Theorem (CLT), semakin banyak replikasi dan pengacakan terhadap sampel atau jumlah bootstrap semakin besar, maka distribusi dari statistiknya akan mendekati atau  mengikuti distribusi normal. Semakin besar ukuran bootstrap, semakin mendekati nilai dari parameter populasinya. Kabar baiknya pula, penggunaan resampling dengan bootstrap ini tidak perlu memenuhi asumsi kenormalan. Untuk lebih tergambar bagaimana proses bootstrap, kita bisa menyimak contoh berikut:

Contoh sederhana penerapan Bootstrap resampling

Sebagaimana pepatah mengatakan "tak ada gading yang tak retak", model Random Forest pun juga tidak lepas dari kesalahan yang tidak berdosa atau yang biasa kita sebut error estimate. Di dalam Random Forest, ukuran error estimate diperoleh dengan melihat besarnya Out of Bag (OOB) error estimate. Ukuran ini biasanya dinyatakan dalam satuan persen. Untuk melihat nilai OOB ini, dalam regresi random Forest, kita dapat menggunakan fungsi tuneRF().

Mengingat yang kita bahas adalah regresi Random Forest, bukan klasifikasi, maka dalam praktik berikut ini, kita tidak perlu melihat atau memanggil confusion matrix atau k-fold cross validation. Kita cukup melihat ukuran-ukuran besarnya Mean Square Error, Root Mean Square Error, R Square Model, OOB, variabel penentu dalam model regresi, dan berapa jumlah tree yang optimal.

Itu sekilas ulasan singkat teorinya, berikutnya kita akan beranjak mengenai penerapan regresi Random Forest menggunakan R. Kali ini kita akan mencoba menggunakan data kualitas udara dengan variabel Ozone sebagai variabel dependennya. Untuk melakukan pemodelan regresi Random Forest, kita dapat mengikuti beberapa code berikut:

#Aktivasi package Random Forest
library(randomForest)
#Import Data
data("airquality")
head(airquality)
##   Ozone Solar.R Wind Temp Month Day
## 1    41     190  7.4   67     5   1
## 2    36     118  8.0   72     5   2
## 3    12     149 12.6   74     5   3
## 4    18     313 11.5   62     5   4
## 5    NA      NA 14.3   56     5   5
## 6    28      NA 14.9   66     5   6
#Melihat Struktur Data
str(airquality)
## 'data.frame':    153 obs. of  6 variables:
##  $ Ozone  : int  41 36 12 18 NA 28 23 19 8 NA ...
##  $ Solar.R: int  190 118 149 313 NA NA 299 99 19 194 ...
##  $ Wind   : num  7.4 8 12.6 11.5 14.3 14.9 8.6 13.8 20.1 8.6 ...
##  $ Temp   : int  67 72 74 62 56 66 65 59 61 69 ...
##  $ Month  : int  5 5 5 5 5 5 5 5 5 5 ...
##  $ Day    : int  1 2 3 4 5 6 7 8 9 10 ...
#mengecek apakah terdapat missing data
sum(!complete.cases(airquality))
## [1] 42
#Imputasi NA dengan nilai median kolom atau median setiap variabel
for(i in 1:ncol(airquality)) {
  airquality[ , i][is.na(airquality[ , i])] <- median(airquality[ , i], na.rm=TRUE)
}
#Partisi Data
library(caret)
inTrain <- createDataPartition(y= airquality$Ozone, p = 0.75, list = F)
train <- airquality[inTrain,]
head(train)
##   Ozone Solar.R Wind Temp Month Day
## 2  36.0     118  8.0   72     5   2
## 3  12.0     149 12.6   74     5   3
## 5  31.5     205 14.3   56     5   5
## 7  23.0     299  8.6   65     5   7
## 8  19.0      99 13.8   59     5   8
## 9   8.0      19 20.1   61     5   9
test <- airquality[-inTrain,]
head(test)
##    Ozone Solar.R Wind Temp Month Day
## 1     41     190  7.4   67     5   1
## 4     18     313 11.5   62     5   4
## 6     28     205 14.9   66     5   6
## 13    11     290  9.2   66     5  13
## 20    11      44  9.7   62     5  20
## 22    11     320 16.6   73     5  22
#Pemodelan Random Forest data Train
set.seed(1)
rf_train <- randomForest(Ozone ~., data = train, ntree = 1000)
rf_train
## 
## Call:
##  randomForest(formula = Ozone ~ ., data = train, ntree = 1000) 
##                Type of random forest: regression
##                      Number of trees: 1000
## No. of variables tried at each split: 1
## 
##           Mean of squared residuals: 399.2217
##                     % Var explained: 53.92
#Memperoleh pohon keputusan dengan Mean Square Error terendah
paste0("Model Random Forest yang menghasilkan MSE terendah menggunakan Tree sebanyak ",which.min(rf_train$mse))
## [1] "Model Random Forest yang menghasilkan MSE terendah menggunakan Tree sebanyak 80"
#Menghitung Root Mean Square Error (RMSE) dari model pohon terbaik dengan MSE terendah
sqrt(rf_train$mse[which.min(rf_train$mse)])
## [1] 19.38739
#Plot dari model rfku data Train
plot(rf_train, main = "Model Random Forest")
text(309,700, c("Terlihat bahwa setelah Tree sekitar 400, Errornya sudah stabil\nnamun, jumlah Tree terbaik sebanyak 80"),
     cex = 0.7)
abline(v = 400, col = "red")
abline(v = 80, col = "blue")
text(80, 550, c("Tree\nterbaik"))
Plot trees model regresi Random Forest

#Mendapatkan variabel paling penting atau variabel penentu Random Forest
varImpPlot(rf_train)
text(10000, 5.5, c("Variabel paling penting \ndalam model Random Forest ini \nadalah Wind diikuti Temp"),
     col = "royalblue")
plot of chunk unnamed-chunk-11
Plot variabel penting atau penentu dalam model regresi Random Forest

#Memperoleh m yang meminimkan error OOB dengan tuned model dari RF
#Khusus untuk Regresi Random Forest, tidak perlu K-Fold Cross Validation
#Karena ukuran itu sebenarnya telah terakomodir dalam OOB Tuned model
rf_train_tuned <- tuneRF(
  x=train[,-1], #variabel independen
  y=train$Ozone, #variabel dependennya
  ntreeTry=500,
  mtryStart=4, 
  stepFactor=1.5,
  improve=0.01,
  trace=FALSE #tidak memperlihatkan proses tuned
)
## 0.01169198 0.01 
## 0.01840849 0.01 
## -0.06050044 0.01
plot of chunk unnamed-chunk-12
Plot m terbaik yang meminimkan OOB error

rf_train_tuned
##   mtry OOBError
## 2    2 382.0144
## 3    3 389.1786
## 4    4 393.7827
## 5    5 405.1264
#Memprediksi dengan data test
pred <- predict(rf_train, test)
head(pred)
##        1        4        6       13       20       22 
## 36.28580 26.17141 26.46786 23.20636 17.23661 25.75947
#Melihat akurasi Regresi Random Forest
library(forecast)
accuracy(pred, test$Ozone)
##                 ME    RMSE      MAE       MPE     MAPE
## Test set -1.071276 12.8955 10.25191 -33.05202 47.39807
#Melihat R square Regresi Random Forest
R2(pred, test$Ozone, formula = "traditional")
## [1] 0.7786036
#Memprediksi nilai Ozone dengan input baru
databaru <- data.frame(Solar.R=150, Wind=8, Temp=70, Month=5, Day=5)
databaru
##   Solar.R Wind Temp Month Day
## 1     150    8   70     5   5
#Menggunakan model dengan data baru untuk memprediksi Ozon
predict(rf_train, newdata = databaru)
##        1 
## 25.95828

Demikian sedikit berbagi kita kali ini mengenai pemodelan regresi Random Forest dengan menggunakan R. Jangan lupa untuk terus mengikuti unggahan-unggahan terbaru di blog ini. Selamat memahami dan mempraktikkan!

Komentar

Postingan populer dari blog ini

Pemodelan Autoregressive Integrated Moving Average (ARIMA Model) dengan R

ARIMA dengan R Jumpa lagi teman-teman, sebelumnya saya mohon maaf karena kemarin tidak sempat membuat unggahan terbaru di blog ini. Baik, sebelumnya kita telah mengulas tentang pemodelan Geographically Weigthed Regression (GWR) dengan R. Kali ini, kita akan melanjutkan belajar bersama mengenai pemodelan yang tak asing lagi dan populer hingga kini, yaitu pemodelan Autoregressive Integrated Moving Average (ARIMA). Kita akan membahas ARIMA secara langsung tanpa membahas AR dan MA secara tersendiri mengingat pada dasarnya ARIMA adalah model perpaduan antara model AR dengan order p , MA dengan order q dan aspek differencing dengan order d . Artinya, ketika kita mendengar istilah AR(1), maka sebenarnya itu adalah ARIMA(1, 0, 0), ketika kita mendengar ARI(1,1), maka aslinya itu ARIMA(1, 1, 0), atau bila mendengar MA(3), itu sebenarnya ARIMA(0, 0, 3) atau IMA(2,1) sebenarnya adalah ARIMA(0, 2, 1). Data runtun waktu atau time series merupakan salah satu jenis data yang hingga kini banyak digun

Machine Learning: Memahami Reinforcement Learning

Reinforcement Learning Halo teman-teman, pada pembahasan sebelumnya, kita telah berusaha memahami mengenai supervised learning dan unsupervised learning . Sebelum lanjut ke pemodelan statistik selanjutnya, ada baiknya kita membahas tentang satu lagi jenis algoritma machine learning yang akhir-akhir ini banyak digunakan dalam membentuk artificial intelligence (AI), yaitu algoritma reinforcement learning . Kita ke pengertian berdasarkan studi literatur daring ( online ) dulu teman-teman. Saya coba mengambil salah satu pengertian reinforcement learning, misalkan dari situsnya Algoritma, menyatakan bahwa reinforcement learning merupakan algoritma yang diterapkan untuk pembelajaran mesin ( machine learning ) sedemikian rupa sehingga dapat menentukan aksi yang tepat dan pada akhirnya sebuah program dapat bekerja secara otomatis memberikan hasil atau putusan yang benar. Lebih lanjut dalam situs algoritma mengangkat sebuah perumpamaan reinforcement learning dengan menggunakan proses penugasan

Machine Learning: Perbedaan Supervised Learning dan Unsupervised Learning

Perbedaan supervised learning dan unsupervised learning Halo teman-teman, kemarin kita telah mengawali bahasan mengenai salah satu anggota dari Machine Learning sekaligus merupakan contoh dari algoritma supervised learning , yaitu Naive Bayes Classifier (NBC). Akhir-akhir ini, dunia sains data dihebohkan dengan berbagai istilah statistik yang berkaitan erat dengan komputasi atau komputasi statistik, yaitu supervised learning dan unsupervised learning . Sebenarnya ada lagi istilah baru dan cukup makin sulit menyederhanakan definisinya, yaitu reinforcement learning , tapi khusus reinforcement learning nanti akan kita bahas tersendiri karena kita mulai bersinggungan dengan Artificial Intelligence atau kecerdasan buatan. Jujur, saya mengakui bahwa tidak semua dari kita memiliki latar belakang apalagi pakar teknologi informasi (IT). Sehingga, bila kita cermati bahasan-bahasan atau istilah komputasi statistik, sains data, atau data engineering , kita mungkin akan sejenak loading , bahkan s