Langsung ke konten utama

Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing : Stopwords Bahasa Indonesia dengan R Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R. Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah ta

Pemodelan Regresi Logistik Biner (Binary Logistic Regression) Logit dengan R

Regresi Logistik

Jumpa lagi dengan blog sederhana ini teman-teman. Sebuah blog yang akan membahas mengenai sains data dan seluk beluk terkait penggunaan berbagai macam bahasa pemrograman data mining, data engineering, dan hal terkait sains data lainnya.

Baik, dalam kesempatan kali ini, kita akan mencoba untuk sama-sama melangkah sedikit setelah kemarin kita sudah membahas tentang bagaimana pemodelan regresi linier berganda (bagi yang ketinggalan silakan cek tautan berikut ini). Apa itu? Kita akan mencoba bersama belajar bagaimana pemodelan regresi logistik biner atau  yang dikenal dengan istilah logit di dalam R.

Sebelumnya kita perlu paham dulu apa itu regresi logistik biner (logit). Menurut Muflihah (2017), regresi logistik biner merupakan cara analisis statistik untuk memaparkan bentuk model korelasi variabel independen terhadap variabel dependen yang berskala nominal atau ordinal. Respon variabel dependen sebesar 1 mewakili kemungkinan sukses dengan probabilitas π(x). Sedangkan respon 0 mewakili kemungkinan gagal dengan probabilitas 1-π(x).

Bagaimana dengan uji parsial dan simultan variabel independen di model regresi logistik? Kalau di regresi linier berganda kita kenal dengan uji-t (uji Wald) dan uji simultannya menggunakan uji-Chi square. Bagaimana dengan uji kebaikan suainya? Uji kebaikan suai kita menggunakan uji-G atau yang biasa dikenal dengan uji Hosmer Lameshow. Pengujian parsialnya menggunakan hipotesis berikut:
Ho: βj=0
H1:βj ≠ 0 , j = 1, 2, 3
Statistik uji:
W=βj/se(βj )

Sedangkan uji Hosmer-Lameshow menggunakan hipotesis berikut:

H0: β_1=β_2=β_3=0
H1: ada satu nilai β_j≠0,j=1,2,3

Statistik uji Hosmer-Lameshow

Untuk uji parsial, jika nilai p-value nya < 0,05 maka variabel independen dalam model berpengaruh signifikan terhadap variabel dependennya. Sedangkan untuk uji kebaikan suai jika nilai p-valuenya > 0,05, maka dikatakan model logit yang terbentuk telah memenuhi kebaikan suai atau fit.

Bagaimana dengan interpretasi setiap koefisien regresi logistik? Seperti pada umumnya, interpretasi model logit menggunakan Rasio Odd (Odds Ratio), yaitu nilai dari eksponensial setiap koefisien regresi logistik yang terbentuk.

Baik, sebelum kita mempraktikkannya dengan R, ada baiknya kita unduh dulu data yang akan kita gunakan. Data ini merupakan data yang bersumber dari sebuah marketplace. Ada sebanyak 500 records data di dalamnya dengan sheet ke - 2 merupakan keterangan dari variabel-variabel di dalamnya. Data tersebut dapat diunduh pada link berikut. Setelah datanya diunduh, kita akan melakukan pemodelan logit dengan menggunakan beberapa code berikut:

Code:

#Mengimport data monotaroid
library(readxl)
mntaro <- read_excel("C:/Users/Joko Ade/Downloads/mntaro.xlsx")
dataku <- mntaro

#melihat ringkasan data
summary(dataku)

Hasil:

     Reviu             Harga            BarangSiap       Terjual          lnHarga      
 Min.   :0.00000   Min.   :    2200   Min.   :1.000   Min.   :0.0000   Min.   : 7.696  
 1st Qu.:0.00000   1st Qu.:   61600   1st Qu.:1.000   1st Qu.:0.0000   1st Qu.:11.028  
 Median :0.00000   Median :  179300   Median :2.000   Median :0.0000   Median :12.097  
 Mean   :0.01002   Mean   :  626028   Mean   :1.984   Mean   :0.1964   Mean   :12.138  
 3rd Qu.:0.00000   3rd Qu.:  619300   3rd Qu.:2.000   3rd Qu.:0.0000   3rd Qu.:13.336  
 Max.   :1.00000   Max.   :19910000   Max.   :3.000   Max.   :1.0000   Max.   :16.807

Code:

 #visualisasi variabel ln Harga
plot(dataku$lnHarga, col = "blue", ylab = "ln Harga", main = "Sebaran Variabel ln Harga")

Hasil:

Visualisasi variabel harga

Code:

#mengubah tipe data di dalam data frame
dataku$Terjual <- as.factor(dataku$Terjual)
dataku$Reviu <- as.factor(dataku$Reviu)
dataku$lnHarga <- as.numeric(dataku$lnHarga)
dataku$BarangSiap <- as.factor(dataku$BarangSiap)

#mengattach data frame supaya lebih praktis
attach(dataku)

#Regresi Logistik
#Model1
logit1 <- glm(Terjual~lnHarga+Reviu+BarangSiap, family = binomial(link = "logit"))

#Ringkasan model logistik
summary(logit1)

Hasil:

Call:
glm(formula = Terjual ~ lnHarga + Reviu + BarangSiap, family = binomial(link = "logit"))

Deviance Residuals:
    Min       1Q   Median       3Q      Max  
-1.4944  -0.4769  -0.4211  -0.3588   2.4756  

Coefficients:
            Estimate Std. Error z value Pr(>|z|)    
(Intercept) -0.19472    1.07268  -0.182   0.8560    
lnHarga     -0.18432    0.08875  -2.077   0.0378 *  
Reviu1       0.33088    1.05938   0.312   0.7548    
BarangSiap2  0.26383    0.39144   0.674   0.5003    
BarangSiap3  2.33326    0.37006   6.305 2.88e-10 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

(Dispersion parameter for binomial family taken to be 1)

    Null deviance: 494.37  on 498  degrees of freedom
Residual deviance: 393.65  on 494  degrees of freedom
AIC: 403.65

Code:

#uji Non-Multikol
library(olsrr)
regols <- lm(Terjual~lnHarga+Reviu+BarangSiap, family = binomial(link = "logit"))
ols_vif_tol(regols)

Hasil:

   Variables Tolerance      VIF
1     lnHarga 0.8060003 1.240694
2      Reviu1 0.9923835 1.007675
3 BarangSiap2 0.6424954 1.556431
4 BarangSiap3 0.6436367 1.553672

Interpretasi: tidak ada multikolinearitas antar variabel bebas

Code:

#Uji Simultan
logit1[12] #Null Deviance
logit1[10] #Residual Deviance
df <- 3 #Jumlah variabel bebas

#Menghitung pvalue uji Chi Square
csqr <- pchisq(q = as.numeric(logit1[12]) - as.numeric(logit1[10]),
               df = df, lower.tail = F)

Hasil:

[1] 1.088536e-21

Interpretasi: karena nilai p-value uji simultannya < 0,05 maka secara simultan variabel independen berpengaruh signifikan terhadap variabel dependen

Code:

#Mendapatkan nilai R square model dengan Pseudo R square

#Atau menggunakan pR2()
library(pscl)
pR2(logit1)

Hasil:

$N
[1] 499

$R2
[1] 0.2907246

Interpretasi: model logit kita mampu menjelaskan proporasi keragaman variabel dependen dengan benar sebesar 29,07 persen. Sedangkan sisanya dijelaskan oleh variabel lain di luar model. Nilai pseudo-R square yang dapat diterima adalah antara 0,1 dan 0,4 seperti yang disarankan oleh Domencich dan McFadden (Matthew, et al, 2018). Jadi, nilai Pseudo R square model kita telah sesuai.

Code:

#Uji Kebaikan Suai
#H0 Model Fit
library(ResourceSelection)
hoslem.test(logit1$y, fitted(logit1), g = 10)

Hasil:

    Hosmer and Lemeshow goodness of fit (GOF) test

data:  logit1$y, fitted(logit1)
X-squared = 2.8894, df = 8, p-value = 0.9411

Interpretasi: karena nilai p-value > 0,05, maka model kita telah memenuhi goodness of fit.

Code:

#prediksi tabel korkondansi
corcond <- table(true = Terjual, pred = round(fitted(logit1)))
(corcond[1,1]+corcond[2,2])/(corcond[1,1]+corcond[1,2]+corcond[2,1]+corcond[2,2])*100

Hasil:

#Tabel korkondansi pengklasifikasian berdasarkan model logit

   pred
true   0   1
   0 365  36
   1  54  44

[1] 81.96393

Interpretasi: model logit yang terbentuk secara akurat mampu memprediksi parameter total penjualan sebesar 81,96393 persen.

Code:

 #Odds Ratio Coefficients
exp(coef(logit1))

Hasil:

(Intercept)     lnHarga      Reviu1 BarangSiap2 BarangSiap3
  0.8230611   0.8316675   1.3921912   1.3019008  10.3115476

Interpretasi: produk ready stock memiliki peluang meningkatkan penjualan ≥ 5 pcs sebesar 10,31 kali dibanding dengan produk inden (baik siap dalam 3-7 hari maupun lebih dari 14 hari).

Baiklah, demikian sedikit ulasan mengenai pemodelan regresi logistik biner (logit). Jangan lupa share dan komen di kolom yang tersedia dan tetap mengikuti setiap unggahan-unggahan dalam blog ini. Selamat mempraktikkan!

Komentar

Postingan populer dari blog ini

Pemodelan Autoregressive Integrated Moving Average (ARIMA Model) dengan R

ARIMA dengan R Jumpa lagi teman-teman, sebelumnya saya mohon maaf karena kemarin tidak sempat membuat unggahan terbaru di blog ini. Baik, sebelumnya kita telah mengulas tentang pemodelan Geographically Weigthed Regression (GWR) dengan R. Kali ini, kita akan melanjutkan belajar bersama mengenai pemodelan yang tak asing lagi dan populer hingga kini, yaitu pemodelan Autoregressive Integrated Moving Average (ARIMA). Kita akan membahas ARIMA secara langsung tanpa membahas AR dan MA secara tersendiri mengingat pada dasarnya ARIMA adalah model perpaduan antara model AR dengan order p , MA dengan order q dan aspek differencing dengan order d . Artinya, ketika kita mendengar istilah AR(1), maka sebenarnya itu adalah ARIMA(1, 0, 0), ketika kita mendengar ARI(1,1), maka aslinya itu ARIMA(1, 1, 0), atau bila mendengar MA(3), itu sebenarnya ARIMA(0, 0, 3) atau IMA(2,1) sebenarnya adalah ARIMA(0, 2, 1). Data runtun waktu atau time series merupakan salah satu jenis data yang hingga kini banyak digun

Machine Learning: Memahami Reinforcement Learning

Reinforcement Learning Halo teman-teman, pada pembahasan sebelumnya, kita telah berusaha memahami mengenai supervised learning dan unsupervised learning . Sebelum lanjut ke pemodelan statistik selanjutnya, ada baiknya kita membahas tentang satu lagi jenis algoritma machine learning yang akhir-akhir ini banyak digunakan dalam membentuk artificial intelligence (AI), yaitu algoritma reinforcement learning . Kita ke pengertian berdasarkan studi literatur daring ( online ) dulu teman-teman. Saya coba mengambil salah satu pengertian reinforcement learning, misalkan dari situsnya Algoritma, menyatakan bahwa reinforcement learning merupakan algoritma yang diterapkan untuk pembelajaran mesin ( machine learning ) sedemikian rupa sehingga dapat menentukan aksi yang tepat dan pada akhirnya sebuah program dapat bekerja secara otomatis memberikan hasil atau putusan yang benar. Lebih lanjut dalam situs algoritma mengangkat sebuah perumpamaan reinforcement learning dengan menggunakan proses penugasan

Machine Learning: Perbedaan Supervised Learning dan Unsupervised Learning

Perbedaan supervised learning dan unsupervised learning Halo teman-teman, kemarin kita telah mengawali bahasan mengenai salah satu anggota dari Machine Learning sekaligus merupakan contoh dari algoritma supervised learning , yaitu Naive Bayes Classifier (NBC). Akhir-akhir ini, dunia sains data dihebohkan dengan berbagai istilah statistik yang berkaitan erat dengan komputasi atau komputasi statistik, yaitu supervised learning dan unsupervised learning . Sebenarnya ada lagi istilah baru dan cukup makin sulit menyederhanakan definisinya, yaitu reinforcement learning , tapi khusus reinforcement learning nanti akan kita bahas tersendiri karena kita mulai bersinggungan dengan Artificial Intelligence atau kecerdasan buatan. Jujur, saya mengakui bahwa tidak semua dari kita memiliki latar belakang apalagi pakar teknologi informasi (IT). Sehingga, bila kita cermati bahasan-bahasan atau istilah komputasi statistik, sains data, atau data engineering , kita mungkin akan sejenak loading , bahkan s