Langsung ke konten utama

Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing : Stopwords Bahasa Indonesia dengan R Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R. Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah ta

Data Wrangling dan Data Proprocessing (Menghapus Missing Data dan Outlier Data) dengan R

Data Wrangling dan Data Preprocessing

Sebenarnya kita sedikit mundur ke belakang untuk membahas perihal data wrangling dan data preprocessing ini teman-teman. Tapi tidak apa-apa, mumpung kita belum cukup jauh membahas pemodelan dan peramalan dengan data, ada baiknya kita data wrangling dan data preprocessing ini terlebih dulu.

Setelah membaca berbagai sumber, baik daring ataupun buku, pengertian dari data wrangling dan data preprocessing ini sangat mirip. Bahkan ada sumber yang mengatakan keduanya adalah dua istilah ini serupa tapi hakikatnya tidak sama. Beberapa waktu saya merenungi penegrtian dan batasan-batasan kedua istilah ini dan saya mendapatkan simpulan yang semoga bisa membantu teman-teman semua.

Jadi, pada dasarnya data wrangling ini merupakan bagian dari data preprocessing. Data preprocessing sendiri dalam pengertian sederhananya adalah teknik yang digunakan untuk menyiapkan data dari data mentah yang berasal dari berbagai macam sumber menjadi sebuah data yang bersih (clean data) yang feasible atau layak untuk dianalisis. Sedangkan data wrangling sendiri adalah sebuah aktivitas bagian dari data preprocessing dengan mengolah data mentah menjelang pemodelan, misalkan membuang pencilan atau outlier data. Sedangkan data contoh dari data preprocessing sendiri misalnya menghapus missing data (NA).

Dari pengertian sederhana tersebut, sebelum kita melakukan pemodelan, data yang kita gunakan hendaknya telah memenuhi kelayakan serta tidak mengandung data missing. Dengan begitu, pemodelan yang terbentuk nantinya akan lebih mudah dianalisis dan diinterpretasikan. Pada praktiknya dengan R, kita bisa juga melakukan kedua aktivitas ini dengan memanfaatkan fungsi-fungsi standar yang tertanam di R, which() boxplot() dan lain-lain.

Dalam praktikum data wrangling sebagai bagian dari data preprocessing kali ini, kita akan coba menggunakan data riil tentang review film yang saya dapatkan dari situs IMDB. Adapun datanya dapat diunduh pada link berikut. Setelah diunduh, mari kita praktikkan dengan menggunakan alur code berikut:

Code:

#Import Data Film IMDB
library(readxl)
datafilm <- read_excel("C:/Users/Joko Ade/Documents/datamanipulation.xlsx")

Hasil:

Sekilas data

Code:

#Mendeteksi adanya data duplikat
datafilm[duplicated(datafilm),] #Semua baris

Hasil:

Data terduplikat

Code:

#Membuang data yang terduplikat menjadi data yang unik
datafilm_nodup <- datafilm[!duplicated(datafilm),]

#Melihat data film unik
datafilm_nodup
str(datafilm_nodup)

Hasil:

Data Unik

Code:

#Mengubah variabel yang mengandung NA ke numeric
datafilm_nodup$year <- as.numeric(datafilm_nodup$year)
datafilm_nodup$rating <- as.numeric(datafilm_nodup$rating)
datafilm_nodup$metascrore <- as.numeric(datafilm_nodup$metascrore)
datafilm_nodup$votgross <- as.numeric(datafilm_nodup$votgross)

#Melihat struktur data setelah mengubah tipe data
str(datafilm_nodup)

#mengecek adanya NA atau missing data
summary(datafilm_nodup)

Hasil:

    title                year          rating        metascrore       votgross        
 Length:26          Min.   :1984   Min.   :5.200   Min.   :32.00   Min.   :4.549e+03  
 Class :character   1st Qu.:2019   1st Qu.:6.650   1st Qu.:51.25   1st Qu.:8.391e+04  
 Mode  :character   Median :2021   Median :7.300   Median :66.50   Median :2.890e+05  
                    Mean   :2016   Mean   :7.204   Mean   :61.36   Mean   :8.680e+13  
                    3rd Qu.:2021   3rd Qu.:7.800   3rd Qu.:71.75   3rd Qu.:5.046e+05  
                    Max.   :2022   Max.   :8.700   Max.   :78.00   Max.   :1.826e+15  
                                   NA's   :3       NA's   :4       NA's   :3 

Terdapat missing data NA's 3, 4, dan 3 pada kolom 3 sampai 5

Code:

#Membuang baris data yang mengandung NA
data_cleanNA <- datafilm_nodup[complete.cases(datafilm_nodup),]
data_cleanNA

Hasil:

Data bersih dari NA's

Code:

#Membuang Pancilan data
#Membuat fungsi z-zcore
zscore <- function(x){
  abs((x - mean(x))/sd(x))
}

#Menerapkan transformasi Z pada data frame
datafilm_zscore <- data.frame(data_cleanNA[1:2], lapply(data_cleanNA[3:5], zscore))
dim(datafilm_zscore)

#boxplot
boxplot(datafilm_zscore[3:5])

Hasil:

Boxplot mendeteksi pencilan atau outlier data

Code:

#melihat amatan pencilan atau outlier
outlier <- boxplot(datafilm_zscore[3:5])$out
outlier

Hasil:

[1] 1.8185844 2.1918013 0.2054534 4.4576413 0.2331547

Code:

#melihat posisi outlier dalam data
datafilm_zscore[which(datafilm_zscore$metascrore %in% outlier),] #ada 2 amatan outlier variabel metascore
datafilm_zscore[which(datafilm_zscore$votgross %in% outlier),] #ada 3 amatan outlier variavel votgross

Hasil:

                      title year   rating metascrore  votgross
17                Red Notice 2021 0.934434   1.818584 0.2331547
22 Hitman's Wife's Bodyguard 2021 1.149696   2.191801 0.2331547

                      title year   rating metascrore  votgross
3  The Matrix Resurrections 2021 1.580221  0.1221437 0.2054534
13               The Matrix 1999 1.648713  0.8685776 4.4576413
19        Avengers: Endgame 2019 1.325820  1.2417945 0.2331547

Code:

#Menghapus baris data frame yang mengandung pencilan variabel metascore
data_nout1 <- datafilm_zscore[-which(datafilm_zscore$metascrore %in% outlier),]

#menghapus baris data frame yang mengandung pencilan variabel votgross
data_clean <- data_nout1[-which(data_nout1$votgross %in% outlier),]

#Melihat sebaran data clean
boxplot(data_clean[3:5])

Hasil:

Boxplot, masih ada outlier variabel rating

Code:

#Mendeteksi pencilan kembali
outlier2 <- boxplot(data_clean[3:5])$out
outlier2

#ternyata ada pencilan di variabel rating
#menghapus baris data frame yang mengandung pencilan variabel rating
data_cleanest <- data_clean[-which(data_clean$rating %in% outlier2),]

Hasil:

[1] 1.648713 2.118377

Code:

#Melihat sebaraan data cleanest
boxplot(data_cleanest[3:5])

Hasil:

Boxplot, data telah benar-benar bersih

Dari hasil boxplot ini, terlihat bahwa data hasil preprocessing telah benar-benar bersih sehingga data bisa digunakan untuk analisis. Sebenarnya, banyak pertimbangan apabila kita ingin membuang pencilan atau outlier di dalam data. Salah satunya adalah risiko hilangnya informasi di dalam data. Sebab, data yang mengandung pencilan tersebut bisa saja mengandung informasi menarik, temuan, atau insight fenomena data sehingga berpotensi memperluas analisis.

Oke, demikian sedikit ulasan mengenai data wrangling dan data preprocessing dengan R. Jangan lupa untuk share artikel dalam blog ini, komentar atau pertanyaan bisa teman-teman tuliskan di kolom komentar, dan jangan lupa untuk terus mengikuti unggahan-unggahan menarik berikutnya. Selamat mencoba!

Komentar

Postingan populer dari blog ini

Pemodelan Autoregressive Integrated Moving Average (ARIMA Model) dengan R

ARIMA dengan R Jumpa lagi teman-teman, sebelumnya saya mohon maaf karena kemarin tidak sempat membuat unggahan terbaru di blog ini. Baik, sebelumnya kita telah mengulas tentang pemodelan Geographically Weigthed Regression (GWR) dengan R. Kali ini, kita akan melanjutkan belajar bersama mengenai pemodelan yang tak asing lagi dan populer hingga kini, yaitu pemodelan Autoregressive Integrated Moving Average (ARIMA). Kita akan membahas ARIMA secara langsung tanpa membahas AR dan MA secara tersendiri mengingat pada dasarnya ARIMA adalah model perpaduan antara model AR dengan order p , MA dengan order q dan aspek differencing dengan order d . Artinya, ketika kita mendengar istilah AR(1), maka sebenarnya itu adalah ARIMA(1, 0, 0), ketika kita mendengar ARI(1,1), maka aslinya itu ARIMA(1, 1, 0), atau bila mendengar MA(3), itu sebenarnya ARIMA(0, 0, 3) atau IMA(2,1) sebenarnya adalah ARIMA(0, 2, 1). Data runtun waktu atau time series merupakan salah satu jenis data yang hingga kini banyak digun

Machine Learning: Memahami Reinforcement Learning

Reinforcement Learning Halo teman-teman, pada pembahasan sebelumnya, kita telah berusaha memahami mengenai supervised learning dan unsupervised learning . Sebelum lanjut ke pemodelan statistik selanjutnya, ada baiknya kita membahas tentang satu lagi jenis algoritma machine learning yang akhir-akhir ini banyak digunakan dalam membentuk artificial intelligence (AI), yaitu algoritma reinforcement learning . Kita ke pengertian berdasarkan studi literatur daring ( online ) dulu teman-teman. Saya coba mengambil salah satu pengertian reinforcement learning, misalkan dari situsnya Algoritma, menyatakan bahwa reinforcement learning merupakan algoritma yang diterapkan untuk pembelajaran mesin ( machine learning ) sedemikian rupa sehingga dapat menentukan aksi yang tepat dan pada akhirnya sebuah program dapat bekerja secara otomatis memberikan hasil atau putusan yang benar. Lebih lanjut dalam situs algoritma mengangkat sebuah perumpamaan reinforcement learning dengan menggunakan proses penugasan

Machine Learning: Perbedaan Supervised Learning dan Unsupervised Learning

Perbedaan supervised learning dan unsupervised learning Halo teman-teman, kemarin kita telah mengawali bahasan mengenai salah satu anggota dari Machine Learning sekaligus merupakan contoh dari algoritma supervised learning , yaitu Naive Bayes Classifier (NBC). Akhir-akhir ini, dunia sains data dihebohkan dengan berbagai istilah statistik yang berkaitan erat dengan komputasi atau komputasi statistik, yaitu supervised learning dan unsupervised learning . Sebenarnya ada lagi istilah baru dan cukup makin sulit menyederhanakan definisinya, yaitu reinforcement learning , tapi khusus reinforcement learning nanti akan kita bahas tersendiri karena kita mulai bersinggungan dengan Artificial Intelligence atau kecerdasan buatan. Jujur, saya mengakui bahwa tidak semua dari kita memiliki latar belakang apalagi pakar teknologi informasi (IT). Sehingga, bila kita cermati bahasan-bahasan atau istilah komputasi statistik, sains data, atau data engineering , kita mungkin akan sejenak loading , bahkan s