Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing: Stopwords Bahasa Indonesia dengan R

Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R.

Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah tata bahasa, dalam topik ini adalah Bahasa Indonesia. Sebetulnya, kata-kata atau teks tersebut bisa saja kita analisis lebih dalam secara tersendiri. Namun, pada sharing ini, kita bertujuan untuk menganalisis data teks Indonesia secara standar saja.

Baik, adapun alat stopwords Bahasa Indonesia yang kita gunakan kali ini merupakan database kata-kata yang tidak diperlukan dalam analisis teks dan secara berangsur telah saya update sesuai dengan kebutuhan. Prinsip dari proses stopwords dalam NLP adalah melakukan penghapusan secara massal kata-kata di dalam data teks yang hendak kita olah dan analisis lebih lanjut berdasarkan database kata yang tidak diperlukan. Sebagai ilustrasi, dari sekumpulan data teks, kita tuliskan misalkan pada sebuah papan tulis, kemudian kita hapus kata-kata di papan tulis tadi kata-kata yang sama dengan data kata-kata yang tidak diperlukan dan telah kita siapkan sebelumnya pada kertas. Prinsip proses stopwords ini kemudian diakomodir oleh fungsi unnest_tokens() dalam package tidytext dan dplyr,

Data apa yang akan kita gunakan kali ini? Adapun data yang kita gunakan pada praktikum stopwords Bahasa Indonesia kali ini adalah data tweets mengenai respons masyarakat dunia maya (netizen) terhadap sepinya jalur Pantai Utara Jawa atau biasa dikenal dengan Jalur Pantura akibat pembangunan jalan tol Trans Jawa akhir-akhir ini yang kembali mencuat. Kendati pemerintah telah berupaya mengalihkan sejumlah UMKM di sepanjang Pantura ke Rest Area tol, tetapi kebanyakan dari mereka tidak mau dan memilih tetap berusaha di sepanjang Pantura meskipun sepi dan omset terus menurun.

Pembangunan tol Trans Jawa memang nyata dampaknya bagi UMKM di sepanjang Pantura. Walaupun terdapat Rest Area yang siap menampung usaha mereka dengan fasilitas yang dinilai lebih baik, tetapi akses dari rumah ke Rest Area sebagai besar jauh dan tentunya bila tetap nekat, hal itu membutuhkan sejumlah uang untuk operasional dari rumah pengusaha UMKM. Belum lagi, meski berada di Rest Area, tidak ada jaminan omset UMKM terdampak tol tersebut meningkat tajam. Strategi pembangunan tol seperti ini agaknya perlu tingkat kematangan dengan mempertimbangkan banyaknya UMKM yang berpotensi terkena dampak buruknya. Dan perlu dipertegas kembali, bahwa karena UMKM-lah, negara ini mampu menghidupi sekitar 70 persen tenaga kerja yang ada. Satu poin lagi, bahwa sejarah telah mencatat bahwa karena UMKM-lah, ekonomi Indonesia mampu bertahan di tengah krisis multidimensi 1997/1998.

Mungkin itu sedikit gambaran mengenai data yang akan kita gunakan. Berikutnya, data tweets mengenai topik Sepinya Jalur Pantura akibat Tol Trans Jawa ini bisa teman-teman unduh pada tautan berikut. Sedangkan database stopwords Bahasa Indonesia yang bisa digunakan dapat diunduh pada tautan berikut.

Setelah kedua data tersebut diunduh, kita dapat melakukan praktikum NLP: Stopwords Bahasa Indonesia memakai R dengan mengikuti beberapa code berikut:

#Import Data Tweets topik Jalur Pantura Sepi
panturasepi <- read_excel("panturasepi.xlsx")
head(panturasepi)
## # A tibble: 6 x 1
##   tweets 
##   <chr>  
## 1 ini    
## 2 ada    
## 3 aph    
## 4 sie    
## 5 rame   
## 6 pantura
#Melihat Dimensi Data Tweets
dim(panturasepi)
## [1] 16377     1
#Menghapus kata-kata yang tidak diperlukan dengan Stopwords Bahasa Indonesia
stop <- readLines("C:/Users/56848/Documents/stopwords-indonesia.txt") %>% as.data.frame()
## Warning in readLines("C:/Users/56848/Documents/stopwords-indonesia.txt"): incomplete final line found on 'C:/Users/
## 56848/Documents/stopwords-indonesia.txt'
colnames(stop) <- c("stopwords")
head(stop)
##   stopwords
## 1       ada
## 2    adalah
## 3    adanya
## 4    adapun
## 5      agak
## 6   agaknya
#Memperoleh hasil tokenized kata dan mendapatkan frekuensinya per kata
library(dplyr)
library(tidytext)
panturasepi %>%   
  # tokenize setiap kalimat menjadi per kata
  unnest_tokens(input = tweets, output = token) %>% 
  # hitung frekuensi semua huruf lalu urutkan 
  # dari yang paling besar frekuensinya
  anti_join(stop, by = c("token" = "stopwords")) %>%
  count(token, sort = T)
## # A tibble: 4,226 x 2
##    token       n
##    <chr>   <int>
##  1 pantura   921
##  2 face      182
##  3 jalan     152
##  4 jalur     111
##  5 crying     61
##  6 loudly     60
##  7 truk       58
##  8 tol        52
##  9 dangdut    51
## 10 orang      48
## # ... with 4,216 more rows

Demikian sedikit berbagi kita mengenai Natural Language Processing (NLP) bagaimana melakukan pembersihan terhadap teks atau kata-kata yang tidak diperlukan dalam analisis data teks menggunakan R. Ikuti terus unggahan dari blog ini dan semoga sedikit banyak memberi manfaat. Selamat memahami dan mempraktikkan!

Add Comments


EmoticonEmoticon