Langsung ke konten utama

Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing : Stopwords Bahasa Indonesia dengan R Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R. Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah ta

Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing: Stopwords Bahasa Indonesia dengan R

Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R.

Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah tata bahasa, dalam topik ini adalah Bahasa Indonesia. Sebetulnya, kata-kata atau teks tersebut bisa saja kita analisis lebih dalam secara tersendiri. Namun, pada sharing ini, kita bertujuan untuk menganalisis data teks Indonesia secara standar saja.

Baik, adapun alat stopwords Bahasa Indonesia yang kita gunakan kali ini merupakan database kata-kata yang tidak diperlukan dalam analisis teks dan secara berangsur telah saya update sesuai dengan kebutuhan. Prinsip dari proses stopwords dalam NLP adalah melakukan penghapusan secara massal kata-kata di dalam data teks yang hendak kita olah dan analisis lebih lanjut berdasarkan database kata yang tidak diperlukan. Sebagai ilustrasi, dari sekumpulan data teks, kita tuliskan misalkan pada sebuah papan tulis, kemudian kita hapus kata-kata di papan tulis tadi kata-kata yang sama dengan data kata-kata yang tidak diperlukan dan telah kita siapkan sebelumnya pada kertas. Prinsip proses stopwords ini kemudian diakomodir oleh fungsi unnest_tokens() dalam package tidytext dan dplyr,

Data apa yang akan kita gunakan kali ini? Adapun data yang kita gunakan pada praktikum stopwords Bahasa Indonesia kali ini adalah data tweets mengenai respons masyarakat dunia maya (netizen) terhadap sepinya jalur Pantai Utara Jawa atau biasa dikenal dengan Jalur Pantura akibat pembangunan jalan tol Trans Jawa akhir-akhir ini yang kembali mencuat. Kendati pemerintah telah berupaya mengalihkan sejumlah UMKM di sepanjang Pantura ke Rest Area tol, tetapi kebanyakan dari mereka tidak mau dan memilih tetap berusaha di sepanjang Pantura meskipun sepi dan omset terus menurun.

Pembangunan tol Trans Jawa memang nyata dampaknya bagi UMKM di sepanjang Pantura. Walaupun terdapat Rest Area yang siap menampung usaha mereka dengan fasilitas yang dinilai lebih baik, tetapi akses dari rumah ke Rest Area sebagai besar jauh dan tentunya bila tetap nekat, hal itu membutuhkan sejumlah uang untuk operasional dari rumah pengusaha UMKM. Belum lagi, meski berada di Rest Area, tidak ada jaminan omset UMKM terdampak tol tersebut meningkat tajam. Strategi pembangunan tol seperti ini agaknya perlu tingkat kematangan dengan mempertimbangkan banyaknya UMKM yang berpotensi terkena dampak buruknya. Dan perlu dipertegas kembali, bahwa karena UMKM-lah, negara ini mampu menghidupi sekitar 70 persen tenaga kerja yang ada. Satu poin lagi, bahwa sejarah telah mencatat bahwa karena UMKM-lah, ekonomi Indonesia mampu bertahan di tengah krisis multidimensi 1997/1998.

Mungkin itu sedikit gambaran mengenai data yang akan kita gunakan. Berikutnya, data tweets mengenai topik Sepinya Jalur Pantura akibat Tol Trans Jawa ini bisa teman-teman unduh pada tautan berikut. Sedangkan database stopwords Bahasa Indonesia yang bisa digunakan dapat diunduh pada tautan berikut.

Setelah kedua data tersebut diunduh, kita dapat melakukan praktikum NLP: Stopwords Bahasa Indonesia memakai R dengan mengikuti beberapa code berikut:

#Import Data Tweets topik Jalur Pantura Sepi
panturasepi <- read_excel("panturasepi.xlsx")
head(panturasepi)
## # A tibble: 6 x 1
##   tweets 
##   <chr>  
## 1 ini    
## 2 ada    
## 3 aph    
## 4 sie    
## 5 rame   
## 6 pantura
#Melihat Dimensi Data Tweets
dim(panturasepi)
## [1] 16377     1
#Menghapus kata-kata yang tidak diperlukan dengan Stopwords Bahasa Indonesia
stop <- readLines("C:/Users/56848/Documents/stopwords-indonesia.txt") %>% as.data.frame()
## Warning in readLines("C:/Users/56848/Documents/stopwords-indonesia.txt"): incomplete final line found on 'C:/Users/
## 56848/Documents/stopwords-indonesia.txt'
colnames(stop) <- c("stopwords")
head(stop)
##   stopwords
## 1       ada
## 2    adalah
## 3    adanya
## 4    adapun
## 5      agak
## 6   agaknya
#Memperoleh hasil tokenized kata dan mendapatkan frekuensinya per kata
library(dplyr)
library(tidytext)
panturasepi %>%   
  # tokenize setiap kalimat menjadi per kata
  unnest_tokens(input = tweets, output = token) %>% 
  # hitung frekuensi semua huruf lalu urutkan 
  # dari yang paling besar frekuensinya
  anti_join(stop, by = c("token" = "stopwords")) %>%
  count(token, sort = T)
## # A tibble: 4,226 x 2
##    token       n
##    <chr>   <int>
##  1 pantura   921
##  2 face      182
##  3 jalan     152
##  4 jalur     111
##  5 crying     61
##  6 loudly     60
##  7 truk       58
##  8 tol        52
##  9 dangdut    51
## 10 orang      48
## # ... with 4,216 more rows

Demikian sedikit berbagi kita mengenai Natural Language Processing (NLP) bagaimana melakukan pembersihan terhadap teks atau kata-kata yang tidak diperlukan dalam analisis data teks menggunakan R. Ikuti terus unggahan dari blog ini dan semoga sedikit banyak memberi manfaat. Selamat memahami dan mempraktikkan!

Komentar

Postingan populer dari blog ini

Pemodelan Autoregressive Integrated Moving Average (ARIMA Model) dengan R

ARIMA dengan R Jumpa lagi teman-teman, sebelumnya saya mohon maaf karena kemarin tidak sempat membuat unggahan terbaru di blog ini. Baik, sebelumnya kita telah mengulas tentang pemodelan Geographically Weigthed Regression (GWR) dengan R. Kali ini, kita akan melanjutkan belajar bersama mengenai pemodelan yang tak asing lagi dan populer hingga kini, yaitu pemodelan Autoregressive Integrated Moving Average (ARIMA). Kita akan membahas ARIMA secara langsung tanpa membahas AR dan MA secara tersendiri mengingat pada dasarnya ARIMA adalah model perpaduan antara model AR dengan order p , MA dengan order q dan aspek differencing dengan order d . Artinya, ketika kita mendengar istilah AR(1), maka sebenarnya itu adalah ARIMA(1, 0, 0), ketika kita mendengar ARI(1,1), maka aslinya itu ARIMA(1, 1, 0), atau bila mendengar MA(3), itu sebenarnya ARIMA(0, 0, 3) atau IMA(2,1) sebenarnya adalah ARIMA(0, 2, 1). Data runtun waktu atau time series merupakan salah satu jenis data yang hingga kini banyak digun

Machine Learning: Memahami Reinforcement Learning

Reinforcement Learning Halo teman-teman, pada pembahasan sebelumnya, kita telah berusaha memahami mengenai supervised learning dan unsupervised learning . Sebelum lanjut ke pemodelan statistik selanjutnya, ada baiknya kita membahas tentang satu lagi jenis algoritma machine learning yang akhir-akhir ini banyak digunakan dalam membentuk artificial intelligence (AI), yaitu algoritma reinforcement learning . Kita ke pengertian berdasarkan studi literatur daring ( online ) dulu teman-teman. Saya coba mengambil salah satu pengertian reinforcement learning, misalkan dari situsnya Algoritma, menyatakan bahwa reinforcement learning merupakan algoritma yang diterapkan untuk pembelajaran mesin ( machine learning ) sedemikian rupa sehingga dapat menentukan aksi yang tepat dan pada akhirnya sebuah program dapat bekerja secara otomatis memberikan hasil atau putusan yang benar. Lebih lanjut dalam situs algoritma mengangkat sebuah perumpamaan reinforcement learning dengan menggunakan proses penugasan

Machine Learning: Perbedaan Supervised Learning dan Unsupervised Learning

Perbedaan supervised learning dan unsupervised learning Halo teman-teman, kemarin kita telah mengawali bahasan mengenai salah satu anggota dari Machine Learning sekaligus merupakan contoh dari algoritma supervised learning , yaitu Naive Bayes Classifier (NBC). Akhir-akhir ini, dunia sains data dihebohkan dengan berbagai istilah statistik yang berkaitan erat dengan komputasi atau komputasi statistik, yaitu supervised learning dan unsupervised learning . Sebenarnya ada lagi istilah baru dan cukup makin sulit menyederhanakan definisinya, yaitu reinforcement learning , tapi khusus reinforcement learning nanti akan kita bahas tersendiri karena kita mulai bersinggungan dengan Artificial Intelligence atau kecerdasan buatan. Jujur, saya mengakui bahwa tidak semua dari kita memiliki latar belakang apalagi pakar teknologi informasi (IT). Sehingga, bila kita cermati bahasan-bahasan atau istilah komputasi statistik, sains data, atau data engineering , kita mungkin akan sejenak loading , bahkan s