Langsung ke konten utama

Natural Language Processing (NLP) Penerapan Stopwords Bahasa Indonesia dengan R: Topik Sepinya Jalur Pantura Akibat Adanya Tol Trans Jawa

Natural Language Processing : Stopwords Bahasa Indonesia dengan R Halo teman-teman, berjumpa lagi dengan blog sederhana ini. Pada pembahasan sebelumnya, kita telah bersama belajar penerapan stemming teks yang merupakan bagian dari Natural Language Processing (NLP) menggunakan R. Pada perjumpaan kali ini, kita akan melanjutkan perjuangan kita berbagi ilmu mengenai NLP, tepatnya adalah penerapan stopwords Bahasa Indonesia dengan R. Perlu diketahui bahwa di dalam NLP, untuk menambah keluasan dan mempertajam analisis teks, proses stemming teks saja belum cukup. Kita juga perlu membersihkan teks yang relatif atau mutlak tidak bermakna di dalam analisis teks. Biasanya teks yang dieliminasi dalam NLP merupakan kata penghubunga atau konjungsi, atau kata yang berupa ekspresi yang bercampur di dalam data teks, misalkan ekspresi tertawa "wkwk", ekspresi penolakan "gak, nggak, tidak, atau gk", bahasa asing (selain Indonesia), atau juga kata-kata yang tidak memenuhi kaidah ta

Unsupervised Learning: Fuzzy C Means Clustering dengan R

Fuzzy C Means Clustering dengan R

Halo teman-teman, jumpa lagi dengan blog sederhana ini. Kemarin kita telah merampungkan sedikit ulasan mengenai K Means Clustering dan praktiknya menggunakan R. Kali ini kita akan melanjutkan pembahasan kita terkait machine learning yang akhir-akhir ini booming dalam dunia data science dan big data, yaitu unsupervised learning: Fuzzy C Means Clustering.

Mungkin sebagian dari kita ada yang telah paham mengenai bentuk pengklasteran satu ini. Tapi khusus bagi saya sendiri yang masih belajar ini, awalnya saya bingung juga Fuzzy C Means Clustering ini mahluk apa dan seperti apa dia. Baik, kita akan coba ulas secara perlahan bersama-sama.

Jadi, di dalam clustering terdapat 2 jenis clustering yang kita akan kenal, yaitu hard clustering dan soft clustering. Hard clustering merupakan teknik pengklasteran yang menggunakan nilai atau skor biner (Anggota cluster: 1, Bukan anggota cluster: 0) sebagai dasar pengelompokan keanggotaan setiap amatan. Dengan penggunaan skor biner inilah, hard clustering ini dalam proses atau menjalankan algoritmanya menerapkan aturan yang ketat, setiap amatan tidak boleh menjadi anggota dua cluster atau lebih. K-Means clustering yang kemarin sempat kita bahas merupakan salah satu dari bentuk hard clustering ini. Sedangkan Soft clustering merupakan teknik pengklasteran teknik pengklasteran yang menggunakan nilai, skor peluang (probablity score), atau likelihood sebagai dasar pengelompokan keanggotaan setiap amatan. Nilai, skor, atau likelihood ini merepresentasikan peluang, ketendensian, atau kecenderungan sebuah amatan masuk ke dalam sebuah cluster tertentu. Adapun rentang dari nilai, skor, atau likelihood ini berada pada 0 hingga 1. Penentuan sebuah amatan masuk dalam cluster tertentu didasarkan pada nilai, skor, atau likelihood yang terbesar. Untuk lebih menyederhanakan perbedaan antara Fuzzy C Means clustering dan K-Means clustering, kita akan dapat melihat ilustrasi berikut:

K-Means clustering

Terlihat bahwa efek penggunaan nilai atau skor biner di dalam K-Means clustering membuat setiap amatan tidak memiliki kemungkinan menjadi anggota dari dua atau lebih cluster. Dengan demikian, tidak memungkinkan akan terjadinya overlapping dalam proses pengklasteran.

Fuzzy C Means clsutering
 

Sedangkan dalam algoritma Fuzzy C Means clustering, setiap amatan memiliki nilai peluang yang beragam sehingga dari gambar kita ilustrasikan masing-masing memiliki warna yang bergradasi. Sehingga setiap 1 amatan, ia memiliki dua atau lebih nilai peluang yang berbeda mengikuti jumlah K optimal yang ditetapkan. Bila K = 2, maka 1 amatan memiliki 2 nilai peluang atau kecenderungan ia masuk di cluster 1 dan cluster 2, yang jelas, kalau 2 nilai peluang itu dijumlahkan besarnya sama dengan 1. Misalkan amatan X itu peluang masuk cluster 1 sebesar 0,64 dan peluang masuk cluster 2 sebesar 0,36, terlihat bahwa kalau dijumlah sama dengan 1.

Proses algoritma Fuzzy C Means clustering ini mirip dengan proses K-Means clustering, hanya yang yang membedakannya adalah bagaimana menentukan keanggotannya setiap amatan tadi serta adanya parameter yang kemudian diistilahkan sebagai fuzzier (m) yang berfungsi sebagai pengontrol kemungkinan adanya irisan antar cluster yang terbentuk. Bila nilai fuzzier ini mendekati 1, maka fungsi obyektif fuzzy clustering akan sama dengan fungsi hard cluster atau bisa dikatakan Fuzzy C Means clustering akan sama dengan K-Means clsutering. Namun, ketika nilai fuzzier lebih dari 1, maka kemungkinan irisan antar cluster akan semakin besar.

Dalam penentuan nilai fuzzier (m) sendiri masih debatable, menurut Berdek et.al (1984), nilai m yang direkomendasikan berkisar antara 1,5 hingga 3 sedangkan kalau menurut Wu (2012), nilai m ini direkomendasikan sebesar 1,5 hingga 4. Adapun tujuan dari penentuan fuzzier (m) dalam ini agar proses pengklasteran mampu memberikan efek robust (tidak terpengaruh pencilan atau outlier).

Satu hal lagi yang perlu kita tekankan bersama, bahwa di dalam mempraktikkan clustering, bila data kita ternyata memiliki satuan yang berbeda-beda, maka perlu distandardisasikan terlebih dahulu. Salah satu metode untuk standardisasi data dengan satuan berbeda adalah scaling atau penskalaan data.

Baik, itu sekilas mengenai teori dari Fuzzy C Means clustering. Berikutnya kita akan coba mempraktikkan bersama bagaimana melakukan clustering dengan menggunakan algoritma ini dengan R. Data yang akan kita gunakan kali saya dapatkan dari Badan Pusat Statistik Republik Indonesia (BPS RI) yang beralamat di bps.go.id, berupa data mengenai karakteristik perumahan layak huni di Indonesia menurut 34 provinsi. Datanya bisa teman-teman langsung unduh pada tautan berikut dan untuk mempraktikkan Fuzzy C Means clustering dapat mengikuti beberapa code berikut:

#Mengimport dataset
library(readxl)
clustering <- read_excel("C:/Users/Joko Ade/Downloads/clustering.xlsx") 
clustering
## # A tibble: 34 x 9
##    provinsi              atap dinding lantai aksejang sanitasi  amin   pln  lhpk
##    <chr>                <dbl>   <dbl>  <dbl>    <dbl>    <dbl> <dbl> <dbl> <dbl>
##  1 Aceh                  96.8    99.0   96.8     64.4     77.6  88.8  99.5  7.47
##  2 Sumatera Utara        96.3    99.2   98.3     69.5     82.0  90.9  97.8  8.83
##  3 Sumatera Barat        98.7    99.4   99.5     56.7     68.7  83.4  97.6  7.01
##  4 Riau                  96.3    98.9   98.7     70.6     83.6  89.8  92.7  6.39
##  5 Jambi                 96.7    99.7   98.8     62.5     80.4  79.7  95.6  3.93
##  6 Sumatera Selatan      92.2    98.8   97.3     57.9     77.3  84.7  94.8 10.6 
##  7 Bengkulu              97.1    99.3   97.8     51.4     79.8  67.4  99.0  5.57
##  8 Lampung               90.8    99.0   96.0     61.6     83.9  80.2  98.2  1.35
##  9 Kep. Bangka Belitung  43.0    99.7   99.7     27.6     92.2  73.4  99.1  3.70
## 10 Kep. Riau             60.6    99.6   99.6     50.2     91.6  90.8  98.5  5.29
## # ... with 24 more rows
#Melihat struktur dataset
str(clustering)
## tibble [34 x 9] (S3: tbl_df/tbl/data.frame)
##  $ provinsi: chr [1:34] "Aceh" "Sumatera Utara" "Sumatera Barat" "Riau" ...
##  $ atap    : num [1:34] 96.8 96.3 98.7 96.3 96.7 ...
##  $ dinding : num [1:34] 99 99.2 99.4 98.9 99.7 ...
##  $ lantai  : num [1:34] 96.8 98.3 99.5 98.7 98.8 ...
##  $ aksejang: num [1:34] 64.4 69.5 56.7 70.6 62.5 ...
##  $ sanitasi: num [1:34] 77.5 82 68.7 83.6 80.4 ...
##  $ amin    : num [1:34] 88.8 90.9 83.4 89.8 79.7 ...
##  $ pln     : num [1:34] 99.5 97.8 97.5 92.7 95.6 ...
##  $ lhpk    : num [1:34] 7.47 8.83 7.01 6.39 3.93 ...
#Mengambil data tanpa kolom 1
#Karena satuannya sama semua, maka tidak perlu penskalaan data
dataku <- clustering[-1]
dataku
## # A tibble: 34 x 8
##     atap dinding lantai aksejang sanitasi  amin   pln  lhpk
##    <dbl>   <dbl>  <dbl>    <dbl>    <dbl> <dbl> <dbl> <dbl>
##  1  96.8    99.0   96.8     64.4     77.6  88.8  99.5  7.47
##  2  96.3    99.2   98.3     69.5     82.0  90.9  97.8  8.83
##  3  98.7    99.4   99.5     56.7     68.7  83.4  97.6  7.01
##  4  96.3    98.9   98.7     70.6     83.6  89.8  92.7  6.39
##  5  96.7    99.7   98.8     62.5     80.4  79.7  95.6  3.93
##  6  92.2    98.8   97.3     57.9     77.3  84.7  94.8 10.6 
##  7  97.1    99.3   97.8     51.4     79.8  67.4  99.0  5.57
##  8  90.8    99.0   96.0     61.6     83.9  80.2  98.2  1.35
##  9  43.0    99.7   99.7     27.6     92.2  73.4  99.1  3.70
## 10  60.6    99.6   99.6     50.2     91.6  90.8  98.5  5.29
## # ... with 24 more rows
#Melihat Sebaran Data dengan Histogram
library(tidyverse)
dataku %>%
  gather(power, value, 1:5) %>%
  ggplot(aes(x=value)) +
  geom_histogram(fill = "steelblue", color = "black", bins = 30) +
  facet_wrap(~power, scales = "free_x") +
  labs(x = "Nilai", y = "Frekuensi")
plot of chunk unnamed-chunk-30
Visualisasi 1

#Matrks Korelasi Antar Variabel
library(reshape2)
corrku <- cor(dataku)
melt_cor <- melt(corrku)
ggplot(data = melt_cor, aes(x = Var1, y = Var2, fill = value)) +
  geom_tile(aes(fill = value), colur = "white") +
  scale_fill_gradient(low = "white", high = "steelblue") +
  geom_text(aes(Var1, Var2, label = round(value, 2)), size = 5)
## Warning: Ignoring unknown parameters: colur
plot of chunk unnamed-chunk-31
Visualisasi 2

#Penentuan K Optimal dengan NbClust
library(NbClust)
fuzzy_dbi <- NbClust(dataku, distance = "euclidean",
                     min.nc = 2, max.nc = 10,
                     index = "all", method = "complete") #Diperoleh K = 3
## Warning in pf(beale, pp, df2): NaNs produced
plot of chunk unnamed-chunk-32
Visualisasi 3

## *** : The Hubert index is a graphical method of determining the number of clusters.
##                 In the plot of Hubert index, we seek a significant knee that corresponds to a 
##                 significant increase of the value of the measure i.e the significant peak in Hubert
##                 index second differences plot. 
## 
plot of chunk unnamed-chunk-32
Visualisasi 4

## *** : The D index is a graphical method of determining the number of clusters. 
##                 In the plot of D index, we seek a significant knee (the significant peak in Dindex
##                 second differences plot) that corresponds to a significant increase of the value of
##                 the measure. 
##  
## ******************************************************************* 
## * Among all indices:                                                
## * 5 proposed 2 as the best number of clusters 
## * 13 proposed 3 as the best number of clusters 
## * 1 proposed 4 as the best number of clusters 
## * 3 proposed 5 as the best number of clusters 
## * 2 proposed 10 as the best number of clusters 
## 
##                    ***** Conclusion *****                            
##  
## * According to the majority rule, the best number of clusters is  3 
##  
##  
## *******************************************************************
#Visualisasi Bar Plot K Optimal
library(factoextra)
fviz_nbclust(fuzzy_dbi) + theme_minimal() + ggtitle("Plot Penentuan K Optimal Fuzzy C Means Clustering")
## Warning in if (class(best_nc) == "numeric") print(best_nc) else if (class(best_nc) == : the condition
## has length > 1 and only the first element will be used
## Warning in if (class(best_nc) == "matrix") .viz_NbClust(x, print.summary, : the condition has length > 1
## and only the first element will be used
## Warning in if (class(best_nc) == "numeric") print(best_nc) else if (class(best_nc) == : the condition
## has length > 1 and only the first element will be used
## Warning in if (class(best_nc) == "matrix") {: the condition has length > 1 and only the first element
## will be used
## Among all indices: 
## ===================
## * 2 proposed  0 as the best number of clusters
## * 5 proposed  2 as the best number of clusters
## * 13 proposed  3 as the best number of clusters
## * 1 proposed  4 as the best number of clusters
## * 3 proposed  5 as the best number of clusters
## * 2 proposed  10 as the best number of clusters
## 
## Conclusion
## =========================
## * According to the majority rule, the best number of clusters is  3 .
plot of chunk unnamed-chunk-33
Visualisasi 5

#Terlihat K = 3 memiliki frekuensi tertinggi
#Proses FCM dengan e1071
library(e1071)
cm <- cmeans(dataku, 3, m = 2, weights = 1)
cm
## Fuzzy c-means clustering with 3 clusters
## 
## Cluster centers:
##       atap  dinding   lantai aksejang sanitasi     amin      pln     lhpk
## 1 94.13514 97.96484 97.32760 57.96245 77.35045 81.76217 91.36867 7.974190
## 2 94.63523 98.33177 96.99920 67.42762 83.45501 90.91578 96.61650 7.307232
## 3 51.80029 98.91441 98.18729 38.77430 89.92281 86.90152 96.11881 9.856131
## 
## Memberships:
##                1          2           3
##  [1,] 0.26722731 0.71724810 0.015524595
##  [2,] 0.05054079 0.94462008 0.004839136
##  [3,] 0.71393095 0.25121283 0.034856214
##  [4,] 0.10793871 0.88235063 0.009710661
##  [5,] 0.67820692 0.30197269 0.019820388
##  [6,] 0.84425802 0.14324163 0.012500344
##  [7,] 0.66020766 0.25960448 0.080187866
##  [8,] 0.53352165 0.42698632 0.039492033
##  [9,] 0.09303833 0.07806723 0.828894433
## [10,] 0.12439508 0.12429942 0.751305510
## [11,] 0.07329880 0.07329490 0.853406300
## [12,] 0.52024314 0.38774389 0.092012970
## [13,] 0.20493294 0.76405234 0.031014718
## [14,] 0.25673590 0.65953652 0.083727577
## [15,] 0.15026977 0.82967344 0.020056790
## [16,] 0.33328061 0.57200524 0.094714150
## [17,] 0.22465304 0.70121743 0.074129534
## [18,] 0.23560995 0.72162656 0.042763500
## [19,] 0.48098475 0.32010849 0.198906758
## [20,] 0.81607125 0.16543556 0.018493199
## [21,] 0.80620125 0.15649528 0.037303470
## [22,] 0.67947174 0.26915612 0.051372142
## [23,] 0.19838626 0.77800214 0.023611598
## [24,] 0.40993767 0.57303588 0.017026450
## [25,] 0.06922277 0.92265547 0.008121754
## [26,] 0.53137487 0.45105765 0.017567476
## [27,] 0.21629822 0.74687214 0.036829635
## [28,] 0.04626670 0.94791933 0.005813979
## [29,] 0.17720576 0.80514777 0.017646477
## [30,] 0.91328694 0.07695289 0.009760162
## [31,] 0.46427461 0.50356966 0.032155728
## [32,] 0.54990965 0.42964853 0.020441825
## [33,] 0.74982843 0.21525689 0.034914687
## [34,] 0.38399212 0.28575052 0.330257360
## 
## Closest hard clustering:
##  [1] 2 2 1 2 1 1 1 1 3 3 3 1 2 2 2 2 2 2 1 1 1 1 2 2 2 1 2 2 2 1 2 1 1 1
## 
## Available components:
## [1] "centers"     "size"        "cluster"     "membership"  "iter"        "withinerror" "call"
#Melihat Anggota masing-masing cluster
cm$membership
##                1          2           3
##  [1,] 0.26722731 0.71724810 0.015524595
##  [2,] 0.05054079 0.94462008 0.004839136
##  [3,] 0.71393095 0.25121283 0.034856214
##  [4,] 0.10793871 0.88235063 0.009710661
##  [5,] 0.67820692 0.30197269 0.019820388
##  [6,] 0.84425802 0.14324163 0.012500344
##  [7,] 0.66020766 0.25960448 0.080187866
##  [8,] 0.53352165 0.42698632 0.039492033
##  [9,] 0.09303833 0.07806723 0.828894433
## [10,] 0.12439508 0.12429942 0.751305510
## [11,] 0.07329880 0.07329490 0.853406300
## [12,] 0.52024314 0.38774389 0.092012970
## [13,] 0.20493294 0.76405234 0.031014718
## [14,] 0.25673590 0.65953652 0.083727577
## [15,] 0.15026977 0.82967344 0.020056790
## [16,] 0.33328061 0.57200524 0.094714150
## [17,] 0.22465304 0.70121743 0.074129534
## [18,] 0.23560995 0.72162656 0.042763500
## [19,] 0.48098475 0.32010849 0.198906758
## [20,] 0.81607125 0.16543556 0.018493199
## [21,] 0.80620125 0.15649528 0.037303470
## [22,] 0.67947174 0.26915612 0.051372142
## [23,] 0.19838626 0.77800214 0.023611598
## [24,] 0.40993767 0.57303588 0.017026450
## [25,] 0.06922277 0.92265547 0.008121754
## [26,] 0.53137487 0.45105765 0.017567476
## [27,] 0.21629822 0.74687214 0.036829635
## [28,] 0.04626670 0.94791933 0.005813979
## [29,] 0.17720576 0.80514777 0.017646477
## [30,] 0.91328694 0.07695289 0.009760162
## [31,] 0.46427461 0.50356966 0.032155728
## [32,] 0.54990965 0.42964853 0.020441825
## [33,] 0.74982843 0.21525689 0.034914687
## [34,] 0.38399212 0.28575052 0.330257360
#Melihat jumlah masing-masing cluster
table(cm$cluster)
## 
##  1  2  3 
## 15 16  3
#Melihat Anggota masing-masing cluster dari Visualisasi
library(corrplot)

#Mengcustome warna
col0 = colorRampPalette(c('white', 'cyan', '#007FFF', 'blue','#00007F'))
corrplot(cm$membership, is.corr = F, col = col0(20))
plot of chunk unnamed-chunk-36
Visualisasi 6

#Menambahkan data hasil FCM ke data asli
dd <- cbind(provinsi = clustering$provinsi, dataku, cluster = cm$cluster)
dd
##                provinsi  atap dinding lantai aksejang sanitasi  amin    pln      lhpk cluster
## 1                  Aceh 96.79   99.02  96.84    64.43    77.55 88.79  99.50  7.472792       2
## 2        Sumatera Utara 96.29   99.19  98.34    69.48    82.02 90.89  97.85  8.832423       2
## 3        Sumatera Barat 98.67   99.42  99.51    56.67    68.68 83.40  97.55  7.010693       1
## 4                  Riau 96.26   98.88  98.72    70.63    83.64 89.76  92.70  6.388037       2
## 5                 Jambi 96.74   99.74  98.83    62.54    80.36 79.70  95.61  3.932579       1
## 6      Sumatera Selatan 92.19   98.78  97.26    57.86    77.29 84.70  94.81 10.636705       1
## 7              Bengkulu 97.14   99.32  97.80    51.36    79.81 67.39  98.97  5.573298       1
## 8               Lampung 90.80   99.04  95.98    61.56    83.89 80.20  98.22  1.348798       1
## 9  Kep. Bangka Belitung 43.04   99.69  99.73    27.60    92.24 73.40  99.08  3.696865       3
## 10            Kep. Riau 60.55   99.55  99.59    50.23    91.62 90.83  98.46  5.294505       3
## 11          Dki Jakarta 44.91   99.86  99.64    40.00    95.17 99.86 100.00 16.328973       3
## 12           Jawa Barat 86.44   98.53  98.48    53.14    71.66 93.24  99.68  6.756201       1
## 13          Jawa Tengah 94.61   99.27  88.88    66.47    83.28 93.62  99.90  1.827579       2
## 14        Di Yogyakarta 97.03   99.79  97.70    85.15    97.12 95.69 100.00  3.781566       2
## 15           Jawa Timur 94.69   98.55  92.13    66.93    80.97 95.02  99.51  3.581006       2
## 16               Banten 81.23   98.43  97.60    60.78    82.89 93.51  99.71  5.392177       2
## 17                 Bali 91.84   99.82  99.29    78.47    95.95 97.56  99.87  9.663651       2
## 18  Nusa Tenggara Barat 86.50   98.24  98.24    62.90    82.85 94.60  99.56  8.817696       2
## 19  Nusa Tenggara Timur 94.19   71.56  83.90    40.41    73.36 85.40  81.12 13.575492       1
## 20     Kalimantan Barat 97.99   99.72  99.69    61.17    78.39 78.76  86.92  6.299100       1
## 21    Kalimantan Tengah 93.92   99.65  99.55    55.34    73.77 77.05  83.52  5.051145       1
## 22   Kalimantan Selatan 88.62   99.22  99.78    57.50    81.43 76.40  98.84  5.635395       1
## 23     Kalimantan Timur 96.03   99.91  99.37    70.70    89.77 85.80  94.65  7.242494       2
## 24     Kalimantan Utara 99.74   99.51  99.81    65.65    79.80 86.80  91.63  7.319429       2
## 25       Sulawesi Utara 97.98   97.96  96.90    69.50    84.85 91.65  99.51  8.385422       2
## 26      Sulawesi Tengah 95.05   99.36  97.82    62.70    76.06 88.51  94.05 10.717091       1
## 27     Sulawesi Selatan 97.56   90.05  99.23    69.11    91.57 91.18  97.24  5.477508       2
## 28    Sulawesi Tenggara 94.39   99.40  98.22    70.45    85.62 91.94  96.76  7.194240       2
## 29            Gorontalo 98.40   99.72  99.08    67.28    78.58 94.57  97.00 10.750989       2
## 30       Sulawesi Barat 94.96   95.93  97.51    57.26    80.12 78.35  91.75  8.909449       1
## 31               Maluku 94.07   98.82  96.03    60.69    76.77 93.21  91.83 13.711576       2
## 32         Maluku Utara 96.64   99.66  94.76    63.85    77.11 88.66  88.36  7.632061       1
## 33          Papua Barat 98.65   99.21  98.10    57.90    77.89 81.68  81.08 10.999613       1
## 34                Papua 73.14   94.37  76.79    28.92    40.81 64.92  43.92 29.451187       1
#Visualisasi cluster provinsi menurut indikator hunian layak
library(factoextra)
fviz_cluster(list(data = dd[-1], cluster = cm$cluster),
             ellipse.type = "convex", 
             palette = "jco", ggtheme = theme_minimal(),
             show.clust.cent = T, #clust.cen True untuk memunculkan posisi centroid setiap cluster
             main = "Plot Fuzzy C Means Clustering Provinsi Menurut Perumahan Layak")
plot of chunk unnamed-chunk-38
Visualisasi 7

Demikian sekilas pembahasan kita mengenai Fuzzy C Means clsutering menggunakan R. Nantikan terus unggahan sederhana berikutnya, selamat memahami dan mempraktikkan!

Komentar

Postingan populer dari blog ini

Pemodelan Autoregressive Integrated Moving Average (ARIMA Model) dengan R

ARIMA dengan R Jumpa lagi teman-teman, sebelumnya saya mohon maaf karena kemarin tidak sempat membuat unggahan terbaru di blog ini. Baik, sebelumnya kita telah mengulas tentang pemodelan Geographically Weigthed Regression (GWR) dengan R. Kali ini, kita akan melanjutkan belajar bersama mengenai pemodelan yang tak asing lagi dan populer hingga kini, yaitu pemodelan Autoregressive Integrated Moving Average (ARIMA). Kita akan membahas ARIMA secara langsung tanpa membahas AR dan MA secara tersendiri mengingat pada dasarnya ARIMA adalah model perpaduan antara model AR dengan order p , MA dengan order q dan aspek differencing dengan order d . Artinya, ketika kita mendengar istilah AR(1), maka sebenarnya itu adalah ARIMA(1, 0, 0), ketika kita mendengar ARI(1,1), maka aslinya itu ARIMA(1, 1, 0), atau bila mendengar MA(3), itu sebenarnya ARIMA(0, 0, 3) atau IMA(2,1) sebenarnya adalah ARIMA(0, 2, 1). Data runtun waktu atau time series merupakan salah satu jenis data yang hingga kini banyak digun

Machine Learning: Memahami Reinforcement Learning

Reinforcement Learning Halo teman-teman, pada pembahasan sebelumnya, kita telah berusaha memahami mengenai supervised learning dan unsupervised learning . Sebelum lanjut ke pemodelan statistik selanjutnya, ada baiknya kita membahas tentang satu lagi jenis algoritma machine learning yang akhir-akhir ini banyak digunakan dalam membentuk artificial intelligence (AI), yaitu algoritma reinforcement learning . Kita ke pengertian berdasarkan studi literatur daring ( online ) dulu teman-teman. Saya coba mengambil salah satu pengertian reinforcement learning, misalkan dari situsnya Algoritma, menyatakan bahwa reinforcement learning merupakan algoritma yang diterapkan untuk pembelajaran mesin ( machine learning ) sedemikian rupa sehingga dapat menentukan aksi yang tepat dan pada akhirnya sebuah program dapat bekerja secara otomatis memberikan hasil atau putusan yang benar. Lebih lanjut dalam situs algoritma mengangkat sebuah perumpamaan reinforcement learning dengan menggunakan proses penugasan

Machine Learning: Perbedaan Supervised Learning dan Unsupervised Learning

Perbedaan supervised learning dan unsupervised learning Halo teman-teman, kemarin kita telah mengawali bahasan mengenai salah satu anggota dari Machine Learning sekaligus merupakan contoh dari algoritma supervised learning , yaitu Naive Bayes Classifier (NBC). Akhir-akhir ini, dunia sains data dihebohkan dengan berbagai istilah statistik yang berkaitan erat dengan komputasi atau komputasi statistik, yaitu supervised learning dan unsupervised learning . Sebenarnya ada lagi istilah baru dan cukup makin sulit menyederhanakan definisinya, yaitu reinforcement learning , tapi khusus reinforcement learning nanti akan kita bahas tersendiri karena kita mulai bersinggungan dengan Artificial Intelligence atau kecerdasan buatan. Jujur, saya mengakui bahwa tidak semua dari kita memiliki latar belakang apalagi pakar teknologi informasi (IT). Sehingga, bila kita cermati bahasan-bahasan atau istilah komputasi statistik, sains data, atau data engineering , kita mungkin akan sejenak loading , bahkan s