Markov Chain baru diperkenalkan
sekitar tahun 1907, oleh seorang Matematisi Rusia Andrei A. Markov
(1856-1922). Andrey Markov menghasilkan hasil pertama (1906) untuk proses ini,
murni secara teoritis. Rantai
Markov terkait dengan gerakan Brown dan ergodic hipotesis, dua topik dalam fisika yang penting dalam tahun-tahun awal abad ke-20,
tetapi tampaknya Markov lebih fokus pada perluasan hukum
bilangan besar
dalam percobaaan-percobaaan. Model ini berhubungan dengan suatu rangkaian proses
dimana kejadian akibat suatu suatu eksperimen hanya tergantung pada kejadian
yang langsung mendahuluinya dan tidak tergantung pada rangkaian kejadian
sebelum-sebelumnya yang lain (Mulyono, 1991). Analisis
markov yang dihasilkan adalah suatu informasi probabilistik yang dapat
digunakan untuk membantu pembuatan keputusan, jadi analisis ini bukan suatu
teknik optimisasi melainkan suatu teknik deskriptif. Analisis markov merupakan
suatu bentuk khusus dari model probabilistic yang lebih umum yang dikenal
sebagai proses stokastik (Mulyono, 1991).
Rantai markov atau markov chain dapat diterapkan di berbagai bidang antara lain ekonomi, politik, kependudukan, industri, pertanian dan lain-lain. Metode rantai markov adalah salah satu dari banyak metode yang digunakan untuk melakukan peramalan pada sebuah data yang ada (Hamdy, 2003).
Analisa markov dapat diterapakan di beberapa kasus dengan beberapa syarat
yang harus dipenuhi. Syarat-syarat tersebut anta lain (Mulyono, 1991):
1.
Jumlah
probabilitas transisi untuk suatu keadaan awal dengan sistem sama dengan 1.
2.
Probabilitas-probabilitas
tersebut berlaku untuk semua partisipan dala sistem.
3.
Probabilitas
transisi konstan sepanjang waktu.
4.
Kondisi
merupakan kondisi yang independent
sepanjang waktu.
Penerapan markov bisa dibilang cukup terbatas karena sulit untuk menemukan
masalah yang memenuhi semua sifat yang diperlukan untuk menganalisa markov.
Rantai markov bisa dikatakan dalam realitanya cakupan kasusnya cukup sempit (Mulyono, 1991).
2.2.1 Proses acak
Pengelompokkan tipe populasi dari proses acak bisa digambarkan sebagai jika
X adalah proses acak. Populasi dari proses acak adalah semua nilai yang mungkin
yang bisa dimasukkan dalam suatu proses contohnya (Hamdy, 2003):
X dimisalkan sebagai proses acak yang menggambarkan suatu persamaan, maka
populasi dari X dapat digambarkan sebagai suatu nilai yang memenuhi persamaan
tersebut. Populasi dari S jika dari suatu proses acak X dapat dihiting (contoh S={1,2,3,...}), dalam hal ini X
disebut Discrete Time Random Process perubahan state terjadi pada titik-titik integer. Populasi dari S dari suatu
proses acak X tidak dapat dihitung (contoh S
= ∞) maka X disebut continuous time
random process perubahan state (discrete state) terjadi pada sembarang
waktu (Mulyono, 1991).
Markov chain merupakan proses acak di mana semua informasi tentang masa
depan terkandung di dalam keadaan sekarang (Mulyono, 1991). Lebih tepatnya, proses memiliki properti markov, yang berarti bahwa bentuk ke depan hanya tergantung pada keadaan sekarang, dan tidak bergantung
pada bentuk sebelumnya. Gambaran tentang keadaan sepenuhnya menangkap semua informasi yang dapat
mempengaruhi masa depan dari proses evolusi. Suatu markov chain merupakan proses stokastik
berarti bahwa semua transisi adalah probabilitas (ditentukan oleh kebetulan
acak) dan dengan demikian tidak dapat diprediksi secara detail, meskipun
mungkin diprediksi dalam sifat statistik (Mulyono, 1991).
2.2.2 Konsep
Dasar Markov Chain
Suatu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari beberapa kemungkinan kejadian. Rangkaian
eksperimen tersebut disebut proses stokastik (Mulyono, 1991).
Gambar Konsep Dasar Rantai Markov
Sebuah rantai Markov adalah suatu urutan dari variabel-variabel
acak X 1, X
2, X 3,......
dengan sifat markov
yaitu, mengingat keadaan masa depan dan masa lalu keadaan yang independen (Mulyono, 1991).
Markov chain adalah sebuah proses markov dengan populasi yang
diskrit (dapat dihitung) yang berada pada suatu discrete state (position)
dan diizinkan utk berubah state
pada time discrete. Beberapa macam v ariasi dari bentuk
rantai markov (Mulyono, 1991):
1.
Continuous markov memiliki indeks kontinu.
2.
Sisa rantai markov homogen (rantai markov
stasioner) adalah proses di mana
untuk
semua n. Probabilitas transisi tidak tergantung
dari n.
3. Sebuah
rantai Markov orde m di mana m adalah terbatas,
Keadaan selanjutnya tergantung pada keadaan m selanjutnya. Sebuah rantai (Yn)
dari (Xn)yang
memiliki klasik
Markov properti
sebagai berikut: Biarkan Y
n = (X n, X n -1, ..., X
n - m 1 ), yang
memerintahkan m-tupel dari
nilai-nilai X. Maka Y n adalah sebuah rantai Markov dengan ruang keadaan S m dan memiliki klasik properti
Markov.
4.
Sebuah
aditif rantai Markov order m di mana m
adalah terbatas adalah
Semua n> m, Status-statusnya ada 12 buah yaitu pertama reachable state yaitu Status j reachable
dari status i apabila dalam rantai dapat terjadi transisi dari status i ke
status j melalui sejumlah transisi berhingga, terdapat n, 0 ≤ n ≤ ∞, sehingga Pnij >
0, kedua irreduceable chain yaitu jika
dalam suatu rantai Markov setiap status reachable
dari setiap status lainnya, rantai tersebut adalah irreduceable, ketiga periodic
state yaitu suatu status i disebut periodic dengan peroda d > 1, jika pnii >
0, hanya untuk n = d, 2d, 3d,. . .; sebaliknya jika pnii >
0, hanya untuk n = 1, 2, 3, ... maka status tersebut disebut aperiodic, keempat probability of first return yaitu Probabilitas kembali pertama kalinya ke status i terjadi dalam
n transisi setelah meninggalkan i, kelima probability of ever return yaitu probabilitas akan
kembalimya ke status i setelah sebelumnya meninggalkan I, keenam transient
state yaitu suatu status disebut transient jika probabilitas fi
< 1; yaitu bahwa setelah dari i melalui sejumlah transisi terdapat
kemungkinan tidak dapat kembali ke i,
ketujuh recurrent state yaitu suatu
status disebut recurrent jika probabilitas
fi = 1; yaitu bahwa setelah dari i
melalui sejumlah transisi selalu ada kemungkinan untuk kembali ke i, kedelapan mean recurrent time of state
yaitu untuk suatu status recurrent, jumlah step rata-rata untuk
kembali ke status I, kesembilan null recurrent state yaitu suatu recurrent
state disebut recurrent null jika
mi = ∞, kesepuluh positive
recurrent state yaitu suatu recurrent
state disebut positive recurrent atau
recurrent nonnull jika mi
< ∞, kesebelas communicate state yaitu dua status, i
dan j, dikatakan berkomunikasi jika i
reachable dari j dan juga reachable
dari i ; ditulis dengan notasi
, keduabelas ergodic
yaitu jika, irreduceable, aperiodic, dan seluruh status positive recurrent
(Mulyono, 1991).
DAFTAR
PUSTAKA
Mulyono, Sri. 1991. Riset Operasi. Jakarta: Fakultas Ekonomi
Universitas Indonesia.
Taha, Hamdy. 2003. Opration Reseach Sevent Edition. Canada:
Prentice Hall.
Studi Kasus
Dewasa ini,
pertumbuhan penduduk makin menjadi di Indonesia saja jumlah penduduk pada
sensus tahun 2010 mencapai 237.556.363 orang (Wikipedia.org). Banyaknya penduduk di Indonesia ini maka
diperlukanlah sumber pangan yang banyak dan berkualitas baik. Peternakan di
Indonesia membutuhkan jumlah ternak (yang menjadi sumber lauk setiap hari) yang
banyak dan berkualitas baik untuk mencukupi kebutuhan rakyat Indonesia. Untuk
mendapatkan ternak yang mempunyai kulitas baik diperlukanlah pakan ternak yang
baik, dibawah ini adalah salah satu contoh untuk persaingan industri pakan
ternak yang melibatkan PT. Bangkrut Abadi, PT. Selalu Bangkrut dan PT. Super Bangkrut.
Berikut studi kasusnya.
Perusahaan
Bangkrut Abadi merupakan perusahaan yang bergerak di bidang industri pakan
ternak. Perusahaan ingin mengetahui perubahan minat konsumen produk Bangkrut
Abadi terhadap dua produk saingan mereka dari Selalu Bangkrut dan Super Bangkrut.
Hal
ini dilakukan perusahaan untuk menghadapi perubahan minat konsumen terhadap
produknya. Maka dari itu bagian PSI (Production Sales and Inventory)
Bangkrut Abadi melakukan survei tentang produk mereka dan produk dari Selalu
Bangkrut dan
Super Bangkrut.
Mereka
melakukan penyelesaian menggunakan rantai markov. Berikut merupakan perkiraan
jumlah perpindahan konsumen PT. Bangkrut Abadi
- Jika minggu ini konsumen membeli pakan ternak di Bangkrut Abadi maka minggu depan akan berpeluang 34,5% konsumen akan membeli pakan ternak di Bangkrut Abadi, 33,6% konsumen akan membeli pakan ternak di Selalu Bangkrut dan 31,9% konsumen akan membeli pakan ternak di Super Bangkrut.
- Jika minggu ini konsumen membeli pakan ternak di di Selalu Bangkrut maka minggu depan akan berpeluang 31,5% konsumen akan membeli pakan ternak di Bangkrut Abadi, 28,9% konsumen akan membeli pakan ternak di Selalu Bangkrut dan 39,6% konsumen akan membeli pakan ternak di Super Bangkrut.
- Jika minggu ini konsumen membeli pakan ternak di Super Bangkrut maka minggu depan akan berpeluang 32,6% konsumen akan membeli pakan ternak di Bangkrut Abadi, 32,5% konsumen akan membeli pakan ternak di di Selalu Bangkrut dan 34,9% konsumen akan membeli pakan ternak di Super Bangkrut.
Diketahui
market share dari ketiga perusahaan pakan ternak tersebut yaitu 32,5%, 33,1%, dan 34,4%. Berapakah peluang market share untuk minggu kelima dari
ketiga perusahaan pakan ternak tersebut ?
Manajemen ingin mengetahui peluang maret share pada kasus ini untuk minggu
ke lima. Cara
yang digunakan dengan menggunakan
dua buah metode, yaitu perhitungan manual dan menggunakan software POM-QM.
Jawaban di Postingan selanjutnya
Rantai Makrov Literasi dan Studi Kasus (1)
Reviewed by Erian Sutantio
on
June 05, 2020
Rating:
No comments: