Rantai Makrov Literasi dan Studi Kasus (1)


Rantai Makrov
Markov Chain baru diperkenalkan  sekitar tahun 1907, oleh seorang Matematisi Rusia Andrei A. Markov (1856-1922). Andrey Markov menghasilkan hasil pertama (1906) untuk proses ini, murni secara teoritis. A generalization to countably infinite state spaces was given by Kolmogorov (1936).Rantai Markov terkait dengan gerakan Brown dan ergodic hipotesis, dua topik dalam fisika yang penting dalam tahun-tahun awal abad ke-20, tetapi tampaknya Markov lebih fokus pada perluasan hukum bilangan besar dalam percobaaan-percobaaan.In 1913, he applied his findings for the first time to the first 20,000 letters of Pushkin's " Eugene Onegin ". Model ini berhubungan dengan suatu rangkaian proses dimana kejadian akibat suatu suatu eksperimen hanya tergantung pada kejadian yang langsung mendahuluinya dan tidak tergantung pada rangkaian kejadian sebelum-sebelumnya yang lain (Mulyono, 1991). Analisis markov yang dihasilkan adalah suatu informasi probabilistik yang dapat digunakan untuk membantu pembuatan keputusan, jadi analisis ini bukan suatu teknik optimisasi melainkan suatu teknik deskriptif. Analisis markov merupakan suatu bentuk khusus dari model probabilistic yang lebih umum yang dikenal sebagai proses stokastik (Mulyono, 1991).


Rantai markov atau markov chain dapat diterapkan di berbagai bidang antara lain ekonomi, politik, kependudukan, industri, pertanian dan lain-lain. Metode rantai markov adalah salah satu dari banyak metode yang digunakan untuk melakukan peramalan pada sebuah data yang ada (Hamdy, 2003).
Analisa markov dapat diterapakan di beberapa kasus dengan beberapa syarat yang harus dipenuhi. Syarat-syarat tersebut anta lain (Mulyono, 1991):
1.                  Jumlah probabilitas transisi untuk suatu keadaan awal dengan sistem sama dengan 1.
2.                  Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dala sistem.
3.                  Probabilitas transisi konstan sepanjang waktu.
4.                  Kondisi merupakan kondisi yang independent sepanjang waktu.
Penerapan markov bisa dibilang cukup terbatas karena sulit untuk menemukan masalah yang memenuhi semua sifat yang diperlukan untuk menganalisa markov. Rantai markov bisa dikatakan dalam realitanya cakupan kasusnya cukup sempit (Mulyono, 1991).
Seneta [ 15 ] provides an account of Markov's motivations and the theory's early development.           
2.2.1    Proses acak
Pengelompokkan tipe populasi dari proses acak bisa digambarkan sebagai jika X adalah proses acak. Populasi dari proses acak adalah semua nilai yang mungkin yang bisa dimasukkan dalam suatu proses contohnya (Hamdy, 2003):
X dimisalkan sebagai proses acak yang menggambarkan suatu persamaan, maka populasi dari X dapat digambarkan sebagai suatu nilai yang memenuhi persamaan tersebut. Populasi dari S jika dari suatu proses acak X dapat dihiting (contoh S={1,2,3,...}), dalam hal ini X disebut  Discrete Time Random Process perubahan state terjadi pada titik-titik integer. Populasi dari S dari suatu proses acak X tidak dapat dihitung (contoh S = ∞) maka X disebut continuous time random process perubahan state (discrete state) terjadi pada sembarang waktu (Mulyono, 1991).
Markov chain merupakan proses acak di mana semua informasi tentang masa depan terkandung di dalam keadaan sekarang (Mulyono, 1991). Lebih tepatnya, proses memiliki properti markov, yang berarti bahwa bentuk ke depan hanya tergantung pada keadaan sekarang, dan tidak bergantung pada bentuk sebelumnya. GIn other words, the description of the present state fully captures all the information that could influence the future evolution of the process.ambaran tentang keadaan sepenuhnya menangkap semua informasi yang dapat mempengaruhi masa depan dari proses evolusi. Suatu markov chain Being a stochastic process means that all state transitions are probabilistic (determined by random chance and thus unpredictable in detail, though likely predictable in its statistical properties). merupakan proses stokastik berarti bahwa semua transisi adalah probabilitas (ditentukan oleh kebetulan acak) dan dengan demikian tidak dapat diprediksi secara detail, meskipun mungkin diprediksi dalam sifat statistik (Mulyono, 1991).

2.2.2    Konsep Dasar Markov Chain
Suatu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari beberapa kemungkinan kejadian. Rangkaian eksperimen tersebut disebut proses stokastik (Mulyono, 1991).      
                       
                                      Gambar Konsep Dasar Rantai Markov

Sebuah rantai Markov adalah suatu urutan dari variabel-variabel acak X 1, X 2, X 3,...... with the Markov property , namely that, given the present state, the future and past states are independedengan sifat markov yaitu, mengingat keadaan masa depan dan masa lalu keadaan yang independen (Mulyono, 1991).
            Markov chain adalah sebuah proses markov dengan populasi yang diskrit (dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state pada time discrete. Beberapa macam v [ edit ] Variationsariasi dari bentuk rantai markov (Mulyono, 1991):
1.       Continuous-time Markov processes have a continuous index.Continuous markov memiliki indeks kontinu.
2.       Time-homogeneous Markov chains (or stationary Markov chains ) are processes whereSisa rantai markov homogen (rantai markov stasioner) adalah proses di mana
for all n              
untuk semua n. The probability of the transition is independent of n. Probabilitas transisi tidak tergantung dari n.
3.    A Markov chain of order m (or a Markov chain with memory m ) where m is finite, is a process satisfyiSebuah rantai Markov orde m di mana m adalah terbatas,
Keadaan selanjutnya tergantung pada keadaan m selanjutnya. It is possible to construct a chain ( Y n ) from ( X n ) which has the 'classical' Markov property as follows: Let Y n = ( X n , X n −1 , ..., X nm +1 ), the ordered m -tuple of X values.Sebuah rantai (Yn) dari (Xn)yang memiliki klasik Markov properti sebagai berikut: Biarkan Y n = (X n, X n -1, ..., X n - m 1 ), yang memerintahkan m-tupel dari nilai-nilai X. Then Y n is a Markov chain with state space S m and has the classical Markov property . Maka Y n adalah sebuah rantai Markov dengan ruang keadaan S m dan memiliki klasik properti Markov.
4.      An additive Markov chain of order m where m is finiteSebuah aditif rantai Markov order m di mana m adalah terbatas adalah [ clarification needed ]
for all n>m 
Semua n> m,  Status-statusnya ada 12 buah yaitu pertama reachable state yaitu Status j reachable dari status i apabila dalam rantai dapat terjadi transisi dari status i ke status j melalui sejumlah transisi berhingga, terdapat n, 0 ≤ n ≤ ∞, sehingga Pnij > 0, kedua irreduceable chain yaitu jika dalam suatu rantai Markov setiap status reachable dari setiap status lainnya, rantai tersebut adalah irreduceable, ketiga periodic state yaitu suatu status i disebut periodic dengan peroda d > 1, jika pnii > 0, hanya untuk n = d, 2d, 3d,. . .; sebaliknya jika pnii > 0, hanya untuk n = 1, 2, 3, ... maka status tersebut disebut aperiodic, keempat probability of first return yaitu Probabilitas kembali pertama kalinya ke status i terjadi dalam n transisi setelah meninggalkan i, kelima probability of ever return yaitu probabilitas akan kembalimya ke status i setelah sebelumnya meninggalkan I, keenam transient state yaitu suatu status disebut transient jika probabilitas fi < 1; yaitu bahwa setelah dari i melalui sejumlah transisi terdapat kemungkinan tidak dapat kembali ke i, ketujuh recurrent state yaitu suatu status disebut recurrent jika probabilitas fi = 1; yaitu bahwa setelah dari i melalui sejumlah transisi selalu ada kemungkinan untuk kembali ke i, kedelapan mean recurrent time of state yaitu untuk suatu status recurrent, jumlah step rata-rata untuk kembali ke status I, kesembilan null recurrent state yaitu suatu recurrent state disebut recurrent null jika mi = ∞, kesepuluh positive recurrent state yaitu suatu recurrent state disebut positive recurrent atau recurrent nonnull jika mi < ∞, kesebelas communicate state yaitu dua status, i dan j, dikatakan berkomunikasi jika i reachable dari j dan juga reachable dari i ; ditulis dengan notasi , keduabelas ergodic yaitu jika, irreduceable, aperiodic, dan seluruh status positive recurrent (Mulyono, 1991).
DAFTAR PUSTAKA

Mulyono, Sri. 1991. Riset Operasi. Jakarta: Fakultas Ekonomi Universitas Indonesia.
Taha, Hamdy. 2003. Opration Reseach Sevent Edition. Canada: Prentice Hall.

Studi Kasus

Dewasa ini, pertumbuhan penduduk makin menjadi di Indonesia saja jumlah penduduk pada sensus tahun 2010 mencapai 237.556.363 orang (Wikipedia.org).  Banyaknya penduduk di Indonesia ini maka diperlukanlah sumber pangan yang banyak dan berkualitas baik. Peternakan di Indonesia membutuhkan jumlah ternak (yang menjadi sumber lauk setiap hari) yang banyak dan berkualitas baik untuk mencukupi kebutuhan rakyat Indonesia. Untuk mendapatkan ternak yang mempunyai kulitas baik diperlukanlah pakan ternak yang baik, dibawah ini adalah salah satu contoh untuk persaingan industri pakan ternak yang melibatkan PT. Bangkrut Abadi, PT. Selalu Bangkrut dan PT. Super Bangkrut. Berikut studi kasusnya.
            Perusahaan Bangkrut Abadi merupakan perusahaan yang bergerak di bidang industri pakan ternak. Perusahaan ingin mengetahui perubahan minat konsumen produk Bangkrut Abadi terhadap dua produk saingan mereka dari Selalu Bangkrut dan Super Bangkrut.
            Hal ini dilakukan perusahaan untuk menghadapi perubahan minat konsumen terhadap produknya. Maka dari itu bagian PSI (Production Sales and Inventory) Bangkrut Abadi melakukan survei tentang produk mereka dan produk dari Selalu Bangkrut dan Super Bangkrut.
            Mereka melakukan penyelesaian menggunakan rantai markov. Berikut merupakan perkiraan jumlah perpindahan konsumen PT.  Bangkrut Abadi
  1. Jika minggu ini konsumen membeli pakan ternak di Bangkrut Abadi maka minggu depan akan berpeluang 34,5% konsumen akan membeli pakan ternak di Bangkrut Abadi, 33,6% konsumen akan membeli pakan ternak di Selalu Bangkrut  dan  31,9% konsumen akan membeli pakan ternak di Super Bangkrut.
  2. Jika minggu ini konsumen membeli pakan ternak di di Selalu Bangkrut maka minggu depan akan berpeluang 31,5% konsumen akan membeli pakan ternak di Bangkrut Abadi, 28,9% konsumen akan membeli pakan ternak di Selalu Bangkrut dan 39,6% konsumen akan membeli pakan ternak di Super Bangkrut.
  3. Jika minggu ini konsumen membeli pakan ternak di Super Bangkrut maka minggu depan akan berpeluang 32,6% konsumen akan membeli pakan ternak di Bangkrut Abadi, 32,5% konsumen akan membeli pakan ternak di di Selalu Bangkrut  dan 34,9% konsumen akan membeli pakan ternak di Super Bangkrut.
            Diketahui market share dari ketiga perusahaan pakan ternak tersebut yaitu 32,5%, 33,1%, dan 34,4%. Berapakah peluang market share untuk minggu kelima dari ketiga perusahaan pakan ternak tersebut ?
Manajemen ingin mengetahui peluang maret share pada kasus ini untuk minggu ke lima. Cara yang digunakan dengan menggunakan dua buah metode, yaitu perhitungan manual dan menggunakan software POM-QM.


Jawaban di Postingan selanjutnya



Rantai Makrov Literasi dan Studi Kasus (1) Rantai Makrov Literasi dan Studi Kasus (1) Reviewed by Erian Sutantio on June 05, 2020 Rating: 5

No comments:

Kode Iklan Bawah

Powered by Blogger.