Langsung ke konten utama

Pengertian Master/Slave Architecture Di Hadoop

 Assalamu Alaikum waramatullah wabarokatuh;


Hai teman-teman, selamat datang kembali di modul ketiga dari data science and technology series, yaitu modul teknologi dan manajemen big data.


Di bagian sebelumnya, kita telah belajar tentang Cluster dan nodes. Di bagian ini kita akan melanjutkan mengenai HDFS dan MapReduce. Sudah siap? Mari kita mulai. Seperti yang sudah saya ceritakan sebelumnya, dua komponen utama dari Hadoop adalah Hadoop distributed file system atau HDFS dan MapReduce. HDFS ini seperti sejarahnya terinspirasi dari GFS atau Google file system dan tujuan dari HDFS adalah untuk mengurusin storage atau penyimpanan data, data ini bisa berupa macam-macam files. 


Bagaimana dengan MapReduce? MapReduce ini terinspirasi dari MapReduce algorithm yang dibuat oleh Google. Tujuannya adalah untuk mengurus data processing-nya. Jadi HDFS untuk storage-nya, MapReduce untuk processing. Bagaimana cara kerja Hadoop? Seperti video yang sudah ditunjukan dibagian sebelumnya, kita mengenal konsep Master dan slave. Jadi disini kita bisa lihat, bahwa kita memiliki Master dan kemudian slave. 


Master ini terdiri dari komputer, komputer ini ada yang namanya name nodes, kemudian ada yang namanya job tracker, kemudian di slave, kita juga memiliki nodes, nodes yang lebih banyak jadi kalau Master mungkin hanya satu atau dua, slave ini bisa sebanyak mungkin. Didalamnya slave, ada namanya data node dan kemudian ada yang namanya task tracker. Di Master ini, tanggung jawabnya adalah untuk mengkoordinasikan directories dan lokasi file blogs, jadi didalamnya name nodes, sebenarnya name nodes ini adalah bagian dari HDFS, jadi ini adalah nama untuk komponen HDFS yang ada di Master, dia menyimpan index information dari blogs data yang sudah di partisi menjadi lebih kecil-kecil di dalam masing-masing data nodes. Jadi dia tahu data mana, ada di data nodes 1, data mana ada di data nodes 2 dan seterusnya.


 Kemudian, dia ada job tracker yang mengatur job Q. Jadi kalau ada sebuah aplikasi yang kemudian submit job ke job tracker, dia akan mengatur bagaimana task tracker yang ada di slave ini mengerjakan masing-masing partisi dari task yang diberikan oleh si application. Jadi misalkan ada application yang berjalan, sebagai contoh misalkan ada aplikasi yang menganalisis seberapa sering kata korupsi muncul di-posting-an social media. Application akan mengontak Master nodes, kemudian si job tracker yang mana sebenarnya ada komponen MapReduce, dia akan membagibagi data yang besar ini, misalkan ada files yang ribuan, dia akan membuatnya menjadi kecil-kecil dan mendistribusikannya ke slave nodes untuk diproses. Kemudian si name nodes ini menyimpan index-index-nya, jadi data mana ada di data nodes mana. Setelah job taks selesai, Master nodes akan memberikan info ke si application, jadi application bisa tahu, kalau kita mau result yang ini, di data nodes sekian, result yang itu ada di data nodes sekian. Jadi perlu dicatat di sini, yang terjadi adalah pemberitahuan mengenai node mana yang mengerjakan task mana. Jadi bukan proses transfer file dari Master ke slave, dari slave kembali lagi ke Master, Master kembali application. 


jadi semuanya terjadi di local, di local nodes atau local computer, dan yang enaknya adalah untuk setiap data, ada copy-nya di nodes lain, by default ada tiga copies. jadi bagaimana kalau failure terjadi? Gampang, kita bisa mengkontak ke data nodes yang lain untuk memberikan datanya. Bagaimana kalau Master nodes-nya yang ada yang failure? Biasanya kalau di enterprises level kita punya Master-bya bisa 2, jadi ada si main atasnya primary Master, kemudian ada si back up Master. Seiring dengan perkembangannya, Hadoop sudah di uji coba, jadi ada ada yang pernah melakukan dengan single node sampai dengan 4000 nodes, mungkin sekarang sudah lebih dari 4000 nodes.  


kalau kita punya Cluster dengan Hadoop, misalkan kita adalah programmer yang berusaha menganalisis tadi, seberapa banyak kata korupsi muncul di media sosial, kita tinggal coding. Misalkan kita coding untuk beberapa megabyte of data misalkan hanya untuk satu atau dua task fails, kita bisa aplikasikan itu untuk scalability yang lebih besar, kita bisa lakukan untuk ribuan task fails, karena pada dasarnya itu adalah processing yang sama, yang kemudian oleh Hadoop didistribusikan ke nodes-nodes yang kecil sehingga dia bisa memproses data lebih banyak. Scalability cost ini linier, karena seperti yang pernah saya ceritakan, kalau misalkan saya butuh computing power dua kali lebih cepat, nodes-nya saya tambah dua kali lebih banyak dan untuk Hadoop kita selalu gunakan low cost computer, kita akan menggunakan operating system Linux. Barusan kita membahas mengenai konsep Master and slave di Hadoop, kita juga sudah belajar secara simple bagaimana cara kerja aplikasi mengontak Master dan kemudian Master mengkoordinasikan tugasnya ke para slave nodes. Berikutnya kita akan membahas mengenai seperti apa pekerjaan di bidang big data, terutama yang berkaitan dengan si technology Hadoop ini. 

Pengertian  Master/Slave Architecture Di Hadoop

Wassalamu Alaikum waramatullah wabarokatuh;


Terima kasih dan sampai jumpa


Kota Tegal, 13 April 2021 


#Hadoop #Hdfs #opensource #Google #Blogs #Ramadhan1442 #Bigdata

Postingan populer dari blog ini

Mengenal tentang Komunikasi Audio

  KOMUNIKASI AUDIO Komunikasi audio adalah proses penyampaian informasi, pesan, atau komunikasi secara verbal melalui suara atau audio. Ini melibatkan penggunaan perangkat audio seperti mikrofon, speaker, atau perekam suara untuk mentransmisikan dan menerima pesan suara. Dalam komunikasi audio, pesan atau informasi dikodekan dalam bentuk gelombang suara yang dapat didengar oleh penerima. Proses ini melibatkan penggunaan suara manusia atau audio rekaman yang ditransmisikan melalui saluran komunikasi tertentu, seperti telepon, webinar, konferensi audio, radio, podcast, atau platform komunikasi berbasis internet. Komunikasi audio dapat terjadi dalam berbagai konteks, termasuk komunikasi bisnis, pendidikan jarak jauh, pertemuan atau rapat jarak jauh, presentasi, hiburan, dan sebagainya. Pentingnya komunikasi audio dalam berbagai aspek kehidupan telah meningkat secara signifikan dengan kemajuan teknologi dan globalisasi, memungkinkan orang untuk berkomunikasi dengan mudah di berbagai

Cara Menggunakan Vi editor pada Linux Ubuntu Gloudshell Google

Assalamu Alaikum Wr Wb.  Pada Coretan ini, saya akan Sebutkan 4 comand yang sering digunakan SysAdmin & IT Support Dalam menulis mengedit file txt pada mode layar hitam. a.membuat file dengan vi  b.Melihat hasil vi Apa itu editor VI ?       Editor VI adalah editor teks paling populer dan klasik dalam keluarga Linux. Di bawah, adalah beberapa alasan yang menjadikannya editor yang banyak digunakan bagi yang selalu berkerja di balik layar hitam (bukan dunia hitam). Ini tersedia di hampir semua Distribusi Linux. Ini berfungsi sama di berbagai platform dan Distribusi.  Itu ramah pengguna. Karenanya, jutaan pengguna Linux menyukainya dan menggunakannya untuk  kebutuhan pengeditan mereka.       Saat ini, ada versi lanjutan dari vi editor yang tersedia, dan yang paling populer adalah VIM yaitu Vi Improved . Beberapa yang lain adalah Elvis, Nvi, Nano , dan Vile . Adalah bijaksana untuk mempelajari vi karena kaya fitur dan menawarkan kemungkinan tanpa akhir untuk mengedit file .

Apa itu CodeIgniter - MVC Framework

    CodeIgniter didasarkan pada pola pengembangan Model-View-Controller (MVC). MVC adalah pendekatan perangkat lunak yang memisahkan logika aplikasi dari presentasi. Dalam praktiknya, ini memungkinkan halaman web Anda berisi skrip minimal karena presentasinya terpisah dari skrip PHP. Model mewakili struktur data Anda. Biasanya, kelas model Anda akan berisi fungsi yang membantu Anda mengambil, menyisipkan, dan memperbarui informasi dalam database Anda.  View adalah informasi yang disajikan kepada pengguna. Tampilan biasanya akan menjadi halaman web, tetapi di CodeIgniter, tampilan juga bisa menjadi fragmen halaman seperti header atau footer. Ini juga bisa berupa halaman RSS, atau jenis "halaman" lainnya.   Controller berfungsi sebagai perantara antara Model, View, dan sumber daya lain yang diperlukan untuk memproses permintaan HTTP dan menghasilkan halaman web. #codeigneter #bigdata #tegal #september2021