DISTRIBUTED PROCESSING

DISTRIBUTED PROCESSING

a. Artikel tentang Komputasi dan Tentang Parallel Processing

Komputasi dan Parallel Processing Komputasi

Setiap jenis perhitungan atau penggunaan teknologi komputer dalam pengolahan informasi. Perhitungan adalah proses setelah yang jelas model yang dipahami dan dinyatakan dalam suatu algoritma , protokol , topologi jaringan , dll Perhitungan juga merupakan subyek utama dari ilmu komputer : menyelidiki apa yang dapat atau tidak dapat dilakukan dengan cara komputasi.

Perhitungan dapat diklasifikasikan oleh setidaknya tiga kriteria ortogonal: digital vs analog , sekuensial vs paralel vs bersamaan , bets vs interaktif .

Dalam prakteknya, perhitungan digital sering digunakan untuk mensimulasikan proses alam (misalnya, perhitungan Evolusi ), termasuk yang lebih alami dijelaskan oleh model analog perhitungan (misalnya, jaringan syaraf tiruan ).

Parallel Processing

Dalam komputer, pemrosesan paralel merupakan pengolahan dari Program instruksi dengan membagi mereka di antara beberapa prosesor dengan tujuan untuk menjalankan program dalam waktu kurang. Dalam komputer paling awal, hanya satu program berlari pada suatu waktu. Sebuah program komputasi- intensif yang memakan waktu satu jam untuk menjalankan dan menyalin Program tape yang mengambil satu jam untuk menjalankan akan mengambil total dua jam untuk menjalankan. Bentuk awal dari pemrosesan paralel memungkinkan eksekusi interleaved kedua program bersama-sama. Komputer akan memulai operasi I / O, dan sementara itu sedang menunggu operasi untuk menyelesaikan, itu akan mengeksekusi program prosesor-intensif. Waktu eksekusi total untuk dua pekerjaan akan menjadi sedikit lebih dari satu jam.

Peningkatan berikutnya multiprogramming . Dalam sistem multiprogramming, beberapa program telah dikirim pengguna yang masing-masing diperbolehkan untuk menggunakan prosesor untuk waktu yang singkat. Untuk pengguna tampak bahwa semua program yang melaksanakan pada saat yang sama. Masalah pertama muncul pertentangan sumber daya di sistem ini. Permintaan eksplisit untuk sumber daya menyebabkan masalah dari kebuntuan . Kompetisi untuk sumber daya pada mesin tanpa dasi-melanggar instruksi mengarah pada rutin critical section .

Langkah berikutnya dalam pengolahan paralel adalah pengenalan multiprocessing . Dalam sistem ini, dua atau lebih prosesor berbagi pekerjaan yang akan dilakukan. Versi awal memiliki master / slave konfigurasi. Salah satu prosesor (master) diprogram untuk bertanggung jawab atas semua pekerjaan dalam sistem, yang lain (budak) dilakukan hanya tugas-tugas itu diberikan oleh master. Pengaturan ini diperlukan karena tidak kemudian mengerti bagaimana program mesin sehingga mereka bisa bekerja sama dalam pengelolaan sumber daya sistem.

Hubungan antara komputasi modern dengan paralel processing

Kinerja komputasi dengan menggunakan paralel processing itu menggunakan dan memanfaatkan beberapa komputer atau CPU untuk menemukan suatu pemecahan masalah dari masalah yang ada. Sehingga dapat diselesaikan dengan cepat daripada menggunakan satu komputer saja. Komputasi dengan paralel processing akan menggabungkan beberapa CPU, dan membagi-bagi tugas untuk masing-masing CPU tersebut. Jadi, satu masalah terbagi-bagi penyelesaiannya. Tetapi ini untuk masalah yang besar saja, komputasi yang masalah kecil, lebih murah menggunakan satu CPU saja.

Sumber :

http://shara9128.blogspot.com/2012/03/komputasi-dan-parallel -processing.html http://3anapoe3.wordpress.com/2013/06/10/komputasi-dan-parallel-processing/

Konsep komputasi Parallel Processing

Paralel Processing adalah kemampuan menjalankan tugas atau aplikasi lebih dari satu aplikasi dan dijalankan secara simultan atau bersamaan pada sebuah komputer. Secara umum, ini adalah sebuah teknik dimana sebuah masalah dibagi dalam beberapa masalah kecil untuk mempercepat proses penyelesaian masalah.

Terdapat dua hukum yang berlaku dalam sebuah parallel processing. yaitu:

  • Hukum Amdahl

Amdahl berpendapat, “Peningkatan kecepatan secara paralel akan menjadi linear, melipatgandakan kemampuan proses sebuah komputer dan mengurangi separuh dari waktu proses yang diperlukan untuk menyelesaikan sebuah masalah.”

  • Hukum Gustafson

Pendapat yang dikemukakan Gustafson hampir sama dengan Amdahl, tetapi dalam pemikiran Gustafson, sebuah komputasi paralel berjalan dengan menggunakan dua atau lebih mesin untuk mempercepat penyelesaian masalah dengan memperhatikan faktor eksternal, seperti kemampuan mesin dan kecepatan proses tiap-tiap mesin yang digunakan.

Untitled

 

Distribusi Parallel Processing

Gambar diatas merupakan contoh dari sebuah komputasi paralel, dimana pada gambar diatas terdapat sebuah masalah, dari masalah tersebut dibagi lagi menjadi beberapa bagian agar sebuah masalah dapat dengan cepat diatasi.

Tujuan Komputasi Paralel

Tujuan dari komputasi paralel adalah meningkatkan kinerja komputer dalam menyelesaikan berbagai masalah. Dengan membagi sebuah masalah besar ke dalam beberapa masalah kecil, membuat kinerja menjadi cepat.

Formula komputasi paralel yang diajukan pada hukum Amdahl

s=1/a

Dimana a adalah banyaknya paralel yang terjadi. Secara teori, artinya proses penyelesaian masalah menjadi lebih cepat dengan menggunakan komputasi paralel.

Salah satu jenis penggunaan komputasi paralel adalah:

PVM(Parallel Virtual Machine)

Merupakan sebuah perangkat lunak yang mampu mensimulasikan pemrosesan paralel pada jaringan. Model komputasi Paralel.

  1. Embarasingly Paralleladalah pemrograman paralel yang digunakan pada masalah-masalah yang bisa diparalelkan tanpa membutuhkan komunikasi satu sama lain. Sebenarnya pemrograman ini bisa dibilang sebagai pemrograman paralel yang ideal, karena tanpa biaya komunikasi, lebih banyak peningkatan kecepatan yang bisa dicapai.
  2. Taksonomi dari model pemrosesan paralel dibuat berdasarkan alur instruksi dan alur data yang digunakan:

–          SISD (Single Instruction Single Datapath) merupakan prosesor tunggal, yang bukan paralel.

–          SIMD (Single Instruction Multiple Datapath)alur instruksi yang sama dijalankan terhadap banyak alur data yang berbeda. Alur instruksi di sini kalau tidak salah maksudnya ya program komputer itu. trus datapath itu paling ya inputnya, jadi inputnya lain-lain tapi program yang digunakan sama.

–          MIMD (Multiple Instruction Multiple Datapath)alur instruksinya banyak, alur datanya juga banyak, tapi masing-masing bisa berinteraksi.

–          MISD (Multiple Instruction Single Datapath)alur instruksinya banyak tapi beroperasi pada data yang sama.

Perbedaan komputasi tunggal dan komputasi parallel dapat digambarkan sebagai berikut

Untitled

  komputasi tunggalUntitled

 Komputasi Parallel

Kesimpulannya :

  1. Pengolahan Parallel adalah pengolahan informasi yang menekankan pada manipulasi data-data elemen secara simultan.
  2. Pengolahan Parallel dimaksudkan untuk mempercepat komputasi dari sistem computer dan menambah jumlah keluaran yang dapat dihasilkan dalam jangka waktu tertentu.
  3. Pengolahan Parallel merupakan pengolahan informasi yang ditekankan pada manipulasi elemen data yang dimiliki oleh satu atau lebih dari satu proses secara bersamaan dalam rangka menyelesaikan sebuah problem.

Sumber :

http://andri102.wordpress.com/game/soft-skill/konsep-komputasi-parallel-processing/

http://3anapoe3.wordpress.com/2013/06/10/komputasi-dan-parallel-processing/

http://nindyastuti52.wordpress.com/2011/03/22/kinerja-komputasi-dengan-parallel-processing/

Iklan

apa itu big data

Apa itu Big Data?

 

 

Nama   :Muhammad Rizki

Kelas   : 4IA17

NPM   : 54410806

 

 

 

Latar belakang

Akhir-akhir ini, istilah ‘big data’ menjadi topik yang dominan dan sangat sering dibahas dalam industri IT. Banyak pihak yang mungkin heran kenapa topik ini baru menjadi pusat perhatian padahal ledakan informasi telah terjadi secara berkelangsungan sejak dimulainya era informasi. Perkembangan volume dan jenis data yang terus meningkat secara berlipat-lipat dalam dunia maya Internet semenjak kelahirannya adalah fakta yang tak dapat dipungkiri. Mulai data yang hanya berupa teks, gambar atau foto, lalu data berupa video hingga data yang berasal system pengindraan. Lalu kenapa baru sekarang orang ramai-ramai membahas istilah big data? Apa sebenarnya ‘big data’ itu?

Hingga saat ini, definisi resmi dari istilah big data belum ada. Namun demikian, latar belakang dari munculnya istilah ini adalah fakta yang menunjukkan bahwa pertumbuhan data yang terus berlipat ganda dari waktu ke waktu telah melampaui batas kemampuan media penyimpanan maupun sistem database yang ada saat ini. Kemudian, McKinseyGlobal Institute (MGI), dalam laporannya yang dirilis pada Mei 2011, mendefinisikan bahwa big data adalah data yang sudah sangat sulit untuk dikoleksi, disimpan, dikelola maupun dianalisa dengan menggunakan sistem database biasa karena volumenya yang terus berlipat. Tentu saja definisi ini masih sangat relatif, tidak mendeskripsikan secara eksplisit sebesar apa big data itu. Tetapi, untuk saat sekarang ini, data dengan volume puluhan terabyte hingga beberapa petabyte kelihatannya dapat memenuhi definis MGI tersebut. Di lain pihak, berdasarkan definisi dari Gartner, big data itu memiliki tiga atribute yaitu : volume , variety , dan velocity. Ketiga atribute ini dipakai juga oleh IBM dalam mendifinisikan big data. Volume berkaitan dengan ukuran, dalam hal ini kurang lebih sama dengan definisi dari MGI. Sedangkan variety berarti tipe atau jenis data, yang meliputi berbagai jenis data baik data yang telah terstruktur dalam suatu database maupun data yang tidak terorganisir dalam suatu database seperti halnya data teks pada web pages, data suara, video, click stream, log file dan lain sebagainya. Yang terakhir, velocity dapat diartikan sebagai kecepatan dihasilkannya suatu data dan seberapa cepat data itu harus diproses agar dapat memenuhi permintaan pengguna.

 

Pembahasan

Definisi Big Data

Jika diterjemahkan secara mentah-mentah maka Big Data berarti suatu data dengan kapasitas yang besar. Sebagai contoh, saat ini kapasitas DWH yang digunakan oleh perusahaan-perusahaan di Jepang berkisar dalam skala terabyte. Namun, jika misalnya dalam suatu sistem terdapat 1000 terabyte (1 petabyte) data, apakah sistem tersebut bisa disebut Big Data?

Satu lagi, Big Data sering dikaitkan dengan SNS (Social Network Service), contohnya Facebook. Memang benar Facebook memiliki lebih dari 800 juta orang anggota, dan dikatakan bahwa dalam satu hari Facebook memproses sekitar 10 terabyte data. Pada umumnya, SNS seperti Facebook tidak menggunakan RDBMS(Relational DataBase Management System) sebagai software pengolah data, melainkan lebih banyak menggunakan NoSQL. Lalu, apa kita bisa menyebut sistem NoSQL sebagaiBig Data?

Dengan mengkombinasikan kedua uraian diatas, dapat ditarik sebuah definisi bahwa Big Data adalah “suatu sistem yang menggunakan NoSQL dalam memproses atau mengolah data yang berukuran sangat besar, misalnya dalam skala petabyte“. Apakah definisi ini tepat? Boleh dikatakan masih setengah benar. Definisi tersebut masih belum menggambarkan Big Data secara menyeluruh. Big Datatidak sesederhana itu,

Big Data memuat arti yang lebih kompleks sehingga perlu definisi yang sedikit lebih kompleks pula demi mendeskripsikannya secara keseluruhan.

Mengapa butuh definisi yang lebih kompleks? Fakta menunjukkan bahwa bukan hanya NoSQL saja yang mampu mengolah data dalam skala raksasa (petabyte). Beberapa perusahaan telah menggunakan RDBMS untuk memberdayakan data dalam kapasitas yang sangat besar. Sebagai contoh, Bank of America memiliki DWH dengan kapasitas lebih dari 1,5 petabyteWallmart Stores yang bergerak dalam bisnis retail (supermarket) berskala dunia telah mengelola data berkapasitas lebih dari 2,5 petabyte, dan bahkan situs auction (lelang) eBay memiliki DWH yang menyimpan lebih dari 6petabyte data. Oleh karena itu, hanya karena telah berskala petabyte saja, suatu data belum bisa disebut Big Data. Sekedar referensi, DWH dengan kapasitas sangat besar seperti beberapa contoh diatas disebut EDW(Enterprise Data Warehouse) dan database yang digunakannya disebut VLDB(Very Large Database).

Memang benar, NoSQL dikenal memiliki potensi dan kapabilitas Scale Up (peningkatan kemampuan mengolah data dengan menambah jumlah server atau storage) yang lebih unggul daripada RDBMS. Tetapi, bukan berarti RDBMS tak diperlukan. NoSQL memang lebih tepat untuk mengolah data yang sifatnya tak berstruktur seperti data teks dan gambar, namun NoSQL kurang tepat bila digunakan untuk mengolah data yang sifatnya berstruktur seperti data-data numerik, juga kurang sesuai untuk memproses data secara lebih detail demi menghasilkan akurasi yang tinggi. Pada kenyataannya, Facebook juga tak hanya menggunakan NoSQL untuk memproses data-datanya, Facebook juga tetap menggunakan RDBMS. Lain kata, penggunaan RDBMS dan NoSQL mesti disesuaikan dengan jenis data yang hendak diproses dan proses macam apa yang dibutuhkan guna mendapat hasil yang optimal.

???

Gambar Big Data Infographic sumber intel.co.jp

Karakteristik Big Data : Volume, Variety, Velocity (3V)

Kembali ke pertanyaan awal, apakah sebenarnya Big Data itu? Sayang sekali, hingga saat ini masih belum ada definisi baku yang disepakati secara umum. Ada yang mendeskripsikan Big Data sebagai fenomena yang lahir dari meluasnya penggunaan internet dan kemajuan teknologi informasi yang diikuti dengan terjadinya pertumbuhan data yang luar biasa cepat, yang dikenal dengan istilah ledakan informasi (Information Explosion) maupun banjir data (Data Deluge). Hal ini mengakibatkan terbentuknya aliran data yang super besar dan terus-menerus sehingga sangat sulit untuk dikelola, diproses, maupun dianalisa dengan menggunakan teknologi pengolahan data yang selama ini digunakan (RDBMS). Definisi ini dipertegas lagi dengan menyebutkan bahwa Big Data memiliki tiga karakteristik yang dikenal dengan istilah 3V: Volume, Variety, Velocity. Dalam hal ini, Volumemenggambarkan ukuran yang superbesar, Variety menggambarkan jenis yang sangat beragam, danVelocity menggambarkan laju pertumbuhan maupun perubahannya. Namun demikian, definisi ini tentu masih sulit untuk dipahami. Oleh karena itu, uraian berikut mencoba memberikan gambaran yang lebih jelas dan nyata berkaitan dengan maksud definisi Big Data tersebut.

bigdata3V_ina

Gambar karakteristik big data

Bukan Hanya Masalah Ukuran, Tapi Lebih pada Ragam

Kini jelas bahwa Big Data bukan hanya masalah ukuran yang besar, terlebih yang menjadi ciri khasnya adalah jenis datanya yang sangat beragam dan laju pertumbuhan maupun frekwensi perubahannya yang tinggi. Dalam hal ragam data, Big Data tidak hanya terdiri dari data berstruktur seperti halnya data angka-angka maupun deretan huruf-huruf yang berasal dari sistem database mendasar seperti halnya sistem database keuangan, tetapi juga terdiri atas data multimedia seperti data teks, data suara dan video yang dikenal dengan istilah data tak berstruktur. Terlebih lagi, Big Data juga mencakup data setengah berstruktur seperti halnya data e-mail maupun XML. Dalam hal kecepatan pertumbuhan maupun frekwensi perubahannya, Big Data mencakup data-data yang berasal dari berbagai jenis sensor, mesin-mesin, maupun data log komunikasi yang terus menerus mengalir. Bahkan, juga mencakup data-data yang tak hanya data yang berada di internal perusahaan, tetapi juga data-data di luar perusahaan seperti data-data di Internet. Begitu beragamnya jenis data yang dicakup dalam Big Data inilah yang kiranya dapat dijadikan patokan untuk membedakan Big Data dengan sistem manajemen data pada umumnya.

 

Fokus pada Trend per-Individu, Kecepatan Lebih Utama daripada Ketepatan

Hingga saat ini, pendayagunaan Big Data didominasi oleh perusahaan-perusahaan jasa berbasis Internet seperti halnya Google dan Facebook. Data yang mereka berdayakan pun bukanlah data-data internal perusahaan seperti halnya data-data penjualan maupun data pelanggan, lebih menitik beratkan pada pengolahan data-data teks dan gambar yang berada di Internet. Bila kita melihat gaya pemberdayaan data yang dilakukan oleh perusahaan-perusahaan pada umumnya, yang dicari adalahtrend yang didapat dari pengolahan data secara keseluruhan. Misalnya, dari data konsumen akan didapat informasi tentang trend konsumen dengan memproses data konsumen secara keseluruhan, bukan memproses data per-konsumen untuk mendapatkan trend per-konsumen. Dilain pihak, perusahaan-perusahaan jasa berbasis Internet yang memanfaatkan Big Data justru memfokuskan pemberdayaan data untuk mendapatkan informasi trend per-konsumen dengan memanfaatkan atribut-atribut yang melekat pada pribadi tiap konsumen. Sebut saja toko online Amazon yang memanfaatkan informasi maupun atribut yang melekat pada diri per-konsumen, untuk memberikan rekomendasi yang sesuai kepada tiap konsumen. Satu lagi, pemberdayaan data ala Big Data ini dapat dikatakan lebih berfokus pada kecepatan ketimbang ketepatan.

MapReduce

MapReduce adalah model pemrograman rilisan Google yang ditujukan untuk memproses data berukuran raksasa secara terdistribusi dan paralel dalam cluster yang terdiri atas ribuan komputer. Dalam memproses data, secara garis besar MapReduce dapat dibagi dalam dua proses yaitu proses Map dan proses Reduce. Kedua jenis proses ini didistribusikan atau dibagi-bagikan ke setiap komputer dalam suatu cluster (kelompok komputer yang salih terhubung) dan berjalan secara paralel tanpa saling bergantung satu dengan yang lainnya. Proses Map bertugas untuk mengumpulkan informasi dari potongan-potongan data yang terdistribusi dalam tiap komputer dalam cluster. Hasilnya diserahkan kepada proses Reduce untuk diproses lebih lanjut. Hasil proses Reduce merupakan hasil akhir yang dikirim ke pengguna.

Dari definisinya, MapReduce mungkin terkesan sangat ribet. Untuk memproses sebuah data raksasa, data itu harus dipotong-potong kemudian dibagi-bagikan ke tiap komputer dalam suatu cluster. Lalu proses Map dan proses Reduce pun harus dibagi-bagikan ke tiap komputer dan dijalankan secara paralel. Terus hasil akhirnya juga disimpan secara terdistribusi. Benar-benar terkesan merepotkan.

Beruntunglah, MapReduce telah didesain sangat sederhana alias simple. Untuk menggunakan MapReduce, seorang programer cukup membuat dua program yaitu program yang memuat kalkulasi atau prosedur yang akan dilakukan oleh proses Map dan Reduce. Jadi tidak perlu pusing memikirkan bagaimana memotong-motong data untuk dibagi-bagikan kepada tiap komputer, dan memprosesnya secara paralel kemudian mengumpulkannya kembali. Semua proses ini akan dikerjakan secara otomatis oleh MapReduce yang dijalankan diatas Google File System

gambar1MapReduce

Gambar map and reduce Google file service

Program yang memuat kalkulasi yang akan dilakukan dalam proses Map disebut Fungsi Map, dan yang memuat kalkulasi yang akan dikerjakan oleh proses Reduce disebut Fungsi Reduce. Jadi, seorang programmer yang akan menjalankan MapReduce harus membuat program Fungsi Map dan Fungsi Reduce. Fungsi Map bertugas untuk membaca input dalam bentuk pasangan Key/Value, lalu menghasilkan output berupa pasangan Key/Value juga. Pasangan Key/Value hasil fungsi Map ini disebut pasangan Key/Value intermediate. Kemudian, fungsi Reduce akan membaca pasangan Key/Value intermediate hasil fungsi Map, dan menggabungkan atau mengelompokkannya berdasarkan Key tersebut. Lain katanya, tiap Value yang memiliki Key yang sama akan digabungkan dalam satu kelompok. Fungsi Reduce juga menghasilkan output berupa pasangan Key/Value. Untuk memperdalam pemahaman, mari kita simak satu contoh. Taruhlah kita akan membuat program MapReduce untuk menghitung jumlah tiap kata dalam beberapa file teks yang berukuran besar.Dalam program ini, fungsi Map dan fungsi Reduce dapat didefinisikan sebagai berikut:

 

map(String key, String value):

//key : nama file teks.

//value: isi file teks tersebut.

for each word W in value:

emitIntermediate(W,”1″);

reduce(String key, Iterator values):

//key : sebuah kata.

//values : daftar yang berisi hasil hitungan.

int result = 0;

for each v in values:

result+=ParseInt(v);

emit(AsString(result));

 

Hasil akhir  dari program ini adalah jumlah dari tiap kata yang terdapat dalam file teks yang dimasukkan sebagai input program ini.

Gambar Menghitung jumlah tiap kata pada dokumen

gambar2MapReduce

 

Dari segi teknologi, dipublikasikannya GoogleBigtable pada 2006 telah menjadi moment muncul dan meluasnya kesadaran akan pentingnya kemampuan untuk memproses ‘big data’. Berbagai layanan yang disediakan Google, yang melibatkan pengolahan data dalam skala besar termasuk search engine-nya, dapat beroperasi secara optimal berkat adanya Bigtable yang merupakan sistem database berskala besar dan cepat. Semenjak itu, teknik akses dan penyimpanan data KVS (Key-Value Store) dan teknik komputasi paralel yang disebutMapReduce mulai menyedot banyak perhatian. Lalu, terinspirasi oleh konsep dalam GoogleFile System dan MapReduce yang menjadi pondasi Google Bigtable, seorang karyawan Yahoo! bernama Doug Cutting kemudian mengembangkan software untuk komputasi paralel terdistribusi (distributed paralel computing) yang ditulis dengan menggunakan Java dan diberi nama Hadoop. Saat ini Hadoop telah menjadi project open source-nyaApache Software. Salah satu pengguna Hadoop adalah Facebook, SNS (Social Network Service) terbesar dunia dengan jumlah pengguna yang mencapai 800 juta lebih. Facebook menggunakan Hadoop dalam memproses big data seperti halnya content sharing, analisa access log, layanan message / pesan dan layanan lainnya yang melibatkan pemrosesan big data.

 

Kesimpulan

Berdasar uraian diatas, dapat ditarik kesimpulan bahwa yang dimaksud dengan ‘big data’ bukanlah semata-mata hanya soal ukuran, bukan hanya tentang data yang berukuran raksasa. Big data adalah data berukuran raksasa yang volumenya terus bertambah, terdiri dari berbagai jenis atau varietas data, terbentuk secara terus menerus dengan kecepatan tertentu dan harus diproses dengan kecepatan tertentu pula. Momen awal ketenaran istilah ‘big data’ adalah kesuksesan Google dalam memberdayakan ‘big data’ dengan menggunakan teknologi canggihnya yang disebut Bigtable beserta teknologi-teknologi pendukungnya

 

Daftar Pustaka

http://vijjam.blogspot.com/2013/03/apa-itu-big-data.html

http://vijjam.blogspot.com/2013/12/memahami-definisi-big-data.html

http://vijjam.blogspot.jp/2013/02/mapreduce-besar-dan-powerful-tapi-tidak.html

 

 

 

Distributed Computation dalam Cloud Computing

Distributed Computation dalam Cloud Computing

Nama   : Muhammad Rizki

Kelas   : 4ia17

NPM   : 54410806

  1. Latar Belakang

Cloud computing adalah model komputasi dimana sumber daya seperti daya komputasi, media penyimpanan, jaringan dan software dijalankan sebagai layanan melalui media jaringan, bahkan dapat diakses di tempat manapun selama terkoneksi dengan internet.

Kelebihan Cloud Computing:

a. Lebih efisien karena menggunakan anggaran rendah untuk resource nya.

b. Dapat berorientasi dengan mudah pada perkembangan yang cepat.

Kekurangan Cloud Computing:

a. Tidak dapat dilakukan jika tidak terhubung ke internet.

b. Jika koneksi internet lambat maka cloud computing tidak optimal digunakan

c. Fitur yang dihadirkan tidak selengkap aplikasi desktop

d.Data yang disimpan dalam awan tidak begitu aman karena diperbanyak dibeberapa mesin.

  1. Penjelasan

Distributed Computing adalah ilmu yang memecahkan masalah besar dengan memberikan bagian kecil dari masalah untuk banyak komputer untuk memecahkan dan kemudian menggabungkan solusi untuk bagian-bagian menjadi solusi untuk masalah tersebut. Distributed computing terkait dengan system perangkat keras dan perangkat lunak yang memiliki lebih dari satu elemen pemrosesan atau storage element.

cloud computing

Pada cloud computing, penyimpanan data hanya dilakukan pada server utama, sehingga pengguna hanya dapat mengaksesnya tanpa harus mengetahui infrastruktur pembuatan aplikasinya. Hanya perlu interface software saja untuk mengakses server. Interface ini pada umumnya merupakan web browser yang tersedia dengan banyak pilihan dan tidak berbayar.

Cloud computing dipecah ke dalam beberapa kategori yang berbeda berdasarkan jenis layanan yang disediakan. SaaS (Software as a Service) adalah kategori komputasi awan di mana sumber daya utama yang tersedia sebagai layanan perangkat lunak aplikasi. PaaS (Platform as a Service) adalah kategori / penerapan komputasi awan di mana penyedia layanan memberikan platform komputasi atau solusi tumpukan untuk pelanggan mereka melalui internet. IaaS (Infrastructure as a Service) adalah kategori komputasi awan di mana sumber daya utama yang tersedia sebagai layanan yang infrastruktur perangkat keras. DaaS (Desktop sebagai Layanan), yang merupakan layanan muncul-Aas berkaitan dengan memberikan pengalaman seluruh desktop melalui internet. Ini kadang-kadang disebut sebagai virtualisasi desktop / virtual desktop atau desktop host.

Bidang ilmu komputer yang berkaitan dengan sistem terdistribusi disebut komputasi terdistribusi. Sebuah sistem terdistribusi terdiri dari lebih dari satu komputer self-directed berkomunikasi melalui jaringan. Komputer-komputer ini menggunakan memori lokal mereka sendiri. Semua komputer dalam sistem terdistribusi berbicara satu sama lain untuk mencapai tujuan bersama tertentu. Atau, pengguna yang berbeda pada setiap komputer mungkin memiliki kebutuhan individu yang berbeda dan sistem terdistribusi akan melakukan koordinasi sumber daya bersama (atau bantuan berkomunikasi dengan node lain) untuk mencapai tugas-tugas masing-masing. Node berkomunikasi menggunakan message passing. Komputasi terdistribusi juga dapat diidentifikasi sebagai menggunakan sistem terdistribusi untuk memecahkan masalah besar tunggal dengan melanggar itu dengan tugas, masing-masing yang dihitung masing-masing komputer dari sistem terdistribusi. Biasanya, mekanisme toleransi berada di tempat untuk mengatasi kegagalan komputer individu. Struktur (topologi, delay dan kardinalitas) dari sistem ini tidak dikenal di muka dan itu bersifat dinamis. Komputer individu tidak harus tahu segala sesuatu tentang seluruh sistem atau masukan lengkap (untuk masalah yang akan dipecahkan).

  1. Kesimpulan

Cloud computing adalah teknologi yang memberikan berbagai jenis sumber daya sebagai layanan, terutama melalui internet, sedangkan komputasi terdistribusi adalah konsep menggunakan sistem terdistribusi terdiri dari banyak node diatur sendiri untuk memecahkan masalah yang sangat besar (yang biasanya sulit untuk diselesaikan dengan satu komputer). Cloud computing pada dasarnya adalah penjualan dan model distribusi untuk berbagai jenis sumber daya melalui internet, sedangkan komputasi terdistribusi dapat diidentifikasi sebagai jenis komputasi, yang menggunakan sekelompok mesin untuk bekerja sebagai satu kesatuan untuk memecahkan masalah skala besar. Komputasi terdistribusi mencapai hal ini dengan memecah masalah ke tugas sederhana, dan menugaskan tugas-tugas ke node individu.

  1. Daftar Pustaka
  2. http://myblogisland.blogspot.com/2013/04/cloud-computing.html
  3. http://simply-posting.blogspot.com/2014/05/pengantar-komputasi-cloud.html
  4. http://seto.citravision.com/berita-38-pengantar-komputasi-cloud—distributed-computation-dalam-cloud-computing.html

Pengantar Bisnis Pertemuan 4

Tugas Softskill Minggu 4
Pada minggu keempat kami berhasil menyelesaikan target dengan total download 500 yaitu aplikasi pembelajaran kimia kelas 10

Aplikasi ini banyak di download
Karena ukuran yang kecil, terlebih lagi sebagian besar yang mendownload anak sekolah. Dan mereka pun meminta supaya kami mengembangkan aplikasi untuk kelas 11 dan kelas 12.

Ini adalah screenshot hasil pencapaian kami

Capturdddde

Pengantar Bisnis pertemuan 3

Tugas Softskill Minggu 3
Pada minggu ketiga kami mengupload pada server khusus untuk develope aplikasi android. Di karenakan pada mediafire banyak yang kurang yakin takut di anggap hoax..

Untitled
http://www.droidbin.com/p189gpuajp1snp190am2is2s1rrs3

Untitled1
http://www.droidbin.com/p18af8iapnbb83pj7eo10jmqd73

Untitled2
http://www.droidbin.com/p18afakgsg1mbk2k4urc17kb7j73

ini adalah hasil pencapaian setelah di unggah pada droidbin.com

Untitled3

softskill pengantar bisnis 1

Tugas Softskill Minggu 1
Pada minggu pertama kami tidak memilih untuk membuat bisnis di bidang IT namun memilih membuat aplikasi untuk di download sebanyak 500 x
Aplikasi yang kami buat adalah sholat sunnah dan belajar kimia
Ini adalah hasil download pada minggu pertama per tanggal 30 Oktober 2013

gambaran download

http://www.mediafire.com/download/c0d1cgwbtvlitcl/AplikasiPembelajaranKimiaKelasXSMA.apk

http://www.mediafire.com/download/h2rhq8nf45xsib4/sholatsunnah.apk

Pentingnya Normalisai pada basis data

Seberapa pentingnya penggunaan normalisasi pada basis data ?
ini mungkin pertanyaan yang muncul pada forum
maka atas berbagai artikel yang saya baca dapat saya simpulkan
bahwa sangat penting sekali normalisasi dalam basis data dengan alasan
1. meminimalkan penggunaan media penyimpan data, suatu basis data pasti akan terus berubah dan bertambah jumlahnya, untuk mengurangi data yang berganda maka normalisasi pasti di butuhkan, supaya masalah di masa mendatang tidak terjadi
2. meminimalkam anomali, basis data yang baik, ialah basis data yang memiliki struktur relasi yang baik, relasi yang baik memiliki kerangkapan data yang sedikit, beberapa proses anomali dapat mengganngu jalannya sebuah basis data, jadi seorang DBA harus mampu meminimalkan anomali supaya data yang ada dapat stabil dan user pun dapat dengan mudah menggunakannya sehingga tidak terjadi ERROR.

untuk lebih lengkapnya bisa di baca
Seberapa pentingnya penggunaan normalisasi pada basis data