Saturday, May 24, 2014

Super Computer

BAB I
PENDAHULUAN
1.1 Latar Belakang
Pemanfaatan komputer mempunyai andil yang besar dalam pengembangan ilmu pengetahuan dan teknologi yang demikian pesat saat ini. Penggunaan komputer tidak terbatas pada perhitungan matematis, pengolahan dan penyimpanan data, serta otomatisasi pekerjaan tetapi juga pada pengembangan metode-metode baru pemecahan masalah. Kemampuannya dalam banyak hal ditunjang perkembangan teknologi hardware dan software yang tiada henti, membuat komputer menjadi komponen vital bagi kehidupan manusia modern.
Tuntutan yang terus meningkat dari komputer adalah kapasitas yang semakin besar dan kinerja yang semakin cepat. Hal ini membawa teknologi komputer melalui fase-fase perkembangan yang panjang. Dua hardware utama yang mengalami perkembangan sangat signifikan adalah prosesor dan memori.
Walaupun demikian keduanya memiliki keterbatasan sehingga pengembangan software pun menjadi solusi yang selalu siap mengatasinya. Bisa dikatakan perkembangan teknologi hardware dan software komputer berjalan saling melengkapi satu sama lain.
3
BAB 2
PEMBAHASAN SUPER KOMPUTER
2.1 Pengertian Super Komputer
Superkomputer adalah sebuah komputer yang memimpin di dunia dalam kapasitas proses, terutama kecepatan penghitungan, pada awal perkenalannya. Superkomputer diperkenalkan pada tahun 1960-an, didesain oleh Seymour Cray di Control Data Corporation (CDC), memimpin di pasaran pada tahun 1970-an sampai Cray berhenti untuk membentuk perusahaanya sendiri, Cray Research.
Dia kemudian mengambil pasaran superkomputer dengan desainnya, dalam keseluruhan menjadi pemimpin superkomputer selama 25 tahun (1965-1990). Pada tahun 1980an beberapa pesaing kecil memasuki pasar, yang bersamaan dengan penciptaan komputer mini dalam dekade sebelumnya. Sekarang ini, pasar superkomputer dipegang oleh IBM dan HP, meskipun Cray Inc. masih menspesialisasikan dalam pembuatan superkomputer.
1. Penggunaan
Superkomputer digunakan untuk tugas penghitungan-intensif seperti prakiraan cuaca, riset iklim (termasuk riset pemanasan global, pemodelan molekul, simulasi fisik (seperti simulasi kapal terbang dalam terowongan angin, simulasi peledakan senjata nuklir, dan riset fusi nuklir), analisikrip, dan lain-lain. Militer dan agensi sains salah satu pengguna utama superkomputer.
2. Desain
Superkomputer lebih unggul dalam kecepatan daripada komputer di rumah-rumah biasa dengan menggunakan desain inovatif berbentuk lemari yang membuat mereka dapat melakukan banyak tugas secara paralel, dan juga detail sipil yang rumit. Komputer ini biasanya dikhususkan untuk penghitungan tertentu, biasanya penghitungan angka, dan tidak bagus hasilnya dalam tugas umum. Hirarki memorinya didesain secara hati-hati untuk memastikan prosesornya tetap menerima data dan instruksi setiap saat; dalam kenyataan, perbedaan performa dengan komputer biasa terletak di hirarki memori dan komponennya. Sistem I/Onya juga didesain supaya bisa mendukung bandwidth yang lebar.
4
Seperti dengan sistem paralel pada umumnya, hukum Amdahl berlaku, dan superkomputer didesain untuk menghilangkan kelemahan susunan seri, dan menggunakan hardware sistem paralel untuk mempercepat dari kelemahan sempitnya bandwidth.
3. kecepatan pengolahan data superkomputer
Kecepatan superkomputer diukur dengan satuan FLOPS (Floating Point Operations per Second). Kecepatan superkomputer rata2 adalah pada level TeraFLOPS (TFLOPS) yaitu level 10 pangkat 12 dan PetaFLOPS (PFLOPS) yaitu level 10 pangkat 15 atau sama dengan kecepatan 1000 triliun floating proses/detik. Petaflop maksudnya jumlah operasi yang bisa dilakukan, tidak sama dengan kb/s atau gb/s. 1 petaflop = 10^15 (1.000.000.000.000.000) flops. Misalkan Superkomputer mempunyai kecepatan 33,68 maka super komputer ini bisa melakukan 33,68 x 10
5
pangkat 15 operasi/detik. Kalau prosesor intel i7 kira-kita 7 GFlop= 7x10^ 9. Jadi Tianhe-2 lebih cepat hampir 5 juta kali dari komputer berprosesor intel i7.
2.2 Sejarah Dan Perkembagan
Sejarah Super Komputer telah dimulai ketika komputer itu sendiri lahir. Pada saat permulaan era digital, Piranti seperti Colossus Mark 1 dan 2, serta ENIAC berukuran sangat besar dan mampu memenuhi satu ruangan. Term ‘supercomputer’ baru muncul pada era 60-an, dan selalu dihubungkan dengan seseorang bernama Seymour Cray. Cray sekarang juga digunakan sebagai nama salah satu superkomputer. Dia mulai mendesain mesin-mesin saat masih bekerja pada Control Data Corporation (CDC), sebuah perusahaan yang telah memproduksi komputer-komputer tercepat pada saat itu. Cray berencana membuat sebuah komputer yang 50 kali lebih cepat daripada computer tercepat yang dijual oleh CDC pada saat itu, yaitu 16044 8-bit. Pekerjaan itu menyita waktunya beberapa tahun, sehingga menimbulkan kekhawatiran di manajemen CDC, namun pada 1964 CDC 6600 keluar.
Hingga era 60-an, kemampuan processing komputer diukur dari seberapa banyak operasi per detik (OPS/operations per second) yang dapat dilakukan. Colossus dapat melakukan 5,000 OPS, ENIAC 100,000 OPS, dan mesin tercepat tahun 50-an milik IBM yang bernama AN/FSQ-7 ‘hanya’ mampu mencapai 400,000 OPS. Saat CDC 6600 muncul, IBM telah menggandakan hingga 3 kali kecepatan tersebut berkat diadopsinya transistor. Ketika itu pengukuran telah berubah dari integer OPS menjadi floating point (FLOPS). CDC 6600 dapat mencapai 3 MFLOPS atau setara 3 juta FLOPS.
Lompatan yang dilakukan oleh CDC 6600 telah melahirkan sebuah konsep yang kita kenal sekarang dengan supercomputer. Lima tahun kemudian, CDC membuat langkah yang lebih besar. CDC 7600 mampu mencapai 10 kali kemampuan 6600, yaitu hingga 36 MFLOPS, dan trend pun terus berlanjut dengan STAR-100 yang mencapai 100 MFLOPS lima tahun kemudian. Dalam dua tahun berikutnya, Seymour Cray keluar CDC untuk membentuk perusahaannya sendiri. Produk pertamanya, Cray 1, mencapai 250 MFLOPS pada 1976.
Sejak itu, performa supercomputer meningkat setiap dekade. Superkomputer pertama yang mencapai GFLOPS (GigaFLOPS atau 1000 MFLOPS) muncul pada 1986 yaitu Cray2. Lalu Superkomputer pertama yang mencapai TFLOP (TeraFLOPS atau 1000 GFLOPS) dicapai oleh ASCI Red milik Intel pada 1997. Pada 2008, Roadrunner milik
6
IBM menjadi superkomputer pertama yang mencapai PFLOP (PetaFLOPS atau 1000 TFLOPS). Roadrunner masih menjadi superkomputer tercepat saat ini.
Perkembangan kemampuan superkomputer dapat dilihat dari perbandingan berikut : komputer desktop yang tercepat saat ini menggunakan processor quad-core dalam satu PC dapat mencapai hingga lebih dari 50 GFLOPS, angka yang sama dengan yang di capai oleh superkomputer-superkomputer pada awal 1990-an.
Kemampuan sebesar itu didapat dengan menggabungkan ratusan, ribuan, bahkan jutaan prosesor yang bekerja secara parallel. Namun di era internet saat ini, paradigma parallel computing telah meluas ke skala global. Superkomputer tidak hanya dibangun dalam satu ruang menjadi satu kesatuan, namun dapat dibangun dengan memanfaatkan komputer-komputer personal yang terhubung ke internet. Roadrunner mungkin superkomputer tunggal yang tercepat, namun ada satu superkomputer terdistribusi yang mencapai 4,27 PFLOPS. Sistem itu adalah suatu project bernama Folding@Home. Folding@Home adalah sebuah project distributed computing yang bertujuan untuk mensimulasi pembentukan protein yang digunakan untuk membuat obat bagi penderita Alzheimer, Parkinson, Mad Cow, dan lain-lain. Kita dapat berpartisipasi dengan mendownload program dari situs F@H, dan program itu akan menggunakan resource kita saat idle dan mengirimkan hasil komputasi ke server. Dengan kombinasi jutaan PC di dunia yang terhubung internet sistem distributed computing ini dapat mencapai kecepatan tersebut.
Teknologi dan kemampuan superkomputer saat ini masih terus berkembang. IBM sedang mengembangkan sebuah superkomputer bernama Sequoia yang direncanakan selesai tahun 2012. Sequoia dirancang untuk mencapai 20 PFLOPS atau 20 kali superkomputer tercepat saat ini Roadrunner (1,1 PFLOPS).
2.3 Super Komputer Masa Kini
Salah satu produk superkomputer buatan Cray Inc. yang berbasis di Oak Ridge National Laboratory, Tennesssee, memasuki daftar teratas dalam daftar Top 500 superkomputer tercepat dunia. Kecepatannya mencapai 1,7 Petaflops, artinya mampu mengerjakan 1,7 Kuadriliun operasi komputasi per detik. Sementara itu, Dawning nebulae superkomputer buatan Cina, yang ada di National Supercomputing Center di Shenzhen, China, menempel ketat di belakang Jaguar dengan 1,27 Petaflops per detik. Bahkan, tidak lama lagi pendatang baru dari IBM, Sequoia siap menyaingi keduanya.
7
Diharapkan, tahun 2011 IBM menyelesaikan Sequoia yang memiliki performa 20 kali lebih super dibanding Roadrunner atau lebih besar dari 400.000 prosesor dengan CPU 3 GHz quadcore. Berapa besar 20 Petaflops ini? IBM menganalogikannya ”kalkulasi yang dihitung Sequoia selama satu hari, membutuhkan 1000 tahun dan 6 milyar orang untuk menghitungnya dengan kalkulator”.
Setelah mengetahui performa yang begitu luar biasa, timbul pertanyaan, apa kegunaan superkomputer? Apa saja yang sanggup dilakukannya? Salah satu jawabannya adalah untuk penelitian dan pengetahuan. Contoh yang dapat dilihat adalah untuk simulasi proses alam dengan kendali komputer. Dengan superkomputer dapat diketahui bagaimana racun menyebar dalam tanah dan membutuhkan waktu hingga ia terurai. Kita juga dapat mengkalkulasi arus magnet dalam inti bumi, mensimulasi pembentukan galaksi, menampilkan apa yang terjadi saat supernova, atau bagaimana efek tembakan laser pada berbagai material (penting untuk penelitian dan pengembangan akselerator partikel seperti yang digunakan untuk menangani penyakit tumor).
Dengan superkomputer, efek inovasi obat-obatan juga dapat diteliti tanpa harus menyiksa hewan-hewan sebagai media percobaan. Bahkan, superkomputer mampu meramalkan kapan gempa bumi berikutnya yang akan terjadi di suatu belahan dunia dan area mana saja yang terkena dampaknya. Dan juga sekarang supercomputer banyak digunakan dalam penyelesaian masalah kompleks seperti fisika kuantum, peramalan cuaca, penelitian iklim, pemodelan molekul, dan simulasi percobaan fisika. Semua permasalahan di atas membutuhkan perhitungan yang cepat dan tepat sehingga penggunaan supercomputer sangatlah tepat jika dibandingkan dengan menggunakan komputer biasa (PC).
Superkomputer sangat penting bagi penelitian, jelas Klaus Wolkersdorfer, kepala bagian sistem komputer performa tinggi di pusat penelitian di Jülich, Jerman. Di samping teori dan eksperimen, superkomputer telah berkembang menjadi pilar ketiga dalam dunia sains.
Inilah daftar superkomputer terbaik di dunia: Rank Company Computer 1. Titan (Oak Ridge National Laboratory, AS) kecepatan proses 17,6 petaflop. CPU berbasiskan AMD Cray dan GPU Nvidia dengan total 560.640 inti. 2. Oak Ridge National Laboratory United States Jaguar - Cray XT5-HE Opteron Six Core 2.6 GHz Cray Inc.
8
3. National Supercomputing Centre in Shenzhen (NSCS) China Nebulae - Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU Dawning 4. DOE/NNSA/LANL United States Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband IBM 5. National Institute for Computational Sciences/University of Tennessee United States Kraken XT5 - Cray XT5-HE Opteron Six Core 2.6 GHz Cray Inc. 6. Forschungszentrum Juelich (FZJ) Germany JUGENE - Blue Gene/P Solution IBM 7. NASA/Ames Research Center/NAS United States Pleiades - SGI Altix ICE 8200EX/8400EX, Xeon HT QC 3.0/Xeon Westmere 2.93 Ghz, Infiniband SGI 8. National SuperComputer Center in Tianjin/NUDT China Tianhe-1 - NUDT TH-1 Cluster, Xeon E5540/E5450, ATI Radeon HD 4870 2, Infiniband NUDT 9. DOE/NNSA/LLNL United States BlueGene/L - eServer Blue Gene Solution IBM 10. Argonne National Laboratory United States Intrepid - Blue Gene/P Solution IBM 11. Sandia National Laboratories / National Renewable Energy Laboratory United States Red Sky - Sun Blade x6275, Xeon X55xx 2.93 Ghz, Infiniband Sun Microsystems
9
2.4 PREDIKSI SUPER KOMPUTER YANG AKAN DATANG
1. Super Komputer: 10 tahun lagi mencapai exaflops
Teknologi dan inovasi Superkomputer akan terus berlanjut. Saya memperkirakan 10 tahun lagi akan hadir super komputer yang mampu menembus batas Exaflops. Namun, saya tidak tahu persis apakah sebuah pembangkit tenaga nuklir mampu menyuplai listrik bagi sebuah pusat komputasi semacam itu, karena ukuran superkomputernya akan sebesar sebuah kota dan akan menjadi sebuah mega proyek raksasa, ujar Cornelius.
2. Super Komputer Yang Mampu Memprediksi Masa Depan.
Sebuah rencana besar sedang dipersiapkan dengan matang oleh sekitar 30 peneliti di bidang IT di Eropa, yaitu perancangan sebuah superkomputer bernama Living Earth Simulator (LES). Komputer ini bukan komputer biasa karena nantinya ia memiliki kemampuan untuk menyimulasikan hal apa pun yang ada dan terjadi di bumi menggunakan semua data yang berasal dari Twitter maupun statistik pemerintah untuk memetakan pergerakan sosial dan memprediksikan krisis ekonomi selanjutnya. Ya, komputer ini mampu “melihat” tren yang sedang berkembang di masyarakat dan menganalisisnya untuk memprediksikan kondisi di masa depan hanya dengan mengumpulkan data yang ada di internet.
Dirk Helbing, salah satu pemimpin proyek ini menyatakan bahwa saat ini banyak permasalahan yang dihadapi masyarakat dunia, termasuk ketidakstabilan ekomoni dan sosial, peperangan, dan penyebaran wabah penyakit. Semua hal tersebut dipengaruhi oleh perilaku manusia tetapi di sisi lain banyak pihak yang tidak menyadari cara kerja kemasyaralatan dan perekonomian. Proyek LES diklaim akan mampu memprediksikan penyebaran wabah penyakit (contohnya flu burung), mengidentifikasi metode untuk menanggulangi perubahan iklim, dan bahkan “melihat” krisis ekonomi yang akan datang. Keseluruhan kemungkinan ini membuat LES akan menjadi hardware yang akan menampung data dengan jumlah yang luas biasa besar dan menganalisisnya dengan skala raksasa. Diharapkan LES dapat menggunakan segudang data yang ada di internet untuk memprediksi krisis ekonomi yang akan datang.
Proyek berbujet 900 juta poundsterling ini mendapatkan skeptisisme di kalangan beberapa peneliti yang melihatnya sebagai rencana yang tidak realistis dan terlalu ambisius. “Ranah sosial dan perilaku manusia terlalu sulit untuk dianalisis karena tren sosial tidak hanya kompleks namun juga berubah seiring berjalannya
10
waktu. Kekompleksitasan dunia terlalu besar. Bahkan kami tidak dapat membuat pola cuaca untuk waktu lebih dari beberapa hari,” ujar Iain Begg, profesor Studi Eropa, Sekolah Ekonomi London.
2.5 Contoh hubungan antara cloud computing dan super komputer
Komputer Super Fujitsu Terpilih untuk Mendukung Proyek National Computational Infrastructure (NCI) Australia
Performa secara teoritis 1,2 petaflop akan menjadikannya sebagai salah satu komputer super tercepat di dunia; Proyek NCI menggunakan klaster x86 HPC terbesar dari merek apapun di Belahan Bumi bagian Selatan, dan penggunaan PRIMERGY terbesar di seluruh dunia.
Tokyo, 15 Juni 2012 — Fujitsu telah terpilih untuk menghadirkan dan membangun komputer super baru, sekaligus mengukuhkan kerja sama dengan National Computational Infrastructure (NCI)(1) yang diprakarsai oleh Australian National University (ANU) guna menyediakan layanan komputasi canggih bagi komunitas riset Australia. Komputer super dengan klaster x86 terbaru yang berbasis server Fujitsu PRIMERGY akan dipasang pada datacenter baru di Canberra, Australia mulai pertengahan Desember 2012, dengan jadwal serah terima pada awal tahun 2013. Selain pembangunan dan pemasangan, kontrak dalam proyek ini termasuk kerja sama untuk sejumlah proyek riset, terutama terkait pemodelan cuaca dan iklim.
Super komputer baru itu menawarkan performa secara teroritis sebesar 1,2 petaflop(2) dengan kapasitas penyimpanan data hingga 12 petabyte. Komputer super ini didukung oleh teknologi klaster x86 dan tediri dari 50 rak berisi node komputasi 3.592 PRIMERGY CX250 yang dilengkapi dengan 7.184 CPU di dalam 898 sasis PRIMERGY CX400.
Fujitsu terpilih untuk menawarkan teknologi PRIMERGY x86 agar dapat memenuhi persyaratan yang ketat dari ANU dalam hal kebutuhan kinerja, efisiensi serta benchmarking. Disain HPC inovatif sudah mengikuti standard industri, yang akan menawarkan performa harga yang lebih baik; akses yang lebih besar terhadap aplikasi vendor piranti lunak; sekaligus menyederhanakan proses migrasi aplikasi teknologi x86.
ANU dan Fujitsu akan bekerja sama dalam banyak proyek terkait ilmu komputasi termasuk cuaca, iklim, pencegahan bencana, dan penggunaan komputer super yang lebih maju. Riset ini, yang direncakan akan berlangsung hingga 4 tahun ke depan, akan
11
menggunakan komputer super Fujitsu PRIMEHPC FX10(3), dengan kinerja yang lebih baik pada teknologi komputer super Fujitsu “K-Computer“(4) serta komputer bertipe klaster x86 terbaru. Melalui gabungan teknologi komputer super yang ditawarkan Fujitsu serta keahlian aplikasi yang maju buatan para periset Australia, kerja sama ini akan menuju pengembangan infrastruktur komputer super yang berkinerja lebih tinggi.
Terkait dengan peran komputer super baru itu, Vice-Chancellor ANU Profesor Ian Young mengatakan: "Komputer super baru itu akan menawarkan kemampuan yang dibutuhkan Australia dalam menghadapi berbagai tantangan nasional. Ini akan membawa penelitian Australia ke jenjang baru seperti pemodelan cuaca dan iklim, relasi komputasi, partikel fisika, astronomi, ilmu pengetahuan yang bersifat material, mikrobiologi, nanoteknologi dan fotonik."
Mike Foster, Chief Executive Officer Fujitsu Australia dan New Zealand, mengatakan: "Saat semuanya sudah selesai, Komputer Super NCI akan menjadi salah satu computer tercepat dan terbesar di dunia. Hal ini menunjukkan kemampuan Fujitsu untuk memanfaatkan sumber daya global untuk kemudian digabungkan dengan kemampuannya yang kuat dalam layanan cloud, pengembangan aplikasi dan layanan yang terkelola di tingkat lokal. Kami bangga dapat membantu ANU dan NCI dalam memainkan perannya yang vital sebagai salah satu pemimpin dalam kegiatan penelitian di Australia."
Masahiko Yamada, Presiden Unit Technical Computing Solutions Fujitsu, mengatakan: "Tujuan Fujitsu adalah berkontribusi kepada masa depan yang lebih cerah dengan menggunakan manfaat dari komputer super. Agar dapat menyelesaikan proyek ini, yang dibutuhkan adalah kerja sama dari para peneliti dan ilmuwan dari seluruh dunia. Inilah mengapa kami sangat bersemangat untuk memberikan solusi HPC dan bekerja sama dengan ANU pada proyek NCI. Kerja sama ini seharusnya dapat menghasilkan sesuai dalam hal pemodelan iklim dan bidang-bidang lain yang dapat bermanfaat bagi Australia dan dunia.
12
BAB 3
SIMPULAN
4.1 Simpulan
1. Kelebihan
a) Dapat melakukan perhitungan cepat
Superkomputer dibuat khusus untuk melakukan perhitungan cepat bahkan sampai triliunan operasi perdetik
b) Mempunyai spesifikasi yang tinggi
Bukan superkomputer namanya jika tidak mempunyai spesifikasi yang tinggi karena superkomputer memerlukan hardware yang berkemampuan tinggi ntuk melakukan perhitungan, bahkan core dari superkomputer bisa mencapai puluhan ribu core, bandingkan dengan komputer biasa yang hanya mempunyai 2 sd 4 core (yang umum sekarang).
c) Mempunyai perhitungan yang mendekati
Maksud perhitungan yang mendekati adalah perhitungan dari hal yang sebenarnya, seperti perhitungan nanometal, simulasi nuklir, simulasi bencana alam dll.
d) Respon yang cepat
Dengan spesifikasi yang tinggi, memory yang super besar dan sistem software yang canggih tentu saja memungkinkan superkomputer dapat merespon setiap pertanyaan atau setiap perintah dari usernya dengan cepat dan tepat.
2. Kekurangan
a) Harga mahal
superkomputer mempinyai spesifikasi hardware yang sangat besar dan sangat canggih, tentu saja memerlukan budget yang tidak sedikit.
b) Sulit untuk mendapatkannya
kesulitan untuk mendapatkannya yaitu karena sedikitnya permintaan dan tidak semua hal perlu dikerjakan oleh superkomputer, karena superkomputer hanya digunakan untuk penggunaan yang memerlukan perhitungan yang sangat kompleks.
13
c) Memakan banyak tempat
karena mempunyai komponen yang banyak dan kompleks superkomputer memerlukan tempat untuk menempatkan komponen-komponennya yang tidak sedikit, jadi superkomputer dapat memakan tempat.
d) Boros daya
daya yang di butuhkan superkoputer sangat besar karena superkomputer menggunakan banyak hardware yang berkemampuan tinggi sehingga memerlukan daya yang tingggi pula.
e) Sulit dalam perawatan
Masih sangat sulit untuk superkomputer untuk mendapatkan perawatan jika rusak, karena sangat sedikit sekali yang dapat memperbaikinya, melainkan harus pergi ke perusahaan pembuatnya, berbeda dengan laptop atau PC biasa karena sangat banyak orang yang dapat memperbaikinya dibanding dengan superkomputer.

Download Makalah Super Computer.pdf

Data Center

BAB I PENDAHULUAN
I.1 Latar Belakang
Perkembangan IT saat ini menuju dengan konsep-kosep social networking, openess, share, colaborations, mobile, easy maintenance, one click, terdistribusi / tersebar, scalability, Concurency dan Transparan, Saat ini terdapat trend teknologi yang masih terus digali dalam penelitian-penelitian para pakar IT di dunia, yaitu Cloud Computing. Akses data dari mana saja dan menggunakan perangkat fixed atau mobile device menggunakan internet cloud sebagai tempat menyimpan data, applications dan lainnya yang dapat dengan mudah mengambil data, download applikasi dan berpindah ke cloud lainnya, hal ini memungkinkan kita dapat memberikan layanan aplikasi secara mobile di masa depan. Trend ini akan memberikan banyak keuntungan baik dari sisi pemberi layanan (provider) atau dari sisi user.
Trend saat ini adalah dapat memberikan berbagai macam layanan secara teristribusi dan pararel secara remote dan dapat berjalan di berbagai device, dan teknologinya dapat dilihat dari berbagai macam teknologi yang digunakan dari proses informasi yang dilakukan secara otsourching sampai dengan penggunaan eksternal data center. Cloud Computing merupakan model yang memungkinkan dapat mendukung layanan yang disebut ”Everything-as-a-service” (XaaS). Dengan demikian dapat mengintegrasikan virtualized physical sources, virtualized infrastructure, seperti juga sebaik virtualized middleware platform dan aplikasi bisnis yang dibuat untuk pelanggan didalam cloud tersebut. Makalah ini mengulas tentang Data Center yang merupakan salah satu bentuk pemanfaatan teknologi cloud computing.
I.2 Tujuan
Tujuan dari pembuatan makalah ini adalah mengetahui hubungan antara Data Center dengan Cloud Computing dan teknologi di masa mendatang untuk Data center.
I.3 Manfaat
Manfaat dari makalah ini adalah sebagai sumber referensi baru tentang hubungan antara Data Center dengan Cloud Computing dan teknologi di masa mendatang untuk Data center.
.
2
BAB II GAGASAN
II. 1 Pengertian Data Center
Data Center atau pusat data adalah sebuah tempat untuk meletakkan server beserta perangkat jaringan lainnya untuk menyimpan data khusus. Rungan untuk sebuah data center ini harus didesain secara khusus karena untuk data center ini membutuhkan sebuah lingkungan yang sangat spesifik. Tempat yang ideal untuk di jadikan data center yakni harus memiliki tempertaur mulai dari dari 18 0C sampai 23 0C. Selain temperatur, ruangan data center ini harus mempunyai kelembaban tertentu dan tekanan tertentu yang dapat di sesuaikan dengan server dan perangkat untuk jaringannya.
Perkembangan dari sebuah data center indonesia sangat maju, ini ditunjukkan dari mulai banyak perusahaan jasa penyimpanan data pusat. Data center ini sangat dibutuhkan oleh sebuah perusahaan yang mulai berkembang sebagai penunjang operasioanal dari sebuah perusahaan dalam menyimpan sejumlah data yang dianggap penting. Biasanya data center ini memliki fasilitas yang cakupannya meliputi perangkat listik redundan yang berfungsi sebagai cadangan. Koneksi dalam komunikasi data juga sebagai sebuah cadangan apabila data yang di simpan mengalami kerusakan atau tidak dapat diakses.
Data center juga harus mempunyai alat kontrol lingkungan, misal AC, ventilasi, alat pencegah bahaya kebakara, dan alat untuk keamanan secara fisik. Dalam data center ini terdapat ratusan hingga ribuan, ratusan ribu bahkan jutaan server yang menyimpan semua data secara online selama 24 jam x 7 hari.
Dalam model data center yang baru, ada tiga komponen utama dalam data center yaitu application layer, Interactive service layer dan Data center networked infrastructure layer. Dasar arsitektur three tier data center digambarkan dalam gambar 1, ada tiga layer.
o Layer pertama adalah application layes. Layer ini biasanya digunakan pada pengguna sebagai pengguna layanan.
o Layer kedua adalah interactive service layer yang digunakan sebagai jembatan penghubung antara pengguna dan server melalui koneksi dengan internet atau alat koneksi lain. Layer ini menyediakan layanan untuk pengguna. Ketika pengguna mengirimkan request/permintaan, itu sebagai input layer yang akan dianalisis dan membawa request ke layer selanjutnya agar layanan terlaksana. Untuk memberikan
availability dan reliability yang tinggi dalam data center, maka mesin yang diimplementasikan harus lebih dari satu. Jika satu mesin mati, maka tidak akan mengganggu sistem.
3
o Layer terakhir adalah infrastuktur jaringan data center. Layer ini disediakan dalam tiga bagian yaitu network, compute, dan infrastruktur storage. Layer network menyediakan keamanan dan akses yang reliable untuk layer compute seperti Ethernet dan IP untuk menghubungkan pengguna dengan sumber data. Layer compute menyediakan sumber computing seperti server dan mainframe yang menjalankan aplikasi yang diminta oleh pengguna. Server menghubungkan interkoneksi sumber computing dan menyediakan akses untuk layer storage. Layer storage menyimpan data yang digunakan oleh aplikasi pada subsistem penyimpanan seperti drive penyimpanan dan drive tape. Layer storage/penyimpanan menggunakan switch storage dan platform transportasi optical untuk interkoneksi dan menyediakan akses untuk sumber disk dalam dan antara data center.
.
II. 2 Sejarah Data Center
Data center pertama kali dikembangkan oleh ENIAC pada tahun 1946. Data center ini dibangun oleh U.S. Army Ballistic Research Laboratory dan digunakan untuk menyimpan kode arliteri. Sama seperti perkembangan internet pada awalnya data center ini digunakan untuk keperluan militer atau perang. ENIAC terakhir digunakan tahun 1955.
Setelah itu, transistorized computer (TRADIC) ditemukan oleh IBM pada tahun 1954 dan dikembangkan untuk menggantikan vacuum-tube based systems yang pada saat tersebut populer digunakan. Pada tahun 1960-an, IBM melakukan komersialisasi dari teknologi tersebut. Pada tahun 1972 IBM pertama kali berhasil mengkomersialisasi dari teknologi tersebut. Pada saat itu, TRADIC digunakan untuk mensupport pemerintahan.
Pada tahun 1964, CDC6000 dibuat oleh Control Data Corporation dan dikenal sebagai super komputer pertama di dunia. CDC6000 didesain dengan menggunakan processor dengan kecepatan 40 MHz dengan 10 mesin tambahan yang kemudian dikenal sebagai Reduced Instruction Set (RISC). CDC6000 dapat mempertahankan kecepatan 1 MFlops (maksimal 3 MFlops). Pada saat itu, CDC6000 dikenal sebagai komputer tercepat dan digunakan hingga tahun 1977. Harga CDC6000 pada masanya dijual dengan harga 8 Juta USD, atau setara dengan 60 Juta USD saat ini.
Terakhir pada tahun 2013, tiga peneliti dari data center transformation yaitu Jakob Carnemark, Earl Keisling, Gerald McDonnell berhasil menghasilkan TELUS, yaitu Smart, Ultra-Green modular data center pabrikan Skanska. Jakob Canemark pencetus dari desain dari data center tersebut, termasuk intelligent management software sangat yakin atas sistem pendingin dari green data center yang dia rancang. Gambar 1.3 CDC (Control Data Corporation)
4
dia mengklaim bahwa sistem pendingin Inertech ini 80% lebih efisien dibandingkan pendingin air konvensional.
II. 3 Syarat Utama Data Center
Disain dan perencanaan data center harus memperhatikan minimum aspek-aspek berikut :
 Lokasi aman, memenuhi syarat sipil bangunan, geologi, vulkanologi, topografi
 Terproteksi dengan sistem cadangan, untuk sistem catudaya, pengatur udara/lingkungan, komunikasi data
 Menerapkan tata kelola standar data center meliputi :
o Standar Prosedur Operasi
o Standar Prosedur Perawatan
o Standar dan Rencana Pemulihan dan Mitigasi Bencana
o Standar Jaminan Kelangsungan Bisnis
II. 4 Service dan Kriteria Perancangan Data Center
Servis utama yang secara umum diberikan oleh data center adalah sebagai berikut:
 Business Continuance Infrastructure. (Infrastruktur yang Menjamin Kelangsungan Bisnis).
Aspek-aspek yang mendukung kelangsungan bisnis ketika terjadi suatu kondisi kritis terhadap data center. Aspek-aspek tersebut meliputi kriteria pemilihan lokasi data center, kuantifikasi ruang data center, laying-out ruang dan instalasi data center, sistem elektrik yang dibutuhkan, pengaturan infrastruktur jaringan yang scalable, pengaturan sistem pendingin dan fire suppression.
 DC Security Infrastructure (Infrastruktur Keamanan Data Center).
Terdiri dari sistem pengamanan fisik dan non fisik pada data center. Fitur sistem pengamanan fisik meliputi akses user ke data center berupa kunci akses memasuki ruangan (kartu akses atau biometrik) dan segenap petugas keamanan yang mengawasi keadaan data center (baik di dalam maupun di luar), pengamanan fisik juga dapat diterapkan pada seperangkat infrastruktur dengan melakukan penguncian dengan kunci gembok tertentu. Pengamanan non fisik dilakukan terhadap bagian software atau sistem yang berjalan pada perangkat tersebut, antara lain dengan memasang beberapa perangkat lunak keamanan seperti access control list, firewalls, IDSs dan host IDSs, fitur - fitur keamanan pada Layer 2 (datalink layer) dan Layer 3 (Networks layer) disertai dengan manajemen keamanan.
 Application Optimization (Optimasi Aplikasi).
Akan berkaitan dengan layer 4 (transport layer) dan layer 5 (session layer) untuk meningkatkan waktu respon suatu server. Layer 4 adalah layer end-to-end yang paling bawah antara aplikasi sumber dan tujuan, menyediakan end-to-end flow control, end-to-end error detection & correction, dan mungkin juga menyediakan congestion control tambahan. Sedangkan layer 5 menyediakan 11
5
riteri dialog (siapa yang memiliki giliran berbicara/mengirim data), token management (siapa yang memiliki akses ke resource bersama) serta sinkronisasi data (status terakhir sebelum link putus). Berbagai isu yang terkait dengan hal ini adalah load balancing, caching, dan terminasi SSL, yang bertujuan untuk mengoptimalkan jalannya suatu aplikasi dalam suatu sistem.
 Infrastruktur IP .
Infrastruktur IP menjadi servis utama pada data center. Servis ini disediakan pada layer 2 dan layer 3. Isu yang harus diperhatikan terkait dengan layer 2 adalah hubungan antara server farms dan perangkat layanan, memungkinkan akses media, mendukung sentralisasi yang reliable, loop-free, predictable, dan scalable. Sedangkan pada layer 3, isu yang terkait adalah memungkinkan fast convergence routed Networks (seperti dukungan terhadap default gateway).
Kemudian juga tersedia layanan tambahan yang disebut Intelligent Network Services, meliputi fitur fitur yang memungkinkan application Services network-wide, fitur yang paling umum adalah mengenai QoS (Quality of Services), multicast (memungkinkan kemampuan untuk menangani banyak usir secara konkuren), private LANS dan policy-based routing.
 Media Penyimpanan.
Data Center juga digunakan sebagai pusat seluruh data – data yang diakses oleh semua klien yang terhubung, tentunya didukung dengan kapasitas memori yang besar pula. Agar dapat melayani klien dengan kualitas yang baik, karena klien bisa saja mengakses data secara bersamaan dengan kapasitas yang besar.
Dalam melakukan perancangan terhadap sebuah data center, harus diperhatikan untuk tujuan mendapatkan data center sesuai dengan kriteria berikut:
 Availability
Data center diciptakan untuk mampu memberikan operasi yang berkelanjutan dan terus-menerus bagi suatu perusahaan baik dalam keadaan normal maupun dalam keadaan terjadinya suatu kerusakan yang berarti atau tidak. Data center harus dibuat sebisa mungkin mendekati zero-failure untuk seluruh komponennya.
 Scalability dan flexibility
Data center harus mampu beradaptasi dengan pertumbuhan kebutuhan yang cepat atau ketika adanya servis baru yang harus disediakan oleh data center tanpa melakukan perubahan yang cukup berarti bagi data center secara keseluruhan.
 Security
Data center menyimpan berbagai aset perusahaan yang berharga, oleh karenanya sistem keamanan dibuat seketat mungkin baik pengamanan secara fisik maupun pengamanan non-fisik.
6
II. 5 Virtualisasi Data Center
Cloud computing adalah bukanlah hal baru dalam model layanan IT. Melihat sejarah singkat cloud computing yang mulai digagas pada tahun 1960-an oleh John cCarthy, pakar komputasi MIT yang dikenal sebagai pioner intelejensia buatan, dalam visinya “suatu hari nanti komputasi akan menjadi infrastruktur publik seperti halnya listrik dan telepon”. Tonggak kemajuan konsep tsb terjadi pada tahun 1990-an setelah hadirnya konsep ASP (application Service Provider).
Cloud computing mempunyai 3 (tiga) jenis layanan, yaitu: Infrastructure as a service (IAAS), Platform as a services (PAAS) dan software as a service (SAAS). Sedangkan dari sifat jangkauan layanannya, terbagi menjadi Public Cloud, Private Cloud dan Hybrid Cloud. Tidak semua layanan di internet disebut cloud computing, namun ada beberapa syarat yang harus dipenuhi yaitu layanan bersifat “On Demand” yaitu pengguna dapat berlangganan sesuai dengan kebutuhan dan membayar sesuai yang mereka gunakan saja; layanan bersifat elastis/scalable yaitu pengguna bisa menambah atau mengurangi jenis dan kapasitas layanan sesuai kebutuhan users; layanan sepenuhnya dikelola oleh provider dan yang dibutuhkan oleh pengguna hanyalah PC/ notebooks lengkap dengan koneksi internet.
Data center adalah sumber input yang besar. Sistem khususnya pengalaman hardware bertahap. Masa hidup hardware hanya sekitar 3-5 tahun. Membutuhkan sumber listrik yang stabil dan dibutuhkan investasi yang sangat besar untuk membangunnya. Kemajuan bisnis khususnya untuk meningkatkan pelayanan masyarakat akan kebutuhan data dan layanan yang lain yang berhubungan dengan elektornik khususnya internet maka kebutuhan akan data center akan menjadi hal yang baru. Kebutuhan IT sumber data center akan fleksibel dan berkembang terus. Data center akan meningkatkan agility bisnis tetapi harus dipikirkan bagaimana mengurangi biaya secara substantional. Beberapa tahun ini, munculnya pemikiran tentang data center yang disebut sebagai Next Generation Data Center. Data center ini akan membantu untuk meningkatkan keefektifan dan efisiensi data center, yang biasanya menggunakan Virtualization Data Center. Next generation data center akan memiliki karakter sebagai a Service –Oriented. Bentuk utama next generation data center adalah virtualisasi data center yang memiliki alasan seperti memungkinkan untuk melakukan konsolidasi yang dapat memberikan keuntungan langsung pada pengurangan biaya operasi berkelanjutan dan meningkatkan efisiensi dari arsitektur server; meningkatkan kelanjutan bisnis dengan menjaga dan meningkatkan beban load secara available (aplikasi dan database) yang berjalan dalam data center; membangun dasar untuk lingkungan IT yang serba otomatis secara dinamis. Layer yang ditemukan pada next generation data center sama dengan layer yang ada pada physical data center. Gambar 2 memberikan gambaran umum tentang next generation data center (virtualisasi).
7
Aplikasi silo tidak dapat secara efektif untuk memenuhi tuntutan yang berkembang pada saat ini. Next generation data center mengkonsolidasi infrastruktur dan virtualisasi sumber daya dari sejumlah kecil komponen dan fasilitas yang menyimpan energi kilowatt-jam. Sumber daya data center tidak lagi didedikasikan untuk aplikasi tertentu tetapi secara logis ditugaskan untuk aplikasi yang diperlukan.
II. 6 IaaS,PaaS dan SaaS pada Data Center
Dengan adanya teknologi cloudcomputing diharapkan masalah yang disebut dapat teratasi dengan baik. Sedangkan untuk menerapkannya, masih ditemui sejumlah kendala, terutama kendala teknis mengenai infrastruktur teknologi cloud computing tersebut, yaitu masih terbatasnya akses internet di Indonesia, baik broadband maupun dial-up. Terbatasnya akses internet di Indonesia membuat teknologi ini tidak banyak digunakan secara luas. Kalaupun digunakan, penggunaannya masih sebatas pada aplikasi-aplikasi yang tersedia di internet (SaaS) dan belum menyentuh model PaaS dan IaaS. Selain itu, terbatasnya penerapan cloud computing di level organisasi dan kalangan bisnis di Indonesia diakibatkan oleh kendala teknis, khususnya pada masalah virtualisasi dan adanya keraguan akan jaminan security dalam penerapan teknologi ini. Sementara itu,PaaS (Platform as a service) berada diantara IaaS dan SaaS, dimana pada PaaS segala sesuatu yang mendasari aplikasi(misalnya server basis data dan server aplikasi) diletakkan sebagai bagian dari komputasi awan. Contoh untuk PaaS ini adalah Google Docs yang menawarkan platform untuk aplikasi-aplikasi Web yang dikembangkan menggunakan hard drive virtual.
Seperti yang telah tersirat di atas, permasalahan hilang (atau rusak)-nya data civitas perguruan tinggi di suatu instansi sesungguhnya dapat teratasi jika data civitas perguruan tinggi itu tidak secara langsung disimpan di server tersebut (yang mungkin saja rawan kerusakan), tetapi disimpan di suatu lokasi(baca : komputer server) yang diletakkan di suatu lokasi yang relatif aman. Pilihannya adalah: (1) Perguruan Tinggi memiliki infrastruktur (komputer dan jaringan antarkomputer) yang memang disiapkan untuk itu, atau (2) Perguruan Tinggi bisa memanfaatkan teknologi komputasi awan (cloud computing) (yang difasilitasi menggunakan jaringan Internet) sehingga manajemen Perguruan Tinggi tidak perlu lagi mempersiapkan infrastruktur yang mahal, melainkan cukup menyewa fasilitas-fasilitas yang diperlukan untuk mengembangkan aplikasi dari vendor-vendor yang menyediakan layanan-layanan komputasi awan itu, seperti Amazon, Salezforce, Google, Microsoft, Akamaisun, microsystems, symante, cmicrosft, dan sebagainya.
Gambar 3 Layanan Cloud Computing
8
Dalam hal ini, dipandang dari segi kemudahan dan relatif rendahnya biayanya, maka pengembangan aplikasi terkait menggunakan teknologi yang dimiliki oleh Google yaitu Google Docs adalah aplikasi word processor, spreadsheet, presentasi semacam Microsoft Office, yang berbasis di server yang memungkinkan siapapun, dimanapun, kapanpun untuk bekerja dan merasakan keamanan serta kemudahan penyimpanan data. Menggunakan teknologi yang dikembangkan Google (dalam jumlah dana sejumlah US$ yang relatif tidak terlalu besar dibandingkan dengan kalau harus mempersiapkan infrastruktur secara mandiri).
Google menghadirkan produk-produknya mulai dengan teknologi Cloud yang berbasiskan pada platform SaaS (Software as a Service), yaitu Google Apps. Google pun mulai merambah pada platform PaaS (Platform as a Service) yang menyediakan sebuah layanan cloud bagi para penggunanya untuk membuat atau menjalankan aplikasi pada komputer yang terdapat pada data center milik Google, akan tetapi memang terbatas pada bahasa pemrograman seperti Python, Java, PHP melalui versi spesial Quercus dan Go. Pada Google I/O 2012 diperkenalkanlah sebuah produk baru teknologi Cloud Computing dengan platform IaaS (Infrastructure as a Service) bernama Google Compute Engine, sebuah produk yang memperbolehkan penggunanya untuk menjalankan Linux Virtual Machine pada infrastruktur data center milik Google.
II. 7 Perkembangan Data Center di Masa Depan
Kian derasnya arus informasi yang didorong pesatnya teknologi internet, tantangan yang dihadapi dunia usaha dibidang infrastruktur teknologi informasi (TI) juga semakin besar. Terlebih dengan kecenderungan meningkatnya data atau big data yang kian sulit dihindari. Era big data kian nyata karena semakin banyaknya orang maupun industry terkoneksi internet yang menghasilkan data.
Karena itu harus dikelola dengan baik, mulai dari system penyimpanan untuk dikelola dan dianalisa sebagai bahan masukkan dalam mengambil keputusan yang strategis, yang tentunya menjadi tantangan yang harus diantisipasi melalui pengembangan infrastruktur TI maupun system data centernya.
Menurut laporan terbaru Greenpeace yang diterbtkan April 2014, data center Apple di tahun ini mendapat poin 100 persen untuk indeks energi bersih (clean energy index) tanpa pemanfaatan energi nuklir, batu bara, dan gas alam.
Apple mendapat nilai A untuk urusan transparansi, kebijakan, dan advokasi pada data center, serta mendapat nilai B untuk efisiensi energi. Sekitar 60 persen daya yang digunakan Apple untuk data center di Carolina Utara, berasal dari pembangkit listrik tenaga surya dan sisanya berasal dari sumber lokal yang dapat diperbarui.
"Komitmen Apple untuk energi terbarukan telah membantu menetapkan ambang baru bagi industri, menggambarkan secara sangat konkret bahwa internet terbarukan 100 persen berada dalam jangkauannya, dan menyediakan beberapa model intervensi bagi perusahaan lain yang ingin membangun internet berkelanjutan," tulis Greenpeace dalam laporannya.
9
Data center Apple selama ini melayani segala produknya yang berhubungan dengan internet, termasuk situs web Apple, toko konten multimedia iTunes, toko aplikasi dan gameApp Store, hingga layanan komputasi awan iCloud.
Sementara itu, beberapa perusahaan internet besar lain belum bisa disebut hijau. Amazon dan Twitter tercatat sebagai pelanggar terburuk versi Greenpeace. Begitu juga dengan LinkedIn, Zynga, Vimeo, Dropbox, dan Pinterest, dinilai masih memanfaatkan "energi kotor".
II. 8 Perkembangan Data Center Di Indonesia
Di era seperti sekarang data dan informasi memiliki peran penting dalam meningkatkan daya saing usaha, tak hanya perusahaan besar, bahkan para UKM sekalipun. Dengan kecenderungan ini, permintaan layanan solusi TI bagi dunia usaha diprediksi bakal semakin tinggi.
Karena itu Telkomsigma sebagai market leader di IT service akan gencar mengembangkan berbagai solusi teknologi informasi melalui pengembangan infrastruktur maupun penambahan kapasitas data center.
Sejak dikembangkan branding cloud tahun 2013, Telkomsigma mengembangkan layanan data center dengan menjalin mitra kerja dengan sejumlah perusahaan, salah satunya NetApp, terutama untuk keamanan system data center yang selalu menjadi perhatian para calon pengguna sebelum beralih ke system cloud ini.
Dalam hal ini Telkom Sigma telah mengembangkan 2 jenis layanan cloud, yakni SaaS dan IaaS. Di tahun 2014 Telkom Sigma akan membangun Data center baru yaitu di Balikpapan seluas 40.000 meter persegi, Bekasi 30.000 meter persegi dan Batam 1.000 meter persegi. Data center di Balikpapan berspesifikasi tier-3, Bekasi tier-4 dan di Batam tier-3. Dengan ekspansi ini hinga akhir tahun 2015 luas data center Telkomsigma akan mencapai 100.000 meter persegi.
Di tingkat Global data center Telkomsigma masuk dalam urutan 4 besar membuntuti Digital Reality dari Amerika Serikat seluas 800.000 meter persegi, Equinix (Amerika Serikat) seluas 400.000 meter persegi dan Singapura seluas 200.000 meter persegi.
BAB III KESIMPULAN
10
Kebutuhan Data Center dan Infrastruktur system penyimpanan data diprediksi akan menjolak sejalan dengan fenomena munculnya big dta (data Besar), terutama dipicu pesatnya perkembangan internet.
Peningkatan daya saing TI bukan sekedar menambah atau membeli unit storage atau data center baru, namun perlu mempertimbangkan teknologi yang bisa memberikan solusi tepat. Layanan Cloud Coputing merupakan solusi pemanfaatan teknologi komputasi dimana data informasi tersimpan di server melalui jaringan internet yang ditangani cloud provider.
Saat ini isu lingkungan terutama global warming menjadi tema sentral bagi pelaku bisnis teknologi. Isu ini pun mempengaruhi keberadaan data centre yang identik dengan kebutuhan listrik yang sangat besar untuk proses komputasi yang kontiyu yang berdampak pada permasalahan energy. Sehingga perusahaan penyedia data centre saat ini membutuhkan model baru data centre yang ramah lingkungan atau green data centre. Model baru ini pun dapat menjadi nilai tambah bagi perusahaan yang menerapkannya karena para konsumen akan melihat bahwa perusahaan yang menerapkan green data centre peduli pada aspek lingkungan.
Banyak cara untuk mengimplementasikan green data centre salah satunya dengan virtualisasi server. Kebanyakan server tidak bekerja secara optimal karena dipenuhi oleh informasi-informasi kuno atau software yang hanya digunakan pada waktu tertentu. Server-server yang sudah berumur pun cenderung boros energi dibandingkan dengan performa yang diberikan. untuk melakukan penghematan, server-server lama tersebut divirtualisasikan kedalam server baru sehingga terjadi penghematan energi. dengan melakukan virtualisasi pada server aplikasi dapat dibuat lebih fleksibel serta server virtual yang sedang tidak diperlukan dapat dimatikan. virtualisasi perangkat dapat menjaga jumlah dan tempat server serta memindahkan aplikasi ke lokasi fisikal yang berbeda sebagaimana dibutuhkan untuk mencapai efisiensi yang optimal.

Download Makalah Data Center.pdf

Virtual Reality

BAB 1
PENDAHULUAN
Latar Belakang
Semakin berkembangnya teknologi informasi pada saat ini membuat kehidupan kita
semakin mudah, salah satunya semakin pesatnya penelitian dan evolusi Artificial intelligent
atau kecerdasan buatan, yang membantu dalam berbagai bidang kehidupan, salah satunya
dalam kemiliteran dan angkatan bersenjata untuk meningkatkan kemampuan SDM yang ada
dengan bantuan pembelajaran melalui computer yang mensimulasikan object virtual yang
memiliki sikap (behavior) dan pemikiran (intelektual) seperti pada object nyata, seperti
manusia, tumbuhan, hewan, dll.
Pengembangan system virtual ini juga dimaksudkan untuk melakukan pengukuran
secara tidak langsung antara kemampuan computer dan manusia, dalam pembahasan ini
didasari oleh sebuah pilihan cerdas untuk efisiensi kerja dan biaya, bayangkan saja untuk
mengadakan latihan militer suatu angkatan ersenjata dibutuhkan banyak dana untuk
keperluan senjata, kendaraan, waktu, tempat, dan lain-lain.
Sistem Virtual Reality (SVR dapat dibayangkan seperti dunia game, dimana sebuah
object dapat dikendalikan secara langsung oleh pemakai denganvisual 3 dimensi, dalam
simulasi kita dapat membuat sebuah percobaan secara software dan dapat diulang – ulang.
Rumusan Masalah
1. Definisi dari Sistem Virtual Reality ?
2. Sejarah Virtual Reality
3. Cara Kerja Virtual Reality
4. Syarat yang harus ada dalam VR
5. Efek Negatif dan Kekurangan Virtual Reality
6. Implementasi VR
4
Tujuan
Dalam berbagai aspek VR digunakan untuk membantu pekerjaan atau sebagai
hiburan, dalam hal ini yang akan dibahas mengenai salah satu aplikasi AI yang
dikembangkan untuk militer dan latihan perang angkatan bersenjata. Tujuan utama pada
pembahasan makalah ini adalah untuk mengetahun bagaimana System AI dalam Virtual
Reality diimplementasikan pada bidang militer
Virtual Reality adalah suatu teknologi yang dapat mengizinkan pengguna untuk
berinteraksi dengan lingkunagn simulasi Komputer baik itu yang berdasarkan objek yata
ataupun imajinasi. Dengan menggunakn teknologi Virtual Reality perusahaan dapat dengan
mudah mengumpulkan reaksi konsumen terhadap rancangan mobil baru, tata letak interior
rumah, dan tawaran potensial yang lain (Philiph Kloter).
Salah satu contoh aplikasi virtual reality yang digunakan pada saat ini yaitu dalam
bidang militer. Virtual realiy dipakai untuk simulasi latihan perang, simulasi latihan terjun
payung dan sebagainya. Dimana dengan pemakaiaan teknologi ini bisa menghemat biaya dan
waktu dibandingkan dengan cara konvensional.
Menurut Morton Heilig dalam tulisannya tentang “Experience Theater” tahun 1950
meliputi semua indera dengan suatu cara efektif, sehingga menarik penonton ke dalam
kegiatan di layar. Ia membangun suatu prototype dari visinya yang dinamakan Sensorama
pada 1962, bersama dengan lima film pendek untuk dipertunjukkan di dalamnya dengan
melibatkan berbagai indera (penglihatan, pendengaran, penciuman dan sentuhan). Sensorama
adalah sebuah alat mekanis yang dilaporkan masih berfungsi hingga hari ini. Pada tahun
1968, Ivan Shuterland dengan bantuan dari siswanya Bob Sproull menciptakan apa yang
secara luas dianggap sebagai pendahulu dari virtual reality.
5
Alasan Kelompok Kami Mengambil Bahasan Tentang Virtual Reality
 Teknologi ini sedang hangat-hangatnya dibicarakan.
 Teknologi Virtual Reality merupakan teknologi terkini.
 Dengan VR banyak hal yang bisa dilakukan oleh manusia yang tidak bisa dilakukan di
dunia nyata.
 VR bisa diterapkan di berbagai bidang.
6
BAB 2
ISI
Definisi Virtual Reality
Virtual reality (VR) atau realitas maya adalah teknologi yang membuat pengguna
dapat berinteraksi dengan suatu lingkungan yang disimulasikan oleh komputer (computersimulated
environment), suatu lingkungan sebenarnya yang ditiru atau benar-benar suatu
lingkungan yang hanya ada dalam imaginasi. Lingkungan realitas maya terkini umumnya
menyajikan pengalaman visual, yang ditampilkan pada sebuah layar komputer atau melalui
sebuah penampil stereokopik, tapi beberapa simulasi mengikutsertakan tambahan informasi
hasil pengindraan, seperti suara melalui speaker atau headphone.
Beberapa sistem haptic canggih sekarang meliputi informasi sentuh, biasanya dikenal
sebagai umpan balik kekuatan pada aplikasi berjudi dan medis. Para pemakai dapat saling
berhubungan dengan suatu lingkungan sebetulnya atau sebuah artifak maya baik melalui
penggunaan alat masukan baku seperti a papan ketik dan tetikus, atau melalui alat
multimodal seperti a sarung tangan terkabel, Polhemus boom arm, dan ban jalan segala arah.
Lingkungan yang ditirukan dapat menjadi mirip dengan dunia nyata, sebagai contoh, simulasi
untuk pilot atau pelatihan pertempuran, atau dapat sangat berbeda dengan kenyataan, seperti
di VR game. Dalam praktik, sekarang ini sangat sukar untuk menciptakan pengalaman
Realitas maya dengan kejernihan tinggi, karena keterbatasan teknis atas daya proses, resolusi
citra dan lebar pita komunikasi. Bagaimanapun, pembatasan itu diharapkan untuk secepatnya
diatasai dengan berkembangnya pengolah, pencitraan dan teknologi komunikasi data yang
menjadi lebih hemat biaya dan lebih kuat dari waktu ke waktu.
Virtual Reality (VR) atau Realias Maya adalah teknologi yang digunakan oleh
pengguna untuk berinteraksi dengan lingkungan simulasi komputer baik berdasarkan objek
nyata maupun animasi. Secara sederhana, Virtual Reality adalah pemunculan gambar-gambar
tiga dimensi yang di bangkitkan komputer, yang terlihat nyata dengan bantuan sejumlah
peralatan tertentu. Ciri terpentingnya adalah dengan menggunakan perangkat yang dirancang
untuk tujuan tertentu, teknologi ini mampu menjadikan orang yang merasakan dunia maya
tersebut terkecoh dan yakin bahwa yang dialaminya adalah nyata. Lingkungan realitas maya
terkini umumnya menyajikan pengalaman visual,yang ditampilkan pada sebuah layar
komputer atau melalui sebuah penampil stereokopik,tapi beberapa simulasi mengikutsertakan
tambahan informasi hasil penginderaan, seperti suara melalui speaker atau headphone.
Virtual reality disingkat dengan VR yang dapat menciptakan sebuah simulasi dunia tiga
dimensi.
7
Sejarah Augmented/Virtual Reality
• 1957-1962: Morton Heilig, seorang sinematografer, menciptakan dan memapatenkan
sebuah simulator yang disebut Sensorama dengan visual, getaran dan bau.
• 1966: Ivan Sutherland membangun sistem tampilan yang berhubungan dengan gerakan
kepala.
• 1974: Jim Clark melakukan penelitian tentang perangkat helm yang memiliki layar
monitor di dalamnya (headmounted display).
• 1982 : Oleh penemu yang sama lahirlah Silicon Graphics, komputer kapabilitas tinggi
yang mampu mengelolah citra grafik yang sangat rumit.
• 1989: Jaron Lanier, memeperkenalkan Virtual Reality dan menciptakan bisnis komersial
pertama kali di dunia maya.
• 1999: Hirokazu Kato, mengembangkan ArToolkit di HITLab dan didemonstrasikan di
SIGGRAPH.
• 2000: Bruce.H.Thomas, mengembangkan ARQuake, sebuah Mobile Game AR yang
ditunjukan di International Symposium on Wearable Computers.
• 2008: Wikitude AR Travel Guide, memperkenalkan Android G1 Telephone yang
berteknologi AR.
• 2009: Saqoosha memperkenalkan FLARToolkit yang merupakan perkembangan dari
ArToolkit. FLARToolkit memungkinkan kita memasang teknologi AR di sebuah
website, karena output yang dihasilkan FLARToolkit berbentuk Flash. Ditahun yang
sama, Wikitude Drive meluncurkan sistem navigasi berteknologi AR di Platform
Android.
• 2009: Microsoft mengembangkan kinect AR.
• 2010: Acrossair menggunakan teknologi AR pada I-Phone 3GS.
• 2012: Oculus VR dikembangkan.
• 2014: Sony mengambangkan morpheus VR untuk PS4.
• 2014: Facebook membeli Oculus “Virtual Reality” seharga Rp.22.8T. Dan akan
mengambangkannya diluar wilayah gaming.
• 2014 : Omni mengembangkan game VR dengan nama project Virtuix Omni.
Google Glass
Google Glass adalah sebuah karya besar saat ini. Dengan menggabungkan banyak
fitur dan fungsi dalam satu unit yang sangat kecil. Selain bisa digunakan sebagai telepon dan
kamera (foto, video), dalam Google Glass juga terdapat koneksi internet termasuk GPS.
Inti dari semua fitur itu adalah lapisan (layer) visual yang ditempatkan di atas
tampilan nyata ("augmented reality"). Lapisan (layer) ini bisa dikatakan sebagai "pintu" yang
dapat menampilkan kemungkinan-kemungkinan baru yang menakjubkan. Tapi bagaimana
cara kerjanya ?
8
Di dalam Google Glass terdapat proyektor mini dan prisma semitransparan yang
memproyeksikan gambar "augmented reality" langsung ke retina pemakai Google Glass.
Oleh karena itu, meskipun sangat dekat dengan mata gambar akan tetap terlihat jelas dan
tajam. Untuk memaksimalkan fokus
dapat dilakukan dengan cara
menggerkakkan bagian depan Google
Glass dengan sangat mudah.
Posisi lapisan (layer)
tergantung bagaimana anda memakai
Google Glass, lapisan (layer) dapat
berada disudut atas atau berada di
tengah-tengah pandangan. Karena
prisma adalah semi-transparan anda
juga bisa menempatkannya langsung
didepan pupil.
Tantangan terbesar untuk
Google Glass adalah membuatnya
bisa digunakan oleh orang-orang
yang berkacamata normal (dengan
pengelihatan kabur). Dalam hal ini
maka Google Glass harus
ditempatkan di depan kacamata
normal dan tentu saja membuatnya
tidak tampat seperti menggunakan
Google Glass atau bisa saja Google
membuat prisma khusus untuk
masing-masing individu yang
tentunya membuat biaya produksi
jauh lebih mahal daripada produksi
standar.
Berikut ini spesifikasi lengkap
Google Glass.
Fitting:
 Bantalan hidung dan frame
yang bisa disesuaikan dengan
semua bentuk wajah.
 Bantalan hidung tambahan
9
dalam dua ukuran.
Layar : "Resolusi tinggi setara dengan display high definition dilihat dari jarak 2,5 meter"
Kamera:
 Foto: 5 megapiksel.
 Video: HD 1280x720 p.
Audio:
 "Bone Conduction Transducer".
Konektivitas:
 WiFi 802.11b.g.
 Bluetooth.
Media penyimpanan:
 16 GB, dengan kapasitas yang bisa dipakai sebesar 12 GB, tersinkronisasi dengan
layanan cloud storage Google.
Daya tahan baterai:
 Satu hari penuh, kecuali dipakai untuk merekam video atau video conferencing
(hangout).
Charger:
 Charger khusus dengan port micro-USB.
Kompatibilitas:
 Semua ponsel dengan kapabilitas Bluetooth.
 Software pendamping MyGlass membutuhkan sistem operasi Android 4.0.3 (Ice
Cream Sandwich) atau yang lebih baru. MyGlass membuka fitur GPS dan SMS pada
Google Glass.
10
Kinect Microsoft
Kinect merupakan perangkat sensor gerak Microsoft untuk game konsol Xbox 360
dan PC Windows. Sebagai periperal tambahan bergaya webcam, perangkat yang disematkan
buat Xbox 360 ini menjadi kontroler dan berinteraksi dengan Xbox 360 tanpa perlu
menyentuhnya melainkan hanya gerak tubuh dan perintah suara.
Awalnya proyek pembuatan Kinect dimaksudkan untuk terlepas dari gaya permainan
yang ada sebelumnya. Namun kini Kinect menjadi pesaing berat bagi Wii Remote Plus serta
PlayStation Move.
Sebenarnya teknologi
sensor kedalaman yang
digunakan Kinect ditemukan
pada tahun 2005 oleh Zeev
Zalevsky, Alexander Shpunt,
Aviad Maizels dan Javier
Garcia. Namun Kinect
sendiri pertama kali
diperkenalkan pada 1 Juni
2009 di ajang E3 (Electronic
Entertainment Expo)
menggunakan nama kode
‘Project Natal’. Microsoft
biasa melakukan tradisi
menggunakan nama kota
sebagai nama kode. ‘Project
Natal’ merupakan proyek dengan mengambil nama kota di Brazil yang bernama Natal. Kota
Natal merupakan kota kelahiran Alex Kipman, Direktur Microsoft yang melahirkan proyek
ini. Kata ‘Natal’ juga dapat direfleksikan sebagai kelahiran generasi selanjutnya buat
Microsoft didunia entertainment.
Kinect tidak serta merta sempurna. Selama pengembangan Kinect, anggota tim
proyek bereksperimen dan menerapkannya pada sejumlah game untuk tujuan evaluasi
kemampuan.
Sebelumnya, software pemindai yang digunakan untuk mengenali objek bekerja
dengan melihat perbedaan warna dan tekstur agar dapat membedakan objek dari latar
belakangnya. Kamera mengirimkan cahaya ke benda terlihat disekitar infrared dan mengukur
waktu perjalanan setelah direfleksikan. Waktu perjalanan maksudnya adalah perjalanan
cahaya dari pelepasan hingga memantul kembali ke sumber asalnya. Cara kerjanya seperti
sonar. Bila waktu perjalanan dapat diukur maka jarak benda dapat diukur juga. Demikian
halnya dengan besaran ruang dan kecepatan cahaya tersebut. Dengan menggunakan generator
infrared, lingkungan disekitar cahaya juga dapat dihitung.
11
Berbeda dengan cara
kerja Kinect. Karena Kinect
dilengkapi dengan
seperangkat hardware dan
software. Hasilnya, Kinect
dapat menghasilkan image 3
dimensi dari sebuah objek
dan mengikuti pergerakan
dari objek tersebut
Kinect dikembangkan
dengan teknologi software
Rare, cabang dari Microsoft Game Studios yang dimiliki Microsoft dan teknologi kamera
buatan developer Israel yaitu PrimeSense. PrimeSense mengembangkan sistem yang dapat
menerjemahkan gerakan spesifik sehingga tangan pengguna dapat melakukan kontrol
terhadap perangkat. Dengan proyektor infrared dan mikrochip khusus untuk mengikuti
pergerakan objek atau individu ke bentuk 3 dimensi. Sistem scan 3 dimensi yang disebut
‘Light Coding’ ini menggunakan bermacam rekonstruksi untuk menghasilkan image 3
dimensi.
Sensor Kinect merupakan bar horizontal yang dihubungkan ke pusat sensor
ditengahnya dan didesain memposisikan menurut panjangnya keatas atau kebawah dari
tampilan video. Perangkatnya dilengkapi kamera RGB, sensor kedalaman dan mikrophone
multiarray dengan software khusus sehingga dapat menampilkan gambaran pergerakan 3
dimensi, pengenalan wajah dan kemampuan pengenal suara.
Saat pertama launching, pengenalan suara hanya tersedia di Jepang, Inggris, Kanada
dan Amerika Serikat. Kebanyakan Eropa tersedia setelahnya. Kinect mampu menghasilkan
image yang lebih sempurna dengan tekstur 3 dimensi. Kinect bahkan mampu membedakan
objek hingga detil 1 sentimeter, tinggi dan lebarnya hingga 3 milimeter.
Sensor kedalaman yang dimiliki Kinect terdiri dari laser proyektor infrared yang
dikombinasikan dengan sensor CMOS monochrome yang menangkap data video 3 dimensi
dengan kondisi lingkungan cahaya tertentu. Cakupan sensor kedalaman dapat diperluas dan
softwarenya mampu secara otomatis melakukan kalibrasi saat permainan ataupun kalibrasi
lingkungan fisik pemain. Sehingga Kinect dapat melihat bila ada perabot atau benda lain
yang menghalanginya.
12
Cara Kerja Virtual Reality “Oculus”
Istilah Realitas
maya tidak pasti
asalnya. Pengembang
realitas maya,Jaron
Lanier mengakui
bahwa ia menggunakan
istilah itu pertama kali
dan ada istilah yang
terkait digunakan oleh
Myron Krueger adalah
“kenyataan tiruan“ telah digunakan sejak 1970.Virtual Reality sering digunakan untuk
menggambarkan berbagai aplikasi, umumnya terkait dengan mendalam,sangat visual,3D
lingkungan.
Untuk memasuki Virtual Reality, pengguna mengenakan sarung tangan khusus,
earphone, dan kacamata khusus yang terhubung dengan komputer dan sistem yang di
dalamnya. Melalui cara ini, setidaknya tiga indera tubuh kita terkontrol oleh komputer. Untuk
hasil yang lebih baik, biasanya piranti Virtual Reality ini juga memonitor apa yang dilakukan
user. Misalnya kacamata yang mengontrol pergerakkan bola mata pengguna dan
meresponnya dengan mengirim masukkan video yang baru. Virtual Reality kadang
digunakan untuk menyebut dunia virtual yang disajikan ke dalam computer, seperti pada
berbagai macam game permainan komputer yang kini marak perkembangannya, meskipun
hanya berbasis representasi teks, suara dan grafis.
Sekarang, istilah Virtual Reality mulai tergantikan oleh istilah Virtual Environment oleh
para ahli komputer. Konsepnya tetap sama, yaitu mensimulasikan lingkungan 3-D yang bisa
dijelajahi oleh pengguna seolah-olah benar-benar bisa dirasakan lewat indera.
Syarat yang harus ada dalam VR
Terdapat dua syarat yang harus ada dalam VR adalah:
1. Gambar/ grafis/ penglihatan 3-D yang nyata menurut perspektif penglihatan
pengguna.
2. Kemampuan untuk mendeteksi gerakan-gerakan pengguna, seperti gerakan kepala
dan arah bola mata, untuk menyesuaikan grafis yang dihasilkan supaya menyesuaikan
perubahan “dunia” 3-Dnya.
Saat berada dalam VR, pengguna akan merasa melebur seolah menyatu dengan dunianya,
dan bisa berinteraksi dengan objek-objek yang ada di sana. Hal ini disebut dengan
13
telepresence.Menurut Jonathan Stauer, ada dua komponen dalam perasaan “melebur” ini,
yang disebut:
1. Depth of information, merupakan banyak dan kualitas data yang ditansfer demi
menciptakan lingkungan VR, seperti resolusi, ketajaman gambar, dll.
2. Breadth of information, yaitu seberapa besar indera pengguna dimanipulasi, yang
biasanya terbatas pada penglihatan dan pendengaran. Namun saat ini sedang
dikembangkan VR yang bisa memanipulasi indera sentuhan dan pembau.Salah satu
contoh aplikasi virtual reality yang digunakan pada saat ini yaitu dalam bidang
militer. Virtual reality dipakai untuk melakukan simulasi latihan perang, simulasi
latihan terjun payung. dan sebagainya. Dimana dengan pemakaian teknologi ini bisa
lebih menghemat biaya dan waktu dibandingkan dengan cara konvensional.
Efek Negatif dan Kekurangan Virtual Reality
 Kekurangan:
o Isolasi pribadi
o Kurangnya interaksi dengan dunia nyata dan orang lain
o Pengangguran meningkat
 Efek Negatif:
Orang yang menggunakan virtual reality sering mengalami gangguan yang disebut
cybersickness (Haag, Cummings, dan Dawkin, 2000, hal. 294).Penderita akan
merasakan ketegangan mata dan bahkan disertai rasa pusing. Kadang-kadang
penderita terbawa pada suasana semu yang diciptakan oleh sistem virtual reality
walaupun ia telah kembali ke dunia nyata.
Implementasi Virtual Reality
 Manufaktur : Pengujian rancangan, prototiipe semu, analisis ergonomik, simulasi
semu dalam perakitan, prosuksi dan pemeliharaan.
 Arsitektur : Perancangan gedung
 Militer : Pelatih (pilot,astronot,pengemudi) simulasi peperangan
 Kedokteran : Pelatihan pembedahan, terapi fisik
 Penelitian / Pendidikan : Studi tentang topan, konfigurasi galaksi, pengujian
matematika kompleks
 Hiburan : Museum virtual, permainan balap, simulasi pertempuran udara, taman
virtual, simulasi ski,dll
14
BAB 3
KESIMPULAN
Kesimpulan
Setelah beberapa tahun pengembangan yang berawal dari imajinasi untuk hidup di
dunia maya akhirnya terwujud dengan saat ini sudah banyak digunakan VR dalam industri,
personal dan militer, VR adalah sebuah teknologi yang membawa kita untk melihat dan
mensimulasikan sesuatu didalam komputer, dalam VR, objek dapat dibuat objek statis
maupun dinamis, kita dapat berinteraksi langsung menggunakan peralatan yang ada.
Saran
Pengembangan Virtual Reality tidaklah murah, hal ini yang menyebabkan VR
mungkin digunakan oleh orang – orang tertentu, dan banyak juga penyalahgunaan VR ini
untuk hal yang negative, diharapkan teknologi ini dapat digunakan untuk hal – hal yang
bermanfaat, hasil dari penggunaannya tentu akan sebanding dengan harganya, mungkin
Indonesia juga sudah mulai menggunakan VR dalam militernya tapi hanya sebatas flight
simulator, untuk combat simulator akan sangat membantu karena parajurit yang berlatih akan
merasakan dalam kondisi yang sebenarnya.
Prediksi Perkembangan VR di masa depan
• Perfilman : Menyaksikan sebuah film seperti kita berada di film tersebut.
• Game : seperti di anime SAO (Sword Art Online) dan Log Horizon
15
• Teknologi di film Iron Man

Download Makalah Virtual Reality.pdf

Infrastructure as a Service LTE, Wi-Fi, Wi-Max, IPv6

IaaS – Infrastructure as a Service
 Sekilas Tentang LTE (Long-Term Evolution)
LTE adalah singkatan untuk Long-Term Evolution, umumnya dipasarkan
dengan nama 4G LTE. LTE adalah standar untuk komunikasi nirkabel data
berkecepatan tinggi untuk ponsel dan terminal data.
LTE pertama kali diusulkan oleh NTT DoCoMo dari Jepang pada tahun 2004,
dan studi tentang LTE secara resmi dilakukan pada tahun 2005. Pada bulan Mei
2007, LTE / SAE Trial Initiative (LSTI) mendirikan kolaborasi global antara
vendor dan operator dengan tujuan mempromosikan standar baru dalam
komunikasi data nirkabel secara global. Standar LTE diselesaikan pada bulan
Desember 2008, dan layanan LTE yang tersedia untuk publik pertama diluncurkan
oleh TeliaSonera di Oslo dan Stockholm pada tanggal 14 Desember 2009 .
Menurut standar, LTE memberikan kecepatan uplink hingga 50 megabit per
detik (Mbps) dan kecepatan downlink hingga 100 Mbps. Tidak diragukan lagi,
LTE akan membawa banyak manfaat bagi jaringan selular. Perkembangan
telekomunikasi menurut standar 3GPP terlihat pada gambar di bawah.
 Perkembangan LTE
Implementasi LTE saat ini, yaitu release 8, sebenarnya belum
memenuhi standar teknologi 4G, meskipun hampir semua operator
menyatakan sebagai 4G. LTE release 10, biasa disebut LTE Advanced
yang direncanakan mulai komersial tahun 2013, diharapkan benar-benar
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 2
memenuhi standar IT-U sebagai teknologi ponsel generasi keempat atau
4G.
Perubahan siginifikan dibandingkan standar sebelumnya meliputi 3
hal utama, yaitu air interface, jaringan radio serta jaringan core. Di masa
mendatang, pengguna dijanjikan akan dapat melakukan download dan
upload video high definition dan konten-konten media lainnya, mengakses
e-mail dengan attachment besar serta bergabung dalam video conference
dimanapun dan kapanpun.
LTE juga secara dramatis menambah kemampuan jaringan untuk
mengoperasikan fitur Multimedia Broadcast Multicast Service (MBMS),
bagian dari 3GPP Release 6, dimana kemampuan yang ditawarkan dapat
sebanding dengan DVB-H dan WiMAX .LTE dapat beroperasi pada salah
satu pita spektrum seluler yang telah dialokasikan yang termasuk dalam
standar IMT-2000 (450, 850, 900, 1800, 1900, 2100 MHz) maupun pada
pita spektrum yang baru seperti 700 MHz dan 2,5 GHz.
LTE dipercaya mampu mengirim data sampai kecepatan 100 Mbps
untuk download dan 50 Mbps untuk upload. Jauh di atas kecepatan yang
biasa kita nikmati saat ini berksiar 1-3 Mbps. Dengan kemampuan ini,
pengguna yang akses Youtube serasa nonton televisi, tanpa streaming.
Bahkan untuk download game pun bisa secepat copy dari flashdisk!.
Semua itu bisa dinikmati hanya dengan ponsel atau tablet, tidak harus
menggunakan komputer dan kabel.
LTE memang menjanjikan pengalaman yang menarik, terutama
bagi para penggila internet. Hal tersebut telah dibuktikan oleh survey yang
dilaksanakan TeliaSonera pada beberapa bulan setelah menggelar LTE.
TeliaSonera mengungkap hasil riset sebagai berikut. Sebanyak 26 persen
pengguna lebih banyak bekerja secara mobile, 23 persen mengunggah file
yang lebih besar dari sebelumnya dan 19 persen pengguna lebih sering
menonton TV secara online / streaming.
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 3
Gambar Penerapan LTE Desember 2013
Countries with commercial LTE service
Countries with commercial LTE network deployment ongoing
or planned
Countries with LTE trial systems (pre-commitment)
None
 Pengertian Wireless LAN ( WiFi )
Jaringan lokal tanpa kabel atau WLAN adalah suatu jaringan area lokal
tanpa kabel dimana media transmisinya menggunakan frekuensi radio (RF) atau
infrared (IR), untuk memberi sebuah koneksi jaringan ke seluruh pengguna dalam
area disekitarnya. Area jangkauannya dapat berjarak dari ruangan kelas ke seluruh
kampus atau dari kantor ke kantor yang lain dan berlainan gedung. Peranti yang
umumnya digunakan untuk jaringan WLAN termasuk di dalamnya adalah PC,
Laptop, PDA, telepon seluler, dan lain sebagainya. Teknologi WLAN ini memiliki
kegunaan yang sangat banyak. Contohnya, pengguna mobile bisa menggunakan
telepon seluler mereka untuk mengakses e-mail. Sementara itu para pelancong
dengan laptopnya bisa terhubung ke internet ketika mereka sedang di bandara,
kafe, kereta api dan tempat publik lainnya.
a) Perkembangan WiFi
a) 802.11
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 4
Pada tahun 1997, Institute of Electrical and Electronics
Engineers (IEEE) membuat standar WLAN pertama. Mereka
menyebutnya 802.11 sesuai dengan nama kelompok yang dibentuk
untuk mengawasi perkembangannya. Sayangnya, 802.11 hanya
mendukung maksimum bandwidth jaringan 2 Mbps, terlalu lambat
untuk sebagian besar aplikasi. Sehingga produk ini kini tidak lagi
diproduksi.
b) 802.11b
IEEE mengembangkan kembali standar 802.11 pada awal Juli
1999 dengan menciptakan spesifikasi 802.11b. 802.11b
mendukung bandwidth sampai 11 Mbps. Sebanding dengan
kecepatan Ethernet. 802.11b menggunakan frekuensi radio yang
sama dan diatur pada sinyal (2,4 GHz ) sebagai standar 802.11
yang asli. Beberapa vendor lebih suka menggunakan frekuensi ini
untuk menurunkan biaya produksi mereka. Namun perangkat
dengan standar 802.11b lebih sering mendapatkan
interferensi/gangguan dari oven microwave, telepon nirkabel, dan
peralatan lain yang sama-sama menggunakan frekuesi 2,4 GHz.
Kelebihan: biayanya paling murah. Kekurangan: kecepatan
maksimumnya paling lambat; mudah terkena interferensi perangkat
lain.
c) 802.11a
Disaat IEEE melakukan pengembangan 802.11b, IEEE juga
melakukan pengembangan standard Wi-Fi lainnya yaitu 802.11a.
Karena 802.11b lebih popular, banyak orang mengira 802.11b
adalah pengembangan dari 802.11a, namun hal tersebut salah
kaprah karena faktanya standard 802.11a dan 802.11b
dikembangkan secara bersamaan. Perangkat yang menggunakan
standard 802.11a maksimal bandwidth dapat mencapai 54Mbps
dan menggunakan frekuensi kisaran 5GH. Namun dibandingkan
802.11b, jangkuan/rangenya lebih pendek karena semakin tinggi
frekuensi yang digunakan maka semakin pendek jarak yang dapat
dijangkau perangkat tersebut. Perbedaan frekuensi antara 802.11b
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 5
dan 802.11a menyebabkan kedua perangkat tersebut tidak dapat
saling terhubung.
d) 802.11g
Pada tahun 2002 dan 2003, standard wireless baru yang dikenal
dengan 802.11g muncul di pasaran. 802.11g menggabungkan
keunggulan dari 2 standard sebelumnya sehingga mampu mencapai
maksimum bandwidth 54Mbps dan menggunakan frekuensi
2.4GHz untuk mendapatkan jangkauan yang luas. 802.11g sendiri
kompatibel dengan 802.11b, sehingga access point yang
menggunakan standard 802.11g dapat digunakan oleh perangkat
yang menggunakan standard 802.11b.
e) 802.11n
Standar IEEE 802.11n dirancang untuk memperbaiki standard
802.11g untuk maksimal bandwidth yang didukung dengan
menggunakan multiple wireless signal dan antena (disebut
teknologi MIMO)/ 802.11n memiliki kecepatan sampai 300 Mbps.
802.11n juga menawarkan jangkauan yang lebih baik. Kelebihan:
kecepatan maksimum tercepat dan jangkauan sinyal terbaik, lebih
tahan terhadap gangguan sinyal dari sumber luar, bisa berjalan
dalam 2 frekuensi baik 2,4GHz maupun 5GHz. Kekurangan: biaya
lebih mahal dari 802.11g, penggunaan beberapa sinyal sangat
mungkin mengganggu jaringan lain yang menggunakan standard
802.11b atau 802.11g.
f) 802.11ac
802.11ac adalah standard wireless terbaru dan masih dalam
pengembangan dan mungkin baru muncul di pasaran pada tahun
2014. Untuk kecepatan maksimum standard ini dapat mencapai
1Gbps, sama dengan kecepatan Gigabit Ethernet dan berjalan pada
frekuensi dengan range 5GHz.
g) 802.11ad
IEEE 802.11ad adalah standar yang diterbitkan yang
mendefinisikan baru lapisan fisik untuk 802.11 jaringan untuk
beroperasi di 60 GHz gelombang milimeter spektrum. Pita
frekuensi ini memiliki karakteristik propagasi yang berbeda secara
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 6
signifikan dari 2,4 GHz dan 5 GHz di mana Wi-Fi jaringan
beroperasi. Produk menerapkan 802.11ad standar sedang dibawa
ke pasar di bawah nama merek WiGig. Program sertifikasi
sekarang sedang dikembangkan oleh Aliansi Wi-Fi bukan sekarang
mati WiGig Alliance. Tingkat transmisi puncak 802.11ad adalah
7Gbit / s
c) Jaringan WiMax
WiMax kepanjangannya adalah Worldwide Interoperability for Microwave
Access. WiMax juga bisa kita singkat BWA “Broadband Wireless Access”. WiMax
merupakan jaringan wireless yang hanya mencakup klasifikasi jaringan WMAN
“Wireless Metropolitan Area Network” yang memiliki kecepatan transfer rate data
per/bit yang cukup cepat berkisar antara 60-70 MBps dan memiliki jangkauan jarak
frekuensi yang mencapai hingga 50 KM.
Teknologi jaringan WiMax ini memiliki standar IEEE 802.16, merupakan
penggabungan antara standar WiMax dengan standar ETSI HiperMAN, teknologi
jaringan WiMax ini sangat cocok di terapkan pada daerah desa terpencil yang belum
adanya infrastruktur yang menyediakan layanan telekomunikasi dan sulitnya medan
untuk membuat jaringan telekomunikasi yang menggunakan kabel, maka dari itu
teknologi WiMax menjawab semua kesulitan tersebut dengan teknologi wireless yang
menggunakan frekuensi mencakup area yang cukup luas.
1) Spektrum Frekuensi dari Jaringan WiMax
Teknologi jaringan WiMax memiliki dua jenis band frekuensi sistem
wireless yaitu sebagai berikut :
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 7
a) Licensed Band
License “Otoritas” yang membutuhkan adanya operator
yang memperoleh hak untuk menyediakan layanan pada
suatu daerah atau area dari regulator.
b) Unlicensed Band
Kebalikannya dari “Licensed Band” yaitu tidak
membutuhkan adanya lisense dan setiap orang bebas
menggunakan frekuensi di seluruh area pada daerah
tertentu.
Jadi, sebagai teknologi jaringan yang berbasis pada penggunaan
frekuensi, dalam pelaksanaan jaringan WiMax sangat tergantung pada
kesesuaian dan ketersediaan pada spektrum frekuensi.
2) Frekuensi Utama WiMax
WiMax telah menetapkan dua frekuensi utama yaitu sebagai berikut :
1. Fixed WiMax “Band 3.5 GHz dan 5.8 Ghz”
2. Mobile WiMax “Band 2.3 Ghz, 2.5 Ghz, 3.3 Ghz, dan 3.5 GHz”
3) Jenis Frekuensi WiMax
A. Non Line of Sight “NLOS”
Sama seperti kerja jaringan Wifi, dari sebuah perangkat gadget
yang memiliki antena untuk menghubungkan pada tower frekuensi
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 8
WiMax yang memiliki range frekuensi antara 2-11 Ghz seperti layaknya
pada jaringan Wifi.
B. Line of Sight “LOS”
Ini berbeda dengan NLOS, perangkat antena parabola yang
mengarah langsung pada tower frekuensi WiMax yang memiliki range
frekuensi 66Ghz.
Teknologi jaringan WiMax pada dasarnya sama dengan teknologi jaringan Wifi,
namun pada kenyatannya jaringan WiMax berbeda dengan jaringan Wifi hanya pada konsep
dan prinsip kerjanya yang sama, Jaringan WiMax memiliki kecepatan yang lebih tinggi dan
daerah jangkauan yang lebih luas di bandingkan dengan teknologi jaringan Wifi, WiMax
dapat mengirim data dengan kecepatan 70 MBps sedangkan Wifi hanya dapat mengirim data
dengan kecepatan 54 MBps dan frekuensi WiMax dapat menjangkau area berkisar 30 mil “50
KM” sedangkan frekuensi Wifi hanya menjangkau area 100 feet “100 M”, telah kita ketahui
sebelumnya bahwa peningkatan dan penurunan kecepatan transfer rate data di tentukan dari
area akses yang kita tempati, bila kita mengakses data jauh dari tower frekuensi wireless
maka kecepatan transfer rate data yang kita terima menjadi kurang maksimal, namun
sebaliknya bila kita mengakses data di dekat tower wireless yang kita gunakan maka transfer
rate data yang kita terima akan sangat maksimal.
4) Next Generation Teknologi Jaringan Wireless
Seperti yang kita telah ketahui bahwa WiMax merupakan salah satu
dari jaringan Wireless dan WiMax ini berada pada kategori 4G yang
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 9
merupakan evolusi dari teknologi BWA sebelumnya yang memiliki fiturfitur
yang lebih canggih di bandingkan dengan teknologi standar jaringan
sebelumnya.
Dari suatu fakta yang mengatakan bahwa teknologi jaringan 4G di
tanah air indonesia ini masih di katakan “Teknologi Jaringan Masa Depan”
namun, bila memang sudah ada Vendor atau Provider yang menyediakan
teknologi 4G ini, itu pun masih di katakan dalam tahap awal pengembangan
dan benar-benar belum maksimal dalam menyediakan layanannya.
Berbeda dengan teknologi jaringan di negara asing, telah ada vendor
ponsel yang menyediakan teknologi jaringan WiMax seperti “Samsung
Conquer 4G dan HTC EVO 4G”.
5) Teknologi WiMax 4G di Indonesia
Teknologi jaringan 4G merupakan teknologi jaringan masa depan di
negara indonesia ini dan bila benar ada vendor yang menyediakan teknologi
jaringan 4G ini itu hanyalah masih pada tahap awal pengembangan.
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 10
Pada pertengahan tahun 2010 pada bulan Juni operator firstmedia
dengan nama Sitra WiMax yang merupakan sebuah vendor yang pertama
menyediakan layanan jaringan WiMax 4G di indonesia, sitra WiMax
merupakan bagian dari Lippo Group dari PT. Firstmedia tbk. Dalam
Launching layanan WiMax 4G pertamanya Sitra WiMax akan menyediakan
layanan Wireless Broadband 4G di daerah tertentu yaitu di coverage Jakarta,
Tanggerang, Depok, Bekasi, Bogor, Banten dan Sumatra Utara.
 IPv6
IPv6 (Internet Protocol version 6) adalah protocol generasi baru yang
menggantikan protocol versi sebelumnya (IPv4).
IPv6 dikembangkan oleh Internet Engineering Task Force (IETF). Tujuan utama
diciptakan IPv6 karena keterbatasan ruang alamat di IPv4 yang hanya terdiri dari
32 bit.
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 11
Sejak awal tahun 1990-an,organisasi Internet Enginering Task Force (IETF)
mulai menyadari bahwa suatu saat routing protocol IPv4 akan mengalami
keterbatasan dalam penyediaan alamat Internet Protocol (IP) dan mulai mencari
suatu routing protocol pengganti yang dapat menyediakan jumlah alamat IP lebih
banyak.Hal ini yang kemudian mengawali proses pengembangan IPv6 (IP next
generation) sebagai penerus IPv4.Untuk IPv6 ditetapkan menjadi salah satu
standar IETF melalui RCF 2460.
Perubahan ke IPv6 juga mendorong berkembangnya protokol-protokol baru
pada OSI dan TCP/IP sebagai penunjang protocil routing IPv6 itu sendiri, seperti
misalnya protokol baru Internet Control Message Protocol (ICMPv6),Neighbor
Discovery, dan Mlticast Listener Discovery (MLD) [1],[2]. Header IPv6 yang
lebih sederhana sehingga hal ini juga mempengaruhi infrastruktur network
keseluruhan.
IPv6 telah dirancang dengan skalabilitas yang tinggi agar dapat digunakan
dalam jangka waktu yang lama untuk terus memungkinkan pertumbuhan Internet.
Namun, penerapan IPv6 masih berjalan lambat dan masih terbatas dalam jaringan
internet tertentu.hal ini terjadi karena perangkat dan infrastruktur yang secara luas
digunakan dalam keseluruhan jaringan internet masih merupakan perngkat dan
infrastruktur dari IPv4, dan sepertinya masih akan terus berlangsung sampai
beberapa waktu ke depan. Akan tetapi cepat atau lambat pada akhirnya IPv6 akan
menggantikan dominasi dari IPv4 sebagai routing protocol.
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 12
Sebelum perubahan infrastruktur sepenuhnya ke IPv6, maka diperlukan suatu
solusi di mana IPv6 harus dapat berdampingan dengan IPv4, keduanya harus
dapat saling berkomunikasi dengan compability yang sesuai.Apabila selama masa
transisi hal tersebut tidak dapat terpenuhi,maka dapat terjadi kekacauan pada
jaringn internet.Inilah yang membuat transisi dari IPv4 ke IPv6 dilakukan secara
bertahap.Sebagai salah satu solusi dari permasalahan ini adalah dengan
menggunakan metode Tunneling.
Mekanisme IPv6
Pada dasarnya IPv6 dikembangkan karena ada hal-hal yang tidak diantisipasi
saat IPv4 dijadikan standar protokol routing pada 1981 (RCF 791). IPv4 telah
terbukti tangguh,mudah di-implementasikan dan dioperasikan,dan telah melewati tes
skalabilitas dalam jaringan internet yang digunakan secara global sampai saat
ini.Namun desain IPv4 tidak mengantisipasi perkembangan pesat jaringan
internet,beberapa diantaranya adalah:
· Untuk Ipv4 adalah sebagai berikut:
a. Ketersediaan jumlah alamat IPv4 yang saat ini tidak akan mencukupi.
b. Kebutuhan akan konfigurasi yang lebih sederhana sekaligus keamanan pada level
protokol internet.
c. Layanan hanya bersifat best effort sehingga dibutuhkan QoS yang lebih baik.
· Sedangkan IPv6 didesain untuk memperbaiki masalah di atas, seperti :
a. Format header lebih sederhana
b. Space alamat lebih besar (128 bit)
c. Pengalamatan dan infrastruktur routing yang lebih efisien dan berbentuk hierarki.
d. Adanya opsi status konfigurasi pengalamatan.
e. Keamanan dan QoS lebih baik.
f. dan lain-lain.
Perbandingan IPv6 dan IPv4
Selain beberapa poin perbedaan yang telah di bahas sebelumnya diatas,secara lebih
spesifik masih ada lagi beberapa perbedaan lainnya.Secara garis besar, perbedaan lain antara
IPv4 dengan IPv6 adalah seperti dibawah ini
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 13
PERBEDAAN IPv4 dengan IPv6
IPv4 IPv6
Pengalamatan 32 bit Pengalamatan 128 bit
Dukungan terhadap IPsec bersifat
Pilihan
Secara default mendukung IPsec
Header tidak mengidentifikasi QoS
oleh router
Terdapat flow label field pada
header,sehingga router dapat
mengidentifikasi QoS
Fragmentasi packet dilakukan oleh
sending host dan router
Hanya sending host yang melakukan
fragmentasi packet. Router mengirim
ICMPv6 ke sending host bila fragmen packet
terlalu besar dan membuangnya
Header mengandung checksum dan
Option
Header tidak mengandung cheksum dan
option di pindahkan ke header ekstensi
Address Resolution Protocol (ARP)
digunakan untuk menerjemahkan
alamat MAC dari alamat IP
Multicast Neighbor Solicitation Message
digunakan sebagai pengganti ARP
ICMP Router Discovery digunakan
untuk mencari default gateway terbaik
Menggunakan ICMPv6Router Solicitation
and Router Advetisement message
Mendukung sampai 576-byte ukuran
Packet
Mendukung sampai 1280-byte ukuran packet
Walaupun terdapat beberapa perbedaan antara pengalamatan IPv4 dengan IPv6, ada
hal-hal yang bisa dianggap ekivalen diantara keduanya,atau bisa dikatakan konsep
pengalamatan keduanya tetap memiliki beberapa persamaan. Hal-hal tersebut adalah seperti
dibawah ini;
PERSAMAAN IPv4 dengan IPv6
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 14
IPv4 Address IPv6 Address
Class: A,B,C,D,E Konsep class dihilangkan
IPv4 Multicast addresses
(224.0.0.0/4)
IPv6 multicast addresses (FF00::/8)
Broadcast addresses Tidak menggunakan Broadcast
Unspecified addresses (0.0.0.0) Unspecified addresses (::)
Loopback addresses (127.0.0.1) Loopback addresses(::1)
Public IP addresses Global unicast addresses
Alamat IP Private (10.0.0.0/8),
(172.16.0.0/12), dan (192.168.0.0/16)
Alamat site-local (FEC0::/10)
Alamat Autoconfigured
(169.254.0.0/16)
Alamat link-local (FE80::/64)
Tipe Alamat pada IPv6
Berbeda dengan IPv4 yang menggunakan alamat Broadcast, fitur ini dihilangkan pada
IPv6 karena dianggap memberikan beban lebih kepada jaringan secara keseluruhan, terutama
pada suatu domain jaringan yang memiliki host dalam jumlah besar. Fungsi Broadcast ini
digantikan dengan Multicast. Terdapat tiga jenis alamat padaIPv6, yaitu :
a. Unicast
Suatu alamat unicast digunakan untuk mengidentifikasi suatu interface tunggal.
Sebuah packet yang ditujukan ke suatu alamat unicast akan dikirimkan ke interface yang
memiliki alamat unicast tersebut.
b. Multicast
Suatu alamat multicast digunakan untuk mengidentifikasi suatu kumpulan dari
beberapa interface,sehingga bila ada packet yang ditujukan ke suatu alamat multicast, akan
dikirimkan ke semua interface yang diidentifikasi alamat multicast tersebut. Alamat multicast
digunakan untuk komunikasi dari satu-ke-sekumpulan interface.
c. Anycast
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 15
Suatu alamat anycast juga digunakan untuk menidentifikasi suatu kumpulan dari
beberapa interface, namun bila ada packet yang ditujukan ke suatu alamatt anycast maka akan
dikirimkan ke salah satu interface (dari sekumpulan tersebut) yang memiliki jarak terdekat
(routing distance terkecil).
2. Hubungan LTE, WI-FI, WiMax, dan IPv6 Dengan Cloud Computing
Pada dasarnya Cloud Computing atau Komputasi Awan membutuhkan
koneksi yang cepat dan bisa diakses dimana saja. Sama dengan salah satu
karakteristiknya yaitu Broadband Network Acces yang artinya cloud computing
harus dapat diakses dari mana saja, kapan saja, dengan alat apa pun, asalkan kita
terhubung ke jaringan layanan. Contoh HP, Tablet. Dengan adanya teknologi
infrastruktur jaringan LTE, WiMax, dan WI-FI yang menawarkan akses ke
internet yang lebih cepat maka cloud computing akan mudah dan cepat diakses
dimana saja.
Menurut sebuah makalah tahun 2008 yang dipublikasi IEEE Internet
Computing. Cloud computing adalah suatu paradigma di mana informasi secara
permanen tersimpan di server di internet dan tersimpan secara sementara di
komputer pengguna (client) termasuk di dalamnya adalah desktop, komputer
tablet, notebook, komputer tembok, handheld, sensor-sensor, monitor dan lainlain.
Dapat disimpulkan tanpa akses internet Cloud computing tidak bisa
digunakan sehingga bisa dikatakan Cloud computing berhubungan erat dengan
Internet. Oleh karena itu infrastruktur jaringan seperti LTE, WIFI, WiMax sangat
berhubungan erat dengan cloud computing . Dan IPv6 sebagai solusi alamat
internet, dimana akan semakin banyak alat yang akan terhubung jaringan internet
untuk akses cloud computing.
I a a S – L T E , W I F I A / B / G / N / A C , W i M a x , I P v 6
Page 16
3. Predikasi perkembangan yang akan datang
Dengan Meningkat nya tren BYOD ( Bring Your Own Device ) pada
perusahaan mengakibatkan tren cloud computing juga meningkat . Predikasi
perkembangan infrastruktur jaringan seperti LTE,WiMax, Dan WI-Fi pun akan
meningkat dari sisi efisiensi pengunaan sprektrum gelombang radio, peningkatan
kecepatan internet, dan jangkauan gelombang radio yang akan lebih luas. Di sisi
IPv6 akan lebih cepat diadopsi .

Download Infrastructure as a Service LTE, Wi-Fi, Wi-Max, IPv6.pdf

Software as a Service pada Perkembangan Web Generasi 1.0, 2.0, 3.0, 4.0

BAB I
PENDAHULUAN

1.1. Latar Belakang
Perkembangan komputer yang semakin pesat berikut sistem dan akses global yang Komputasi Awan, Sistem Teknologi Informasi Masa Depan semakin gampang dan murah membawa kita kepada era digital yang dulunya masih dianggap teknologi yang tinggi sekali. Sehingga anggapan bahwa komputer hanya untuk orang-orang beruang dan berintelejensi diatas rata-rata, sekarang berubah usang.
Apalagi di Indonesia ini, hampir di setiap jengkal wilayah yang berpenduduk telah terhubung dengan sinyal telepon seluler. Artinya di tempat-tempat tersebut, para pengguna handphone dengan mudah terhubung secara global dan bisa berselancar dengan internet.
Memang secara umum, Indonesia masih di posisi sebagai pengguna sistem teknologi informasi (TI) dan sistem komputer. Perkembangan sistem TI dan sistem komputer tidak lantas menempatkan Indonesia sebagai pemain global. Begitu banyak dukungan yang belum dimiliki meski Indonesia memiliki kemampuan sebagai pemain.
Contoh perkembangan TI yang sedang hangat dibicarakan di negara-negara maju adalah Komputasi Awan (Cloud Computing). Walaupun di luar negeri perebutan area Komputasi Awan ini sedang hangat, tetapi di Indonesia yang serius tercatat hanya PT. Telkom melalui anak perusahaannya Sigma Cipta Caraka untuk aplikasi core banking bagi bank kecil-menengah. Selanjutnya bekerja sama dengan IBM Indonesia dan mitra bisnisnya, PT. Codephile, Telkom menawarkan aplikasi e-Office on Demand.
Jika dibandingkan dengan pemain-pemain global seperti IBM, Microsoft, Google dan Apple, peperangan untuk menjadi penguasa teknologi Komputasi Awan begitu seru, maka PT. Telkom termasuk perusahaan yang tidak ingin hanya menjadi pengguna walau mungkin tidak menjadi provider kelas dunia.

1.2. Maksud dan Tujuan
Maksud dari pembuatan makalah ini adalah untuk menjelaskan sejarah serta perkembangan yang terjadi pada cloud computing khususnya pada Software as a Service.
Adapun tujuan dari pembuatan makalah ini yang hendak dicapai adalah sebagai berikut :
1.    Menjelaskan sejarah awalnya terciptanya cloud computing.
2.    Menjelaskan tentang Software as a Service.
3.    Menjelaskan tentang perkembangan generasi Web.
4.    Menjelaskan bagaimana perkembangan Web yang akan datang.



BAB II
PEMBAHASAN

2.1 Definisi Komputasi Awan
Komputasi awan atau dalam bahasa Inggris cloud computing adalah gabungan pemanfaatan teknologi komputer ('komputasi') dan pengembangan berbasis Internet ('awan'). Awan atau cloud adalah metafora dari internet, sebagaimana awan yang sering digambarkan di diagram jaringan komputer. Sebagaimana awan dalam diagram jaringan komputer tersebut, awan (cloud) dalam Cloud Computing juga merupakan abstraksi dari infrastruktur kompleks yang disembunyikannya. Ia adalah suatu metoda komputasi di mana kapabilitas terkait teknologi informasi disajikan sebagai suatu layanan (as a service), sehingga pengguna dapat mengaksesnya lewat Internet ("di dalam awan") tanpa mengetahui apa yang ada didalamnya, ahli dengannya, atau memiliki kendali terhadap infrastruktur teknologi yang membantunya. Menurut sebuah makalah tahun 2008 yang dipublikasi IEEE Internet Computing "Cloud Computing adalah suatu paradigma di mana informasi secara permanen tersimpan di server di internet dan tersimpan secara sementara di komputer pengguna (client) termasuk di dalamnya adalah desktop, komputer tablet, notebook, komputer tembok, handheld, sensor-sensor, monitor dan lain-lain."
Gambar 2.1 Ilustrasi Komputasi Awan

2.1.1 Manfaat Komputasi Awan
Dari penjelasan tentang cloud computing diatas, ada banyak manfaat yang bisa kita ambil dari cloud computing, yaitu :
a.    Skalabilitas, yaitu dengan cloud computing kita bisa menambah kapasitas penyimpanan data kita tanpa harus membeli peralatan tambahan, misalnya hardisk dll. Kita cukup menambah kapasitas yang disediakan oleh penyedia layanan cloud computing.
b.    Aksesibilitas, yaitu kita bisa mengakses data kapanpun dan dimanapun kita berada, asal kita terkoneksi dengan internet, sehingga memudahkan kita mengakses data disaat yang penting.
c.    Keamanan, yaitu data kita bisa terjamin keamanan nya oleh penyedia layanan cloud computing, sehingga bagi perusahaan yang berbasis IT, data bisa disimpan secara aman di penyedia cloud computing. Itu juga mengurangi biaya yang diperlukan untuk mengamankan data perusahaan.
d.   Kreasi, yaitu para user bisa melakukan/mengembangkan kreasi atau project mereka tanpa harus mengirimkan project mereka secara langsung ke perusahaan, tapi user bisa mengirimkan nya lewat penyedia layanan cloud computing.
e.    Kecemasan, ketika terjadi bencana alam data milik kita tersimpan aman di cloud meskipun hardisk atau gadget kita rusak
2.1.2 Layanan Komputasi Awan
Terdapat beberapa layanan pada komputansi awan, berikut adalah layanan yang diberikan berdasarkan layanan komputasi awan :
a.    Infrastructure as a Service (IaaS)
b.    Platform as a Service (PaaS)
c.    Software as a Service (SaaS)
Gambar 2.1.2 Diagram Konsepsual dari Komputasi Awan


2.2 Software as a Service (SaaS)
Didalam komputasi awan terdapat layanan yang computing berbasis Software, yaitu Software as a Service dimana kita bisa langsung menggunakan aplikasi yang telah disediakan
2.2.1 Definisi Platform as a Service
Software as a Service adalah layanan komputasi awan dimana kita bisa langsung menggunakan aplikasi yang telah disediakan. Penyedia layanan mengelola infrastruktur dan platform yang menjalankan aplikasi tersebut. Contoh layanan aplikasi email yaitu gmail, yahoo dan outlook sedangkan contoh aplikasi media sosial adalah twitter, facebook dan google+.
2.2.1 Keuntungan SaaS
Keuntungan dari layanan ini adalah pengguna tidak perlu membeli lisensi untuk mengakses aplikasi tersebut. Pengguna hanya membutuhkan perangkat klien komputasi awan yang terhubung ke internet. Ada juga aplikasi yang mengharuskan pengguna untuk berlangganan agar bisa mengakses aplikasi yaitu Office 365 dan Adobe Creative Cloud.
2.2.2 Implementasi SaaS
Adapun implementasi ini semua adalah berjenjang, dimana tingkatan menciptakan piranti lunak sebagai layanan adalah yang terkompleks. Yang dapat dilihat pada diagram dibawah ini:
Dari awal menawarkan konektivitas internet dasar untuk menawarkan perangkat lunak sebagai layanan ISP. ISP 1,0 adalah semua menyediakan internet akses ke pelanggan, ISP 2,0 adalah fase di mana ISP yang ditawarkan kemampuan hosting. Langkah berikutnya adalah ISP 3.0 co-lokasi melalui yang ISP mulai leasing keluar ruang rak dan bandwidth. Dengan ini, perusahaan bisa host server mereka menjalankan, Line of Business (LOB) aplikasi yang dapat diakses melalui web dengan karycloud, mitra dagang dan pelanggan. ISP 4.0 adalah menawarkan aplikasi pada langganan mengakibatkan Application Service Provider (ASP) kemudian muncul Software terbaru sebagai Service atau SaaS, adalah model ASP matang dan langkah logis untuk ISP akan merangkul Cloud.

2.2.3 Model Penerapan SaaS
Model ini memberikan user sebuah aplikasi bisnis yang diakses melalui web. Umumnya user melakukan sewa aplikasi sehingga dapat mengakses fitur-fitur yang ada, user juga dapat membayar biaya tambahan untuk mengakses kapasitas / fitur yang lebih banyak. Dengan naiknya teknologi web seperti AJAX, memungkinkan web memiliki tingkat user experience yang mendekati desktop application.
Contoh model seperti ini sudah banyak :
·       salesforce : Customer Relationship Management
·       Yahoo : Email
·       Google : Email, Google Doc
·       Zoho : Collaboration Application
·       Social Media : Facebook, Twitter, linkedil
·       Messenger : Whatsapp, BBM, Line






2.3 Perkembangan Generasi Web
                                        Gambar 2.1 Perkembangan Web                                      
Sejarah web, dikembangkan pertama kali oleh Sir Timothy John ¨Tim Berners-Lee, hanya saja pada saat itu web masih berjalan tanpa terhubung jaringan. Web semakin popular ketika mulai terhubungan jaringan internet, yaitu pada akhir tahun 80-an. Saat itu di laboratorium CERN berlokasi di kota Geneva, Swiss menyatakan bahwa web bisa diakses melalui jaringan dan dimiliki oleh siapa saja.
Sejarah web juga berkaitan dengan sejarah perkembangan teknologi komputer. Karena pada awalnya tampilan web masih sangatlah sederhana, hanya menampilkan teks, lalu untuk hyperlink (link) pada saat itu masih menggunakan tampilan nomor yang menghubungkan antara satu halaman ke halaman lainnya. Pada saat itu pun, teknologi web dikembangkan dan berjalan pada sistem operasi Unix, masih sangat jarang yang menggunakan teknologi windows. andaipun ada, teknologi windows masih sangat sederhana.
Web adalah  jaringan komputer yang terdiri dari kumpulan situs internet yang menawarkan teks dan grafik dan suara dan sumber daya animasi melalui protokol transfer hypertext. Orang banyak mengenal web dengan istilah WWW (world wide web), World Wide Web adalah layanan internet yang paling populer saat ini internet mulai dikenal dan digunakan secara luas setelah adanya layanan WWW. WWW adalah halaman-halaman website yang dapat saling terkoneksi satu dengan lainnya (hyperlink) yang membentuk samudra belantara informasi.
2.3.1 Web 1.0 (1990-2000)
Web 1.0 dikembangkan untuk pengaksesan informasi dan memiliki sifat yang sedikit interaktif. Secara garis besar, sifat Web 1.0 adalah Read. Web 1.0 merupakan teknologi awal dari sebuah website, teknologi ini masih statis dimana antara pembuat website dan penikmat website hanya tejadi komunikasi 1 arah dimana pembuat sebagai pemberi informasi dan peikmat hanya sebagai pembaca, ya layaknya seperti membaca Koran bedanya ini membaca lewat computer, aktifitas ini hanya sebatas searching.  Halaman pada web ini masih terkesan “hampa” bahasa yang digunakan juga masih bahasa HTML saja.
World wide web pertama kali menemukan bentuknya di November 1990. Hingga tahun 1993, jaringan internet berkembang demikian pesatnya. Layanan yang internet kala itu masih berkisar diantara static website yang saling dihubungkan dengan hyperlink. Umumnya website berformat “brosur online” – website yang menyampaikan informasi satu arah – umumnya berbentuk profile, portal berita, toko online, layanan email, dll. Web kala itu dihuni oleh website-website yang di desain menggunakan table dan flash.
Tahun 1998, Google berdiri dan internet menjadi semakin mudah untuk dijamah. di kala itu potensi website dengan format portal berita dan toko online (seperti amazon.com) di lirik besar-besaran oleh investor. Di US, dana jutaan dollar diinvestasikan untuk masuk ke bidang online yang sayangnya, tidak semua website dengan modal jutaan dollar tadi dapat menghasilkan. Pada pertengahan 2000, gelembungan dana yang masuk ke internet pecah juga. Dana yang masuk tidak berputar kembali menjadi keuntungan.
Karakteristik  Web 1.0 antara lain :
1.      Halaman statis, bukan dinamis pengguna-konten yang dihasilkan.
2.      Bersifat Read only
3.      Milik HTML ekstensi seperti dan tag diperkenalkan pada awal perang browser.
4.      Online guestbook.
5.      Informasi di publiskan di web secara statis
6.      Interaksi limited
7.      Memaksimalkan Framesets
8.      Kepentingan web hanya sebatas penyebaran informasi saja
9.      Pengguna akan mengisi formulir, dan setelah mereka mengklik mengirimkan email klien akan mencoba untuk mengirim email yang berisi formulir rincian.
2.3.2 Web 2.0 (2001-2010)
Era pengembangan web kedua (Web 2.0) di mana pengunjung mulai dapat melakukan interaksi dengan diatur oleh sistem yang ada pada web. Web 2.0 sendiri merupakan sebuah istilah yang pertama kali dicetuskan pada tahun 2003 oleh O’Reilly Media, dan dipopulerkan pada konferensi web 2.0 pertama di tahun 2004.
Web 2.0 memiliki beberapa ciri mencolok yaitu share, collaborate dan exploit. Di era Web 2.0 sekarang, penggunaan web untuk berbagi, pertemanan, kolaborasi menjadi sesuatu yang penting. Web 2.0 hadir seiring maraknya pengguna blog, Friendster, Myspace, Youtube dan Fickr. Jadi disini kehidupan sosial di dunia maya benar-benar terasa.
Banyak perusahaan online tersisihkan di masa DotCom Bubble burst, namun banyak juga yang bertahan. Google, Yahoo, Amazon dan eBay adalah beberapa diantaranya. Kehancuran selalu menyisakan pemain berkualitas yang bertahan. Dari keruntuhan DotCom Bubble burst tersebut, wajah world wide web perlahan mulai berubah.
Di tahun 2001, wikipedia di luncurkan. Apple mendirikan iTunes. Di tahun 2002, friendster di luncurkan. Perlahan, world wide web mulai di huni oleh website – website dengan karakteristik yang berbeda dengan website – website yang eksis sebelum dotcom bubble burst. Website website tersebut memiliki satu ciri mencolok bernama partisipasi sehingga pada tahun 2003, istilah web 2.0 muncul.
Pada garis besarnya, web 2.0 berbicara mengenai partisipasi. hubungan komunikasi many-to-many. Jika pada era web 1.0 (era sebelum web 2.0, dari 1990 hingga 2001) pengguna internet dengan mudah membrowse internet, namun pengadaan konten di internet masih ‘dikuasai’ oleh para geek yang menguasai bahasa HTML untuk membuat halaman web. Komunikasi yang terjadi pun hanya satu arah dari pemilik website ke pengunjungnya. Pada era web 2.0, pengadaan konten di internet tidak lagi dikuasai oleh geek. Website – website yang digolongkan ke dalam kategori web 2.0 memfasilitasi pengguna internet biasa untuk menuliskan konten mereka sendiri. Website sharing foto seperti flickr, blog service seperti wordpress.com, blogger.com, video sharing seperti YouTube, dll. Komunikasi pun terjadi secara dua arah, dimana pengunjung web juga bisa memberikan informasi.
2.3.2.1 Fitur Teknologi Pendukung WEB 2.0
Dari sisi teknologi, konsep Web 2.0 membawa perubahan pada elemen-elemen yang digunakan dalam pengembangan website. Teknik maupun fitur teknologi yang sering kali menyertai website Web 2.0, antara lain:
1. Rich Internet Application.
Rich Internet Application atau disingkat RIA merupakan aplikasi website yang memiliki fitur dan fungsi seperti aplikasi desktop. Umumnya RIA dapat berjalan pada web browser biasa tanpa memerlukan instalasi software tertentu Keuntungannya, tentu saja menjadikan website Anda memiliki user interface yang lebih kaya dan responsif. Tentunya, RIA tidak hanya digunakan pada Web 2.0, penggunaan RIA sangat luas dan dapat digunakan untuk pengembangan website dengan keperluan yang bervariasi. RIA dapat diimplementasikan dengan menggunakan Ajax, Silverlight, Flash, dan lain sebagainya.
2. Mashup.
Merupakan aplikasi web yang melakukan kombinasi data yang berasal dari lebih dari satu sumber, disajikan dalam satu content. Contoh Web 2.0 yang menggunakan mashup adalah Google Maps, yang menggabungkan data dari Google Maps sendiri bersama data real estate dari Craigslist (sebuah jaringan komunitas online). Metode pengambilan data dari sumber lain dapat menggunakan web feed (RSS atau Atom), web services, ataupun screen scraping.
3. Software Wiki/Forum.
Software wiki ataupun forum digunakan untuk membantu pengguna menciptakan contentnya sendiri dan berkolaborasi satu sama lain. Contohnya kembali pada Wikipedia, di mana Anda dapat dengan mudah menciptakan dan mengubah content sebuah artikel.
5. Syndication.
Umumnya syndication menyediakan web feed dari sebuah website untuk para penggunanya, sehingga pengguna dapat mengetahui content terbaru tanpa perlu mengunjungi web tersebut. Dengan demikian, pengguna dapat mengetahui news terbaru sebuah website, ataupun pesan terbaru pada sebuah forum. Format syndication yang umum digunakan adalah RSS ataupun Atom.
Kebutuhan lain dari syndication adalah untuk sebuah komunitas saling berkolaborasi, misalnya syndication dapat digunakan pada Wikipedia agar pengguna dapat memonitor perubahan yang terjadi pada content.
2.3.2.2 Karakteristik Web 2.0
Karakteristik Web 2.0 antara lain :
·       Data is the Next Intel Inside
Kekuatan aplikasi Web 2.0 terletak pada data. Aplikasi-aplikasi Internet yang berhasil selalu didukung oleh basic data yang kuat dan unik. Contohnya pada Google, yang kekuatannya terletak pada pengumpulan dan management data halaman-halaman Web di Internet. Ini berarti perusahaan yang menguasai data adalah perusahaan yang unggul.
·       Network is Platform
Web 2.0 ini merupakan platform bagi aplikasi, dimana web yang menjadi platform menjadikan web sebagai tempat bekerja dimana pun berada. Cukup kita dengan membuka browser (mozilla, Internet Explorer, Opera, dsb), kita sudah dapat mengerjakan berbagai kegiatan entah itu mengetik dokumen, perhitungan keuangan, atau merancang persentasi menggunakan berbagai aplikasi yang dapat diakses secara langsung. Dan untuk hal ini Google masih yang terdepan.
·       Harnessing Collective Intelligence
Adanya partisipasi dari pengguna dalam berkolaborasi dengan pengetahuan. Contohnya Wikipedia.
·       End of the Software Release Cycle
Dikatakan bahwa Web 2.0 ini adalah sebagai akhir dari siklus peluncuran produk software. Sehingga dengan cara ini setiap produsen software tidak lagi meluncurkan produknya dalam bentuk fisik. Dan karena Web 2.0 menjadi platform inilah seorang pengguna cukup mendatangi website untuk menjalankan aplikasi yang ingin digunakan. Dan dengan begitu software bukan lagi sebagai produk tetapi layanan (service).
·       RSS & XML
Dukungan dari sebuah program yang sederhana, sehingga dengan adanya RSS akan memudahkan pengguna untuk menikmati informasi secara cepat dengan cara berlangganan atau memudahkan para pelaku web untuk me-remix atau re-post dari website lainnya.
·       Rich User Experience
Kemajuan dari sisi antar-muka (interface) di sisi pengguna (user). Seperti misalnya dengan dukungan AJAX, yang menggabungkan HTML, CSS, Javascript, dan XML pada Blog, Yahoo!Mail, GMail, membuat pengguna merasakan lebih dari sekedar user atau hanya sekedar mengirim e-mail.
·       Software is not Limited to a Specific Device
Kini software tidak lagi terbatas pada perangkat tertentu dan computer bukanlah satu-satunya jalan mengakses internet. Singkatnya setiap aplikasi kini didesain untuk dapat dinikmati di perangkat lain seperti di Ponsel, PDA, Iphone, dsb.


2.3.3 Web 3.0 (2005-Sekarang)
Lambat laun kebiasaan dan kebutuhan orang di dunia maya selalu berubah dan bertambah. Hal ini juga sejalan dengan semakin cepatnya akses internet broadband dan teknologi komputer yang semakin canggih. Jika pada telekomunikasi sudah mulai terdengar isu era 4G, begitu juga yang terjadi pada dunia website yang juga memunculkan isu akan segera hadirnya era baru yaitu Web 3.0. Teknologi web generasi ketiga ini merupakan perkembangan lebih maju dari Web 2.0 dimana disini web seolah-olah sudah seperti kehidupan di alam nyata. Web 3.0 memiliki ciri-ciri umum seperti suggest, happen dan provide.
Jadi, disini web seolah-olah sudah seperti asisten pribadi kita. Dengan menggunakan teknologi 3D animasi, kita bisa membuat profil avatar yang sesuai dengan karakter, kemudian melakukan aktivitas di dunia maya seperti layaknya di dunia nyata. Kita bisa berjalan-jalan, pergi ke mall, bercakap-cakap dengan teman yang lain. Ya, Web 3.0 adalah dunia virtual kita.
Web 3.0 adalah generasi ketiga dari layanan internet berbasis web. Konsep Web 3.0 pertama kali diperkenalkan pada tahun 2001, saat Tim Berners-Lee, penemu World Wide Web, menulis sebuah artikel ilmiah yang menggambarkan Web 3.0 sebagai sebuah sarana bagi mesin untuk membaca halaman-halaman Web. Hal ini berarti bahwa mesin akan memiliki kemampuan membaca Web sama seperti yang manusia dapat lakukan sekarang ini.
Web 3.0 berhubungan dengan konsep Web Semantik, yang memungkinkan isi web dinikmati tidak hanya dalam bahasa asli pengguna, tapi juga dalam bentuk format yang bisa diakses oleh agen-agen software. Beberapa ahli bahkan menamai Web 3.0 sebagai Web Semantik itu sendiri. Keunikan dari Web 3.0 adalah konsep dimana manusia dapat berkomunikasi dengan mesin pencari. Kita bisa meminta Web untuk mencari suatu data spesifik tanpa bersusah-susah mencari satu per satu dalam situs-situs Web. Web 3.0 juga mampu menyediakan keterangan-keterangan yang relevan tentang informasi yang ingin kita cari, bahkan tanpa kita minta.
Pembuatan Semantic Web dimungkinkan dengan adanya sekumpulan standar yang dikoordinasi oleh World Wide Web Consortium (W3C). Standar yang paling penting dalam membangun Semantic Web adalah XML, XML Schema, RDF, OWL, dan SPARQL.
2.3.3.1 Karakteristik Web 3.0
     Karakteristik dari Web 3.0 adalah :
·         Semantic Web (web dengan kemampuan membaca situs semudah manusia membacanya sehingga informasi dapat disajikan dengan cepat dan tepat)
·         The 3D Web (web dengan kemampuan visual 3D dan interaksi secara realtime)
·         The Media-Centric Web (Photo, audio, dan video akan menjadi cara lain untuk mencari informasi yang kita inginkan selain keyword)

2.3.3.1 Ciri khas dari Web 3.0
Ø  Transformation dari temporary penyimpanan yang bersifat terpisah pisah menjadi satu.
Ø  Ubiquitous connectivity, memungkinkan info diakses di berbagai media.
Ø  Network computing, software-as-a-service business models, Web services interoperability, distributed computing, grid computing and
Ø  cloud computing;
Ø  Open technologies, sebagian besar semuanya berjalan dalam platform open source / free.
Ø  Open identity, OpenID, seluruh info adalah bebas dan sebebas – bebasnya.
Ø  The intelligent web, Semantic Web technologies such as RDF, OWL, SWRL, SPARQL, GRDDL, semantic application platforms, and statement-
Ø  based datastores;
Ø  Distributed databases, database terdistribusi dalam WWD ( World Wide Database ).
Ø  Intelligent applications.
2.4 Perbedaan antara Generasi-generasi Web
Disetiap perkembangan maka akan menghasilkan perbedaan antara generasi yang sebeumnya dan generasi yang baru. Pada fitur lama akan di hapus bugs dan ditambahkan fitur yang lebih canggih. Berikut Perbedaan antara generasi-generasi Web.

2.4.1 Perbedaan Web 1.0, Web 2.0 dan Web 3.0
Secara garis besar, sifat Web 1.0 adalah Read. Sifat Web 2.0 adalah Read-Write. Berikut adalah letak perbedaan Web 1.0 dan Web 2.0.
 Sedangkan Web 3.0 Terdiri Dari :
1.    Web semantik
2.    Format mikro
3.    Pencarian dalam bahasa pengguna
4.    Penyimpanan data dalam jumlah besar
5.    Pembelajaran lewat mesin
6.    Agen rekomendasi, yang merujuk pada kecerdasan buatan Web
            Berikut adalah perbedaan Web 1.0, Web 2.0 dan Web 3.0 :

2.5 Teknologi Web yang akan datang Web 4.0
Seiring berjalannya waktu teknologi di dunia IT berkembang begitu pesat. Begitu juga pada perkembangan Web. Dari awal kemunculannya pada generasi web 1.0 (1990-2000) lalu muncul generasi web 2.0 (2001-2010) lalu muncul lagi generasi web 3.0 (2005-Sekarang), maka dapat kita simpulkan bahwa perkembangan dunia IT khususnya dalam perkembangan Web berkembang begitu pesat dan menghadirkan fitur baru yang lebih canggih dari sebelumnya. Maka tidak tutup kemungkinan bahwa perkembangan Web akan berakhir sampai disini. Berikut Prediksi Perkembangan web yang akan datang.
2.5.1 Latar Belakang terbentuknya Web 4.0 sebagai WebOS
Web 4.0 adalah masih sebuah ide bawah tanah berlangsung dan tidak ada definisi yang tepat tentang bagaimana itu akan menjadi. Web 4.0 juga dikenal sebagai web simbiosis. Dibalik bayangan dari web simbiosis adalah interaksi antara manusia dan mesin dalam kehidupan. Ini akan mungkin untuk membangun lebih interface kuat seperti pikiran dikontrol antarmuka menggunakan web 4.0. Dengan kata sederhana, mesin akan pintar membaca isi web, dan bereaksi dalam bentuk pelaksana dan memutuskan apa yang harus mengeksekusi pertama yang memuat situs cepat dengan kualitas unggul dan kinerja dan membangun interface memerintah lebih.
2.5.2 Sifat Web 4.0
Web 4.0 akan menjadi web read-write-eksekusi-concurrency. Ini mencapai massa dalam jaringan online yang memberikan layanan transparansi global, tata kelola, distribusi, partisipasi, kolaborasi ke dalam masyarakat utama seperti industri, politik, sosial dan lainnya masyarakat.
Web 4.0 atau webOS akan seperti middleware yang akan mulai berfungsi seperti sistem operasi. WebOS akan sejajar dengan otak manusia dan menyiratkan web besar interaksi sangat cerdas. Meskipun tidak ada pemikiran yang tepat tentang web 4.0 dan teknologi, tetapi jelas bahwa web bergerak menuju menggunakan kecerdasan buatan untuk menjadi sebagai web cerdas .



BAB III
PENUTUP

3.1 Kesimpulan
Teknologi Berkembang sangat pesat, begitu juga Teknologi Web berkembang seiring perkembangan kecepatan akses internet. Web dengan fitur/generasi tertinggi akan mudah di akses jika kita mempunyai kecepatan akses yang tinggi juga. Tetapi jika kecepatan akses kita rendah maka kita akan sulit mengakses teknologi Web Tertinggi.
Dari awal kemunculan teknologi internet yang hanya bisa dilihat oleh pengguna, lalu pengguna bisa berinteraksi dengan internet, lalu internet sendiri yang mempunyai kecerdasan buatan manusia dan bersifat 3D. Setelah itu pasti akan muncul teknologi Web yang baru yang melebihi kecanggihan pada teknologi sebelumnya.
Dibalik bayangan dari web 4.0 atau web yang akan datang adalah interaksi antara manusia dan mesin dalam kehidupan. Ini akan mungkin untuk membangun lebih interface kuat seperti pikiran dikontrol antarmuka menggunakan web 4.0. Dengan kata sederhana, mesin akan pintar membaca isi web, dan bereaksi dalam bentuk pelaksana dan memutuskan apa yang harus mengeksekusi pertama yang memuat situs cepat dengan kualitas unggul dan kinerja dan membangun interface memerintah lebih. Masa Depan proyek di dalam web ini akan fokus pada penelitian yang lebih dalam dan lebih luas tentang web semantik dan isu-isu tersebut.


3.2 Saran
Teknologi Web akan bisa bermanfaat untuk orang yang bisa memanfaatkannya. Banyak sekali manfaat yang bisa kita dapatkan dari teknologi web. Maka manfaatkanlah teknologi web yang bisa kita gunakan sekarang.

Jika kita tidak bisa mengikuti perkembangan jaman, maka kita akan ketinggalan oleh yang lainnya. Maka kita harus terus mengikuti perkembangan jaman dan terus mempelajari tentang perkembangan web yang terkini.

Download Software as a Service pada Perkembangan Web Generasi 1.0, 2.0, 3.0, 4.0.pdf