Rabu, 17 April 2019

Komputasi Awan (Cloud Computing)

Apa itu Cloud Computing? 

Cloud computing adalah penyampaian berbagai layanan melalui internet. Sumber daya ini termasuk alat dan aplikasi seperti penyimpanan data, server, database, jaringan, dan perangkat lunak. Daripada menyimpan file di hard drive milik atau perangkat penyimpanan lokal, penyimpanan berbasis cloud memungkinkan untuk menyimpannya ke basis data jauh. Selama perangkat elektronik memiliki akses ke web, ia memiliki akses ke data dan program perangkat lunak untuk menjalankannya. Komputasi awan adalah pilihan populer untuk orang dan bisnis karena sejumlah alasan termasuk penghematan biaya, peningkatan produktivitas, kecepatan dan efisiensi, kinerja, dan keamanan.

Manfaat Komputasi Awan

Dari penjelasan tentang cloud computing diatas, ada banyak manfaat yang bisa kita ambil dari cloud computing, yaitu :
  • Skalabilitas, yaitu dengan cloud computing kita bisa menambah kapasitas penyimpanan data kita tanpa harus membeli peralatan tambahan, misalnya hardisk dll. Kita cukup menambah kapasitas yang disediakan oleh penyedia layanan cloud computing.
  • Aksesibilitas, yaitu kita bisa mengakses data kapanpun dan dimanapun kita berada, asal kita terkoneksi dengan internet, sehingga memudahkan kita mengakses data disaat yang penting.
  • Keamanan, yaitu data kita bisa terjamin keamanan nya oleh penyedia layanan cloud computing, sehingga bagi perusahaan yang berbasis IT, data bisa disimpan secara aman di penyedia cloud computing. Itu juga mengurangi biaya yang diperlukan untuk mengamankan data perusahaan.
  • Kreasi, yaitu para user bisa melakukan/mengembangkan kreasi atau project mereka tanpa harus mengirimkan project mereka secara langsung ke perusahaan, tapi user bisa mengirimkan nya lewat penyedia layanan cloud computing.
  • Kecemasan, ketika terjadi bencana alam data milik kita tersimpan aman di cloud meskipun hardisk atau gadget kita rusak

Kerugian Cloud Computing 

Dengan semua kecepatan, efisiensi, dan inovasi yang datang dengan komputasi awan, tentu saja ada risiko. Keamanan selalu menjadi perhatian besar dengan cloud terutama ketika menyangkut catatan medis yang sensitif dan informasi keuangan. Sementara regulasi memaksa layanan cloud computing untuk meningkatkan keamanan dan kepatuhan mereka, hal itu tetap menjadi masalah yang berkelanjutan. Enkripsi melindungi informasi penting, tetapi jika kunci enkripsi itu hilang, data akan hilang. Server yang dikelola oleh perusahaan komputasi awan dapat menjadi korban bencana alam, bug internal, dan pemadaman listrik juga. Jangkauan geografis komputasi awan memotong dua arah: Pemadaman listrik di California dapat melumpuhkan pengguna Di New York, dan perusahaan di Texas dapat kehilangan datanya jika terjadi sesuatu yang menyebabkan penyedia yang berbasis di Maine itu mogok. Seperti halnya teknologi apa pun, ada kurva belajar untuk karyawan dan manajer. Tetapi dengan banyak orang mengakses dan memanipulasi informasi melalui satu portal, kesalahan yang tidak disengaja dapat ditransfer ke seluruh sistem.

Komputasi Paralel

Komputasi paralel adalah salah satu teknik melakukan komputasi secara bersamaan dengan memanfaatkan beberapa komputer independen secara bersamaan. Ini umumnya diperlukan saat kapasitas yang diperlukan sangat besar, baik karena harus mengolah data dalam jumlah besar (di industri keuangan, bioinformatika, dll) ataupun karena tuntutan proses komputasi yang banyak. Kasus kedua umum ditemui di kalkulasi numerik untuk menyelesaikan persamaan matematis di bidang fisika (fisika komputasi), kimia (kimia komputasi) dll.

Keuntungan Komputasi Paralel dibandingkan Komputasi Seri adalah sebagai berikut:

  1. Menghemat waktu dan uang karena banyak sumber daya yang bekerja bersama akan mengurangi waktu dan memotong biaya potensial. 
  2. Tidak praktis untuk menyelesaikan masalah yang lebih besar pada Serial Computing. Ini dapat mengambil keuntungan dari sumber daya non-lokal ketika sumber daya lokal terbatas.
  3. Serial Computing 'membuang-buang' potensi daya komputasi, sehingga Parallel Computing membuat kerja perangkat keras menjadi lebih baik.

Jenis-jenis dari Parallelism:

  1. Bit-level parallelism: Ini adalah bentuk komputasi paralel yang didasarkan pada ukuran prosesor yang meningkat. Ini mengurangi jumlah instruksi yang harus dijalankan sistem untuk melakukan tugas pada data berukuran besar. Contoh: Pertimbangkan skenario di mana prosesor 8-bit harus menghitung jumlah dua bilangan bulat 16-bit. Pertama-tama harus meringkas 8 bit orde rendah, kemudian menambahkan 8 bit orde tinggi, sehingga membutuhkan dua instruksi untuk melakukan operasi. Prosesor 16-bit dapat melakukan operasi hanya dengan satu instruksi.
  2. Instruction-level parallelism: Sebuah prosesor hanya dapat mengatasi kurang dari satu instruksi untuk setiap fase siklus clock. Instruksi ini dapat dipesan ulang dan dikelompokkan yang kemudian dijalankan secara bersamaan tanpa mempengaruhi hasil program. Ini disebut paralelisme tingkat instruksi.
  3. Task Parallelism: Paralelisme tugas menggunakan dekomposisi tugas menjadi subtugas dan kemudian mengalokasikan masing-masing subtugas untuk dieksekusi. Prosesor melakukan eksekusi sub tugas secara bersamaan.

Mengapa komputasi paralel?

  1. Seluruh dunia nyata berjalan dalam sifat dinamis yaitu banyak hal terjadi pada waktu tertentu tetapi di tempat yang berbeda secara bersamaan. Data ini sangat besar untuk dikelola.
  2. Data dunia nyata membutuhkan simulasi dan pemodelan yang lebih dinamis, dan untuk mencapai hal yang sama, komputasi paralel adalah kuncinya.
  3. Komputasi paralel memberikan konkurensi dan menghemat waktu dan uang.
  4. Kompleks, kumpulan data besar, dan pengelolaannya hanya dapat diatur dan hanya menggunakan pendekatan komputasi paralel.
  5. Memastikan pemanfaatan sumber daya secara efektif. Perangkat keras dijamin untuk digunakan secara efektif sedangkan dalam perhitungan serial hanya beberapa bagian dari perangkat keras yang digunakan dan sisanya tidak digunakan.
  6. Juga, tidak praktis untuk mengimplementasikan sistem waktu nyata menggunakan komputasi serial.

Aplikasi Komputasi Paralel: 

  1. Basis data dan penambangan data. 
  2. Simulasi sistem waktu nyata. 
  3. Sains dan Teknik. 
  4. Grafis canggih, augmented reality dan virtual reality. 

Keterbatasan Komputasi Paralel: 

  1. Ini membahas seperti komunikasi dan sinkronisasi antara beberapa sub-tugas dan proses yang sulit dicapai. 
  2. Algoritma harus dikelola sedemikian rupa sehingga dapat ditangani dalam mekanisme paralel. 
  3. Algoritma atau program harus memiliki kopling rendah dan kohesi tinggi. Tetapi sulit untuk membuat program semacam itu. 
  4. Programmer yang lebih terampil dan ahli secara teknis dapat mengkode program berbasis paralelisme dengan baik.

Rabu, 20 Maret 2019

Big Data

Big data adalah istilah yang menggambarkan volume data yang besar - baik terstruktur dan tidak terstruktur - yang menggenangi bisnis setiap hari. Tetapi bukan jumlah data yang penting. Itu yang organisasi lakukan dengan data yang penting. Data besar dapat dianalisis untuk wawasan yang mengarah pada keputusan yang lebih baik dan langkah bisnis strategis.

Riwayat Data Besar dan Pertimbangan Saat Ini


Sementara istilah "big data" relatif baru, tindakan mengumpulkan dan menyimpan sejumlah besar informasi untuk analisis akhirnya sudah lama. Konsep ini mendapatkan momentum di awal 2000-an ketika analis industri Doug Laney mengartikulasikan definisi big data yang sekarang menjadi arus utama sebagai tiga V:

Volume. Organisasi mengumpulkan data dari berbagai sumber, termasuk transaksi bisnis, media sosial, dan informasi dari sensor atau data mesin-ke-mesin. Di masa lalu, menyimpannya akan menjadi masalah - tetapi teknologi baru (seperti Hadoop) telah meringankan beban.

Velocity (Kecepatan). Data mengalir dengan kecepatan yang belum pernah terjadi sebelumnya dan harus ditangani tepat waktu. Tag RFID, sensor, dan pengukuran cerdas mendorong kebutuhan untuk menangani torrent data dalam waktu yang hampir bersamaan.

Variasi. Data datang dalam semua jenis format - dari terstruktur, data numerik dalam database tradisional hingga dokumen teks tidak terstruktur, email, video, audio, data ticker saham dan transaksi keuangan.

Di SAS, kami mempertimbangkan dua dimensi tambahan dalam hal data besar:

Variabilitas. Selain kecepatan dan varietas data yang meningkat, aliran data dapat sangat tidak konsisten dengan puncak periodik. Apakah ada yang sedang tren di media sosial? Beban data puncak harian, musiman, dan yang dipicu peristiwa dapat menjadi tantangan untuk dikelola. Terlebih lagi dengan data yang tidak terstruktur.

Kompleksitas. Data saat ini berasal dari berbagai sumber, yang membuatnya sulit untuk menautkan, mencocokkan, membersihkan, dan mengubah data di seluruh sistem. Namun, penting untuk menyambungkan dan menghubungkan hubungan, hierarki, dan beberapa tautan data atau data Anda dapat dengan cepat lepas kendali.

Algoritma yang biasa digunakan dalam Big Data

1. Decision Tree

Klasifikasi sekumpulan data ke dalam kelompok yang berbeda menggunakan atribut tertentu, jalankan tes di setiap node, melalui penilaian brach, lebih lanjut membagi data menjadi dua kelompok yang berbeda, seterusnya dan seterusnya. Tes dilakukan berdasarkan data yang ada, dan ketika data baru ditambahkan, dapat diklasifikasikan ke grup yang sesuai
Klasifikasi data berdasarkan beberapa fitur, setiap kali proses menuju ke langkah berikutnya, ada cabang penilaian, dan penilaian membagi data menjadi dua, dan proses berlanjut. Ketika tes dilakukan dengan data yang ada, data baru bisa. Pertanyaan ini dipelajari oleh data yang ada, ketika ada data baru yang masuk, komputer dapat mengkategorikan data ke dalam daun kanan.
decision-tree-1

Implementasi Big Data

  1. Teknologi Hadoop untuk Pemantauan Kondisi Vital Pasien
    Beberapa rumah sakit di seluruh dunia telah menggunakan Hadoop untuk membantu stafnya bekerja secara efisien dengan Big Data. Tanpa Hadoop, sebagian besar sistem layanan kesehatan hampir tidak mungkin menganalisis data yang tidak terstruktur.
    5_contoh_penerapan_bigdata_dlmbid_kesehatan_img
    Children's Healthcare of Atlanta merawat lebih dari 6.200 anak di unit ICU mereka. Rata-rata durasi tinggal di ICU Pediatrik bervariasi dari satu bulan sampai satu tahun. Children's Healthcare of Atlanta menggunakan sensor di samping tempat tidur yang membantu mereka terus melacak kondisi vital pasien seperti tekanan darah, detak jantung dan pernafasan. Sensor ini menghasilkan data yang sangat besar, dan sistem yang lama tidak mampu untuk menyimpan data tersebut lebih dari 3 hari karena terkendala biaya storage. Padahal rumah sakit ini perlu menyimpan tanda-tanda vital tersebut untuk dianalisa. Jika ada perubahan pola, maka perlu ada alert untuk tim dokter dan asisten lain.
    Sistem tersebut berhasil diimplementasikan dengan menggunakan komponen ekosistem Hadoop : HiveFlumeSqoopSpark, dan Impala.
    Setelah keberhasilan project tersebut, project berbasis Hadoop selanjutnya yang mereka lakukan adalah riset mengenai asma dengan menggunakan data kualitas udara selama 20 tahun dari EPA (Environment Protection Agency). Tujuannya: mengurangi kunjungan IGD dan rawat inap untuk kejadian terkait asma pada anak-anak.
  2. Valence health : peningkatan kualitas layanan dan reimbursements
    Valence health menggunakan Hadoop untuk membangun data lake yang merupakan penyimpanan utama data perusahaan. Valence memproses 3000 inbound data feed dengan 45 jenis data setiap harinya. Data kritikal ini meliputi hasil tes lab, data rekam medis, resep dokter, imunisasi, obat, klaim dan pembayaran, serta klaim dari dokter dan rumah sakit, yang digunakan untuk menginformasikan keputusan dalam peningkatan baik itu pendapatan ataupun reimbursement. Pertumbuhan jumlah klien yang pesat dan peningkatan volume data terkait semakin membebani infrastruktur yang ada.
    5_contoh_penerapan_bigdata_dlmbid_kesehatan_img
    Sebelum menggunakan big data, mereka membutuhkan waktu hingga 22 jam untuk memproses 20 juta records data hasil laboratorium. Penggunaan big data memangkas waktu siklus dari 22 jam menjadi 20 menit, dengan menggunakan hardware yang jauh lebih sedikit. Valence Health juga mampu menangani permintaan pelanggan yang sebelumnya sulit untuk diselesaikan. Misalnya jika seorang klien menelpon dan mengatakan bahwa ia telah mengirimkan file yang salah 3 bulan yang lalu, dan perlu untuk menghapus data tersebut. Sebelumnya dengan solusi database tradisional, mereka memerlukan 3 sampai 4 minggu. Dengan memanfaatkan MapR snapshot yang menyediakan point-in-time recovery, Valence dapat melakukan roll-back dan menghapus file tersebut dalam hitungan menit.
  3. Hadoop dalam Pengobatan Kanker dan Genomics
    Salah satu alasan terbesar mengapa kanker belum dapat dibasmi sampai sekarang adalah karena kanker bermutasi dalam pola yang berbeda dan bereaksi dengan cara yang berbeda berdasarkan susunan genetik seseorang. Oleh karena itu, para peneliti di bidang onkologi menyatakan bahwa untuk menyembuhkan kanker, pasien perlu diberi perawatan yang disesuaikan dengan jenis kanker berdasarkan genetika masing-masing pasien.
    Ada sekitar 3 miliar pasangan nukleotida yang membentuk DNA manusia, dan diperlukan sejumlah besar data untuk diorganisir secara efektif jika kita ingin melakukan analisis. Teknologi big data, khususnya Hadoop dan ekosistemnya memberikan dukungan yang besar untuk paralelisasi dan proses pemetaan DNA.
    David Cameron, Perdana Menteri Inggris telah mengumumkan dana pemerintah sebesar £ 300 juta pada bulan Agustus, 2014 untuk proyek 4 tahun dengan target memetakan 100.000 genom manusia pada akhir tahun 2017 bekerja sama dengan perusahaan Bioteknologi Amerika Illumina dan Genomics Inggris. Tujuan utama dari proyek ini adalah memanfaatkan big data dalam dunia kesehatan untuk mengembangkan personalized medicine bagi pasien kanker.
    Arizona State University mengadakan sebuah proyek penelitian yang meneliti jutaan titik di DNA manusia untuk menemukan variasi penyebab kanker sedang berlangsung. Proyek ini merupakan bagian dari Complex Adaptive Systems Initiative (CASI), yang mendorong penggunaan teknologi untuk menciptakan solusi bagi permasalahan dunia yang kompleks.
    Dengan menggunakan Apache Hadoop, tim peneliti universitas dapat memeriksa variasi dalam jutaan lokasi DNA untuk mengidentifikasi mekanisme kanker dan bagaimana jaringan berbagai gen mendorong kecenderungan dan efek kanker pada individu.
    "Proyek kami memfasilitasi penggunaan data genomik berskala besar, sebuah tantangan bagi semua institusi penelitian yang menangani pecision medicine," kata Jay Etchings, direktur komputasi riset ASU. Ekosistem Hadoop dan struktur data lake terkait menghindarkan setiap peneliti dan pengguna klinis untuk mengelola sendiri jejak data genomik yang besar dan kompleks.
  4. UnitedHealthcare: Fraud, Waste, and Abuse
    Saat ini setidaknya 10% dari pembayaran asuransi Kesehatan terkait dengan klaim palsu. Di seluruh dunia kasus ini diperkirakan mencapai nilai miliaran dolar. Klaim palsu bukanlah masalah baru, namun kompleksitas kecurangan asuransi tampaknya meningkat secara eksponensial sehingga menyulitkan perusahaan asuransi kesehatan untuk menghadapinya.
    UnitedHealthCare adalah sebuah perusahaan asuransi yang memberikan manfaat dan layanan kesehatan kepada hampir 51 juta orang. Perusahaan ini menjalin kerja sama dengan lebih dari 850.000 orang tenaga kesehatan dan sekitar 6.100 rumah sakit di seluruh negeri. Payment Integrity group/divisi integritas pembayaran mereka memiliki tugas untuk memastikan bahwa klaim dibayar dengan benar dan tepat waktu. Sebelumnya pendekatan mereka untuk mengelola lebih dari satu juta klaim per hari (sekitar 10 TB data tiap harinya) bersifat ad hoc, sangat terikat oleh aturan, serta terhambat oleh data yang terpisah-pisah. Solusi yang diambil oleh UnitedHealthCare adalah pendekatan dual mode, yang berfokus pada alokasi tabungan sekaligus menerapkan inovasi untuk terus memanfaatkan teknologi terbaru.
    Dalam hal pengelolaan tabungan, divisi tersebut membuat “pabrik” analisis prediktif di mana mereka mengidentifikasi klaim yang tidak akurat secara sistematis dan tepat. Saat ini Hadoop merupakan data framework berplatform tunggal yang dilengkapi dengan tools untuk menganalisa informasi dari klaim, resep, plan peserta, penyedia layanan kesehatan yang dikontrak, dan hasil review klaim terkait.
    Mereka mengintegrasikan semua data dari beberapa silo di seluruh bisnis, termasuk lebih dari 36 aset data. Saat ini mereka memiliki banyak model prediktif (PCR, True Fraud, Ayasdi, dll.) yang menyediakan peringkat provider yang berpotensi melakukan kecurangan, sehingga mereka dapat mengambil tindakan yang lebih terarah dan sistematis.
  5. Liaison Technologies: Streaming System of Record for Healthcare
    Liaison Technologies menyediakan solusi berbasis cloud untuk membantu organisasi dalam mengintegrasikan, mengelola, dan mengamankan data di seluruh perusahaan. Salah satu solusi vertikal yang mereka berikan adalah untuk industri kesehatan dan life science, yang harus menjawab dua tantangan : memenuhi persyaratan HIPAA dan mengatasi pertumbuhan format dan representasi data.
    Dengan MapR Stream, permasalahan data lineage dapat terpecahkan karena stream menjadi sebuah SOR (System of Record) dengan berfungsi sebagai log yang infinite dan immutable dari setiap perubahan data. Tantangan kedua, yaitu format dan representasi data, bisa digambarkan dengan contoh berikut: rekam medis pasien dapat dilihat dengan beberapa cara yang berbeda (dokumen, grafik, atau pencarian) oleh pengguna yang berbeda, seperti perusahaan farmasi, rumah sakit, klinik, atau dokter.
    Dengan melakukan streaming terhadap perubahan data secara real-time ke basis data, grafik, dan basis data MapR-DB, HBase, MapR-DB JSON, pengguna akan selalu mendapatkan data paling mutakhir dalam format yang paling sesuai.

KOMPUTASI MODERN

Pada artikel ini saya akan membahas bagaimana perkembangan dan implementasi dari Komputasi Modern. 

Apa itu Komputasi Modern?

Komputasi Modern Komputasi adalah suatu cara untuk dapat menyelesaikan sebuah masalah dari inputan data dengan menggunakan algoritma. Secara umum ilmu komputasi adalah bidang ilm  u yang mempunyai perhatian pada penyusunan model matematika dan teknik penyelesaian numerik serta penggunaan komputer untuk menganalisis dan memecahkan masalah-masalah ilmu (sains). Bidang ini berbeda dengan ilmu komputer (computer science), yang mengkaji komputasi, komputer dan pemrosesan informasi. Bidang ini juga berbeda dengan teori dan percobaan sebagai bentuk tradisional dari ilmu dan kerja keilmuan.

Perkembangan Komputasi Modern

Kembali ke awal, konsep untuk komputasi modern lahir pada abad ke-19. Seorang profesor matematika Inggris bernama Charles Babbage merancang Analytical Engine. Ide-idenya adalah dasar untuk konsep-konsep yang melahirkan komputer yang dapat diprogram. Model awalnya memiliki data dan memori program yang dipisahkan, operasi yang berbasis instruksi, dan unit input input yang terpisah. Dia dikreditkan dengan menciptakan komputer mekanik pertama, meskipun tidak pernah secara resmi selesai. Ini adalah kerangka dasar untuk apa komputer saat ini didasarkan.

Implementasi Komputasi di Berbagai Bidang Ilmu Pengetahuan


1.    Fisika : menyelesaikan permasalahan medan magnet dengan menggunakan komputasi fisika, dalam hal ini menentukan besarnya medan magnet dan membandiangkan hubungan antara medan magnet dengan panjang kawat. Implementasi komputasi modern di bidang fisika ada Computational Physics yang mempelajari suatu gabungan antara Fisika, Komputer Sains dan Matematika Terapan untuk memberikan solusi pada “Kejadian dan masalah yang kompleks pada dunia nyata” baik dengan menggunakan simulasi juga penggunaan algoritma yang tepat. Pemahaman fisika pada teori, eksperimen, dan komputasi haruslah sebanding, agar dihasilkan solusi numerik dan visualisasi / pemodelan yang tepat untuk memahami masalah Fisika.Untuk melakukan pekerjaan seperti evaluasi integral, penyelesaian persamaan differensial, penyelesaian persamaan simultan, mem-plot suatu fungsi/data, membuat pengembangan suatu seri fungsi, menemukan akar persamaan dan bekerja dengan bilangan kompleks yang menjadi tujuan penerapan fisika komputasi. Banyak perangkat lunak ataupun bahasa yang digunakan, baik MatLab, Visual Basic, Fortran, Open Source Physics (OSP), Labview, Mathematica, dan lain sebagainya digunakan untuk pemahaman dan pencarian solusi numerik dari masalah-masalah pada Fisika komputasi.

2.       Kimia : algoritma dan program komputer dapat digunakan untuk memungkinkan peramalan sifat-sifat atom dan molekul. Kajian komputasi juga dapat dilakukan untuk menjelajahi mekanisme reaksi dan menjelaskan pengamatan pada reaksi di laboratorium, serta memahami sifat dan perubahan pada sistem makroskopis melalui simulasi yang berlandaskan hukum-hukum interaksi yang ada dalam sistem.

3.   Matematika : penerapan teknik-teknik komputasi matematika meliputi metode numerik, scientific computing, metode elemen hingga, metode beda hingga, scientific data mining, scientific process control dan metode terkait lainnya untuk menyelesaikan masalah-masalah real yang berskala besar. Terdapat numerical analysis yaitu sebuah algoritma dipakai untuk menganalisa masalah – masalah matematika.Contohnya, penerapan teknik-teknik komputasi matematika meliputi metode numerik, scientific computing, metode elemen hingga, metode beda hingga, scientific data mining, scientific process control dan metode terkait lainnya untuk menyelesaikan masalah-masalah real yang berskala besar.

4.  Ekonomi : mempeljarai titik pertemuan antara ekonomi dan komputasi, meliputi agent-based computational modelling, computational econometrics dan statistika, komputasi keuangan, computational modelling of dynamic macroeconomic systems dan pengembangan alat bantu dalam pendidikan komputasi ekonomi. Terdapat Computational Economics yang mempelajari titik pertemuan antara ilmu ekonomi dan ilmu komputer mencakup komputasi keuangan, statistika, pemrograman yang di desain khusus untuk komputasi ekonomi dan pengembangan alat bantu untuk pendidikan ekonomi.Contohnya, mempelajari titik pertemuan antara ekonomi dan komputasi, meliputi agent-based computational modelling, computational econometrics dan statistika, komputasi keuangan, computational modelling of dynamic macroeconomic systems dan pengembangan alat bantu dalam pendidikan komputasi ekonomi.

5.       Biologi : merupakan penerapan berupa aplikasi dari teknologi informasi dan ilmu komputer terhadap bidang biologi molekuler.

6.   Geografi : komputasi awan didefinisikan sebagai sebuah model yang memungkinkan kenyamanan, akses on-demand terhadap kumpulan sumber daya komputasi (contohnya jaringan, server, media penyimpanan, aplikasi, dan layanan komputasi) yang konfigurasinya dapat dilakukan dengan cepat dan disertai sedikit usaha untuk mengelola dan berhubungan dengan penyedia layanannya. Pada bidang geologi teori komputasi biasanya digunakan untuk pertambangan, sebuah sistem komputer digunakan untuk menganalisa bahan-bahan mineral dan barang tambang yang terdapat di dalam tanah. Contohnya, Pertambangan dan digunakan untuk menganalisa bahan-bahan mineral dan barang tambang yang terdapat di dalam tanah.