Big Data DBA

Big Data DBA

Belajar Big Data Solusi Data Management Dengan Big Data

Latest Post

Bahasa pemrograman untuk machine learning dan data scientist menjadi jenis bahasa pemrograman yang akan banyak di cari dan digunakan pada tahun ini. Maka tidak heran jika banyak yang mencari literatur mengenai macam macam bahasa pemrograman apa saja yang bisa digunakan untuk machine learning dan data scientist, serta bahasa pemrograman mana yang paling banyak diminati.

Berikut ini merupakan daftar lanjutan mengenai bahasa pemrograman paling dicari untuk machine learning dan data scientist. 

Bahasa pemrograman untuk machine learning dan data scientist

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist


Jika pada artikel di bagian pertama ada 5 daftar bahasa pemrograman, maka pada bagian kedua ini akan kita ketahui sebanyak 7 bahasa pemrograman lainnya yang bisa digunakan untuk membantu anda untuk menyelesaikan permasalahan seputar machine learning dan data scientist.



6. Bahasa Pemrograman SQL

belajar bahasa pemrograman SQL untuk machine learning dan data scientist


SQL (Structured Query Language) adalah bahasa komputer yang bertujuan untuk menyimpan, memanipulasi, dan meminta data yang disimpan dalam database relasional. Inkarnasi pertama SQL muncul pada tahun 1974, ketika sebuah kelompok di IBM mengembangkan prototipe pertama dari basis data relasional. Database relasional komersial pertama dirilis oleh Relational Software (kemudian menjadi Oracle).

Ada standar untuk SQL. Namun, SQL yang dapat digunakan pada masing-masing RDBMS utama saat ini ada dalam berbagai rasa. Ini disebabkan oleh dua alasan: 1) standar perintah SQL cukup rumit, dan tidak praktis untuk menerapkan seluruh standar, dan 2) setiap vendor basis data membutuhkan cara untuk membedakan produknya dari yang lain. 


7. Bahasa Pemrograman Mathlab

belajar bahasa pemrograman mathlab untuk machine learning dan data scientist


MATLAB adalah bahasa pemrograman dengan ke khasan nya sendirinya.

Namun, berbagai bagian MATLAB dan lingkungan pengembangan yang terkait dengan nya ditulis dalam bahasa pemrograman C (kerangka inti), bahasa pemrograman C ++ (Kita ketahui bahwa bagian komputasi Paralel ditulis dalam C ++, mungkin bisa jadi bagian yang lainnya juga demikian) dan bahasa pemrograman Java (sebagian besar untuk antarmuka) ).

Secara historis, MATLAB ditulis dalam bahasa FORTRAN, dan warisan ini masih memanifestasikan dirinya dalam beberapa cara hingga saat ini (pengindeksan dimulai dari 1 merupakan contoh utama nya).

MATLAB juga dapat memanggil fungsi yang ditulis dalam sejumlah besar bahasa lain - selain yang telah disebutkan di atas, MATLAB dapat menjalankan kode yang ditulis dalam bahasa pemrograman C #, Python dan Perl - Saya pikir ada juga dukungan untuk berinteraksi dengan Mathematica juga.

Namun, MATLAB adalah bahasa pemrograman dengan bahasanya sendiri, dan diperlakukan demikian.



8. Bahasa Pemrograman SCALA

belajar bahasa pemrograman SCALA untuk machine learning dan data scientist


Scala memulai kehidupannya pada tahun 2003, diciptakan oleh Martin Odersky dan kelompok penelitiannya di EPFL, di sebelah Danau Jenewa dan Pegunungan Alpen, di Lausanne, Swiss. Scala telah berkembang menjadi bahasa pemrograman open source yang matang, digunakan oleh ratusan ribu pengembang, dan dikembangkan serta dikelola oleh sejumlah orang di seluruh dunia.

Scala menggabungkan pemrograman berorientasi objek (OOP) dan fungsional dalam satu bahasa tingkat tinggi yang ringkas. Jenis statis dari bahasa pemrograman Scala membantu menghindari bug dalam aplikasi yang kompleks, dan runtime JVM dan JavaScript memungkinkan Anda membangun sistem berkinerja tinggi dengan akses mudah ke ekosistem library yang sangat besar.



9. Bahasa Pemrograman C

belajar bahasa pemrograman C untuk machine learning dan data scientist


C adalah bahasa pemrograman yang memiliki tujuan umum yang kuat. Cepat, portabel, dan tersedia di semua platform.

Jika Anda baru dalam dunia pemrograman, maka bahasa pemrograman C adalah pilihan yang baik untuk memulai perjalanan karir pemrograman Anda.

Ini adalah panduan komprehensif tentang cara memulai dalam bahasa pemrograman C, mengapa Anda harus mempelajarinya dan bagaimana Anda bisa mempelajarinya.



10. Bahasa Pemrograman F#

belajar bahasa pemrograman F# untuk machine learning dan data scientist


F # berjalan di Linux, Mac OS X, Android, iOS, Windows, GPU, dan browser. Bahasa pemrograman F# Ini gratis untuk digunakan dan open source di bawah lisensi yang disetujui OSI.

F # digunakan dalam berbagai bidang aplikasi dan didukung oleh komunitas terbuka yang aktif dan perusahaan industri terkemuka yang menyediakan alat profesional.

Misi F # Software Foundation adalah untuk mempromosikan dan memajukan bahasa pemrograman F #, termasuk komunitas programmer F # yang beragam dan dalam skala internasional.



11. Bahasa Pemrograman C++

belajar bahasa pemrograman C++ untuk machine learning dan data scientist


C ++ merupakan bahasa pemrograman dengan peringkat ke-4 dalam popularitas menurut spektrum IEEE peringkat Top Bahasa Pemrograman 2016. Belajar bahasa pemrograman C ++ adalah investasi yang bijaksana untuk semua programmer.

Panduan ini menjawab semua pertanyaan Anda yang terkait dengan C ++ tentang apa itu, kapan itu digunakan, mengapa itu digunakan dan bagaimana cara Anda memulainya.

“C ++ adalah bahasa pemrograman tingkat menengah untuk keperluan umum yang diketik secara statis, bentuk bebas, dikompilasi, multi-paradigma, tingkat menengah.”

Dalam istilah sederhana, C ++ adalah bahasa pemrograman yang canggih, efisien dan bertujuan umum yang berdasarkan pada bahasa pemrograman C. Bahasa pemrograman Ini dikembangkan oleh Bjarne Stroustrup pada tahun 1979.

Banyak sistem operasi saat ini, driver sistem, browser, dan game menggunakan C ++ sebagai bahasa intinya. Ini menjadikan C ++ salah satu bahasa paling populer saat ini.

Karena ini adalah versi bahasa pemrograman C yang disempurnakan / diperluas, C dan C ++ sering dilambangkan sebagai C / C ++.


12. Bahasa Pemrograman Javascript

belajar bahasa pemrograman javascript untuk machine learning dan data scientist


JavaScript adalah salah satu bahasa pemrograman paling populer di dunia. Alasan untuk ini cukup sederhana karena perannya sebagai bahasa scripting dari world wide web. Saat ini, setiap komputer pribadi di dunia memiliki penerjemah JavaScript yang terpasang di sana.

JavaScript sangat sering disalahtafsirkan dan dikacaukan sebagai Java, karena kesamaan namanya. Namun, JavaScript tidak diartikan Java. Java diartikan Java dan JavaScript adalah bahasa yang berbeda.

Demikian macam macam bahasa pemrograman yang sering digunakan untuk menyelesaikan permasalahan seputar machine learning dan data scientist.

Manakah bahasa pemrograman yang membangkitkan minat anda untuk mempelajarinya ? Yang manapun bahasa perograman yang anda sukai, kesemua bahasa pemrograman tersebut tidak lah menjadi “the best” jika anda tidak menguasai logika dan algorithma dalam pemrograman.



Refference :
#bahasapemrograman, #belajarbahasapemrograman, #contohbahasapemrograman, #machinelearning, #machinelearningadalah, #datascientist, #macammacambahasapemrograman, #jenisbahasapemrograman

quora[dot]com

Industri yang berkaitan dengan machine learning dan data scientist dibanjiri dengan bahasa pemrograman yang tak terhitung banyaknya yang bertujuan untuk memilah-milah kompleksitas bisnis dan membawa inovasi teknologi. 

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist 2018

Setiap tahun ada bahasa pemrograman, framework dan teknologi yang muncul, tetapi hanya sedikit yang bertahan dalam ujian waktu. Tahun ini juga kita bisa melihat bahasa pemrograman seperti Q# yang merupakan besutan Microsoft membuat kemajuan, yang difokuskan pada pengembangan aplikasi berbasis komputasi kuantum.

Dengan perkembangan yang semakin meningkat, penting bagi developer untuk terus mempelajari keterampilan bahasa pemrograman baru agar tetap relevan. Tetapi jika Anda seorang pemula yang ingin memilih bahasa pemrograman terbaik untuk ditambahkan dalam keahlian Anda, tugas itu akan semakin sulit. 
Mengingat fakta bahwa bisa saja setiap proyek dapat menuntut serangkaian tools dan fungsi yang berbeda, itu membuat jalan untuk memilih bahasa pemrograman yang tepat untuk dipelajari menjadi berat.

BigDataDBA membawa daftar 10+ bahasa pemrograman yang dapat Anda pilih di tahun 2018 (List bahasa pemrograman ini tanpa maksud pengurutan dari yang terendah/terjelek atau tertinggi/terbaik) untuk digunakan dalam pengembangan machine learnig dan data scientist, yang telah dikuratori berdasarkan popularitas di antara perekrut, jumlah lowongan pekerjaan, bayaran yang ditawarkannya, dan yang lainnya.
Informasi ini disadur dan dirangkum dari kdnuggets dot com dalam tulisan machine learning data visualization  deep learning tools.



1. Bahasa Pemrograman Python

Bahasa pemrograman python merupakan salah satu bahasa pemrograman yang paling populer, baik dalam hal pembayaran (salary) yang ditawarkan dan popularitas di antara perekrut yang mencari tenaga kerja dengan keterampilan Python. 

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist

Dengan peningkatan teknologi seperti machine learning, artificial intelligence (kecerdasan buatan) dan analitik prediktif (predictive analytic), kebutuhan akan tenaga kerja profesional dengan pengetahuan menyeluruh tentang keterampilan bahasa pemrograman Python sangat diminati. 

Terlepas dari tujuan umumnya digunakan untuk pengembangan web, bahasa pemrograman python banyak digunakan dalam komputasi ilmiah, data mining, dan kebutuhan lainnya.


2. Bahasa Pemrograman Java

Java adalah bahasa pemrograman komputer yang memiliki tujuan umum yang konkuren, berbasis class, berorientasi objek, [15] dan secara khusus dirancang untuk memiliki dependensi implementasi sesedikit mungkin. (Wikipedia)

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist

Ini dimaksudkan agar pengembang aplikasi "cukup menulis sekali, bisa dijalankan di mana saja"  yang berarti bahwa kode Java yang dikompilasi dapat berjalan di semua platform yang mendukung Java tanpa perlu kompilasi ulang. 

Mobil self-driving, perangkat lunak pendeteksi wajah, dan speaker yang dikendalikan suara semuanya dibangun di atas teknologi dan machine learning framework- dan ini hanyalah gelombang pertama. 

Selama dekade berikutnya, generasi produk baru akan mengubah dunia kita, memulai pendekatan baru untuk pengembangan perangkat lunak dan aplikasi serta produk yang kita buat dan gunakan.

Sebagai pengembang Java, Anda tentunya ingin maju dari kurva ini, saat ini juga - ketika perusahaan teknologi mulai serius berinvestasi dalam machine learning. Apa yang Anda pelajari hari ini, Anda dapat membangun selama lima tahun ke depan, tetapi Anda harus memulai dari suatu tempat dengan tepat ..

3. Bahasa Pemrograman R

R adalah bahasa pemrograman dan environment untuk komputasi statistik dan grafik. Ini adalah proyek GNU yang mirip dengan bahasa S dan lingkungan yang dikembangkan di Bell Laboratories (sebelumnya AT&T, sekarang Lucent Technologies) oleh John Chambers dan rekannya. R dapat dianggap sebagai implementasi yang berbeda dari S. Ada beberapa perbedaan penting, tetapi banyak kode yang ditulis untuk S berjalan tanpa ada perubahan di bawah R.

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist

R menyediakan berbagai macam statistik (pemodelan linier dan nonlinier, uji statistik klasik, analisis deret waktu, klasifikasi, pengelompokan, dan lain sebagainya) dan teknik grafis, dan tentu saja sangat bisa diperluas. 

Bahasa S sering menjadi wahana pilihan untuk penelitian dalam metodologi statistik, dan R menyediakan rute Open Source untuk berpartisipasi dalam aktivitas itu.

Salah satu kekuatan R adalah kemudahan menghasilkan plot kualitas publikasi yang dirancang dengan baik, termasuk simbol dan formula matematika apabila diperlukan. Perhatian besar telah diberikan untuk pilihan desain minor dalam hal grafik, tetapi pengguna tetap memegang kendali penuh.

R tersedia sebagai Perangkat Lunak Open Source di bawah ketentuan Lisensi Publik Umum GNU Yayasan Perangkat Lunak Free dalam bentuk kode sumber. Ini mengkompilasi dan berjalan pada berbagai platform UNIX dan sistem serupa (termasuk FreeBSD dan Linux), Windows dan MacOS.


4. Bahasa Pemrograman Julia

Komputasi ilmiah secara tradisional membutuhkan kinerja tertinggi, namun para pakar domain sebagian besar telah pindah ke bahasa yang lebih lambat untuk pekerjaan sehari-hari mereka. 

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist

Dengan munculnya bahasa pemrograman yang dipercaya ada banyak alasan bagus untuk memilih bahasa dinamis untuk aplikasi ini, tentu saja tidak berharap penggunaannya berkurang. 

Untungnya, desain bahasa pemrograman modern dan teknik penyusunannya memungkinkan untuk sebagian besar menghilangkan pelambatan kinerja dan menyediakan environment tunggal yang cukup produktif untuk pembuatan prototipe dan cukup efisien untuk menyebarkan aplikasi yang memiliki kinerja secara intensif. 

Bahasa pemrograman Julia mengisi peran ini: Bahasa pemrograman Julia adalah bahasa dinamis yang fleksibel, sesuai untuk komputasi ilmiah dan numerik, dengan kinerja yang sebanding dengan bahasa tradisional yang diketik secara statis.

Karena kompiler Julia berbeda dari penerjemah yang digunakan untuk bahasa seperti Python atau R, Anda mungkin mendapati bahwa kinerja Julia pada awalnya tidak intuitif. 

Jika Anda menemukan ada sesuatu yang lambat, sangat disarankan bagi anda untuk membaca bagian Tips Kinerja sebelum mencoba yang lain. Setelah Anda memahami cara kerja Julia, cukup mudah untuk menulis kode yang hampir secepat C.

Julia memiliki fitur pengetikan opsional, pengiriman ganda, dan kinerja yang baik, dicapai dengan menggunakan inferensi tipe dan kompilasi just-in-time (JIT), diimplementasikan menggunakan LLVM. Ini adalah multi-paradigma, menggabungkan fitur pemrograman imperatif, fungsional, dan berorientasi objek. 

Julia memberikan kemudahan dan ekspresi untuk komputasi numerik tingkat tinggi, dengan cara yang sama seperti bahasa R, MATLAB, dan Python, tetapi juga mendukung pemrograman umum. Untuk mencapai hal ini, Julia membangun garis keturunan dari bahasa pemrograman matematika, tetapi juga meminjam banyak dari bahasa dinamis yang populer, termasuk Lisp, Perl, Python, Lua, dan Ruby.

Keberangkatan Julia yang paling signifikan dari bahasa dinamis yang khas adalah:

Bahasa inti nya sangat sedikit; Julia Base dan library standar ditulis dalam Julia itu sendiri, termasuk operasi primitif seperti bilangan bulat aritmatika

Bahasa yang kaya tipe untuk membangun dan mendeskripsikan objek, yang juga dapat secara opsional digunakan untuk membuat deklarasi tipe

Kemampuan untuk mendefinisikan perilaku fungsi di banyak kombinasi tipe argumen melalui pengiriman ganda

Pembuatan kode khusus otomatis dan efisien untuk berbagai jenis argumen

Performa bagus, mendekati bahasa yang dikompilasi secara statis seperti C

Meskipun seseorang kadang-kadang berbicara tentang bahasa dinamis sebagai "tanpa ketik", jelas tidak: dikarenakan setiap objek, apakah primitif atau yang ditentukan pengguna, dipastikan memiliki tipe. 

Kurangnya deklarasi tipe dalam kebanyakan bahasa dinamis, bagaimanapun, berarti seseorang tidak dapat menginstruksikan kompiler tentang tipe nilai, dan seringkali tidak dapat secara eksplisit berbicara tentang tipe sama sekali. 

Dalam bahasa statis, di sisi lain, ketika seseorang memberi anotasi tipe untuk kompiler, tipe hanya ada pada waktu kompilasi dan tidak dapat dimanipulasi atau diekspresikan pada saat run time. 

Di Julia, type sendiri adalah objek run-time, dan juga dapat digunakan untuk menyampaikan informasi kepada kompiler.

Sementara programmer biasa tidak perlu secara eksplisit menggunakan jenis atau pengiriman ganda, karena sudah memiliki fitur pemersatu inti Julia: fungsi didefinisikan pada kombinasi yang berbeda dari jenis argumen, dan diterapkan dengan mengirimkan ke definisi pencocokan paling spesifik. 

Model ini sangat cocok untuk pemrograman matematika, di mana tidak wajar untuk argumen pertama untuk "memiliki" operasi seperti dalam pengiriman berorientasi objek tradisional. Operator hanyalah fungsi dengan notasi khusus untuk memperluas penambahan tipe data baru yang ditentukan pengguna, Anda mendefinisikan metode baru untuk fungsi +. Kode yang ada kemudian berlaku untuk tipe data baru.

Sebagian karena inferensi tipe run-time (ditambah dengan anotasi tipe opsional), dan sebagian karena fokus yang kuat pada kinerja sejak dimulainya proyek, efisiensi komputasi bahasa pemrograman Julia melebihi bahasa dinamis lainnya, dan bahkan bahasa pemrograman saingan yang dikompilasi secara statis. 

Untuk masalah numerik dalam skala besar, kecepatan selalu akan menjadi sangat penting: jumlah data yang sedang diproses dengan mudah mengikuti Hukum Moore selama beberapa dekade terakhir.

Bahasa pemrograman Julia bertujuan untuk menciptakan kombinasi yang belum pernah terjadi sebelumnya dari kemudahan penggunaan, kekuatan, dan efisiensi dalam satu bahasa pemroragraman komputer. 

Selain hal di atas, beberapa keunggulan Julia dibandingkan sistem yang sebanding meliputi:
  • Sumber gratis dan open (berlisensi MIT)
  • Jenis yang ditentukan pengguna sama cepat dan kompaknya dengan built-in
  • Tidak perlu membuat vektor kode untuk kinerja; kode yang dikhususkan secara cepat
  • Dirancang untuk paralelisme dan perhitungan terdistribusi
  • “Green” Threading  yang ringan (coroutine)
  • Sistem tipe yang tidak mengganggu namun kuat
  • Konversi dan promosi yang elegan dan dapat diperluas untuk jenis numerik dan lainnya
  • Dukungan efisien untuk Unicode, serta tidak terbatas pada UTF-8
  • Dapat memanggil fungsi C secara langsung (tidak diperlukan pembungkus atau API khusus)
  • Kemampuan mirip shell yang kuat untuk mengelola proses lainnya
  • Macro seperti tiger dan fasilitas pemrograman meta lainnya

5. Bahasa Pemrograman SAS

Pemrograman SAS didasarkan pada dua blok bangunan:

Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist

Step DATA: Step DATA membuat kumpulan data SAS dan kemudian meneruskan data ke langkah PROC
Step PROC: Step PROC memproses data

Program SAS harus mengikuti aturan yang disebutkan di bawah ini:
  • Hampir setiap kode akan dimulai dengan Step DATA atau PROC
  • Setiap baris kode SAS berakhir dengan titik koma
  • Kode SAS berakhir dengan kata kunci RUN atau QUIT
  • Kode SAS tidak peka huruf besar-kecil (case sensitive)
  • Anda dapat menulis kode melintasi baris yang berbeda atau Anda dapat menulis beberapa pernyataan dalam satu baris

Sekarang kita telah melihat beberapa terminologi dasar, mari kita lihat contoh bahasa pemrograman SAS dengan kode dasar ini:

DATA Employee_Info;
entry Emp_ID Emp_Name $ Emp_Vertical $;
datalines;
101 Mak SQL
102 Rama SAS
103 Priya Java
104 Karthik Excel
105 Mandeep SAS
;
run;

Dalam kode di atas, kita membuat kumpulan data yang disebut sebagai Employee_Info. Employee_Info memiliki tiga variabel, satu variabel numerik sebagai Emp_Id dan dua variabel karakter sebagai Emp_Name dan Emp_Verticals. Perintah run menampilkan kumpulan data di Jendela Output.


Itulah 5 bahasa pemrograman yang banyak digunakan untuk menyelesaikan permasalahan seputar machine learning dan data scientist.

Harusnya dalam artikel ini ada 10+ bahasa pemrograman yang digunakan untuk case machine learning dan data scientist. 

Dikarenakan nulisnya udah kepanjangan, maka saya sambung di bagian ke 2 untuk lanjutan artikel bahasa pemrograman yang banyak digunakan untuk machine learning dan data sientist ini. Nantikan dan terus stay tune di blog big data dba.


Bagian ke-2 :

10+ Bahasa Pemrograman Paling di Cari Untuk Machine Learning dan Data Scientist 2018 Bag 2


Reff :


Tantangan Pengolahan Big Data – Big Data DBA. Tantangan big data sangat banyak: Proyek big data telah menjadi bagian normal dalam berbisnis - namun bukan berarti big data itu mudah.

Big Data-Apa saja Tantangan Untuk Mengolahnya


Menurut NewVantage Partners Big Data Executive Survey 2017, 95 persen pemimpin bisnis Fortune 1000 yang disurvei mengatakan bahwa perusahaan mereka telah melakukan proyek big data dalam lima tahun terakhir. Namun, kurang dari setengah (48,4 persen) yang mengatakan bahwa inisiatif big data mereka telah mencapai hasil yang terukur.

Laporan pada bulan Oktober 2016 dari Gartner menemukan bahwa organisasi terjebak pada tahap percontohan inisiatif big data mereka. "Hanya 15 persen dari bisnis yang melaporkan penggelaran proyek big data mereka ke produksi, yang secara efektif tidak berubah dari tahun lalu (14 persen)," kata firma tersebut.

Jelas, organisasi menghadapi beberapa tantangan utama dalam mengimplementasikan strategi big data mereka. Kenyataannya, Riset Data & Analytics IDG Enterprise menemukan bahwa 90 persen dari mereka yang disurvei melaporkan mengalami tantangan yang berkaitan dengan proyek big data mereka.

[success title="Tantangan Pengolahan Big Data" icon="check-circle"] Jadi apa tantangannya? Dan yang lebih penting, apa yang bisa dilakukan organisasi untuk mengatasi tantangan dalam mengolah big data? [/success]

Data apakah yang besar yang dinamakan Big Data ?

Sebelum kita menyelidiki tantangan data yang paling umum, pertama-tama kita harus mendefinisikan "big data". Tidak ada jumlah gigabyte atau terabyte atau petabyte yang memisahkan "big data" dari "data berukuran rata-rata". Data storage terus berkembang, jadi sepertinya data seperti sekarang mungkin tampak seperti jumlah normal dalam satu atau dua tahun. Selain itu, setiap organisasi berbeda, sehingga jumlah data yang tampaknya menantang untuk sebuah toko ritel kecil mungkin tidak terlalu mirip dengan perusahaan jasa keuangan besar.

Sebagai gantinya, kebanyakan ahli mendefinisikan big data dari tiga sisi Vs. Anda memiliki data yang besar jika data store Anda memiliki karakteristik sebagai berikut:

Volume: Big data adalah kumpulan data yang begitu besar sehingga organisasi yang memilikinya menghadapi tantangan terkait dengan penyimpanan atau pemrosesannya. Kenyataannya, tren seperti e-niaga, mobilitas, media sosial dan Internet Hal (IoT) menghasilkan begitu banyak informasi, sehingga hampir setiap organisasi mungkin memenuhi kriteria ini.

Velocity: Jika organisasi Anda menghasilkan data baru dengan kecepatan tinggi dan perlu merespons secara real time, Anda memiliki kecepatan yang terkait dengan big data. Sebagian besar organisasi yang terlibat dalam e-niaga, media sosial atau IoT memenuhi kriteria ini untuk big data.

Variety: Jika data Anda berada dalam berbagai format, ragamnya memiliki data yang besar. Misalnya, penyimpanan data yang besar biasanya mencakup pesan email, dokumen pengolah kata, gambar, video dan presentasi, serta data yang berada dalam sistem pengelolaan basis data relasional yang terstruktur (RDBMSes).


Ketiga karakteristik ini menyebabkan banyak tantangan yang dihadapi organisasi dalam inisiatif big data mereka. Beberapa tantangan big data yang paling umum adalah sebagai berikut:

1. Berurusan dengan pertumbuhan data

Tantangan yang paling jelas terkait dengan big data hanyalah menyimpan dan menganalisis semua informasi itu. Dalam laporan Digital Universe-nya, IDC memperkirakan bahwa jumlah informasi yang tersimpan dalam sistem TI di dunia dua kali lipat setiap dua tahun sekali. Pada 2020, jumlah totalnya akan cukup untuk mengisi setumpuk tablet yang mencapai dari bumi hingga bulan 6,6 kali. Dan perusahaan memiliki tanggung jawab atau tanggung jawab sekitar 85 persen dari informasi tersebut.

Sebagian besar data itu tidak terstruktur, artinya tidak berada dalam database. Dokumen, foto, audio, video dan data tidak terstruktur lainnya sulit dicari dan dianalisis.

Tidak mengherankan jika laporan IDG menemukan, "Mengelola data tidak terstruktur tumbuh sebagai tantangan - meningkat dari 31 persen di tahun 2015 menjadi 45 persen pada tahun 2016."

Untuk mengatasi pertumbuhan data, organisasi beralih ke sejumlah teknologi yang berbeda. Ketika infrastruktur penyimpanan, konvergensi dan hyperconverged dan perangkat lunak yang didefinisikan penyimpanan dapat memudahkan perusahaan untuk mengukur perangkat keras mereka. Dan teknologi seperti kompresi, deduplikasi dan tiering dapat mengurangi jumlah ruang dan biaya yang berkaitan dengan penyimpanan data yang besar.

Di sisi manajemen dan analisis, perusahaan menggunakan alat seperti database NoSQL, Hadoop, Spark, perangkat lunak analisis big data, aplikasi intelijen bisnis, kecerdasan buatan dan pembelajaran mesin untuk membantu mereka menyisir data store besar mereka untuk menemukan wawasan yang dibutuhkan perusahaan mereka.


2. Menghasilkan wawasan pada waktu yang tepat

Tentu saja, organisasi tidak hanya ingin menyimpan big data mereka - mereka ingin menggunakan big data tersebut untuk mencapai tujuan bisnis. Menurut survei NewVantage Partners, tujuan yang paling umum dikaitkan dengan proyek big data adalah sebagai berikut:

  • Mengurangi biaya melalui efisiensi biaya operasional
  • Menetapkan budaya berbasis data
  • Menciptakan jalan baru untuk inovasi dan gangguan
  • Mempercepat kecepatan dengan kemampuan dan layanan baru dikerahkan
  • Meluncurkan penawaran produk dan layanan baru


Semua tujuan tersebut dapat membantu organisasi menjadi lebih kompetitif - tetapi hanya jika mereka dapat mengekstrak wawasan dari big data mereka dan kemudian bertindak sesuai wawasan tersebut dengan cepat. Survei Data dan Analytics Global PwC 2016 menemukan, "Semua orang ingin pengambilan keputusan menjadi lebih cepat, terutama di bidang perbankan, asuransi, dan perawatan kesehatan."

Untuk mencapai kecepatan itu, beberapa organisasi mencari generasi baru alat ETL dan analisis yang secara dramatis mengurangi waktu yang dibutuhkan untuk menghasilkan laporan. Mereka berinvestasi dalam perangkat lunak dengan kemampuan analisis real-time yang memungkinkan mereka merespons perkembangan di pasar secara langsung.


3. Merekrut dan mempertahankan bakat data yang besar

Tetapi untuk mengembangkan, mengelola dan menjalankan aplikasi yang menghasilkan wawasan, organisasi membutuhkan profesional dengan keterampilan data yang besar. Hal itu mendorong permintaan ahli big data - dan gaji data yang besar telah meningkat secara dramatis.

Panduan Gaji Gaji Robert Tahun 2017 melaporkan bahwa insinyur big data menghasilkan rata-rata antara $ 135.000 dan $ 196.000, sementara gaji ilmuwan data berkisar antara $ 116.000 sampai $ 163, 500. Bahkan, analis business intelligence dibayar dengan sangat baik, menghasilkan $ 118.000 sampai $ 138.750 per tahun.

Untuk mengatasi kekurangan bakat, organisasi memiliki beberapa pilihan. Pertama, banyak yang meningkatkan anggaran dan upaya rekrutmen dan retensi mereka. Kedua, mereka menawarkan lebih banyak kesempatan pelatihan kepada anggota staf mereka saat ini dalam upaya mengembangkan talenta yang mereka butuhkan dari dalam. Ketiga, banyak organisasi mencari teknologi. Mereka membeli solusi analisis dengan kemampuan belajar mandiri dan / atau mesin. Dirancang untuk digunakan oleh para profesional tanpa gelar sains data, alat ini dapat membantu organisasi mencapai sasaran big data mereka walaupun mereka tidak memiliki banyak pakar big data mengenai staf.

4. Mengintegrasikan sumber data yang berbeda

Varietas yang terkait dengan big data mengarah pada tantangan dalam integrasi data. Big data berasal dari banyak tempat yang berbeda - aplikasi perusahaan, aliran media sosial, sistem email, dokumen buatan karyawan, dll. Menggabungkan semua data dan rekonsiliasi sehingga dapat digunakan untuk membuat laporan dapat menjadi sangat sulit. Vendor menawarkan berbagai perangkat ETL dan integrasi data yang dirancang untuk mempermudah proses pembuatannya, namun banyak perusahaan mengatakan bahwa mereka belum menyelesaikan masalah integrasi data.

Sebagai tanggapan, banyak perusahaan beralih ke solusi teknologi baru. Dalam laporan IDG, 89 persen dari mereka yang disurvei mengatakan bahwa perusahaan mereka berencana untuk berinvestasi pada alat data baru yang besar dalam 12 sampai 18 bulan mendatang. Ketika ditanya jenis alat yang akan mereka beli, maka mereka memberitahukan sebagai teknologi integrasi.

Demikianlah tantangan dalam mengelola big data, terutama untuk big data Indonesia dengan data yang besar dan beragam. Selanjutnya kita bisa belajar big data dengan membaca dan mempelajari artikel-artikel :


“Serial Tutorial Big Data, Belajar Big Data Bersama Dengan Mudah”



Apabila artikel ini cukup bermanfaat bagi anda, silahkan anda share artikel ini kepada kolega dan rekan-rekan anda. Sampai jumpa dalam artikel-artikel dan tulisan-tulisan belajar tutorial big data Indonesia selanjutnya.


Refference :
big data, big data adalah, big data Indonesia, belajar big data, tutorial big data, manfaat big data, karakteristik big data

Tutorial Oracle Database Administrator – Big Data DBA. Database atau biasa disingkat hanya dengan DB merupakan koleksi informasi terorganisir dan terstruktur yang dapat diakses, diperbarui, dan dianalisis dengan efisien. Kode VB sederhana, C, excel atau notepad tidak dapat mengelola sejumlah besar pengguna dan file. Juga untuk kemudahan ekstraksi, backup dan pemulihan data tidak mungkin dengan pendekatan ini. Untuk mengatasi keterbatasan ini Oracle telah datang dengan produknya yang fenomenal yaitu database Oracle atau Oracle RDBMS.


Tutorial Oracle Database Administrator


Lalu Apa itu Oracle DBA?


Ini adalah sistem manajemen basis data relasional. Tujuan utama dari hal ini adalah untuk menyimpan, mengelola dan mengambil informasi secara efisien untuk memberikan kinerja yang tinggi. Hal ini juga disebut sebagai RDBMS atau hanya Oracle.

Oracle terdiri dari berbagai mekanisme perangkat lunak untuk mencapai concurrency data yang maksimal, kinerja tinggi untuk produktivitas maksimal bagi banyak pengguna di lingkungan database.


Beberapa fitur utama dari Oracle DBA adalah:

  1. Administrasi database bukanlah tugas satu orang, namun ditangani oleh sekelompok spesialis di bidangnya yaitu bidang database
  2. Database Oracle merupakan Database pertama yang sesuai untuk komputasi grid perusahaan
  3. Database Oracle Bekerja pada arsitektur berbasis grid.


Di Oracle, ada tiga kategori dasar file fisik yang digunakan untuk menyimpan informasi. Adapun file-file tersebut adalah :

File data    :   Berisi data yang dibutuhkan untuk memulai mesin database
File kontrol    :  Gudang metadata database yang digunakan oleh mesin Oracle
Redo log file    :  Digunakan untuk menyimpan perubahan yang dilakukan pada database
Parameter file :  Sebagai pengingat konfigurasi di mesin tempat server database Oracle dijalankan


Untuk Belajar Database Oracle DBA, diperlukan pemahaman tentang terminologi dasar yang digunakan di dalamnya.

Terminologi Dasar Oracle Database 


Instance - Ini didefinisikan sebagai latar belakang proses dan struktur memori yang digunakan untuk mengambil data dari database.

Proses - Juga disebut sebagai tugas atau pekerjaan, contohnya adalah request yang sedang berjalan. Ada dua jenis proses dalam sistem database Oracle yaitu proses Oracle dan proses User. Tidak perlu menggunakan perintah sistem operasi untuk berinteraksi dengan database.

Buffer Cache - Ini adalah komponen SGA yang berfungsi seperti penyangga untuk menyimpan data yang disesuaikan atau dipertanyakan. Buffer cache menyimpan data terbaru atau sering digunakan dalam memori sehingga bisa meningkatkan kinerja. Semua proses pengguna yang terhubung ke database berbagi akses diarahkan ke sana.

Shared Pool – Bagian ini bertugas menangkap informasi untuk dibagikan dengan pengguna. Sebagai contoh: stored Procedure, pernyataan SQL dll dapat di-cache untuk usabilitas dan akses cepat.

Redo Log Buffer - Bagian ini menyimpan log perubahan yang dibuat dalam database. File redo log berjalan dalam gerakan melingkar dan selalu ditimpa. Jadi, untuk menjaga pemulihan database agar lebih lama, mereka diarsipkan ke dalam archieve log. Oleh karena itu, redo log membantu mengembalikan instance ketika terjadi kegagalan sistem. Hal ini akan meningkatkan kinerja dan fungsi sistem database.

Large Pool - Ini adalah area opsional yang menawarkan alokasi memori untuk proses besar, seperti operasi restore database dan backup Oracle.

Lock - Untuk mengendalikan akses simultan ke sumber data, lock digunakan.
Basis data terdiri dari struktur logis dan fisik. Karena struktur ini terpisah, pengelolaan penyimpanan data secara fisik tidak mempengaruhi akses terhadap struktur logis.

Informasi diatas diperlukan untuk mendapatkan pemahaman dasar tentang database. Kita telah mencoba untuk mencakup semua parameter penting dan istilah yang digunakan di Oracle.


Dari pembahasan di atas sekarang diketahui bahwa:

Proses Oracle adalah proses server yang melakukan, berkomunikasi dan bekerja untuk proses pengguna. Proses server ini menangani permintaan dari proses pengguna yang terkoneksi. Mereka berkomunikasi dengan proses pengguna dan memanggil proses lain untuk melakukan permintaan. Katakanlah, jika pengguna ingin mengakses data yang belum ada di SGA, ia memanggil sebuah proses untuk membacanya dari disk.

Proses latar belakang adalah proses yang melakukan kerja pemeliharaan untuk server Oracle.
Sampai di sini, mungkin anda makin penasaran dengan prinsip kerja Oracle Database dan juga bagaimana cara melakukan pengaturan Database Oracle yang di lakukan oleh Oracle DBA.

Untuk mengetahui dan memahami apa saja yang dilakukan oleh seorang Oracle Database Administrator (Oracle DBA), maka point-point pembelajaran berikut ini patut untuk kita simak dan kita fahami.

Wah susah dong belajarnya, kalo sendirian.. Sama, saya juga demikian, karena itu sambil belajar saya coba juga untuk dituliskan di situs blog big data dba ini. Sehingga dengan menuliskan apa yang kita pelajari, akan semakin nempel di ingatan kita semua ilmu yang sudah kita dapatkan.

Ok, langsung saja. Ini dia point-point penting bagi seorang Database Administrator Oracle untuk dipelajari.


Isi point-point yang Harus diketahui Database Administrator Oracle


1. Pengantar Database Oracle


  • Ikhtisar Arsitektur Grid dari Database Oracle
  • Perbedaan antara cluster dan grid
  • Tanggung Jawab Administrator Database

2. Membuat Database Oracle


  • Persiapan Lingkungan instalasi Oracle Database 11g
  • Persiapan Lingkungan instalasi Oracle Database 12c
  • Melakukan Instalasi Oracle 11g
  • Melakukan Instalasi Oracle 12c
  • Membuat Database Oracle 11g / 10g menggunakan perintah SQL
  • Membuat Oracle Container Database di 12c menggunakan DBCA
  • Membuat Oracle Container Database di 12c menggunakan perintah SQL

3. Mengelola Container Database Oracle 12c 


  • Membuat Account Pengguna dan Menghubungkan ke Oracle 12c Container and Pluggable Database

4. Mengelola Database Pluggable di Oracle Database 12c


  • Membuat Database Pluggable dari Seed
  • Melakukan Cloning Database Pluggable yang Ada
  • Cabut dan pasang (unplug dan plug) database dari satu CDB ke CDB lainnya

5. Mengelola Tablespaces Dan Datafiles


  • Membuat tablespace baru
  • Bigfile Tablespaces (Diperkenalkan di Oracle Ver 10g)
  • Memperluas Ukuran tablespace
  • Bagaimana untuk mengurangi ukuran tablespace?
  • Mengumpulkan Tablespaces
  • Menentukan tablespace Offline atau Online
  • Membuat Tablespace Read only.
  • Mengganti Nama Tabel
  • Menghapus Tablespaces
  • Melihat Informasi tentang Tabel dan Datafile
  • Merelokasi atau Mengganti Nama Data
  • Mengganti nama atau Merelokasi Datafiles milik Tablespace Tunggal
  • Prosedur untuk Mengganti Nama dan Merelokasi Datafiles di Beberapa Tabelspace

6. Tablespace Sementara


  • Meningkatkan atau Mengurangi ukuran tablespace sementara
  • Mengelompokkan tablespace
  • Membuat Grup Tablespace Sementara
  • Menetapkan Grup Tablespace sebagai Default Tablespace Sementara

7. Mendiagnosis Dan Memperbaiki Masalah Tablespace yang Terkelola secara Lokal (Local Managed)


  • Skenario 1: Memperbaiki Bitmap Saat Alokasi Blokir Ditandai sebagai Free (Tanpa Tumpang Tindih)
  • Skenario 2: Menghapus Segmen yang Terkorupsi
  • Skenario 3: Memperbaiki Bitmap Bila Tumpang Tindih (overlap) Dilaporkan
  • Skenario 4: Memperbaiki Korupsi Media Blok Bitmap
  • Skenario 5: Migrasi dari Dictionary-Managed ke Tablespace yang Dikelola secara Lokal

8. Mengangkut Tablespaces


  • Prosedur untuk mengangkut tablespace
  • Contoh Tablespace Transporting (Pengangkutan Tablespace)

9. Mengelola REDO LOG FILE


  • Menambahkan Redo Logfile Group Baru
  • Menambahkan Anggota ke grup yang ada
  • Menghapus Anggota Redo Log dari sebuah kelompok / Group
  • Menghapus Logfile Group
  • Mengubah ukuran Logfiles
  • Mengganti nama atau Relokasi Log file
  • Membersihkan REDO LOG File
  • Melihat Informasi Tentang Log file

10. Mengelola File Kontrol


  • File Kontrol Multiplexing
  • Mengubah Nama Database
  • Membuat File Kontrol Baru

11. Kloning Database Oracle


12. Mengelola TABLESPACE UNDO


  • Beralih ke Manajemen Otomatis Undo Space
  • Menghitung Kebutuhan Ruang Untuk Penyimpanan Undo
  • Mengubah Tablespace UNDO
  • Menghapus sebuah Undo Tablespace
  • Menonaktifkan Undo Tablespaces
  • Melihat Informasi tentang Undo Tablespace

13. SQL Loader


  • STUDI KASUS (Memuat Data dari MS-ACCESS ke Oracle)
  • STUDI KASUS (Memuat Data dari file Fixed Length ke Oracle)
  • STUDI KASUS (Memuat Data dari MySQL ke Oracle)
  • Memuat Data ke dalam Beberapa Table dengan menggunakan kondisi WHEN
  • Conventional Path Load and Direct Path Load
  • Jalur Langsung (Direct Path)
  • Pembatasan Penggunaan Beban Jalur Langsung (Direct Path Load)

14. Ekspor Dan Impor


  • Melakukan Ekspor dan Impor
  • Parameter Baris Perintah pada tool Ekspor
  • Contoh Mengekspor Full Database
  • Contoh Mengekspor Schema
  • Mengekspor Tabel Individu
  • Mengekspor Gambar Konsisten yang ada di tabel

15. Menggunakan Utilitas Impor


  • Contoh Mengimpor Tabel Individu
  • Contoh, Mengimpor Tabel satu akun Pengguna ke akun Pengguna lain
  • Contoh Mengimpor Tabel Menggunakan Pencocokan Pola (Pattern Matching)

16. Migrasi Database di berbagai platform yang berbeda


17. DATA PUMP Utility


  • Menggunakan Utilitas Ekspor Data Pump
  • Contoh Mengekspor Full Database 
  • Contoh Mengekspor Schema
  • Mengekspor Tabel Individu dengan menggunakan Data Pump Export
  • Mengeluarkan dan Memasukkan Object selama Ekspor
  • Menggunakan Query untuk Memfilter Baris selama Export
  • Menangguhkan dan Melanjutkan Pekerjaan Ekspor (Melampirkan dan Melampirkan Kembali ke Pekerjaan / Job)

18. Data Pump Import Utility


  • Mengimpor File Dump Full
  • Mengimpor Object dari Satu Schema ke Schema lain
  • Memuat Object dari satu Tablespace ke Tablespace lainnya
  • Menghasilkan File SQL yang berisi perintah DDL menggunakan Data Pump Import
  • Mengimpor object hanya Schema Khusus / Schema Schema Tertentu
  • Mengimpor Hanya Tabel Khusus / Table Table Tertentu
  • Menjalankan Utilitas Impor dalam Mode Interaktif

19. Fitur Flash Back


  • Permintaan Flashback
  • Menggunakan Query Versi Flashback
  • Menggunakan Flashback Table untuk mengembalikan Tabel ke Waktu Yang telah Lampau
  • Menghapus Objects dari Recycle Bin
  • Flashback Drop dari Beberapa Objek Dengan Nama Asli yang Sama
  • Database Flashback: Alternatif untuk Pemulihan Point-In-Time
  • Mengaktifkan Flash Back Database
  • Untuk berapa ukuran kita harus mengatur area pemulihan flash
  • Seberapa jauh anda bisa melakukan flashback database
  • Contoh: Flashing Back Database ke titik waktu Tertentu

20. Archieve Data Kilas Balik (Oracle Total Recall)


  • Pengantar
  • Membuat tablespace Archieve Data Flashback
  • Membuat Archieve Data Flashback
  • Melakukan Query data historis

21. Log Miner


  • Konfigurasi LogMiner
  • Pilihan Kamus LogMiner
  • Menggunakan Katalog Online
  • Mengekstrak Kamus LogMiner ke Redo Log Files
  • Mengekstrak Kamus LogMiner ke File Flat
  • Redo Log File Options
  • Contoh: Menemukan Semua Modifikasi di Berkas Log Redo yang Sedang Berjalan
  • Contoh: Menambang File Log Redo dalam Rentang Waktu yang Diberikan


22. Backup dan Restore


  • Membuka Database dalam Mode Archivelog
  • Membawa Database lagi dalam mode NoArchiveLog
  • Mengambil Backup Offline (DINGIN)
  • Mengambil Backup Online (HOT)
  • Memulihkan dari Hilangnya Datafile
  • Saat Database berjalan di Noarchivelog Mode
  • Saat Database berjalan di Mode Archivelog
  • Memulihkan dari hilangnya File Kontrol

23. Recovery Manager (RMAN)


  • Melakukan Backup Offline menggunakan RMAN
  • Memulihkan Database yang berjalan dalam mode NOARCHIVELOG menggunakan RMAN
  • Melakukan Online Backup menggunakan RMAN
  • Melakukan backup tablespace atau datafiles tertentu dengan menggunakan RMAN
  • Cara melakukan Image Backup di RMAN
  • Melakukan Incremental Backup menggunakan RMAN
  • Secara bertahap memperbarui salinan cadangan untuk pemulihan cepat
  • Lihat informasi tentang backup RMAN
  • Mengkonfigurasi kebijakan Retention di Oracle RMAN
  • Konfigurasikan berbagai Pilihan di RMAN
  • Mempertahankan RMAN Repository
  • Memulihkan dari hilangnya datafiles menggunakan RMAN (mode Archivelog)
  • Memulihkan dari hilangnya datafile dengan mengubah lokasinya
  • Melakukan Pemulihan Bencana menggunakan RMAN


Demikianlah Kumpulan Tutorial Oracle Database Administrator. Semoga artikel ini bermanfaat untuk anda. Bila anda merasa artikel ini cukup bermanfaat bagi anda, silahkan anda bagikan artikel ini pada rekan-rekan dan pembaca-pembaca yang lain.

Data Integration dan Business Analytic - Big Data DBA. Pentaho merupakan kumpulan alat bantu / tool yang digunakan untuk menyelesaikan permasalah di sisi data warehouse ataupun lebih keren nya sering dikatakan sebagai BI (Business Intelligence). Salah satu tool nya yang terkenal dan paling banyak digunakan untuk membantu membangun data warehouse adalah Pentaho Data Integration. Dalam perkembangan nya, saat ini pentaho telah diakusisi sepenuhnya oleh kelompok teknologi raksasa Hitachi.



Pentaho 8, Pentaho Data Integration, Pentaho BI
Pentaho 8

Dari konferensi para pengguna pentaho di ajang PentahoWorld 2017, Hitachi Vantara, anak perusahaan Hitachi Ltd., di hari yang sama meluncurkan perangkat lunak integrasi data dan platform analisis Pentaho (Pentaho Data Integration dan Pentaho BA) generasi berikutnya yaitu Pentaho 8.0.  Dengan adanya peningkatan versi ini antara lain,  di pentaho 8.0 memberikan dukungan untuk Spark dan Kafka untuk memperbaiki data dan pengolahan arus, ditambah lagi dengan kemampuan untuk mencocokkan sumber daya komputasi dengan permintaan bisnis secara real time dengan mudah. Rilis baru ini dirancang untuk membantu pelanggan Hitachi mendapatkan nilai yang lebih besar dari data yang mereka miliki untuk mendapatkan keunggulan kompetitif dan mempercepat perjalanan transformasi digital mereka.
Menurut perusahaan riset independen IDC, data dunia akan tumbuh menjadi 163 zettabyte pada tahun 2025 - 10 kali lebih besar dari jumlah data yang dihasilkan pada tahun 2016. Perusahaan ini juga memperkirakan bahwa lebih dari seperempat data tersebut merupakan data real-time, dengan data IoT akan menghasilkan lebih dari 95 persennya.

Dengan rilis Pentaho 8.0, Hitachi Vantara membantu user dan customer untuk lebih mempersiapkan bisnis mereka untuk mengatasi kebanjiran data real-time ini dengan mengoptimalkan dan memodernisasi jaringan analisis data mereka dan meningkatkan produktivitas yang ada di tim mereka. Perangkat tambahan baru ke platform Pentaho 8.0 memungkinkan pengguna untuk:


1.  Meningkatkan Konektivitas ke Sumber Data Streaming: Dengan data yang bergerak lebih cepat, sangat penting untuk memprosesnya saat terjadi dan segera bereaksi jika diperlukan. Kemampuan baru di Pentaho 8.0 meliputi:


  • Pengolahan data stream dengan Spark: Pentaho 8.0 sekarang sepenuhnya memungkinkan pemrosesan dan pemrosesan data streaming menggunakan mesin asli atau Spark. Ini menambah integrasi Spark yang ada dengan lapisan eksekusi adaptif SQL, MLlib dan Pentaho.

  • Terhubung ke Kafka Streams: Kafka adalah sistem messaging populer / berlangganan yang sangat populer yang menangani volume data besar yang umum terjadi pada data besar dan lingkungan IoT saat ini. Pentaho 8.0 sekarang memungkinkan pemrosesan real-time dengan langkah-langkah khusus yang menghubungkan Pentaho Data Integration (PDI) ke Kafka.

2. Keamanan data yang besar dengan Knox: Membangun keamanan tingkat perusahaan yang ada dengan Cloudera dan Hortonworks, Pentaho 8.0 sekarang menambahkan dukungan untuk Knox Gateway yang digunakan untuk mengotentikasi pengguna ke layanan Hadoop.

3. Mengoptimalkan Sumber Daya Pemrosesan: Setiap organisasi telah membatasi sumber pengolahan data yang ingin digunakan secara cerdas, menjamin ketersediaan data yang besar bahkan ketika permintaan sumber daya komputasi tinggi. Untuk mendukung hal ini, Pentaho 8.0 menyediakan:


  • Simpul pekerja / node untuk meningkatkan beban kerja perusahaan: Manajer TI sekarang dapat dengan mudah membuka node tambahan dan menyebarkan beban kerja simultan di semua sumber komputasi yang ada agar sesuai dengan kapasitas dan sesuai dengan permintaan. Pencocokan ini memberikan elastisitas dan portabilitas antara lingkungan cloud dan lingkungan lokal sehingga menghasilkan pemrosesan yang lebih cepat dan efisien bagi pengguna akhir.

  • Penyempurnaan eksekusi adaptif: Pertama kali diperkenalkan di Pentaho 7.1, eksekusi adaptif Pentaho memungkinkan pengguna mencocokkan beban kerja dengan mesin pemrosesan yang paling tepat, tanpa harus menulis ulang logika integrasi data apa pun. Sekarang, Pentaho 8.0 membuat eksekusi adaptif lebih mudah diatur, mudah digunakan dan aman. Fungsinya juga sekarang tersedia di Hortonworks.

  • Dukungan asli untuk Avro dan Parket: Pentaho 8.0 memudahkan untuk membaca dan menulis ke format file data dan format populer ini dengan Spark dengan menggunakan alat pengeditan visual Pentaho.

  • Boost Team Produktivitas: Pentaho 8.0 juga hadir dengan beberapa fitur baru untuk membantu meningkatkan produktivitas di seluruh jaringan data. Ini termasuk filter granular untuk menyiapkan data, meningkatkan kegunaan repositori dan audit aplikasi yang lebih mudah.

"Di jalan menuju transformasi digital, perusahaan harus sepenuhnya memanfaatkan semua data yang tersedia untuk mereka. Ini memerlukan data silo data tradisional dan mengintegrasikan teknologi operasional dan informasi mereka untuk membangun jaringan data analisis modern yang dapat mengakomodasi data data yang lebih besar dan terbuka, "kata Donna Prlich, chief product officer untuk perangkat lunak Pentaho di Hitachi Vantara. "Pentaho 8.0 menyediakan fitur untuk skala perusahaan dan pemrosesan yang lebih cepat untuk mengantisipasi tantangan data masa depan untuk lebih mendukung pelanggan Hitachi dalam perjalanan digital mereka."

Perangkat Pentaho 8.0 dari Hitachi Vantara sudah mulai tersedia pada bulan November 2017

MENINGKATKAN KONEKTIVITAS DI PENTAHO UNTUK MENURUNKAN BESARAN SUMBER DATA


Untuk tetap berada di depan pertumbuhan volume data dan kecepatan data eksponensial, Pentaho 8.0 membawa kecepatan dan kelincahan ke setiap tahap data pipe, mulai dari konsumsi pesan real-time sampai pemrosesan data streaming. Kini, pengguna bisa mendapatkan nilai dari data lebih cepat tanpa mengorbankan integritas data.

Stream Processing with Spark: Dengan kemampuan eksekusi adaptifnya, Pentaho 8.0 sepenuhnya memungkinkan penggunaan data real-time dari Kafka menggunakan Spark Streaming, tanpa kerja ulang. Pengolahan arus data dengan Spark menambah orkestrasi Spark Pentaho yang ada dan integrasi dengan SQL, MLlib.

Menghubungkan Pentaho ke stream Kafka: Pentaho 8.0 memungkinkan pemrosesan, pemantauan dan agregasi secara real-time dengan langkah-langkah khusus yang menghubungkan Pentaho Data Integration (PDI) ke Kafka, yang memungkinkan pengembang untuk dengan mudah mengatasi berbagai kasus penggunaan yang memerlukan pemrosesan secara real-time.

Keamanan Data Besar dengan Knox: Membangun keamanan tingkat perusahaan yang ada untuk Cloudera dan Hortonworks, Pentaho 8.0 sekarang mendukung Apache Knox Gateway yang menyederhanakan manajemen keamanan Hadoop.



MENGOPTIMALKAN PENTAHO SUITE SEBAGAI SUMBER DAYA PENGOLAHAN DATA


Dengan permintaan pemrosesan data yang terus meningkat, manajer TI menghadapi tantangan untuk memaksimalkan sumber daya komputasi yang ada. Pentaho 8.0 menyediakan kemampuan untuk secara langsung menangani kebutuhan ini dengan sumber pemrosesan real-time dan terukur.

Simpul pekerja untuk meningkatkan beban kerja perusahaan: Manajer TI dapat dengan mudah membuka simpul tambahan dan menyebarkan beban kerja simultan ke sumber perhitungan yang ada agar sesuai dengan kapasitas dan sesuai dengan permintaan. Ini memberikan elastisitas dan portabilitas antara cloud dan lingkungan lokal sehingga menghasilkan pemrosesan yang lebih cepat dan efisien bagi pengguna akhir.

Penyempurnaan eksekusi adaptif: Eksekusi adaptif Pentaho memungkinkan pengguna mencocokkan beban kerja dengan mesin pemrosesan yang paling tepat, tanpa harus menulis ulang logika integrasi data apa pun. Pentaho 8.0 membuat eksekusi adaptif lebih mudah diatur dan digunakan dengan keamanan yang ditingkatkan. Fungsinya sekarang tersedia di Hortonworks.

Dukungan asli untuk Avro dan Parket: Rilis ini mempermudah membaca dan menulis ke format file data dan format populer ini dengan Spark dengan menggunakan alat pengeditan visual Pentaho.


Tingkatkan Produktifitas TIM Anda DALAM PIPELINE DATA


Seiring teknologi yang menjadi lebih kuat, produktivitas tim Anda juga harusnya demikian. Namun, teknologi yang terus berubah menyulitkan organisasi untuk berporos dengan kelincahan. Pentaho 8.0 menawarkan seperangkat fitur yang lebih baik bagi pengalaman penggunaan di tim Anda, termasuk proses persiapan data yang lebih halus, akses konten Pentaho lebih cepat, dan tata kelola yang disederhanakan.

Lebih baik, Pengambilan Data Lebih Cepat: Rilis ini menangani persiapan data secara langsung, memungkinkan TI menerapkan filter untuk menemukan data duplikat, data yang hilang, dan outlier. TI dapat dengan mudah mempublikasikan sumber data awal dan skema agar bisnis memvalidasi lebih cepat dan pada akhirnya memberikan data berkualitas tinggi ke bisnis dengan lebih cepat.

Peningkatan Pengalaman Pengguna Repositori: Pentaho 8.0 membawa akses lebih cepat ke konten platform dan memberikan pengalaman pengguna yang konsisten di PDI.

Aplikasi yang Lebih Mudah di Audit: Pentaho 8.0 memudahkan penerapan aplikasi audit sekarang karena laporan Opsmart bekerja dengan database populer, termasuk Oracle, SQL Server, dan MySQL.

Apakah tempat kerja anda tertarik untuk menerapkan product Pentaho Vantara ini ? 


Referensi :
solutionsreview.com
www.pentaho.com

Mengenal Database Oracle 18c – Big Data DBA.  Pada postingan kita kali ini, kita akan melihat-lihat terlebih dahulu mengenai database terbaru dan digadang-gadang menjadi database masa depan dari perusahaan ternama Oracle. Sebagaimana yang telah diumumkan oleh Larry Ellison di ajang OOW 2017 tentang database masa depan yang merupakan perubahan besar dalam dunia teknologi Oracle. Dalam dunia otomasi, kita telah melihat perubahan besar dari kehidupan sehari-hari menjadi kehidupan profesional. Ada kemajuan besar di setiap area kehidupan. Perjalanan database Oracle dimulai dari Oracle v2: hingga ke versi terbaru saat ini yaitu pada versi oracle 12c.


ORACLE DATABASE 18C

Sebagaimana pemberitaan akhir-akhir ini, kita akan melihat database oracle berikutnya yaitu pada oracle 18c. Sebagian besar biaya perusahaan untuk melakukan tuning kinerja / performance dan maintenance database, karena kinerja bisnis yang buruk harus mengalami banyak masalah seperti kehilangan bisnis, beban kerja, dll, hal-hal penting semacam ini tetap diingat saat merancang database Oracle 18c yang sekarang menjadi product fenomenal Oracle. Database oracle 18c ini juga disebut sebagai database otonomi awan (Cloud Autonomic Database). Database oracle 18c menawarkan otomasi total berdasarkan machine learning dan menghilangkan tenaga kerja manusia, kesalahan manusia, dan juga tuning yang dilakukan manual.





Pada database oracle versi 18c ini memiliki banyak fitur baru yang lebih memilih tidak adanya tenaga kerja manusia. Jadi bisa dibilang pada oracle database 18c, tenanga manusia sudah dihilangkan. Tidak adanya tenaga kerja manusia berarti telah memangkas setengah biaya, tidak ada kesalahan manusia berarti 100x dapat diandalkan. Sehingga tujuan akhir yang akan dicapai adalah “self-driving database”.

Tidak adanya tenaga kerja manusia pada database oracle 18c meliputi otomasi dalam instalasi, patching, upgrade, dan juga tuning database oracle yaitu dengan cara menggunakan teknik robot dengan bantuan machine learning.

Teknologi Database Oracle yang sudah sangat membumi ini mengotomatisasi manajemen untuk menghadirkan availability, performance, dan security yang belum pernah ada sebelumnya dan tentu saja dengan biaya yang jauh lebih rendah. Untuk penggunaan bisnis, Database Oracle 18c akan tersedia pada bulan Desember 2017.

Sebagaimana yang sudah diketahui pada versi database oracle yang sebelumnya, database oracle ini memiliki perkembangan yang sangat pesat. Namun kita juga harus tahu bahwa pada setiap versi database oracle yang baru menyebabkan ada fitur yang hilang atau ditambahkan dari database yang sebelumnya. Ada beberapa alas an mengapa kita bisa mengatakan bahwa oracle merevolusi database cloud menjadi database self-driving pertama di dunia.


1. Self – Driving


Teknologi tumbuh begitu cepat sehingga kita bisa melihat banyak peralatan yang dapat berjalan secara otomatis, atau sering disebut dengan istilah self-driving. Sekarang hal tersebut terjadi di Database Oracle 18c. Kecerdasan self-recovering berfungsi untuk secara otomatis mendeteksi dan menerapkan pengerjaan korektif untuk memastikan akses tanpa henti ke data Anda. Database otonom baru ini mudah digunakan. Membuat data warehouse menjadi lebih sederhana. Pengguna cukup menentukan tabel, memuat data, dan kemudian menjalankan beban kerja mereka dalam hitungan detik-tidak ada penyetelan manual yang dibutuhkan.


2. Penurunan Biaya


Tidak ada bisnis yang ingin menghabiskan banyak uang sederas air mengalir. Setiap bisnis baik skala kecil maupun skala besar memainkan peran penting bagi mereka. Semua jenis industri menghabiskan banyak uang untuk departemen TI supaya dapat bertahan dalam persaingan yang besar. Dengan menggunakan database oracle 18c dapat menghilangkan downtime yang mahal karena konfigurasi manual dan rawan kesalahan dengan cara melakukan manajemen adaptif termasuk aplikasi patch, pembaruan, dan peningkatan self-driving. Self-tuning menggunakan machine learning adaptif, yang secara otomatis mengaktifkan casing kolumnar, indeks penyimpanan, kompresi, dan prioritas sumber daya untuk memberikan sumber daya yang dibutuhkan untuk pekerjaan aktual yang dilakukan pada beban kerja, dan juga untuk menghindari over-provisioning yang mahal.


3. Dapat diandalkan


Oracle database 18c memiliki kemampuan memulihkan diri secara otomatis, mendeteksi dan menerapkan tindakan perbaikan untuk memastikan akses tanpa henti ke data Anda. Oracle Autonomous Database Cloud secara otomatis akan mengimplementasikan Oracle Real Application Clusters (RAC) dan cross-region Oracle Active Data Guard untuk memastikan ketersediaan data secara terus menerus. Kita tidak dapat menentukan / menemukan waktu downtime untuk pemeliharaan, update, upgrade, atau penambahan kapasitas komputasi dan penyimpanan.

Sebagian besar Database Administrator oracle saat ini merasa was was dalam menghadapi “Autonomous Database Service Suite” yang akan membuat para DBA menjadi tanpa pekerjaan alias menganggur. Namun pada kenyataan nya tidak lah demikian, karena sebenarnya ada beberapa jenis layanan database di cloud yang butuh untuk ditangani tenaga2 mantan DBA nantinya .. 

a. Oracle Database Cloud Service
b. Oracle Bare Metal Cloud Database Service
c. Oracle Database Exadata Cloud Service
d. Oracle Database Exadata Cloud Machine
e. Oracle Database Express Cloud Service

Sekarang, kita akan melihat beberapa hal penting tentang Database Otonomi pada database oracle 18c yang mungkin sebagian besar orang tidak tahu.

Oracle self driving database (Autonomous Database) akan tersedia mulai Oracle18c namun masih ada periode oracle support yang sangat besar untuk versi database oracle 12c R1 / R2. 12c R1 sampai 4 tahun lebih apabila kita hitung dari tahun ini, artinya kita membicarakan support oracle database 12C R1 sampai dengan lebih kurang tahun 2021.

Oracle support untuk versi database oracle 12c R2 sampai dengan April 2025 dan kemungkinan masih bias diperpanjang. Seperti yang kita ketahui bahwa para pengguna database oracle biasanya tidak bergerak begitu cepat untuk menggunakan rilis database oracle berikutnya sampai dengan mereka benar-benar membutuhkannya atau sampai masa support mendekati habis masa berlakunya. Jadi, Oracle database 18c adalah rilis yang akan digunakan untuk pelanggan yang benar-benar membutuhkannya atau oleh pelanggan yang menginginkan teknologi yang sangat up to date.

Sampai saat ini database self-driving Oracle dirancang untuk dijalankan di Exadata, seperti yang kita ketahui Exadata adalah sistem Engineering yang sangat kuat namun tidak murah .. jadi .. sebagian besar pelanggan pasti nya tidak akan menggunakan di Exadata, apalagi untuk pengguna di negara-negara berkembang. Artinya, Exadata memiliki biaya tinggi untuk menjadi perangkat keras biasa bagi sebagian besar perusahaan di seluruh dunia.

Sampai dengan pamaparan hal ini, maka tentunya tidak ada yg perlu ditakutkan bagi para DBA. Kenapa? Karena Database Oracle self-driving 18c belum akan menjadi mekanisme regular terhadap database perusahaan anda.

Jika anda tertarik untuk nantinya menggunakan database oracle 18c ini, maka anda perlu menyimak lebih banyak pemaparan berikut ini. Atau jika anda tertarik dengan big data tanpa harus mengetahui seluk beluk oracle database, maka anda juga bisa mulai cari tahu mengenai apa itu big data, serta bagaimana sebenarnya arsitektur big data.




Oracle database 18c bukanlah settingan untuk Service Database Otonomi.


Setelan Layanan Database Otonomi adalah jenis layanan yang tersedia sampai sekarang hanya untuk Oracle Public Cloud.

Setelan Layanan Database Otonomi akan berjalan hanya di Exadata (Sampai dengan saat ini, bias saja berubah lagi ke depannya).

Jadi sebenarnya Oracle Database 18c hanya release database oracle lainnya ?

Kesimpulannya adalah bahwa "Oracle 18c" akan berdampak kecil untuk database "reguler" On-premise dan layanan database yang terkait dengan "self driving".


Anda masih penasaran dengan Database “Self-Driving” ini ?


Mari kita analisa semua itu. Bagaimana bisa semua hal itu dilakukan saat ini dengan "Oracle 
Database Cloud Service (DBCS) biasa" dan bagaimana kita berpikir Oracle akan melakukannya.  Kita berbicara tentang "Bagaimana Oracle akan melakukan hal itu semua dikarenakan debut Autonomous Datawarehouse Database Cloud akan dilakukan di bulan Desember 2017”.

Penerapan Patch. 

Saat ini, jika Anda ingin menerapkan Patch, anda menggunakan DBCS hanya untuk masuk ke console, untuk melihat di layar jika ada patch yang tersedia untuk database itu dan anda hanya perlu melakukan beberapa klik untuk mengaplikasikannya .. Jadi sederhana.

Jadi .. kalua dipikir tidak "begitu sulit" bagi Oracle Corp, untuk mengganti klik menjadi proses otomatis.

Ada beberapa patch yang memerlukan penghentian database dikarenakan mereka mengubah biner, dll. Yah .. paling mungkin Oracle sudah punya mekanisme untuk menerapkan patch tanpa harus menghentikan database dan mereka telah memutuskan untuk menggunakannya sekarang .. jika kita bayangkan bagaimana cara kerja database di dalam menjalankan kalimat berurutan .. dll. setiap kalimat .. operasi .. dll semua ini bisa dikoordinasikan sehingga patch mempengaruhi entah bagaimana "posting" kalimat .. dll. Fakta menerapkan patch dengan sendirinya bukanlah hal yang besar mengingat tingkat perkembangan produk Oracle selama bertahun-tahun .. Jadi .. patch yang diaplikasikan dengan sendirinya hanyalah sebuah langkah maju yang berhubungan dengan tingkat otomasi.


Upgrade

Sampai sekarang ketika Anda bekerja dengan DBCS, satu-satunya cara untuk mengupgrade database yang sudah bekerja di cloud adalah menciptakan service lain yang akan mempunyai node komputasi lain dan kemudian kita menerapkan prosedur reguler untuk mengupgrade database tersebut. Namun, kita harus ingat bahwa Oracle telah bekerja sangat keras dalam membangun mekanisme yang sangat maju untuk mengelola PDB. Saat ini kita bisa mengkloning PDB secara hot-plug, kita bisa memindahkan PDB dari satu kontainer ke wadah lain yang sedang aktif .. pada dasarnya sangat mirip dengan mekanisme yang ditanamkan untuk memindahkan datafile secara online .. jadi .. teknologi ini sudah sangat matang dilakukan oleh Software Oracle untuk kali ini .. Jadi .. Upgrade database pasti merupakan prosedur yang sama untuk apa yang dilakukan dengan PDB, definisi boot CDB-nya memiliki binari dari versi yang sesuai dan kita hanya memindahkan data. Maka bisa kita tarik kesimpulan itulah mekanisme perangkat lunak Oracle database yang akan digunakan untuk meng-upgrade database secara “hot”. Jadi .. jika kita menyadari dengan semua pemaparan di atas .. semua ini hanyalah teknologi yang kita gunakan dengan rilis saat ini .. Perbedaan dalam database otonom adalah mereka menerapkan prosedur ini dengan database lengkap berdasarkan layanan baru ini.


Melakukan Tuning Itu Sendiri

Lebih mudah dijelaskan .. ketika anda men setting query menggunakan teknik adaptif .. dll. Semua ini bisa terjadi / dilakukan dengan database yang sedang berjalan .. membangun kembali indeks secara online .. dll. Harusnya selaras operasinya saat ini bisa dilakukan secara online. .. tidak begitu sulit untuk memiliki mesin AI (Artificial Intelligence) yang mengumpulkan data dan mengambil beberapa keputusan berdasarkan tes internal .. statistik .. dll. jadi .. tingkat otomasi / otonom baru ini hanya apa yang kita miliki namun dilakukan secara otomatis.


Apakah anda tertarik untuk melanjutkan pembahasan oracle database 18c ini? atau anda ingin melihat langsung pemaparan dari Larry Ellison ? anda bisa menyimak video youtube di bawah ini :




Mari kita bicara mengenai apa saja yang biasa dilakukan saat melakukan tuning :


Penerapan Patch: 

Dilakukan dari waktu ke waktu .. meskipun tidak terlalu sering .. jadi .. tidak banyak perubahan yang harus di lakukan saat kita melakukan pekerjaan ini.

Upgrade:

Apalagi untuk upgrade database oracle.. sangat jarang kapan kita mengaplikasikan upgrade ke database .. jadi .. tidak banyak perubahan yang harus di lakukan ketika kita melakukan pekerjaan ini.

Tuning itu sendiri:

Banyak perusahaan konsultan menggunakan banyak waktu dalam pengaturan secara konstan ke database karena berbagai alasan, sangat umum beberapa objek, beberapa perintah, beberapa kode, dll yang ditambahkan, dihapus, dirubah dalam database dan tentu saja variasi bagian ini akan berpengaruh dalam performa database oracle. Hal ini bisa berdampak relatif tinggi pada biaya banyak perusahaan, karena pengaturan database secara konstan menyiratkan biaya tinggi yang berkelanjutan. Tentu .. kita harus melihat seberapa bagus mesin bisa melakukan ini. Kita harus ingat bahwa saat ini sudah tersedia "Tuning Advisor" dan mereka tidak sempurna, terkadang kita menerapkan beberapa rekomendasi dan kinerja beberapa eksekusi perintah. Yang bisa menjadi kondisi terburuk adalah faktor "Tuning itu sendiri", bener bener bener bener bener bener bener bener bener bener ya. Jika hasilnya sangat bagus dan nyaman, pastinya faktor ini akan mengurangi banyak biaya bagi perusahaan dan tentu saja akan mempengaruhi cara DBA atau yang bertugas melakukan setting database.

Jadi .. ada satu hal penting untuk dipikirkan .. apakah memang pada oracle database enterprise anda sangat penting untuk menjalankan semua tuning ini. Tentunya dengan sendirinya tanpa adanya seseorang yang bisa memantau apa yang sedang dilakukan database, apakah ini suatu kelebihan atau justru menjadi bom waktu untuk DBA  ..?

Kita akan jujur .. pekerjaan yang kita lakukan dengan database kritis tidak akan mungkin memberi kepercayaan 100% pada perangkat lunak mesin untuk menyesuaikan diri dengan permintaan tanpa kendali atau pengawasan manusia. Tentu saja, memang ada beberapa database yang berada dalam kendali  beberapa tingkat kepentingan, atau keadaan yang sesuai dengan model itu yang memang harus disetel 100% tanpa pengawasan tapi bukan kasus biasa.

Dalam penyesuaian process autonomous database DBA akan memilih elemen apa yang bisa disetel secara otomatis dan yang mana dari mereka akan tetap terkendali dengan dBA. Pada akhirnya .. DBA akan selalu dibutuhkan . Pada kondisi ini DBA akan memiliki lebih banyak fasilitas untuk melakukan pekerjaan  mereka lebih mudah, tapi kenyataan berpikir untuk benar-benar mengganti manusia adalah sesuatu yang sulit terjadi meski mesin bisa mengambil keputusan yang benar.

Mari kita jelaskan contoh sederhana, Oracle Data Guard memiliki pilihan untuk FAILOVER secara otomatis dalam beberapa keadaan, tapi untuk beberapa kemungkinan kesalahan manusia bisa saja terjadi dan database bisa failover saat manusia tidak menginginkannya, jadi sebagian besar perusahaan masih enggan untuk menggunakan FSF (Fast Start Failover), Ini adalah mekanisme yang bekerja dengan sempurna  secara teknis namun memberikan kontrol total terhadap perangkat lunak untuk menerapkan sesuatu yang penting pada data adalah sesuatu yang sebagian besar tidak boleh ditanamkan oleh perusahaan.

Secara umum dapat kita katakana bahwa database otonom akan mengurangi ribuan jam kerja untuk DBA tetapi tidak akan mewakili secara praktis dan nyata untuk melakukan penghapusan kehadiran manusia.


Jadi, database otonom menjanjikan hal berikut:


Mengurangi waktu administrasi


  • Sedikit waktu untuk infrastruktur
  • Sedikit waktu untuk menambal, mengupgrade
  • Sedikit waktu untuk memastikan ketersediaan
  • Sedikit waktu untuk menyetel

Lebih banyak waktu untuk Inovasi


  • Lebih banyak waktu pada desain database
  • Lebih banyak waktu pada analisis data
  • Lebih banyak waktu pada kebijakan data
  • dan sangat penting .. Lebih banyak waktu untuk mengamankan data

Jadi .. dengan database oracle berada di Cloud, DBA harus memperkuat kemampuan mereka dalam hal database security


Sekarang mari kita beralih ke titik analisis yang lain ..

Masa depan DBA terkait dengan Oracle Database Cloud


17 tahun yang lalu .. cukup sederhana untuk merancang arsitektur database. Anda hanya harus memutuskan untuk memasukkan database Anda ke dalam:

  • Server ..
  • Atau di Mainframe
  • Atau bahkan di mesin desktop biasa dalam beberapa kasus ..

Sekarang, ketika DBA akan memutuskan tempat untuk mengajukan database, DBA harus memikirkan banyak pilihan .. seperti:

  • Server ..
  • Mesin Virtual
  • Sistem Rekayasa seperti "Exadata"
  • dan lainnya ..

DBA dan management harus memutuskan apakah arsitektur yang akan ditanamkan:

  • "On-Prem" sebagai pilihan reguler
  • Cloud di pusat data kita sendiri (Private Cloud)
  • Hybrid Cloud
  • Public Cloud, sekarang Cloud publik memiliki lebih banyak pilihan dengan database otonom di Oracle18c – dll


Dan untuk analisa selanjutnya ..


Dahulu mungkin begitu sederhana untuk merancang arsitektur database, namun sekarang tidak seperti itu. Sekarang kita memiliki banyak pilihan, dengan masing-masing dengan pro dan kontra nya sendiri sendiri. Pada dasarnya akan ada banyak pilihan.

Jadi .. pertanyaannya adalah .. Siapa yang akan bertugas mendesain semua ini ..?

Manajer Umum? jelas tidak .. ini akan dirancang oleh Arsitek Basis Data .. (DBAs)

Sekarang DBA akan diminta lebih banyak untuk memahami bisnis daripada sekedar mekanisme menjaga database agar tetap sehat dan berjalan.

Sebelumnya biaya Server .. service .. dll .. bukan hal utama dengan apa yang harus hadapi oleh DBA.. mereka fokus hanya dalam menjaga agar database berjalan dan menginstallnya. Sekarang berbeda, untuk database di Cloud, misalnya menyiratkan keputusan tentang jenis layanan apa yang akan digunakan dan dalam mode apa .. "Metered , Non-Metered “. Faktor-faktor tersebut berdampak langsung pada ekonomi perusahaan dan modus operasi database ini, jadi .. sekarang DBA lebih terkait dengan bisnis rule.

Beberapa tahun yang lalu dari menit pertama Oracle Corp mengumumkan perilisan "Oracle Cloud", tingkat keahlian lain untuk DBA lahir, mengubah bisnis ini semakin kompleks.

Maka bisa dipastikan DBA tidak akan dipecat. Sekarang peran DBA lebih penting lagi. Peran DBA hanya bergeser untuk lebih berperan sebagai arsitek.


Siapa yang harus khawatir karena semua perubahan ini ..?


Jenis DBA (Database Administrator) operasional yang bertugas atau atau petugas yang hanya melakukan tugas sederhana seperti:


  • Memeriksa Backups.
  • Memeriksa penyimpanan.
  • Membuat beberapa laporan.
  • Memasang Patch.
  • Memasang softwares.
  • Menciptakan lingkungan yang selalu baru bagi pengembang.

Semua tugas mudah dan sederhana .. telah dihapus dengan penambahan otomasi di Oracle Releases terbaru

Misalnya, sekarang pada saat membuat Oracle Database Cloud Service, ada banyak elemen yang tercipta secara otomatis termasuk:


  • Pembuatan node (Host)
  • Instalasi Perangkat Lunak
  • dan lain sebagainya.

Jadi .. hanya dengan contoh sederhana ini .. Anda bisa menyadari bahwa pada saat bekerja dengan Oracle Database Cloud Service Anda tidak perlu menginstal softwares lagi ..

Jika Anda ingin membuat konfigurasi RAC dalam menggunakan Oracle Database Cloud Service hanyalah beberapa klik mudah dan Anda bisa juga melakukan konfigurasi RAC-DG yang kompleks.
Era tugas rutin dan membosankan semakin jauh, jadi jika Anda seorang DBA yang bertugas atas tugas sederhana semacam itu, maka jawabannya adalah iya, anda perlu khawatir dengan masa depan anda.

Bertolak belakang dengan kesimpulan di atas, jika Anda seorang DBA yang bertugas menanamkan arsitektur MAA. Database Cloud, Exadata, dll. Maka anda perlu berbahagia, pentingnya peran anda sekarang akan semakin besar.


Jadi sekarang kita coba kembali ke pusat pembicaraan kita

Anda bisa membayangkan apa yang akan menjadi visi seseorang yang memulai karir sebagai DBA dengan semua pilihan yang ada di pasaran saat ini. Seseorang yang hampir tidak belajar SQL dan "Create table ", dll. Ketika pasar sedang berbicara tentang database otonom, Ini perbandingan antara motor 100cc dan motor 1000cc, sesuatu seperti itu.


Jadi apa yang kita dapatkan dari semua ini tentang penggunaan database oracle 18c ?


#1. DBA dengan jenis tugas pemeliharaan rutin bisa dihapus dari peran atau pekerjaan mereka jika mereka tidak berevolusi untuk fokus pada semua generasi baru yang terkait dengan Database Cloud ini.

#2. DBA yang mendapat hak istimewa untuk bekerja dengan Oracle Database selama era keemasan database "On-prem", sekarang mereka berada pada saat yang tepat untuk tumbuh sejajar dengan sesuatu yang mendefinisikan "sebelum" dan "setelah " masa tersebut. Dari itu Sekarang DBA akan memiliki kesempatan untuk beralih ke peran yang lebih strategis dalam organisasi mereka dan berdasarkan pada itu pendapatan "gaji, komisi, dll" akan semakin tinggi, sekarang anda akan dilibatkan dalam keputusan penting bagi perusahaan.

#3. Maaf untuk DBA yang baru masuk di dunia database seperti ini, perjalanan yang harus Anda jalankan lebih sulit dari sebelumnya jika anda ingin mendapatkan level teratas di area ini karena hari demi hari semakin banyak pilihan.


Kesimpulan yang bisa didapatkan :


1. Jika Anda adalah tipe DBA # 1 sesuai dengan deskripsi sebelumnya, mungkin Anda memiliki beberapa pilihan berkembang menjadi # 2, atau jika Anda memutuskan untuk tetap berada dalam peran yang sama, pembayaran Anda bisa kurang dari waktu ke waktu atau bahkan peran Anda secara perlahan bisa lenyap.

2. Jika Anda tipe DBA # 2, teruskan di jalur anda ini, dan peran Anda akan semakin penting di bidang ini, oleh karena itu nilai bayaran Anda akan memiliki probabilitas tinggi untuk ditingkatkan. Satu hal lagi, sebagian besar DBA tidak akan sampai menjadi Cloud Architect karena ini memerlukan waktu belajar, meneliti, melakukan pengujian, dll. Jadi .. berbanggalah jika anda mencapainya dan bisa memanfaatkannya di dalam organisasi anda saat ini ataupun pada pekerjaan anda di masa depan.

3. Jika Anda adalah tipe DBA # 3, jangan menyerah. Jangan melihat perjalanannya terlalu lama seperti sebelumnya, teruslah belajar dan Anda akan mendapatkan level sebagai pesaing bagus di pasar.


Kita harus mengatakan bahwa teknologi membentuk sebuah langkah menuju perubahan besar yang baik untuk semua teknisi. Kita mendapatkan hal baru untuk dipelajari dan meningkatkan kemampuan teknis kita, perang industri melawan biaya dan downtime akan dipecahkan dan pelanggan adalah raja pasar di sana. Juga beberapa keuntungan bagi pelanggan akan menghemat waktu adalah perubahan positif yang sangat besar bagi mereka. Karena adanya perubahan, kita tidak bisa menjangkau sisi negatif seperti dalam sejarah komputer kita bisa melihat permintaan Computer tidak mengurangi pekerjaan dan peluang lain di sisi lain sudah bisa menyelesaikan banyak permasalahan. Hanya saja dengan terjadinya perubahan baru, maka kita harus siap untuk keterampilan baru.


Refference :
http://oracle-help.com
http://www.zdnet.com
https://community.oracle.com

MKRdezign

Contact Form

Name

Email *

Message *

Powered by Blogger.
Javascript DisablePlease Enable Javascript To See All Widget