December 2017 | Big Data DBA

Belajar Big Data Solusi Data Management Dengan Big Data

December 2017

Tutorial Oracle Database Administrator – Big Data DBA. Database atau biasa disingkat hanya dengan DB merupakan koleksi informasi terorganisir dan terstruktur yang dapat diakses, diperbarui, dan dianalisis dengan efisien. Kode VB sederhana, C, excel atau notepad tidak dapat mengelola sejumlah besar pengguna dan file. Juga untuk kemudahan ekstraksi, backup dan pemulihan data tidak mungkin dengan pendekatan ini. Untuk mengatasi keterbatasan ini Oracle telah datang dengan produknya yang fenomenal yaitu database Oracle atau Oracle RDBMS.


Tutorial Oracle Database Administrator


Lalu Apa itu Oracle DBA?


Ini adalah sistem manajemen basis data relasional. Tujuan utama dari hal ini adalah untuk menyimpan, mengelola dan mengambil informasi secara efisien untuk memberikan kinerja yang tinggi. Hal ini juga disebut sebagai RDBMS atau hanya Oracle.

Oracle terdiri dari berbagai mekanisme perangkat lunak untuk mencapai concurrency data yang maksimal, kinerja tinggi untuk produktivitas maksimal bagi banyak pengguna di lingkungan database.


Beberapa fitur utama dari Oracle DBA adalah:

  1. Administrasi database bukanlah tugas satu orang, namun ditangani oleh sekelompok spesialis di bidangnya yaitu bidang database
  2. Database Oracle merupakan Database pertama yang sesuai untuk komputasi grid perusahaan
  3. Database Oracle Bekerja pada arsitektur berbasis grid.


Di Oracle, ada tiga kategori dasar file fisik yang digunakan untuk menyimpan informasi. Adapun file-file tersebut adalah :

File data    :   Berisi data yang dibutuhkan untuk memulai mesin database
File kontrol    :  Gudang metadata database yang digunakan oleh mesin Oracle
Redo log file    :  Digunakan untuk menyimpan perubahan yang dilakukan pada database
Parameter file :  Sebagai pengingat konfigurasi di mesin tempat server database Oracle dijalankan


Untuk Belajar Database Oracle DBA, diperlukan pemahaman tentang terminologi dasar yang digunakan di dalamnya.

Terminologi Dasar Oracle Database 


Instance - Ini didefinisikan sebagai latar belakang proses dan struktur memori yang digunakan untuk mengambil data dari database.

Proses - Juga disebut sebagai tugas atau pekerjaan, contohnya adalah request yang sedang berjalan. Ada dua jenis proses dalam sistem database Oracle yaitu proses Oracle dan proses User. Tidak perlu menggunakan perintah sistem operasi untuk berinteraksi dengan database.

Buffer Cache - Ini adalah komponen SGA yang berfungsi seperti penyangga untuk menyimpan data yang disesuaikan atau dipertanyakan. Buffer cache menyimpan data terbaru atau sering digunakan dalam memori sehingga bisa meningkatkan kinerja. Semua proses pengguna yang terhubung ke database berbagi akses diarahkan ke sana.

Shared Pool – Bagian ini bertugas menangkap informasi untuk dibagikan dengan pengguna. Sebagai contoh: stored Procedure, pernyataan SQL dll dapat di-cache untuk usabilitas dan akses cepat.

Redo Log Buffer - Bagian ini menyimpan log perubahan yang dibuat dalam database. File redo log berjalan dalam gerakan melingkar dan selalu ditimpa. Jadi, untuk menjaga pemulihan database agar lebih lama, mereka diarsipkan ke dalam archieve log. Oleh karena itu, redo log membantu mengembalikan instance ketika terjadi kegagalan sistem. Hal ini akan meningkatkan kinerja dan fungsi sistem database.

Large Pool - Ini adalah area opsional yang menawarkan alokasi memori untuk proses besar, seperti operasi restore database dan backup Oracle.

Lock - Untuk mengendalikan akses simultan ke sumber data, lock digunakan.
Basis data terdiri dari struktur logis dan fisik. Karena struktur ini terpisah, pengelolaan penyimpanan data secara fisik tidak mempengaruhi akses terhadap struktur logis.

Informasi diatas diperlukan untuk mendapatkan pemahaman dasar tentang database. Kita telah mencoba untuk mencakup semua parameter penting dan istilah yang digunakan di Oracle.


Dari pembahasan di atas sekarang diketahui bahwa:

Proses Oracle adalah proses server yang melakukan, berkomunikasi dan bekerja untuk proses pengguna. Proses server ini menangani permintaan dari proses pengguna yang terkoneksi. Mereka berkomunikasi dengan proses pengguna dan memanggil proses lain untuk melakukan permintaan. Katakanlah, jika pengguna ingin mengakses data yang belum ada di SGA, ia memanggil sebuah proses untuk membacanya dari disk.

Proses latar belakang adalah proses yang melakukan kerja pemeliharaan untuk server Oracle.
Sampai di sini, mungkin anda makin penasaran dengan prinsip kerja Oracle Database dan juga bagaimana cara melakukan pengaturan Database Oracle yang di lakukan oleh Oracle DBA.

Untuk mengetahui dan memahami apa saja yang dilakukan oleh seorang Oracle Database Administrator (Oracle DBA), maka point-point pembelajaran berikut ini patut untuk kita simak dan kita fahami.

Wah susah dong belajarnya, kalo sendirian.. Sama, saya juga demikian, karena itu sambil belajar saya coba juga untuk dituliskan di situs blog big data dba ini. Sehingga dengan menuliskan apa yang kita pelajari, akan semakin nempel di ingatan kita semua ilmu yang sudah kita dapatkan.

Ok, langsung saja. Ini dia point-point penting bagi seorang Database Administrator Oracle untuk dipelajari.


Isi point-point yang Harus diketahui Database Administrator Oracle


1. Pengantar Database Oracle


  • Ikhtisar Arsitektur Grid dari Database Oracle
  • Perbedaan antara cluster dan grid
  • Tanggung Jawab Administrator Database

2. Membuat Database Oracle


  • Persiapan Lingkungan instalasi Oracle Database 11g
  • Persiapan Lingkungan instalasi Oracle Database 12c
  • Melakukan Instalasi Oracle 11g
  • Melakukan Instalasi Oracle 12c
  • Membuat Database Oracle 11g / 10g menggunakan perintah SQL
  • Membuat Oracle Container Database di 12c menggunakan DBCA
  • Membuat Oracle Container Database di 12c menggunakan perintah SQL

3. Mengelola Container Database Oracle 12c 


  • Membuat Account Pengguna dan Menghubungkan ke Oracle 12c Container and Pluggable Database

4. Mengelola Database Pluggable di Oracle Database 12c


  • Membuat Database Pluggable dari Seed
  • Melakukan Cloning Database Pluggable yang Ada
  • Cabut dan pasang (unplug dan plug) database dari satu CDB ke CDB lainnya

5. Mengelola Tablespaces Dan Datafiles


  • Membuat tablespace baru
  • Bigfile Tablespaces (Diperkenalkan di Oracle Ver 10g)
  • Memperluas Ukuran tablespace
  • Bagaimana untuk mengurangi ukuran tablespace?
  • Mengumpulkan Tablespaces
  • Menentukan tablespace Offline atau Online
  • Membuat Tablespace Read only.
  • Mengganti Nama Tabel
  • Menghapus Tablespaces
  • Melihat Informasi tentang Tabel dan Datafile
  • Merelokasi atau Mengganti Nama Data
  • Mengganti nama atau Merelokasi Datafiles milik Tablespace Tunggal
  • Prosedur untuk Mengganti Nama dan Merelokasi Datafiles di Beberapa Tabelspace

6. Tablespace Sementara


  • Meningkatkan atau Mengurangi ukuran tablespace sementara
  • Mengelompokkan tablespace
  • Membuat Grup Tablespace Sementara
  • Menetapkan Grup Tablespace sebagai Default Tablespace Sementara

7. Mendiagnosis Dan Memperbaiki Masalah Tablespace yang Terkelola secara Lokal (Local Managed)


  • Skenario 1: Memperbaiki Bitmap Saat Alokasi Blokir Ditandai sebagai Free (Tanpa Tumpang Tindih)
  • Skenario 2: Menghapus Segmen yang Terkorupsi
  • Skenario 3: Memperbaiki Bitmap Bila Tumpang Tindih (overlap) Dilaporkan
  • Skenario 4: Memperbaiki Korupsi Media Blok Bitmap
  • Skenario 5: Migrasi dari Dictionary-Managed ke Tablespace yang Dikelola secara Lokal

8. Mengangkut Tablespaces


  • Prosedur untuk mengangkut tablespace
  • Contoh Tablespace Transporting (Pengangkutan Tablespace)

9. Mengelola REDO LOG FILE


  • Menambahkan Redo Logfile Group Baru
  • Menambahkan Anggota ke grup yang ada
  • Menghapus Anggota Redo Log dari sebuah kelompok / Group
  • Menghapus Logfile Group
  • Mengubah ukuran Logfiles
  • Mengganti nama atau Relokasi Log file
  • Membersihkan REDO LOG File
  • Melihat Informasi Tentang Log file

10. Mengelola File Kontrol


  • File Kontrol Multiplexing
  • Mengubah Nama Database
  • Membuat File Kontrol Baru

11. Kloning Database Oracle


12. Mengelola TABLESPACE UNDO


  • Beralih ke Manajemen Otomatis Undo Space
  • Menghitung Kebutuhan Ruang Untuk Penyimpanan Undo
  • Mengubah Tablespace UNDO
  • Menghapus sebuah Undo Tablespace
  • Menonaktifkan Undo Tablespaces
  • Melihat Informasi tentang Undo Tablespace

13. SQL Loader


  • STUDI KASUS (Memuat Data dari MS-ACCESS ke Oracle)
  • STUDI KASUS (Memuat Data dari file Fixed Length ke Oracle)
  • STUDI KASUS (Memuat Data dari MySQL ke Oracle)
  • Memuat Data ke dalam Beberapa Table dengan menggunakan kondisi WHEN
  • Conventional Path Load and Direct Path Load
  • Jalur Langsung (Direct Path)
  • Pembatasan Penggunaan Beban Jalur Langsung (Direct Path Load)

14. Ekspor Dan Impor


  • Melakukan Ekspor dan Impor
  • Parameter Baris Perintah pada tool Ekspor
  • Contoh Mengekspor Full Database
  • Contoh Mengekspor Schema
  • Mengekspor Tabel Individu
  • Mengekspor Gambar Konsisten yang ada di tabel

15. Menggunakan Utilitas Impor


  • Contoh Mengimpor Tabel Individu
  • Contoh, Mengimpor Tabel satu akun Pengguna ke akun Pengguna lain
  • Contoh Mengimpor Tabel Menggunakan Pencocokan Pola (Pattern Matching)

16. Migrasi Database di berbagai platform yang berbeda


17. DATA PUMP Utility


  • Menggunakan Utilitas Ekspor Data Pump
  • Contoh Mengekspor Full Database 
  • Contoh Mengekspor Schema
  • Mengekspor Tabel Individu dengan menggunakan Data Pump Export
  • Mengeluarkan dan Memasukkan Object selama Ekspor
  • Menggunakan Query untuk Memfilter Baris selama Export
  • Menangguhkan dan Melanjutkan Pekerjaan Ekspor (Melampirkan dan Melampirkan Kembali ke Pekerjaan / Job)

18. Data Pump Import Utility


  • Mengimpor File Dump Full
  • Mengimpor Object dari Satu Schema ke Schema lain
  • Memuat Object dari satu Tablespace ke Tablespace lainnya
  • Menghasilkan File SQL yang berisi perintah DDL menggunakan Data Pump Import
  • Mengimpor object hanya Schema Khusus / Schema Schema Tertentu
  • Mengimpor Hanya Tabel Khusus / Table Table Tertentu
  • Menjalankan Utilitas Impor dalam Mode Interaktif

19. Fitur Flash Back


  • Permintaan Flashback
  • Menggunakan Query Versi Flashback
  • Menggunakan Flashback Table untuk mengembalikan Tabel ke Waktu Yang telah Lampau
  • Menghapus Objects dari Recycle Bin
  • Flashback Drop dari Beberapa Objek Dengan Nama Asli yang Sama
  • Database Flashback: Alternatif untuk Pemulihan Point-In-Time
  • Mengaktifkan Flash Back Database
  • Untuk berapa ukuran kita harus mengatur area pemulihan flash
  • Seberapa jauh anda bisa melakukan flashback database
  • Contoh: Flashing Back Database ke titik waktu Tertentu

20. Archieve Data Kilas Balik (Oracle Total Recall)


  • Pengantar
  • Membuat tablespace Archieve Data Flashback
  • Membuat Archieve Data Flashback
  • Melakukan Query data historis

21. Log Miner


  • Konfigurasi LogMiner
  • Pilihan Kamus LogMiner
  • Menggunakan Katalog Online
  • Mengekstrak Kamus LogMiner ke Redo Log Files
  • Mengekstrak Kamus LogMiner ke File Flat
  • Redo Log File Options
  • Contoh: Menemukan Semua Modifikasi di Berkas Log Redo yang Sedang Berjalan
  • Contoh: Menambang File Log Redo dalam Rentang Waktu yang Diberikan


22. Backup dan Restore


  • Membuka Database dalam Mode Archivelog
  • Membawa Database lagi dalam mode NoArchiveLog
  • Mengambil Backup Offline (DINGIN)
  • Mengambil Backup Online (HOT)
  • Memulihkan dari Hilangnya Datafile
  • Saat Database berjalan di Noarchivelog Mode
  • Saat Database berjalan di Mode Archivelog
  • Memulihkan dari hilangnya File Kontrol

23. Recovery Manager (RMAN)


  • Melakukan Backup Offline menggunakan RMAN
  • Memulihkan Database yang berjalan dalam mode NOARCHIVELOG menggunakan RMAN
  • Melakukan Online Backup menggunakan RMAN
  • Melakukan backup tablespace atau datafiles tertentu dengan menggunakan RMAN
  • Cara melakukan Image Backup di RMAN
  • Melakukan Incremental Backup menggunakan RMAN
  • Secara bertahap memperbarui salinan cadangan untuk pemulihan cepat
  • Lihat informasi tentang backup RMAN
  • Mengkonfigurasi kebijakan Retention di Oracle RMAN
  • Konfigurasikan berbagai Pilihan di RMAN
  • Mempertahankan RMAN Repository
  • Memulihkan dari hilangnya datafiles menggunakan RMAN (mode Archivelog)
  • Memulihkan dari hilangnya datafile dengan mengubah lokasinya
  • Melakukan Pemulihan Bencana menggunakan RMAN


Demikianlah Kumpulan Tutorial Oracle Database Administrator. Semoga artikel ini bermanfaat untuk anda. Bila anda merasa artikel ini cukup bermanfaat bagi anda, silahkan anda bagikan artikel ini pada rekan-rekan dan pembaca-pembaca yang lain.

Data Integration dan Business Analytic - Big Data DBA. Pentaho merupakan kumpulan alat bantu / tool yang digunakan untuk menyelesaikan permasalah di sisi data warehouse ataupun lebih keren nya sering dikatakan sebagai BI (Business Intelligence). Salah satu tool nya yang terkenal dan paling banyak digunakan untuk membantu membangun data warehouse adalah Pentaho Data Integration. Dalam perkembangan nya, saat ini pentaho telah diakusisi sepenuhnya oleh kelompok teknologi raksasa Hitachi.



Pentaho 8, Pentaho Data Integration, Pentaho BI
Pentaho 8

Dari konferensi para pengguna pentaho di ajang PentahoWorld 2017, Hitachi Vantara, anak perusahaan Hitachi Ltd., di hari yang sama meluncurkan perangkat lunak integrasi data dan platform analisis Pentaho (Pentaho Data Integration dan Pentaho BA) generasi berikutnya yaitu Pentaho 8.0.  Dengan adanya peningkatan versi ini antara lain,  di pentaho 8.0 memberikan dukungan untuk Spark dan Kafka untuk memperbaiki data dan pengolahan arus, ditambah lagi dengan kemampuan untuk mencocokkan sumber daya komputasi dengan permintaan bisnis secara real time dengan mudah. Rilis baru ini dirancang untuk membantu pelanggan Hitachi mendapatkan nilai yang lebih besar dari data yang mereka miliki untuk mendapatkan keunggulan kompetitif dan mempercepat perjalanan transformasi digital mereka.
Menurut perusahaan riset independen IDC, data dunia akan tumbuh menjadi 163 zettabyte pada tahun 2025 - 10 kali lebih besar dari jumlah data yang dihasilkan pada tahun 2016. Perusahaan ini juga memperkirakan bahwa lebih dari seperempat data tersebut merupakan data real-time, dengan data IoT akan menghasilkan lebih dari 95 persennya.

Dengan rilis Pentaho 8.0, Hitachi Vantara membantu user dan customer untuk lebih mempersiapkan bisnis mereka untuk mengatasi kebanjiran data real-time ini dengan mengoptimalkan dan memodernisasi jaringan analisis data mereka dan meningkatkan produktivitas yang ada di tim mereka. Perangkat tambahan baru ke platform Pentaho 8.0 memungkinkan pengguna untuk:


1.  Meningkatkan Konektivitas ke Sumber Data Streaming: Dengan data yang bergerak lebih cepat, sangat penting untuk memprosesnya saat terjadi dan segera bereaksi jika diperlukan. Kemampuan baru di Pentaho 8.0 meliputi:


  • Pengolahan data stream dengan Spark: Pentaho 8.0 sekarang sepenuhnya memungkinkan pemrosesan dan pemrosesan data streaming menggunakan mesin asli atau Spark. Ini menambah integrasi Spark yang ada dengan lapisan eksekusi adaptif SQL, MLlib dan Pentaho.

  • Terhubung ke Kafka Streams: Kafka adalah sistem messaging populer / berlangganan yang sangat populer yang menangani volume data besar yang umum terjadi pada data besar dan lingkungan IoT saat ini. Pentaho 8.0 sekarang memungkinkan pemrosesan real-time dengan langkah-langkah khusus yang menghubungkan Pentaho Data Integration (PDI) ke Kafka.

2. Keamanan data yang besar dengan Knox: Membangun keamanan tingkat perusahaan yang ada dengan Cloudera dan Hortonworks, Pentaho 8.0 sekarang menambahkan dukungan untuk Knox Gateway yang digunakan untuk mengotentikasi pengguna ke layanan Hadoop.

3. Mengoptimalkan Sumber Daya Pemrosesan: Setiap organisasi telah membatasi sumber pengolahan data yang ingin digunakan secara cerdas, menjamin ketersediaan data yang besar bahkan ketika permintaan sumber daya komputasi tinggi. Untuk mendukung hal ini, Pentaho 8.0 menyediakan:


  • Simpul pekerja / node untuk meningkatkan beban kerja perusahaan: Manajer TI sekarang dapat dengan mudah membuka node tambahan dan menyebarkan beban kerja simultan di semua sumber komputasi yang ada agar sesuai dengan kapasitas dan sesuai dengan permintaan. Pencocokan ini memberikan elastisitas dan portabilitas antara lingkungan cloud dan lingkungan lokal sehingga menghasilkan pemrosesan yang lebih cepat dan efisien bagi pengguna akhir.

  • Penyempurnaan eksekusi adaptif: Pertama kali diperkenalkan di Pentaho 7.1, eksekusi adaptif Pentaho memungkinkan pengguna mencocokkan beban kerja dengan mesin pemrosesan yang paling tepat, tanpa harus menulis ulang logika integrasi data apa pun. Sekarang, Pentaho 8.0 membuat eksekusi adaptif lebih mudah diatur, mudah digunakan dan aman. Fungsinya juga sekarang tersedia di Hortonworks.

  • Dukungan asli untuk Avro dan Parket: Pentaho 8.0 memudahkan untuk membaca dan menulis ke format file data dan format populer ini dengan Spark dengan menggunakan alat pengeditan visual Pentaho.

  • Boost Team Produktivitas: Pentaho 8.0 juga hadir dengan beberapa fitur baru untuk membantu meningkatkan produktivitas di seluruh jaringan data. Ini termasuk filter granular untuk menyiapkan data, meningkatkan kegunaan repositori dan audit aplikasi yang lebih mudah.

"Di jalan menuju transformasi digital, perusahaan harus sepenuhnya memanfaatkan semua data yang tersedia untuk mereka. Ini memerlukan data silo data tradisional dan mengintegrasikan teknologi operasional dan informasi mereka untuk membangun jaringan data analisis modern yang dapat mengakomodasi data data yang lebih besar dan terbuka, "kata Donna Prlich, chief product officer untuk perangkat lunak Pentaho di Hitachi Vantara. "Pentaho 8.0 menyediakan fitur untuk skala perusahaan dan pemrosesan yang lebih cepat untuk mengantisipasi tantangan data masa depan untuk lebih mendukung pelanggan Hitachi dalam perjalanan digital mereka."

Perangkat Pentaho 8.0 dari Hitachi Vantara sudah mulai tersedia pada bulan November 2017

MENINGKATKAN KONEKTIVITAS DI PENTAHO UNTUK MENURUNKAN BESARAN SUMBER DATA


Untuk tetap berada di depan pertumbuhan volume data dan kecepatan data eksponensial, Pentaho 8.0 membawa kecepatan dan kelincahan ke setiap tahap data pipe, mulai dari konsumsi pesan real-time sampai pemrosesan data streaming. Kini, pengguna bisa mendapatkan nilai dari data lebih cepat tanpa mengorbankan integritas data.

Stream Processing with Spark: Dengan kemampuan eksekusi adaptifnya, Pentaho 8.0 sepenuhnya memungkinkan penggunaan data real-time dari Kafka menggunakan Spark Streaming, tanpa kerja ulang. Pengolahan arus data dengan Spark menambah orkestrasi Spark Pentaho yang ada dan integrasi dengan SQL, MLlib.

Menghubungkan Pentaho ke stream Kafka: Pentaho 8.0 memungkinkan pemrosesan, pemantauan dan agregasi secara real-time dengan langkah-langkah khusus yang menghubungkan Pentaho Data Integration (PDI) ke Kafka, yang memungkinkan pengembang untuk dengan mudah mengatasi berbagai kasus penggunaan yang memerlukan pemrosesan secara real-time.

Keamanan Data Besar dengan Knox: Membangun keamanan tingkat perusahaan yang ada untuk Cloudera dan Hortonworks, Pentaho 8.0 sekarang mendukung Apache Knox Gateway yang menyederhanakan manajemen keamanan Hadoop.



MENGOPTIMALKAN PENTAHO SUITE SEBAGAI SUMBER DAYA PENGOLAHAN DATA


Dengan permintaan pemrosesan data yang terus meningkat, manajer TI menghadapi tantangan untuk memaksimalkan sumber daya komputasi yang ada. Pentaho 8.0 menyediakan kemampuan untuk secara langsung menangani kebutuhan ini dengan sumber pemrosesan real-time dan terukur.

Simpul pekerja untuk meningkatkan beban kerja perusahaan: Manajer TI dapat dengan mudah membuka simpul tambahan dan menyebarkan beban kerja simultan ke sumber perhitungan yang ada agar sesuai dengan kapasitas dan sesuai dengan permintaan. Ini memberikan elastisitas dan portabilitas antara cloud dan lingkungan lokal sehingga menghasilkan pemrosesan yang lebih cepat dan efisien bagi pengguna akhir.

Penyempurnaan eksekusi adaptif: Eksekusi adaptif Pentaho memungkinkan pengguna mencocokkan beban kerja dengan mesin pemrosesan yang paling tepat, tanpa harus menulis ulang logika integrasi data apa pun. Pentaho 8.0 membuat eksekusi adaptif lebih mudah diatur dan digunakan dengan keamanan yang ditingkatkan. Fungsinya sekarang tersedia di Hortonworks.

Dukungan asli untuk Avro dan Parket: Rilis ini mempermudah membaca dan menulis ke format file data dan format populer ini dengan Spark dengan menggunakan alat pengeditan visual Pentaho.


Tingkatkan Produktifitas TIM Anda DALAM PIPELINE DATA


Seiring teknologi yang menjadi lebih kuat, produktivitas tim Anda juga harusnya demikian. Namun, teknologi yang terus berubah menyulitkan organisasi untuk berporos dengan kelincahan. Pentaho 8.0 menawarkan seperangkat fitur yang lebih baik bagi pengalaman penggunaan di tim Anda, termasuk proses persiapan data yang lebih halus, akses konten Pentaho lebih cepat, dan tata kelola yang disederhanakan.

Lebih baik, Pengambilan Data Lebih Cepat: Rilis ini menangani persiapan data secara langsung, memungkinkan TI menerapkan filter untuk menemukan data duplikat, data yang hilang, dan outlier. TI dapat dengan mudah mempublikasikan sumber data awal dan skema agar bisnis memvalidasi lebih cepat dan pada akhirnya memberikan data berkualitas tinggi ke bisnis dengan lebih cepat.

Peningkatan Pengalaman Pengguna Repositori: Pentaho 8.0 membawa akses lebih cepat ke konten platform dan memberikan pengalaman pengguna yang konsisten di PDI.

Aplikasi yang Lebih Mudah di Audit: Pentaho 8.0 memudahkan penerapan aplikasi audit sekarang karena laporan Opsmart bekerja dengan database populer, termasuk Oracle, SQL Server, dan MySQL.

Apakah tempat kerja anda tertarik untuk menerapkan product Pentaho Vantara ini ? 


Referensi :
solutionsreview.com
www.pentaho.com

MKRdezign

Contact Form

Name

Email *

Message *

Powered by Blogger.
Javascript DisablePlease Enable Javascript To See All Widget