Surabaya – Di era revolusi industri 4.0, data bisa dibilang mata uang yang paling berharga. Forbes mencatat bahwa saat ini ada 2,5 quintillion bit data bertambah setiap hari. Jika dikonversikan, nilai ini mencapai 2.500.000 triliun bit data.
Jumlah itu dibuat oleh kegiatan kita di internet, mulai dari bermain game, menonton netflix, belanja online, internet banking, dan menggunakan media sosial. Data dengan volume yang besar ini umumnya disebut big data.
Hal ini dibahas dalam kuliah tamu yang diberikan oleh Assoc. Prof. Dr. Tutut Herawan pada Senin (23/9/2019) pukul 9:00. Kuliah yang dilaksanakan di Ruang 503 Gedung Pertamina Fakultas Sains dan Teknologi Universitas Airlangga (FST UNAIR) ini diikuti oleh mahasiswa semester 5 Sistem Informasi FST UNAIR.
Dr. Tutut menjelaskan bahwa analisis big data umumnya digunakan untuk strategi bisnis. Misalnya, menemukan tren pembelian konsumen untuk mencapai target pemasaran lebih baik, membantu pengambilan keputusan, dan mendeteksi penipuan. Big data juga dapat digunakan dalam bidang kedokteran, yaitu untuk menemukan tren dan pola yang sebelumnya tidak terlihat sehingga mencegah kesalahan atau keterlambatan diagnosis.
Analisis big data dapat dilakukan dengan teknologi kecerdasan buatan, data mining, statistika, dan machine learning. Namun, tentu saja ada tantangan dalam menganalisis big data. Tantangan ini muncul karena sifat big data yang berdimensi tinggi dan memiliki sampel berukuran besar yang diambil dari banyak sumber dalam waktu berbeda.
Dimensi yang tinggi menyebabkan akumulasi noise, korelasi palsu, dan homogenitas insidental. Sementara ukuran sampel yang besar dengan dimensi tinggi mengakibatkan biaya komputasi yang tinggi dan ketidakstabilan algoritma.
Ada empat tantangan dalam menganalisis big data, jelas Dr. Tutut, yaitu volume data, variasi data, kecepatan data, dan kebenaran data.
Pertama, sesuai dengan namanya, ukuran big data sangatlah besar. Sementara itu, teknologi yang ada tidak didesain untuk mengolah big data yang berlokalitas rendah atau tanpa lokalitas, dinamis, berukuran besar, dan tidak dapat dimuat memori. Karenanya, dalam mengolah big data kita harus kembali ke metode statistika.
Kedua, data memiliki banyak variasi dan dimensi. Dengan kata lain, data beragam, heterogen, bisa berstruktur maupun tidak berstruktur. Lalu, kecepatan juga menjadi tantangan. Data sampai terus menerus dalam bentuk aliran data. Maka dari itu, sulit untuk mendapatkan informasi berguna secara real time dan menentukan mana data yang harus disimpan, mana yang harus dibuang.
Tantangan terakhir adalah kebenaran data. Banyak data berubah setiap saat, sehingga kebenaran data menjadi tidak pasti.
Pada kuliah ini, Dr. Tutut turut membahas mengenai privasi data. Ia membahas sedikit tentang kasus Cambridge Analytica yang menambang data dari Facebook dan menggunakannya untuk kampanye politik. Ia mengingatkan mahasiswa untuk menutup akun sosmed jika sudah tidak aktif.
“Perusahaan bisa ambil data dari semua akun sosmed walaupun sudah tidak aktif,” ungkap Dr. Tutut. “Data yang ada di kita itu tidak ada yang secure. Anda hapus akun, data user Anda yang hilang, tapi perusahaan masih pegang data anda.”
Penulis: Dida S. N. Hilman