Selama hampir satu abad, kecerdasan buatan (AI) telah digambarkan di media kita. Dimulai dengan film Fritz Lang tahun 1927, Metropolis, dan melalui blockbuster besar seperti seri The Terminator, 2001: A Space Odyssey, dan Her, film-film ini semuanya menyertakan atau berfokus pada dampak potensial AI. Dari asisten mekanik yang dapat membantu menyelesaikan tugas apa pun yang tidak ingin kita lakukan sendiri, hingga skenario kiamat di mana manusia telah menciptakan robot AI yang mengancam untuk mengakhiri dunia kita seperti yang kita ketahui, film-film ini dan banyak lainnya menunjukkan harapan dan ketakutan terbesar kita untuk AI.
Selain film fiksi, adopsi dan penggunaan AI secara luas telah meningkat hari ini. Bisnis dan konsumen sama-sama memanfaatkan AI setiap hari, dan semua prediksi mengharapkan AI menyebabkan gangguan dan transformasi besar-besaran pada cara kita bekerja dan hidup selama bertahun-tahun yang akan datang.
Gartner memprediksi pasar untuk perangkat lunak AI akan mencapai hampir $ 134 miliar pada tahun 2025. Untuk keamanan siber, perluasan penggunaan AI telah menjadi prospek yang menarik, yang dipenuhi dengan banyak potensi, ditempa oleh kekhawatiran tentang bagaimana hal itu dapat membahayakan data. Saat ini, CISO memiliki banyak harapan dan ketakutan tentang apa yang akan terjadi selanjutnya.
Banyak aspek pekerjaan sehari-hari melibatkan proses yang membosankan, manual, dan memakan waktu. Untuk CISO dan profesional keamanan, tugas-tugas ini sering difokuskan untuk mencapai dan membuktikan kepatuhan: mencari tahu bagaimana menanggapi kuesioner keamanan, mendokumentasikan bukti, dan memberi tahu rekan kerja untuk mengambil tindakan. Hampir selalu ada terlalu banyak yang harus dilakukan dalam waktu yang tidak cukup: terlalu banyak kerentanan untuk diprioritaskan dan diperbaiki, terlalu banyak pustaka sumber terbuka yang perlu diperbarui, terlalu banyak data untuk disortir, dan sebagainya.
Kita sekarang dapat berharap bahwa AI akan mengurangi beberapa tugas yang memakan waktu dan membosankan, atau lebih baik lagi, mengotomatiskannya sepenuhnya, memberi para profesional keamanan siber lebih banyak waktu di hari-hari mereka untuk fokus pada apa yang akan membuat dampak paling besar. Dengan memanfaatkan jaringan saraf dan grafik pengetahuan yang dibangun di atas tumpukan perangkat lunak dan persyaratan bisnis masing-masing perusahaan, AI menawarkan kemungkinan membangun program keamanan khusus yang semakin kuat dari waktu ke waktu, tanpa memerlukan intervensi manusia yang melelahkan yang umum saat ini.
Harapan: AI akan memprediksi risiko, pelanggaran, dan kegagalan sebelum terjadi.
AI unggul dalam pengenalan pola. Jika kita dapat menerapkan ini untuk memantau dan meningkatkan kekhawatiran dalam program keamanan siber, CISO berharap dapat membawa elemen prediktif ke Tata Kelola, Risiko, dan Kepatuhan (GRC). Kami kemudian dapat mengantisipasi kegagalan sistem sebelum terjadi, menyarankan kebijakan dan kontrol yang mungkin diperlukan tim untuk kerangka kerja kepatuhan di masa mendatang, atau mengidentifikasi risiko yang belum diperhatikan oleh tim. Sebagian besar produk yang tersedia saat ini memberikan peringatan ketika masalah telah terjadi; maju dari masalah potensial akan menguntungkan para profesional GRC yang secara kronis terdesak waktu.
Harapan: AI akan mengkomunikasikan dampak bisnis GRC dengan lebih baik.
CISO selalu mencari cara yang lebih baik untuk mengkomunikasikan dampak program GRC terhadap kesehatan bisnis secara keseluruhan. Metrik yang digunakan oleh profesional keamanan siber: waktu yang dihabiskan dengan auditor, waktu yang dihabiskan untuk kuesioner keamanan, SLA yang dipenuhi untuk tinjauan keamanan, jumlah risiko yang diperbaiki, jumlah karyawan yang memenuhi persyaratan keamanan perangkat – tidak selalu diterjemahkan dengan C-Suite dan papan. Dengan program AI, CISO berharap dapat menciptakan analisis kuantitatif dan kualitatif yang menarik yang dapat menunjukkan kepada kepemimpinan bagaimana mereka melindungi pendapatan, mengurangi kewajiban, dan mendapatkan bisnis baru dengan dukungan kepercayaan dan transparansi yang datang dengan program GRC yang sukses dan matang.
Ketakutan: Kebocoran data hak milik.
Sebagian besar alat bertenaga AI yang tersedia saat ini bergantung pada beberapa kombinasi data dan model pelatihan eksklusif, sumber terbuka, dan pihak ketiga. Para pemimpin, termasuk CISO, yang telah ditugaskan untuk melindungi data pihak pertama dan pelanggan khawatir bahwa informasi ini dapat berakhir di domain publik dan digunakan oleh model AI untuk menghasilkan hasil. Jika itu terjadi, data kepemilikan kemudian dapat digunakan sebagai bagian dari hasil yang dihasilkan model AI ini untuk pengguna lain.
Ketakutan: AI akan menghasilkan terlalu banyak informasi umum dengan mengorbankan informasi akurat khusus untuk bisnis saya.
Pemimpin keamanan siber mengandalkan informasi untuk mewakili bisnis mereka secara akurat untuk menunjukkan kredibilitas dan mendapatkan kepercayaan. Karena semakin banyak perusahaan merangkul AI di berbagai fungsi, skeptisisme tentang keakuratan dan keaslian hasil yang dihasilkan AI dipertanyakan. AI tidak dapat menyalip dan bertanggung jawab penuh untuk mengelola keamanan siber dan menerapkan alur kerja GRC. CISO dan pemimpin keamanan siber harus memvalidasi kontrol dan manajemen keamanan siber. Ini adalah orang-orang yang memiliki keahlian untuk menilai hasil dari model AI.
Kami masih belum tahu bagaimana AI akan berdampak pada keamanan siber. Hari ini, kami berharap ini akan membuat pekerjaan semua orang lebih mudah dan mendukung tujuan melindungi organisasi dari ancaman dunia maya. Dengan tetap positif dan berfokus pada harapan dan bukan ketakutan, AI dapat mengotomatiskan tugas-tugas yang membosankan, mengenali pola, dan mengidentifikasi kesalahan dan masalah, membantu organisasi meningkatkan kebersihan dunia maya secara dramatis di tahun-tahun mendatang.