Jakarta, ditphat.net – Pesatnya perkembangan sistem kecerdasan buatan (AI) di ranah publik telah menyebabkan penggunaannya secara luas baik oleh individu maupun dunia usaha.
Sistem ini sangat mudah beradaptasi dengan berbagai tugas, termasuk pembuatan konten dan pengkodean menggunakan perintah bahasa alami.
Namun, aksesibilitas ini telah membuka peluang bagi pelaku ancaman siber untuk menggunakan AI untuk serangan yang canggih.
Pelaku ancaman dunia maya dapat memanfaatkan AI untuk mengotomatiskan serangan, mempercepat rutinitas, dan menjalankan operasi yang lebih kompleks untuk mencapai tujuan mereka.
AI sebagai alat yang ampuh
Kaspersky mengamati beberapa cara penjahat dunia maya menggunakan AI:
1. ChatGPT dapat digunakan untuk menulis malware dan mengotomatiskan serangan terhadap banyak pengguna. 2. Program kecerdasan buatan dapat merekam masukan ponsel cerdas pengguna dengan menganalisis data sensor akselerasi, yang dapat menangkap pesan, kata sandi, dan kode bank. 3. Swarm Intelligence dapat mengoperasikan botnet otonom yang berkomunikasi satu sama lain untuk memulihkan jaringan berbahaya setelah kerusakan.
Kaspersky juga baru-baru ini melakukan studi komprehensif lainnya tentang penggunaan AI untuk memecahkan kata sandi.
Sebagian besar kata sandi disimpan dalam bentuk terenkripsi menggunakan fungsi hash kriptografi seperti MD5 dan SHA.
Meskipun mudah untuk mengubah kata sandi teks menjadi baris terenkripsi, membalikkan prosesnya cukup menantang.
Sayangnya, kebocoran basis data kata sandi terjadi secara berkala, sehingga berdampak pada usaha kecil dan pemimpin teknologi.
Pada bulan Juli 2024, kumpulan kata sandi yang bocor terbesar hingga saat ini muncul secara online, berisi sekitar 10 miliar baris yang berisi 8,2 miliar kata sandi unik.
“Kami menganalisis pelanggaran data besar-besaran ini dan menemukan bahwa 32 persen kata sandi pengguna tidak cukup aman dan dapat dipulihkan dari format hash terenkripsi menggunakan algoritma brute force sederhana dan GPU 4090 modern dalam waktu kurang dari 60 menit,” kata Alexei Antonov. Kepala Ilmuwan Data di Kaspersky.
Dia mengaku melatih model bahasa pada database kata sandi dan mencoba memeriksa kata sandi terhadap metode AI yang diperoleh.
Oleh karena itu, Kaspersky menemukan bahwa 78 persen kata sandi dapat dibobol dengan cara ini, yaitu sekitar tiga kali lebih cepat dibandingkan menggunakan algoritma brute force.
“Hanya 7 persen password yang cukup kuat untuk menahan serangan jangka panjang,” jelasnya.
Rekayasa sosial dengan AI
AI juga dapat digunakan untuk rekayasa sosial guna menghasilkan konten yang masuk akal, termasuk teks, gambar, audio, dan video.
Pelaku ancaman dunia maya dapat menggunakan model bahasa besar seperti ChatGPT-4o untuk menghasilkan teks yang menipu seperti pesan phishing yang canggih.
Phishing yang didukung AI dapat mengatasi hambatan bahasa dan membuat email yang dipersonalisasi berdasarkan informasi media sosial pengguna.
Bahkan dapat meniru gaya penulisan orang tertentu sehingga membuat serangan phishing lebih sulit dideteksi.
Deepfake menghadirkan tantangan keamanan siber lainnya. Apa yang tadinya hanya penelitian ilmiah kini menjadi masalah yang meluas. Penjahat dunia maya telah menipu banyak orang dengan penipuan peniruan identitas selebriti, sehingga mengakibatkan kerugian finansial yang besar.
Deepfakes juga digunakan untuk mencuri akun pengguna dan mengirim audio permintaan uang menggunakan suara pemilik akun ke teman dan keluarga.
Penipuan percintaan yang canggih melibatkan penjahat dunia maya yang menciptakan kepribadian palsu dan menghubungi korban di situs kencan.
Salah satu serangan paling canggih terjadi pada bulan Februari di Hong Kong, di mana penipu melakukan simulasi konferensi video menggunakan deepfake untuk menyamar sebagai seorang eksekutif perusahaan, dan meyakinkan seorang pekerja keuangan untuk pindah ke Amerika Serikat. itu 25 juta dolar.
Kerentanan AI
Selain menggunakan AI untuk tujuan jahat, penyerang juga dapat menyerang algoritma AI itu sendiri.
Serangan siber ini meliputi:
1. Serangan injeksi cepat pada model bahasa besar, di mana penyerang membuat permintaan yang melewati batasan perintah sebelumnya. 2. Serangan musuh terhadap algoritma pembelajaran mesin, dimana informasi tersembunyi dalam gambar atau audio dapat membingungkan AI dan menyebabkan keputusan yang salah.