Penggunaan kecerdasan buatan atau yang biasa kita sebut dengan AI (Artificial Intelligence) kini semakin berkembang dalam segala aspek. Yang terbaru adalah penggunaan AI berbasis teks yang berbahaya yang mulai terlihat, dan dengan cara spekulatif threat actor dapat menggunakan AI berbasis teks seperti ChatGPT untuk melakukan penyerangan dan ini akan menjadi malapetaka bagi solusi keamanan siber.
Ada dua cara umum yang telah digunakan selama bertahun-tahun oleh penjahat siber untuk menghindari deteksi dan penglihatan akan serangan mereka, yaitu : penyamaran (obfuscation) dan keterpercayaan (credibility). Penyamaran atau obfuscation ini berbicara tentang semua hal mulai dari terus-menerus memodifikasi kode malware untuk menghindari deteksi oleh solusi-solusi keamanan siber, hingga menggunakan nama domain yang mirip untuk mengelabui user yang tidak begitu memberi perhatian saat membuka email. Sementara “keterpercayaan atau credibility”, biasanya ditemukan dalam serangan phishing dan social engineering melalui halaman web palsu yang sangat meyakinkan, email persuasif, dan peniruan merek terpercaya.
ChatGPT
Kecuali kamu bersembunyi dari dunia luar sebulan terakhir ini, kamu pasti setidaknya pernah mendengar tentang ChatGPT dan kekuatannya, atau malah kamu sendiri sudah memainkannya. KnowBe4 – penyedia security awareness training dan simulator phishing – telah melihat beberapa cara ChatGPT dapat disalahgunakan untuk kepentingan kejahatan siber :
Selamat tinggal konten berbahaya dengan tata bahasa buruk – Salah satu ciri khas email phishing adalah tata bahasa yang sangat buruk, ejaan yang salah, dan beberapa hal lainnya yang berkaitan dengan tata bahasa. Namun dengan ChatGPT, threat actor bisa minta AI tersebut untuk menulis email sesuai tema email phishing yang akan dilancarkan, maka ChatGPT akan memberikan email yang benar secara tata bahasa dan terdengar sangat meyakinkan. Mengingat bahwa sumber masalah dari email yang ditulis dengan buruk ini karena aktor dibalik serangan ini yang bukan penutur bahasa inggris, maka penggunaan ChatGPT ini dapat langsung membuat mereka terdengar sangat kredibel. Jadi apapun mulai dari email, respon obrolan, hingga interaksi apapun di tengah serangan akan terdengar professional.
Malware penyamar yang berbasis ChatGPT – Peneliti keamanan di CyberArk menekankan bahwa mesin AI dapat dengan mudah digunakan untuk membuat malware yang beragam. Dengan menggunakan beberapa kata khusus untuk melewati batasan bawaan, para peneliti dapat membuat kode malware menggunakan API ChatGPT dan menyandikannya di base64 (sistem penyandian atau encoding dari data biner menjadi teks). Bahkan ada beberapa diskusi yang membahas mengenai konsep membuat malware yang dapat berbicara dengan ChatGPT di tengah serangan untuk membangun teknik penghindaran yang unik. Ini bisa jadi merupakan hal yang menakutkan jika terjadi pada serangan yang sesungguhnya.
Kami tidak mengatakan ChatGPT itu berbahaya dalam segala hal. Faktanya, penciptanya sendiri telah mengambil langkah perihal menempatkan batasan-batasan untuk melarang hal berbahaya ini. Tapi mengingat ChatGPT ini baru saja dirilis, banyak yang telah menemukan jalan keluarnya.
Apa yang terungkap dari kasus penggunaan AI berbasis teks ini adalah bagaimana serangan siber akan berubah mulai sekarang dan kedepannya. Karena pelaku kejahatan siber sekarang sudah memanfaatkan penggunaan AI (dan mungkin tidak lama lagi mereka juga akan membangun software AI mereka sendiri yang tidak memiliki batasan tertentu untuk melawan hal-hal yang berbahaya), kita sudah harus melangkah lebih maju daripada penjahat siber, dengan menggunakan perangkat keamanan yang merespon dengan cara yang sama menggunakan AI untuk mendeteksi konten dan kode yang mencurigakan di masa depan.
Source :
Comments