Ancaman Baru! 10.000 Varian Malware Diciptakan Hacker Berbasis AI

Ancaman Baru! 10.000 Varian Malware Diciptakan Hacker Berbasis AI
Sumber :
  • cloud computing indonesia

Gadget – Kecerdasan buatan (AI) kini menghadirkan tantangan baru bagi keamanan dunia maya. Baru-baru ini, para peneliti mengungkapkan bahwa kelompok hacker telah menggunakan teknologi AI untuk menciptakan lebih dari 10.000 varian malware berbasis JavaScript yang sulit dilacak. Teknologi ini memungkinkan mereka memodifikasi kode berbahaya dengan cara yang terlihat lebih alami dan kompleks, sehingga membuat pendeteksian menjadi lebih menantang.

Menurut laporan terbaru dari Unit 42 Palo Alto Networks yang dirilis Selasa (24/12/2024), teknologi seperti Large Language Models (LLM) telah dimanfaatkan secara kreatif oleh para peretas untuk menghasilkan malware dalam jumlah besar. Laporan ini juga menunjukkan bahwa penjahat siber kini menggunakan LLM untuk mengaburkan kode asli tanpa mengubah fungsinya, membuat sistem deteksi otomatis rentan tertipu.

Transformasi Malware yang Lebih "Manusiawi"

Peneliti keamanan menjelaskan bahwa LLM memungkinkan hacker menulis ulang kode malware sehingga terlihat lebih "manusiawi". Model ini bahkan mampu menghasilkan ribuan varian baru dalam waktu singkat. “Hasil akhirnya adalah skrip JavaScript berbahaya yang tetap mempertahankan perilaku aslinya, namun memiliki skor deteksi yang jauh lebih rendah,” ungkap salah satu peneliti Palo Alto Networks.

Dengan cara ini, para peretas dapat mengecoh sistem pembelajaran mesin (ML) yang dirancang untuk mendeteksi potensi ancaman. Selain itu, mereka juga mengandalkan alat seperti WormGPT untuk menciptakan email phishing yang sangat meyakinkan tanpa membutuhkan banyak upaya manual.

Langkah Pencegahan Belum Optimal

Meski penyedia LLM seperti OpenAI telah mengimplementasikan pembatasan penggunaan teknologinya untuk aktivitas ilegal, upaya tersebut belum sepenuhnya mampu membendung aksi para hacker. Bahkan, laporan terbaru OpenAI menunjukkan bahwa lebih dari 20 jaringan penipuan telah mencoba memanfaatkan platform mereka untuk aktivitas seperti eksploitasi kerentanan dan pengintaian.

Namun demikian, teknologi ini juga memiliki potensi untuk memperkuat keamanan dunia maya. Dengan memanfaatkan teknik yang sama, model pembelajaran mesin dapat dilatih menggunakan data baru untuk mendeteksi ancaman yang lebih canggih di masa depan.

Serangan Pencurian Model AI: Ancaman Baru

Selain malware berbasis AI, ancaman lain yang tak kalah mengkhawatirkan adalah pencurian model AI. Sejumlah akademisi dari Universitas Negeri Carolina Utara baru-baru ini mengembangkan serangan yang disebut TPUXtract. Serangan ini mampu mencuri informasi model AI dari Unit Pemrosesan Tensor (TPU) Google Edge dengan tingkat akurasi yang sangat tinggi.

Teknik ini bekerja dengan memanfaatkan sinyal elektromagnetik yang dipancarkan oleh TPU saat menjalankan model. Peneliti menyebut, melalui serangan ini, penyerang dapat memperoleh informasi seperti konfigurasi lapisan model, ukuran kernel, hingga fungsi aktivasi, bahkan tanpa akses langsung ke perangkat kerasnya.

Ancaman Keamanan Siber Semakin Kompleks

Seiring berkembangnya teknologi AI generatif, para ahli memperingatkan bahwa tantangan keamanan siber akan semakin kompleks. Dari malware yang kian canggih hingga pencurian data berbasis AI, diperlukan langkah-langkah strategis untuk mengatasi ancaman tersebut.

“Jika teknologi AI dimanfaatkan secara bijak, ia dapat menjadi alat yang sangat kuat untuk meningkatkan keamanan. Namun, jika disalahgunakan, risikonya akan sangat besar,” ujar peneliti Unit 42.

Untuk saat ini, diperlukan kolaborasi lebih intensif antara pengembang teknologi, peneliti keamanan, dan pemerintah untuk memastikan bahwa AI tidak menjadi senjata bagi para penjahat siber.

 

Dapatkan informasi terbaru seputar Gadget, Anime, Game, Tech dan Berita lainnya setiap hari melalui social media Gadget VIVA. Ikuti kami di :
Instagram @gadgetvivacoid
Facebook Gadget VIVA.co.id
X (Twitter) @gadgetvivacoid
Whatsapp Channel Gadget VIVA
Google News Gadget