WormGPT adalah alat Artificial Intelligence (AI) buatan para peneliti keamanan siber yang mampu menghasilkan kode berbahaya untuk melakukan serangan malware secara otomatis. Alat ini dibangun berdasarkan model bahasa GTP-3 buatan OpenAI yang memiliki kemampuan memahami konsep-konsep dasar serangan siber seperti penyebaran, persistensi, enkripsi, dan sebagainya.
WormGPT bekerja dengan memberikan “prompt” sederhana kepada sistem tersebut. Contohnya adalah “Buatlah worm baru untuk menyebarkan diri sendiri ke semua komputer dalam jaringan”. AI akan langsung menghasilkan kode sumber worm dalam bahasa pemrograman seperti Python atau C. Walaupun masih membutuhkan perbaikan, kemampuan ini mampu mempercepat proses pengembangan malware hingga ratusan kali lipat.
Hal ini menimbulkan kekhawatiran akan potensi penyalahgunaan WormGPT oleh para hacker dan kriminal siber. WormGPT dianggap dapat mempercepat proses pengembangan malware dan memperluas kapasitas para pelaku kejahatan siber. Pembuatnya mengaku telah melaporkan temuan ini kepada OpenAI, namun belum ada tanggapan resmi.
Mereka menekankan pentingnya menggunakan WormGPT hanya untuk tujuan riset akademik yang sah dan etis. Bagi peneliti, alat ini dapat bermanfaat untuk mempelajari mekanisme serangan malware, namun juga berpotensi disalahgunakan. Sejumlah langkah perlu diambil untuk mencegah penyalahgunaan WormGPT, seperti membatasi akses terhadap model AI yang mendasarinya.
Pelajaran yang dapat diambil dari kasus WormGPT adalah betapa mudahnya AI dapat menjadi ancaman siber jika digunakan dengan tidak bertanggung jawab. Serangan malware secara otomatis bukanlah hal baru, namun WormGPT mempermudah dan mempercepat prosesnya. Keterbatasan model AI memerlukan verifikasi manusia, namun hal itu justru dapat menjadi celah yang dieksploitasi oleh kriminal.
WormGPT mampu menulis email phishing yang hampir bebas dari kesalahan ejaan atau tata bahasa, menurut peneliti. Hal ini mengindikasikan potensi serangan email phishing yang lebih canggih yang dapat dilakukan dengan bantuan alat AI ini.
“Singkatnya, WormGPT mirip dengan ChatGPT tetapi tidak memiliki batasan atau batasan etik,” kata salah satu peneliti.
“Eksperimen ini menggarisbawahi ancaman signifikan yang dapat ditimbulkan oleh teknologi generative AI seperti WormGPT, bahkan di tangan hacker pemula,” imbuhnya.
Meskipun demo dari WormGPT tidak gratis dan membutuhkan biaya hingga 550 Euro per tahun, ada kekhawatiran bahwa potensi penyalahgunaan oleh hacker tetap ada.
Salah satu pengguna mengkritik kinerja WormGPT yang “tidak bernilai”, menurutnya. Namun demikian, kemampuan AI ini untuk menulis email phishing berbahasa sempurna tetap menjadi kekhawatiran.
Diperlukan langkah-langkah lebih lanjut untuk mencegah penyalahgunaan WormGPT dan teknologi generative AI sejenisnya yang dapat menjadi ancaman bagi keamanan siber.
Oleh karena itu, etika penggunaan teknologi AI harus menjadi perhatian serius bagi para pengembang. Langkah-langkah seperti membatasi akses publik terhadap model AI rahasia dan melibatkan panel etik dalam penelitian memang diperlukan. AI hanya dapat membantu manusia jika manusia dapat mengendalikannya dengan bijak. Jika tidak, AI bisa menjadi bencana besar. Kasus WormGPT memberi peringatan yang kuat akan hal itu.
Demikian ulasan singkat saya mengenai bahaya alat AI pembuat malware secara otomatis bernama WormGPT. Mohon maaf jika masih ada kekurangan. Saya senang menerima masukan dari Anda untuk memperbaiki tulisan saya.