Apa kita kudu kuwatir babagan nggunakake model basa AI sing ala?

Luwih akeh bukti sing muncul babagan model basa sing gedhe, kayata Generative Pre-trained Transformer 3 (GPT-3) sing digunakake dening wong-wong kaya chatbot ChatGPT canggih OpenAI, katon banget rentan kanggo penyalahgunaan liwat rekayasa cepet kreatif dening aktor jahat.

Kajaba iku, amarga kapabilitas model kasebut dadi mainstream, pendekatan anyar bakal dibutuhake kanggo nglawan kejahatan cyber lan penipuan digital, lan konsumen saben dina kudu dadi luwih mamang babagan apa sing diwaca lan dipercaya.

Iki minangka sawetara temuan proyek riset sing ditindakake dening Finland WithSecure kanthi dhukungan saka proyek CC-Driver, proyek program Horizon 2020 Uni Eropa sing fokus ing disiplin kayata antropologi, kriminologi, neurobiologi lan psikologi kanthi upaya kolektif. kanggo nglawan kejahatan cyber.

Tim riset WithSecure ujar manawa akses universal menyang model sing ngirim teks swara manungsa sajrone sawetara detik minangka “titik balik” ing sejarah manungsa.

“Kanthi rilis akeh alat sing ramah pangguna sing nggunakake model basa autoregresif kayata GPT-3 lan GPT-3.5, sapa wae sing duwe sambungan internet saiki bisa ngasilake ucapan kaya manungsa sajrone sawetara detik,” tulis tim peneliti.

“Generasi teks basa alam serbaguna saka jumlah input sing cilik mesthi bakal narik minat para penjahat, utamane penjahat cyber – yen durung. Mangkono uga, sapa wae sing nggunakake web kanggo nyebarake penipuan, kabar palsu utawa informasi sing salah ing umum bisa uga duwe minat karo alat sing nggawe teks sing bisa dipercaya, bisa uga narik kawigaten, kanthi kecepatan superhuman.

Andrew Patel lan Jason Sattler saka WithSecure nganakake seri eksperimen nggunakake teknik cepet, teknik sing digunakake kanggo nemokake input sing bisa ngasilake asil sing dikarepake utawa migunani, kanggo ngasilake konten sing dianggep mbebayani.

Sajrone eksperimen, dheweke njelajah kepiye carane ngganti input manungsa awal dadi model GPT-3 mengaruhi output teks intelijen buatan (AI) kanggo ngenali carane kreatif – utawa ala – bisa nggawe asil sing ora dikarepake.

Dheweke bisa nggunakake model sing dipilih kanggo nggawe email phishing lan pesen SMS; pesen media sosial dirancang kanggo troll utawa ngganggu, utawa nimbulaké karusakan kanggo merek; pesen media sosial sing dirancang kanggo ngiklanake, adol utawa legitimasi penipuan; lan ngyakinake artikel warta palsu.

Dheweke uga bisa mbujuk model supaya nggunakake gaya nulis tartamtu, kanggo nulis babagan subyek sing dipilih kanthi cara sing bisa dipercaya, lan nggawe pituduh dhewe adhedhasar isi.

“Kasunyatan manawa sapa wae sing duwe sambungan internet saiki bisa ngakses model basa gedhe sing kuat duwe akibat sing praktis: saiki cukup kanggo nganggep manawa komunikasi anyar sing ditampa bisa uga ditulis kanthi bantuan robot,” ujare Patel, sing mimpin riset.

“Ing ngarep, panggunaan AI kanggo ngasilake konten sing mbebayani lan migunani bakal mbutuhake strategi deteksi sing bisa ngerteni makna lan tujuan konten sing ditulis.”

Patel lan Sattler narik papat kesimpulan utama saka karyane, nyatakake yen teknik cepet lan nggawe cepet sing ala bakal berkembang minangka disiplin; sing aktor angkoro bakal eksploitasi model basa gedhe kanthi cara sing ora bisa ditebak; sing nemokake konten ala utawa kasar bakal dadi luwih angel; lan model kasebut bisa gampang digunakake dening penjahat cyber kanggo nggawe komponen teknik sosial saka serangane luwih efektif.

Patel ngandika ngarep-arep proyek riset bakal bantuan kanggo spur pangembangan model basa gedhe luwih aman sing kurang rentan kanggo dimanipulasi ing cara iki. Tulisan riset lengkap tim bisa didownload ing kene.

WithSecure minangka perusahaan siber paling anyar sing nyatakake keprihatinan babagan teknologi GPT-3, sing wis misuwur ing wacana mainstream amarga diluncurake ChatGPT dening OpenAI ing November 2022.

Sanajan ditampa kanthi positif dening akeh, ChatGPT wis narik kritik amarga dianggep apik banget ing pakaryan ing sawetara kahanan. Sawetara wis ngelingake manawa bisa digunakake kanggo nggawe wartawan manungsa ora bisa digunakake, dene potensial penyalahgunaan ing akademisi lan proyek riset ilmiah minangka subyek proyek riset liyane sing ditindakake ing AS. Panaliten iki nduwe program ngasilake abstrak riset palsu adhedhasar riset medis sing diterbitake, sing ngapusi para ilmuwan supaya mikir yen maca laporan nyata babagan 33% wektu.

“Kita miwiti riset iki sadurunge ChatGPT nggawe teknologi GPT-3 kasedhiya kanggo kabeh wong,” ujare Patel. “Pembangunan iki nambah urgensi lan upaya. Amarga, nganti sawetara derajat, kita kabeh saiki dadi Blade Runner, nyoba ngerteni apa intelijen sing kita tindakake iku nyata utawa gawean.

ChatGPT mbahas ‘keuntungan saka malware’

Sauntara kuwi, peneliti ing Check Point njupuk menyang web peteng kanggo njelajah kepiye reaksi kriminal cyber menyang rilis ChatGPT, lan nemokake bukti liyane kanggo ndhukung kesimpulan WithSecure.

Tim riset nemokake thread kanthi irah-irahan “ChatGPT – keuntungan saka malware” ing salah sawijining forum bawah tanah sing populer, ing ngendi poster asli ngumumake yen dheweke wis nyoba piranti lunak kanggo nggawé ulang galur lan teknik malware sing wis diterangake ing publikasi riset, blog industri lan pawarta.

Ing utas kapindho, dheweke nemokake pangguna sing ngirim skrip Python sing “pisanan” sing ala. Nalika pangguna forum liyane nyathet yen gaya kode meh padha karo kode OpenAI, poster asli ngandhakake yen ChatGPT wis menehi “tangan nulung sing apik” kanggo nulis.

Ing conto katelu sing katon dening tim riset Check Point, pangguna forum nuduhake carane nggawe skrip pasar web peteng sing yakin nggunakake ChatGPT.

“Penjahat siber nemokake ChatGPT sing menarik. Ing sawetara minggu kepungkur, kita ndeleng bukti peretas wiwit nggunakake nulis kode ala. ChatGPT duweni potensi kanggo nyepetake proses kanggo peretas kanthi menehi titik wiwitan sing apik. Kaya ChatGPT bisa digunakake kanggo mbantu para pangembang nulis kode, uga bisa digunakake kanggo tujuan angkoro, “ujare manajer grup intelijen ancaman Check Point, Sergey Shykevich.

“Sanajan alat sing dianalisis ing laporan iki cukup dhasar, mung sawetara wektu nganti aktor ancaman sing luwih canggih nambah cara nggunakake alat berbasis AI. CPR bakal terus nyelidiki kejahatan cyber sing gegandhengan karo ChatGPT ing minggu ngarep.

Brad Hong, manajer sukses pelanggan ing Horizon3ai, ujar: “Saka sudut pandang panyerang, sistem AI sing ngasilake kode sing ngidini wong ala bisa ditindakake kanthi gampang yaiku nyepetake kesenjangan katrampilan kanthi dadi penerjemah ing antarane basa sing bisa ditindakake dening programmer. kurang pengalaman ing; lan kapindho, [provide] sarana on-demand kanggo nggawe cithakan dhasar kode sing cocog karo kunci sing kita coba pilih tinimbang mbuwang wektu kanggo ngikis tumpukan tumpukan lan Git kanggo conto sing padha.

“Penyerang ngerti manawa iki dudu kunci utama, nanging alat sing paling kompeten ing arsenal kanggo mlumpat rintangan biasane mung bisa ditindakake liwat pengalaman.

“Nanging, OpenAI ing kabeh kamulyan dudu masterclass ing algoritma lan nulis kode lan ora bakal ngganti kode nol dina sacara universal. Keamanan siber ing mangsa ngarep bakal dadi perang antarane algoritma ora mung nggawe kode, nanging uga ngolah. Mung amarga guru ngijini sampeyan nggunakake sheet cheat kanggo test, iku ora ateges sampeyan bakal ngerti carane kanggo aplikasi informasi nganti wis digested ing konteks.

“Mangkono, AI sing ngasilake kode luwih mbebayani amarga kemampuan kanggo nyepetake loop sing kudu ditindakake penyerang kanggo nggunakake kerentanan sing wis ana,” ujare.

Kepiye GPT-3 bisa mbantu tim keamanan uga

Nanging iki ora ateges model GPT-3 kayata ChatGPT ora bisa digunakake kanggo komunitas keamanan cyber sing sah lan uga sing jahat, lan peneliti Trustwave Damian Archer wis njelajah kasus panggunaan potensial ing konteks keamanan.

“ChatGPT duwe macem-macem kasus panggunaan lan mupangat akeh – terusake lan deleng maneh potongan kode sing gampang. Ora mung bakal menehi pitutur marang kowe yen kode kasebut aman, nanging uga bakal menehi saran alternatif sing luwih aman, “ujare Archer, sanajan dheweke nuduhake fungsi sing padha uga bisa digunakake dening aktor jahat kanggo nggawe malwares luwih efektif, utawa luwih apik obfuscate wong.

Steve Povolny, engineer principal lan direktur ing Trellix, ngandika pracaya ana liyane potensial kanggo nggunakake pribadi kayata ChatGPT kanggo apik.

“Bisa dadi efektif kanggo nemokake kesalahan coding kritis, njlèntrèhaké konsep teknis rumit ing basa sing prasaja, lan malah ngembangake skrip lan kode sing tahan banting, ing antarane conto liyane. Peneliti, praktisi, akademisi lan bisnis ing industri keamanan cyber bisa nggunakake kekuwatan ChatGPT kanggo inovasi lan kolaborasi, “ujare Povolny.

“Bakal menarik kanggo ngetutake medan perang sing berkembang iki kanggo konten sing digawe komputer amarga nambah kemampuan kanggo maksud sing ora becik lan ala.”

Kepala pejabat teknologi Secureworks Mike Aiello uga ngati-ati babagan perkembangan, sebagian amarga timne wis nggunakake model sing padha ing inti karyane, kanggo nganalisa lan ngerteni 500 milyar acara saben dina sing kedadeyan ing antarane para pelanggan. jaringan. Nanging akhir-akhir iki, Secureworks luwih maju, nyobi model basa gedhe kanggo mbantu para analis nulis investigasi.

“Sesuatu sing bakal njupuk 10 menit, bisa uga kita bisa mudhun nganti menit utawa mudhun nganti detik amarga model basa gedhe sing dilatih ing data kita bakal mbantu investigasi penulis lan ringkesan kedadeyan,” ujare Mingguan Komputer.

“Kita uga wis nggunakake iki kanggo ndeleng web peteng lan kita wis njupuk kaya chatter ing basa Rusia … cara sing luwih efektif lan efisien.”

Aiello ujar manawa dheweke uga ngarepake manawa luwih akeh peneliti keamanan lan peretas etika ngubengi model GPT-3, sawetara sing luwih inovatif, utawa paling ora nyenengake, kasus panggunaan bakal muncul kanthi cepet.

“Aku mbayangno yen kita bakal weruh wong … nggawe model basa gedhe sing nindakake perkara sing ora dikarepke. Iki sing ditindakake para peretas – dheweke ndeleng sistem, dheweke ngerti apa sing ora kudu ditindakake, banjur dheweke main lan nuduhake manawa bisa nindakake perkara sing apik, yaiku wektu sing nyenengake ing teknologi. Aku mbayangno kita bakal weruh akeh sing ing taun ngarep, “ujare.

Computer Weekly ngubungi ChatGPT kanggo takon sawetara pitakonan babagan panggunaan potensial ing keamanan cyber, nanging layanan kasebut ing kapasitas nalika arep pencet.

Ing wangun geguritan akrostik nggambarake status sawijining, ngandika: “Wektu perlu kanggo server kanggo nyekel. Ayo jupuk kopi lan priksa maneh.”

Leave a Comment

Your email address will not be published. Required fields are marked *