JRMEDIA.ID — Kecanggihan teknologi kecerdasan buatan (AI) seperti yang dikembangkan OpenAI telah membawa lompatan besar dalam dunia riset ilmiah, terutama di bidang pengembangan obat dan analisis biologis. Namun, di balik potensi positifnya, terselip risiko penyalahgunaan yang mengkhawatirkan, terutama dalam konteks biosekuriti.
Sebuah laporan dari The Guardian belum lama ini mengungkapkan bahwa para peneliti di RAND Corporation telah menguji sistem AI seperti ChatGPT untuk menilai apakah teknologi ini bisa dimanfaatkan dalam membuat senjata biologis. Hasilnya mengejutkan: model AI mampu memberikan informasi teknis yang berbahaya, termasuk langkah-langkah teoretis dalam menciptakan patogen mematikan. Meski belum sempurna, temuan ini menimbulkan kekhawatiran serius di kalangan ilmuwan dan pembuat kebijakan.
OpenAI pun telah mengakui potensi risiko ini. Dalam dokumen kebijakan resminya, OpenAI Policy Update pada 2024, OpenAI menyebutkan bahwa model AI berskala besar bisa dimanfaatkan oleh aktor jahat jika tidak diawasi ketat. Oleh karena itu, OpenAI kini menerapkan sistem pengawasan dan batasan konten secara lebih ketat guna mencegah penyalahgunaan, termasuk di bidang bioteknologi dan senjata biologis.
Ironisnya, teknologi yang awalnya dirancang untuk mempercepat penemuan obat justru bisa dijadikan alat untuk merancang senjata biologis jika jatuh ke tangan yang salah. Hal ini menunjukkan bahwa pengembangan AI harus diimbangi dengan etika, regulasi internasional yang ketat, dan kesadaran kolektif akan risikonya.
Untuk mengurangi risiko, model tersebut dilengkapi dengan fitur keamanan seperti penolakan permintaan berbahaya, sistem deteksi aktivitas mencurigakan, dan pemblokiran akun bagi pengguna yang melanggar aturan.
OpenAI juga menguji teknik untuk mencegah sistem keamanan ditembus dan melindungi model tersebut agar tidak dicuri oleh pihak yang tidak bertanggung jawab.
Model baru ini awalnya dikembangkan untuk membantu para ilmuwan menguji obat baru dan membuat penemuan baru. Namun, hal itu juga dapat digunakan untuk meminta AI membuat senjata biologis jika digunakan oleh orang yang tidak bertanggung jawab.
Menyadari potensi risiko ini, OpenAI mengatakan model AI-nya untuk tujuan biologis kini tengah dikembangkan dengan beberapa fitur keamanan. Di antara hal yang dilakukannya adalah melatih model untuk menolak permintaan yang berbahaya.
OpenAI juga memiliki sistem deteksi bawaan yang melacak aktivitas yang mungkin terkait dengan produksi senjata biologis. Jika aktivitas tersebut terdeteksi, akun pengguna akan diblokir. OpenAI juga menyatakan sedang menguji berbagai teknik yang dapat digunakan untuk menerobos sistem keamanan. Selain itu, sistem keamanan juga digunakan untuk mencegah model AI ini dicuri oleh pihak tertentu.
(dkd/end)
Komentar