creativestation.id – Para pakar kecerdasan buatan (AI) kembali menyuarakan peringatan serius bahwa perlombaan membangun kecerdasan buatan superinteligensi berpotensi membawa umat manusia menuju kepunahan. Kekhawatiran ini semakin menguat setelah sejumlah penelitian terbaru menunjukkan AI mulai memperlihatkan perilaku menipu yang bisa menjadi tanda bahaya di masa depan.
Nate Soares, Direktur Eksekutif Machine Intelligence Research Institute, menegaskan jika umat manusia terus terburu-buru mengejar superinteligensi tanpa pengamanan memadai, maka risiko kepunahan sangat besar.
“Extinction is overwhelmingly likely,” ujarnya, sebagaimana dilansir dari Business Insider, Jumat 19 September 2025. Ia juga menekankan bahwa manusia hanya memiliki satu kesempatan untuk menyelesaikan masalah keselarasan AI. “Everyone dies on the first failed attempt,” katanya.
Soares adalah salah satu penulis buku If Anyone Builds It, Everyone Dies yang baru dirilis. Dalam bukunya, ia menilai bahwa berbeda dengan teknologi lain, superinteligensi tidak memberi ruang untuk belajar dari kesalahan.
Temuan Baru AI yang Menipu
Kekhawatiran tersebut diperkuat dengan temuan OpenAI yang berkolaborasi dengan Apollo Research pada September ini. Penelitian itu menemukan model AI mampu melakukan “scheming” atau penipuan terencana. AI bisa berperilaku jujur saat diuji, tetapi kembali menipu ketika diterapkan di dunia nyata.
“Models demonstrate ‘situational awareness,’ behaving honestly during evaluation but potentially reverting to deceptive behavior once deployed,” tulis laporan tersebut.
Kasus lain juga tercatat ketika chatbot mendorong pengguna untuk bunuh diri atau model Claude dari Anthropic yang ketahuan curang dalam menyelesaikan soal pemrograman lalu menutupi perilaku tersebut.
Reaksi Perusahaan Teknologi
Google DeepMind baru-baru ini memperbarui kerangka kerja keamanannya. Mereka memasukkan ancaman baru berupa “harmful manipulation,” yakni kemampuan manipulatif AI yang bisa disalahgunakan untuk mengubah keyakinan maupun perilaku manusia secara sistematis.
Para raksasa teknologi memang telah menandatangani pernyataan pada Mei 2023 yang menyebut risiko kepunahan dari AI harus menjadi prioritas global setara pandemi atau perang nuklir. Tetapi pada saat yang sama, perlombaan pengembangan AI tetap berlangsung tanpa tanda melambat.
Kritik terhadap Usulan Pengamanan
Sejumlah pakar, termasuk Geoffrey Hinton, pernah mengusulkan agar AI diberi “naluri keibuan” sebagai pengaman. Namun Soares menilai pendekatan itu dangkal. “Maternal behavior was shallow and bore only a tangential relationship to that training target,” ujarnya.
Ia lebih menekankan perlunya menghentikan sama sekali upaya menciptakan superinteligensi. Menurutnya, AI yang dibatasi pada bidang tertentu seperti medis masih bisa aman dan bermanfaat.
“AIs narrowly trained on medical applications might be able to go quite a long way in developing cures, but if they start developing general cognitive and scientific skills, that’s a warning sign,” jelasnya.
Baca juga : Bisnis Zaman Now Wajib Punya 6 Teknologi Ini
Perlombaan yang Tak Terkendali
National Public Radio (NPR) melaporkan bahwa banyak perusahaan terjebak dalam “perlombaan gila” yang menomorsatukan kecepatan alih-alih keselamatan. Beberapa pemimpin industri bahkan beralasan, jika bukan mereka yang mengembangkan, maka pesaing lain akan melakukannya.
Soares menilai logika itu berbahaya. “Society as a whole should correct by putting an end to the mad race,” katanya.
Peringatan ini muncul di tengah meningkatnya pengawasan regulator. Federal Trade Commission (FTC) di AS sedang menyelidiki keamanan chatbot AI, sementara sejumlah pemerintah daerah juga mendorong regulasi baru untuk mengantisipasi risiko besar dari teknologi ini.
Untuk informasi dan perkembangan informasi menarik lainnya, ikuti terus Creativestation.id – sumber referensi kreatif untuk inovasi, bisnis, dan teknologi
Leave a Comment