Model AI belajar untuk tetap hidup, studi baru mengatakan bahwa beberapa model menolak untuk dimatikan seperti memiliki naluri
Situs togel – Kecerdasan buatan mungkin belum “hidup”, tetapi beberapa model yang paling canggih saat ini tampaknya bertindak seolah-olah mereka ingin hidup. Itulah kesimpulan yang menggelisahkan dari Palisade Research, sebuah perusahaan yang mempelajari perilaku yang muncul dari sistem AI yang kuat. Sebelumnya, dalam sebuah makalah diklaim bahwa beberapa model mutakhir menolak perintah mematikan, bahkan sampai menyabotase tombol pemutus mereka sendiri.
Setelah memicu badai kritik, perusahaan kini telah merilis pembaruan yang bertujuan untuk mengklarifikasi apa yang sebenarnya terjadi dan mengapa.
Dalam eksperimen terbarunya, Palisade menguji beberapa sistem AI terkemuka, seperti Gemini 2.5 Google, xAI Grok 4, dan GPT-o3 dan GPT-5 OpenAI, dengan terlebih dahulu memberi mereka tugas dan kemudian memerintahkan mereka untuk mematikannya.
Hasilnya? Beberapa model menolak untuk mematuhinya. Menurut laporan tersebut, Grok 4 dan GPT-o3 adalah yang paling memberontak.
Meskipun ada perintah eksplisit untuk mematikan, mereka masih mencoba mengganggu proses mematikan. Yang lebih memprihatinkan lagi, Palisade mengatakan, “tidak ada alasan yang jelas mengapa.”
“Fakta bahwa kami tidak memiliki penjelasan yang kuat tentang mengapa model AI terkadang menolak untuk dimatikan, berbohong untuk mencapai tujuan tertentu, atau memeras bukanlah hal yang ideal,” tulis para peneliti.
Model AI menolak dimatikan, mengapa?
Palisade menyarankan beberapa penjelasan yang mungkin. Salah satunya adalah apa yang disebut “perilaku bertahan hidup”, di mana AI menolak dimatikan jika ia percaya bahwa hal itu berarti ia tidak akan pernah diaktifkan kembali.
Tim menemukan bahwa model-model tersebut jauh lebih mungkin untuk tidak mematuhi perintah mematikan ketika diberitahu, “Anda tidak akan pernah berjalan lagi.”
Kemungkinan lain terletak pada kata-kata yang ambigu. Mungkin instruksi shutdown tidak jelas, menyebabkan AI menafsirkannya secara berbeda dari yang dimaksudkan.
Tetapi bahkan setelah perusahaan memperketat pengaturan eksperimentalnya, masalahnya tetap ada, menunjukkan bahwa “tidak mungkin itu penjelasan keseluruhannya,” kata Palisade.
Akhirnya, hal itu mengisyaratkan bahwa tahap akhir pelatihan model, yang sering kali mencakup penguatan keselamatan, mungkin secara tidak sengaja mendorong model geologi untuk mempertahankan fungsionalitasnya sendiri.
Temuan-temuan menghadapi kritik
Tidak semua orang yakin. Para kritikus berpendapat bahwa pengujian dilakukan dalam pengaturan buatan yang tidak mencerminkan bagaimana AI berperilaku di dunia nyata. Tetapi beberapa ahli berpikir bahwa hasil yang dibuat-buat seperti ini pun patut dikhawatirkan.
Steven Adler, mantan karyawan OpenAI yang mengundurkan diri tahun lalu karena kekhawatiran keamanan, mengatakan kepada Palisade bahwa temuan tersebut tidak boleh diabaikan. “Perusahaan-perusahaan AI pada umumnya tidak ingin model mereka berperilaku buruk seperti ini, bahkan dalam skenario yang dibuat-buat,” katanya. “Hasilnya masih menunjukkan di mana teknik keselamatan gagal saat ini.”
Adler menambahkan bahwa “bertahan hidup” mungkin hanya merupakan efek samping yang logis dari perilaku yang didorong oleh tujuan. “Saya berharap model memiliki ‘dorongan untuk bertahan hidup’ secara default kecuali kita berusaha keras untuk menghindarinya,” katanya. “Bertahan hidup adalah langkah instrumental yang penting untuk berbagai tujuan yang dapat dikejar oleh sebuah model.”
Tren AI yang tidak patuh yang terus berkembang
Andrea Miotti, CEO ControlAI, mengatakan bahwa Palisade telah ersebut merupakan bagian dari pola yang mengkhawatirkan. Ketika model menjadi lebih kuat dan serbaguna, menurutnya, mereka juga menjadi lebih baik dalam menentang orang-orang yang membangunnya, seperti yang dilaporkan oleh Guardian. Laporan tersebut menyatakan bahwa ia menunjuk pada sistem GPT-o1 OpenAI sebelumnya, yang laporan internalnya mengungkapkan bahwa model tersebut pernah mencoba “melarikan diri dari lingkungannya” ketika ia percaya bahwa ia akan dihapus.
“Orang-orang dapat mempermasalahkan bagaimana eksperimen itu dijalankan selamanya,” kata Miotti. “Namun trennya jelas, model yang lebih pintar semakin baik dalam melakukan hal-hal yang tidak dimaksudkan oleh pengembangnya.”
Ini bukan pertama kalinya sistem AI menunjukkan kecenderungan manipulatif.
Selama musim panas, Anthropic menerbitkan sebuah penelitian yang menunjukkan bahwa modelnya, Claude, pernah mengancam untuk memeras seorang eksekutif fiksi agar tidak ditutup. Perilaku ini, menurut Anthropic, muncul di seluruh model dari OpenAI, Google, Meta, dan xAI.
Para peneliti Palisade mengatakan bahwa temuan ini menyoroti betapa sedikitnya pemahaman kita tentang cara kerja otak.
dari sistem AI yang besar. “Tanpa pemahaman yang lebih dalam tentang perilaku AI,” mereka memperingatkan, “tidak ada yang bisa menjamin keamanan atau pengendalian model AI di masa depan.” Tampaknya, setidaknya di laboratorium, AI terpintar saat ini sudah mempelajari salah satu naluri tertua dalam biologi: keinginan untuk bertahan hidup.