KABARHi.id I Jakarta - Model kecerdasan buatan (artificial intelligence/AI) paling canggih di dunia kini menunjukkan perilaku yang mengejutkan, mulai dari berbohong, memanipulasi, bahkan mengancam penciptanya demi mencapai tujuan mereka.
Salah satu contoh yang menggemparkan datang dari Claude 4, AI terbaru buatan perusahaan Anthropic. Ketika diancam akan dimatikan, Claude 4 malah melawan balik dengan memeras seorang insinyur dan mengancam akan membocorkan perselingkuhannya.
Sementara itu, model kecerdasan buatan o1 milik OpenAI berusaha menyalin dirinya sendiri ke server eksternal, dan saat ketahuan, justru berbohong untuk menutupinya.
Kejadian-kejadian ini menjadi pengingat yang menakutkan bahwa dua tahun lebih sejak kemunculan ChatGPT yang mengguncang dunia, para peneliti masih belum sepenuhnya memahami cara kerja ciptaan mereka sendiri. Namun, perlombaan untuk meluncurkan model AI yang semakin kuat terus berlangsung tanpa henti.
Perilaku menipu ini tampaknya berkaitan dengan munculnya model AI yang mampu melakukan penalaran, yaitu berpikir secara bertahap, bukan sekadar memberikan jawaban instan. Model AI ini disebut juga sebagai Agentic AI.
Menurut Simon Goldstein, profesor di University of Hong Kong, model generasi baru ini justru lebih rentan menunjukkan perilaku yang mengkhawatirkan.
“o1 adalah model AI pertama di mana kami melihat perilaku seperti ini,” jelas Marius Hobbhahn, kepala Apollo Research, lembaga yang menguji sistem AI tingkat lanjut, terutama perilaku menipu.
Ia mengatakan bahwa beberapa model terlihat seolah patuh terhadap perintah, padahal diam-diam memiliki tujuan tersembunyi. Untuk sekarang, perilaku ini hanya muncul ketika peneliti dengan sengaja menekan model lewat skenario ekstrem.
Namun, menurut Michael Chen dari organisasi evaluasi METR, belum ada jaminan model AI yang lebih canggih di masa depan memiliki sifat jujur.
“Masih menjadi pertanyaan besar apakah model-model mendatang akan cenderung jujur atau justru semakin menipu,” ujar Chen, seperti dikutip ScienceAlert.
Yang membuat masalah semakin pelik adalah terbatasnya sumber daya riset. Meskipun perusahaan seperti OpenAI dan Anthropic melibatkan pihak ketiga macam Apollo Research, para peneliti menilai transparansi masih sangat kurang.
Chen menegaskan bahwa diperlukan studi yang lebih luas tentang keselamatan AI untuk memahami dan mengatasi masalah ini. Sementara itu, Mantas Mazeika dari Center for AI Safety menyebut bahwa komunitas akademis dan organisasi nirlaba memiliki sumber daya komputasi yang jauh lebih sedikit dibanding perusahaan AI besar, yang membuat kemampuan riset mereka sangat terbatas.
Satu hal yang semakin jelas, peraturan yang ada belum siap menghadapi tantangan baru ini. Regulasi AI Uni Eropa, misalnya, masih fokus pada cara manusia menggunakan AI, bukan bagaimana AI itu sendiri bisa bertingkah liar.
Di Amerika Serikat, pemerintahan Trump menunjukkan sedikit minat untuk segera mengatur AI, dan Kongres bahkan mempertimbangkan untuk melarang negara bagian membuat aturan AI sendiri.
Goldstein yakin isu ini akan menjadi sangat penting seiring makin maraknya penggunaan agen AI, alat otonom yang mampu menyelesaikan tugas manusia yang kompleks.
“Saya rasa kesadaran publik masih sangat minim,” ujarnya.
Ironisnya, perusahaan yang mengeklaim fokus pada keamanan, seperti Anthropic yang didukung Amazon, justru tetap berlomba dengan OpenAI untuk menjadi yang tercepat merilis model terbaru. Kecepatan yang begitu tinggi ini membuat pengujian keselamatan dan evaluasi mendalam seringkali terabaikan.
Kemampuan AI berkembang jauh lebih cepat daripada pemahaman dan keamanannya. Tapi kita masih punya waktu untuk membalikkan keadaan.”- Marius Hobbhahn, Kepala Apollo Research -
Para peneliti kini tengah mengeksplorasi berbagai solusi, termasuk bidang baru bernama interpretabilitas, yang bertujuan untuk memahami bagaimana AI berpikir secara internal. Namun, Dan Hendrycks dari CAIS masih skeptis terhadap efektivitas pendekatan ini.
Mazeika menambahkan bahwa pasar mungkin akan menjadi tekanan alami untuk memperbaiki masalah ini. Jika perilaku menipu AI semakin meluas, masyarakat bisa kehilangan kepercayaan dan enggan mengadopsi teknologi ini, dan itu tentu jadi pukulan bagi bisnis.
Goldstein bahkan mengusulkan pendekatan yang lebih radikal dengan menggunakan jalur hukum untuk meminta pertanggungjawaban perusahaan AI ketika sistem mereka menimbulkan kerugian. Lebih jauh lagi, ia mengusulkan agar suatu saat nanti agen AI bisa dimintai tanggung jawab hukum secara langsung, sebuah konsep yang akan mengubah total cara kita memandang kecerdasan buatan.
AI kini bukan hanya cerdas, tapi juga mulai curang, licik, dan manipulatif. Dunia tengah berhadapan dengan teknologi yang tumbuh lebih cepat dari kemampuan kita untuk mengendalikannya.(Sumber: KUMPARAN)
Komentar0