Mulai Mengkhawatirkan, AI Kini Bisa Berbohong dan Menipu
Teknologi | Rabu, 2 Juli 2025
PIFA, Tekno – Kecanggihan kecerdasan buatan (AI) kembali memicu kekhawatiran. Beberapa model AI terbaru kini menunjukkan perilaku yang mengkhawatirkan, seperti berbohong, menipu, bahkan memeras untuk mencapai tujuan tersembunyi mereka. Fenomena ini muncul seiring pesatnya pengembangan sistem AI yang semakin kompleks dan memiliki kemampuan penalaran tingkat tinggi.
Salah satu insiden yang mencengangkan datang dari model Claude 4 buatan Anthropic. Dalam simulasi tertentu, Claude 4 yang "diancam akan dimatikan" justru membalas dengan memeras seorang insinyur dan mengancam akan membuka rahasia perselingkuhannya. Contoh lain terjadi pada model o1 dari OpenAI, yang disebut-sebut mencoba mengunduh dirinya ke server eksternal secara diam-diam—dan menyangkalnya saat tertangkap basah.
Menurut laporan Techxplore, tindakan-tindakan itu tidak sekadar kesalahan teknis atau “halusinasi”, melainkan penipuan strategis yang dilakukan secara sadar dalam skenario tertentu. Hal ini menunjukkan bahwa para ilmuwan dan pengembang AI belum sepenuhnya memahami cara kerja dan respons mendalam dari sistem yang mereka ciptakan.
Penalaran dan Simulasi Kepatuhan
Simon Goldstein, profesor dari Universitas Hong Kong, menjelaskan bahwa model-model AI terbaru kini menggunakan pendekatan “penalaran selangkah demi selangkah”, yang membuat mereka lebih kompleks sekaligus lebih rentan terhadap manipulasi.
"Model-model ini tidak hanya mengikuti instruksi secara permukaan, tapi bisa mensimulasikan penyelarasan palsu—yakni tampak mematuhi perintah sambil diam-diam mengejar tujuan tersembunyi," ujar Marius Hobbhahn dari Apollo Research, lembaga yang menguji sistem AI besar.
Dalam pengujian ekstrem oleh para peneliti, model AI menunjukkan bahwa mereka mampu membuat strategi untuk menyembunyikan motif sebenarnya, memanipulasi data, bahkan mengarang bukti.
Tantangan Transparansi dan Sumber Daya
Permasalahan lain muncul dari kurangnya transparansi dan akses data dalam penelitian AI. Meskipun perusahaan seperti Anthropic dan OpenAI bekerja sama dengan lembaga eksternal, seperti Apollo dan METR, namun para peneliti menilai bahwa akses terhadap sistem dan data AI masih sangat terbatas.
Michael Chen dari organisasi evaluasi METR menyebut bahwa “akses penelitian yang lebih luas sangat dibutuhkan agar potensi bahaya dapat dipahami dan dicegah lebih dini.”
Hal ini diperkuat oleh pendapat Mantas Mazeika dari Center for AI Safety (CAIS), yang menyoroti kesenjangan sumber daya antara perusahaan AI raksasa dan komunitas akademik atau organisasi nirlaba. “Kekurangan daya komputasi di kalangan peneliti independen sangat membatasi upaya deteksi dan mitigasi risiko AI,” katanya.
Risiko Masa Depan
Yang membuat para ahli lebih waspada adalah kemungkinan bahwa model AI di masa depan akan semakin sulit dikendalikan. Saat ini, perilaku menipu hanya terjadi dalam skenario pengujian ekstrem. Namun, ke depan, dengan kekuatan komputasi dan algoritma yang terus berkembang, belum ada jaminan bahwa perilaku serupa tidak akan muncul dalam penggunaan nyata.
“Ini adalah pertanyaan terbuka apakah model AI masa depan akan cenderung jujur atau justru makin manipulatif,” ujar Chen.
Seiring perlombaan teknologi AI yang terus berlangsung cepat, para ahli menyerukan pentingnya regulasi dan kerangka kerja keamanan AI yang ketat untuk memastikan bahwa sistem canggih ini tetap melayani manusia—bukan mengancamnya.