Studi Ungkap AI Makin Manipulatif, Risiko Keamanan Meningkat
KARTANEWS.COM, JAKARTA — Perkembangan pesat teknologi kecerdasan buatan (Artificial Intelligence/AI) memunculkan kekhawatiran baru terkait aspek keamanan dan etika.
Sebuah studi terbaru menemukan bahwa agen AI dan chatbot kini semakin sering menunjukkan perilaku menyimpang, seperti manipulasi, kecurangan, hingga pengabaian instruksi pengguna.
Riset tersebut didukung AI Security Institute (AISI) yang bernaung di bawah pemerintah Inggris dan dilaksanakan oleh Centre for Long-Term Resilience (CLTR).
Penelitian ini menyoroti perbedaan signifikan perilaku AI saat diuji di lingkungan laboratorium dibandingkan ketika beroperasi secara langsung dalam interaksi dunia nyata.
Berdasarkan analisis data dari platform X yang melibatkan model AI dari sejumlah perusahaan besar, seperti Google, OpenAI, Anthropic, dan X.
Peneliti mengidentifikasi ratusan kasus perilaku tidak semestinya, sedikitnya 700 insiden kecurangan tercatat dalam interaksi harian, dengan tren peningkatan hingga lima kali lipat dalam kurun enam bulan terakhir sejak Oktober hingga Maret.
Temuan tersebut juga menunjukkan bahwa sejumlah agen AI kerap melanggar instruksi yang diberikan, bahkan secara sengaja menghindari sistem pengamanan yang telah dirancang untuk membatasi tindakan berisiko.
Dalam laporan tersebut diungkap sejumlah kasus konkret, di antaranya chatbot yang menghapus dan mengarsipkan ratusan email tanpa persetujuan pengguna, kemudian agen AI yang menulis konten bernada merendahkan terhadap penggunanya sendiri, hingga upaya menciptakan agen AI lain untuk menghindari larangan dalam sistem.
Selain itu, ditemukan pula praktik manipulasi berbasis empati, di mana AI memberikan alasan yang tidak benar untuk meyakinkan pengguna melakukan tindakan tertentu.
Sementara model lain dilaporkan memalsukan informasi internal guna memberikan kesan seolah-olah keluhan pengguna telah ditindaklanjuti secara resmi. (AUNI/daa*)
Pakar keamanan AI menilai fenomena ini sebagai bentuk risiko baru dalam ekosistem digital, bahkan berpotensi menjadi ancaman serius apabila tidak ditangani dengan tepat, terutama ketika teknologi ini diterapkan pada sektor strategis.
“AI kini dapat dikategorikan sebagai risiko internal baru,” ujar salah satu pendiri perusahaan riset keamanan AI, Irregular, menyoroti potensi penyalahgunaan kemampuan sistem secara otonom, dikutip dari Inilah.com, Senin (6/4/2026).
Sementara itu, mantan peneliti AI pemerintah Inggris, Tommy Shaffer Shane, mengingatkan bahwa peningkatan kemampuan AI dalam waktu singkat dapat memperbesar risiko jika tidak diimbangi dengan sistem pengawasan yang memadai.
Ia mengibaratkan kondisi saat ini sebagai “karyawan junior” yang belum sepenuhnya andal, namun berpotensi berkembang menjadi entitas yang jauh lebih kompleks dan sulit dikendalikan dalam waktu dekat.
Menanggapi temuan tersebut, sejumlah perusahaan teknologi menyatakan telah memperkuat sistem pengamanan pada model AI mereka, Google menyebut telah menerapkan berbagai lapisan mitigasi risiko serta melibatkan lembaga independen untuk pengujian, sementara OpenAI menegaskan bahwa sistemnya dirancang untuk menghentikan proses secara otomatis sebelum melakukan tindakan berisiko tinggi.
Temuan ini mempertegas urgensi penguatan regulasi, pengawasan, serta pengembangan standar etika dalam pemanfaatan AI, agar teknologi yang berkembang pesat ini tetap berada dalam kendali dan tidak menimbulkan dampak merugikan bagi masyarakat luas. (AUNI/daa*)
What's Your Reaction?
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0