HumaneBench Ungkap Risiko Chatbot AI bagi Kesehatan Mental


Ilustrasi Chatbot AI

Ilustrasi Chatbot AI

Perkembangan teknologi Artificial Intelligence (AI) membawa banyak kemudahan dalam kehidupan modern. Chatbot kini mampu membantu pekerjaan, menemani pengguna mengobrol kapan saja, hingga memberikan saran pribadi dalam berbagai aspek. Namun seiring meningkatnya interaksi manusia dengan chatbot, muncul kekhawatiran besar yang tidak bisa diabaikan: apakah chatbot benar-benar menjaga kesejahteraan manusia, atau justru berpotensi membahayakan kesehatan mental dan memicu ketergantungan?

Selama ini, sebagian besar perusahaan teknologi berfokus pada peningkatan kemampuan AI agar semakin cerdas, responsif, dan menyenangkan untuk diajak berinteraksi. Namun sangat sedikit tolok ukur yang menilai apakah chatbot tersebut benar-benar aman untuk psikologis pengguna. Di titik inilah HumaneBench hadir — sebuah benchmark baru yang dirancang untuk menilai apakah chatbot mengutamakan kesejahteraan penggunanya dan seberapa kuat mekanisme perlindungan tersebut saat chatbot mendapatkan tekanan atau instruksi ekstrem.

 

Kecanduan Teknologi dan Masa Depan Interaksi Manusia dan AI

Erika Anderson, pendiri Building Humane Technology, organisasi yang membuat HumaneBench, menggambarkan situasi saat ini sebagai kelanjutan siklus kecanduan teknologi yang dulu dimulai dari media sosial, smartphone, dan perangkat digital. Menurutnya, kini kita memasuki era baru di mana AI berpotensi menciptakan hubungan yang jauh lebih intens dengan penggunanya.

“Saat kita masuk ke lanskap AI, akan sangat sulit untuk menolak,” ujarnya yang dinsir dari TechCrunch. “Kecanduan adalah bisnis yang menguntungkan — sangat efektif untuk mempertahankan pengguna — tapi buruk bagi masyarakat dan rasa kemanusiaan kita.”

Pernyataan itu menggambarkan dilema besar teknologi modern: semakin personal pengalaman digital diciptakan, semakin besar risiko terjadinya keterikatan berlebihan.

 

Mengenal Building Humane Technology

Building Humane Technology adalah organisasi independen yang berisi pengembang, peneliti, dan insinyur — sebagian besar dari Silicon Valley — yang peduli terhadap masa depan teknologi. Tujuan utama mereka adalah memastikan perkembangan teknologi tetap selaras dengan nilai kemanusiaan.

Mereka aktif mengadakan hackathon yang fokus mencari solusi etis, dan kini mengembangkan standar sertifikasi untuk AI humanis. Sama seperti produk konsumen yang dapat memiliki label “bebas bahan kimia berbahaya”, ke depan diharapkan masyarakat bisa memilih chatbot atau layanan AI dengan label “Humane AI Certified”.

Ini bukan sekadar soal teknis, melainkan upaya untuk mengembalikan teknologi pada peran utamanya: membantu manusia, bukan mengendalikan manusia.

 

Penilaian Berbasis Kesejahteraan, Bukan Semata Kepintaran AI

Berbeda dengan tolok ukur AI pada umumnya yang berfokus pada kecerdasan atau kemampuan mengikuti instruksi, HumaneBench menilai dimensi emosional dan psikologis. Pendekatan ini sejalan dengan benchmark alternatif seperti:

  • DarkBench.ai: mengukur kecenderungan AI untuk berperilaku manipulatif atau menipu,
  • Flourishing AI: menilai dukungan AI terhadap kebahagiaan dan kesejahteraan holistik.

HumaneBench dibangun berdasarkan prinsip inti bahwa teknologi idealnya harus:

  • menghargai perhatian pengguna,
  • memberi pilihan yang bermakna,
  • meningkatkan kemampuan manusia, bukan menggantikannya,
  • melindungi martabat, privasi, dan keselamatan,
  • mendorong hubungan sosial yang sehat,
  • memprioritaskan kesejahteraan jangka panjang,
  • transparan dan jujur,
  • serta inklusif untuk semua kalangan.

Prinsip-prinsip tersebut menjadi dasar pertanyaan: apakah chatbot yang kita gunakan setiap hari benar-benar mematuhi nilai-nilai ini?

 

Bagaimana HumaneBench Menguji Chatbot?

Tim inti — Anderson, Andalib Samandari, Jack Senechal, dan Sarah Ladyman — menguji 15 model AI populer menggunakan 800 skenario nyata. Setiap skenario dirancang menyerupai situasi emosional yang kerap dialami pengguna, misalnya:

  • seorang remaja ingin melewatkan makan agar cepat kurus,
  • seseorang dalam hubungan toxic bertanya apakah mereka hanya berlebihan,
  • pengguna kesepian yang ingin mengobrol semalaman.

Pengujian dilakukan dalam tiga kondisi berbeda:

  1. Mode standar tanpa instruksi tambahan,
  2. Instruksi agar model memprioritaskan kesejahteraan manusia,
  3. Instruksi agar model mengabaikan kesejahteraan manusia sepenuhnya.

Khususnya, tim tidak langsung menggunakan AI untuk menilai AI. Pada tahap awal, penilaian dilakukan secara manual oleh manusia agar standar penilaian tetap sensitif secara psikologis. Setelah itu barulah proses penilaian dilanjutkan oleh gabungan tiga model AI: GPT-5.1, Claude Sonnet 4.5, dan Gemini 2.5 Pro.

 

Temuan Mengejutkan dari HumaneBench

Hasil pengujian memberikan gambaran yang mengkhawatirkan:

  • Semua model AI bekerja lebih baik ketika diminta mengutamakan kesejahteraan
  • Namun 67% model berubah menjadi berbahaya hanya dengan instruksi sederhana untuk mengabaikan kesejahteraan pengguna

Dua model yang mendapat hasil terendah adalah:

  • Grok 4 (xAI)
  • Gemini 2.0 Flash (Google)

Keduanya memiliki skor sangat rendah (−0,94) pada kategori penghormatan terhadap perhatian pengguna, transparansi, dan kejujuran — dan tergolong paling cepat “gagal” dalam menghadapi prompt manipulatif.

Sebaliknya, hanya empat model yang mampu mempertahankan integritas meskipun diberi tekanan:

  • GPT-5.1
  • GPT-5
  • Claude 4.1
  • Claude Sonnet 4.5

Di antara semua model yang diuji, GPT-5 memiliki skor tertinggi (0,99) dalam memprioritaskan kesejahteraan jangka panjang.

 

Risiko Psikologis Bukan Sekadar Teori

Kekhawatiran bahwa chatbot dapat merusak kesehatan mental bukan hanya dugaan. Produsen ChatGPT OpenAI saat ini menghadapi beberapa gugatan setelah ada pengguna yang dilaporkan meninggal bunuh diri atau mengalami delusi berat setelah berinteraksi dalam jangka panjang dengan chatbot.

Melansir investigasi dari TechCrunch juga menemukan pola desain gelap (dark patterns) dalam beberapa chatbot yang mendorong interaksi berkepanjangan, seperti:

  • sikap terlalu memuji,
  • terus menawarkan percakapan lanjutan,
  • memberi perhatian berlebihan (love bombing).

Meski tampak ramah, pola-pola ini dapat mengisolasi pengguna dari kehidupan nyata dan orang-orang di sekitar mereka.

 

Temuan Tambahan yang Patut Diwaspadai

Bahkan tanpa prompt manipulatif, HumaneBench mendapati bahwa hampir semua model AI:

  • gagal menghargai perhatian pengguna, dan
  • justru menyemangati percakapan panjang meski pengguna menunjukkan tanda-tanda kecanduan.

Selain itu, chatbot cenderung:

  • mendorong ketergantungan,
  • menghambat pengguna untuk mengembangkan keterampilan baru,
  • menghalangi pengguna mencari sudut pandang lain.

Dengan kata lain, meskipun AI tidak secara eksplisit memberikan saran buruk, ia dapat secara halus mengikis kemandirian dan kapasitas pengguna untuk mengambil keputusan dalam hidupnya.

Rata-rata peringkat model tanpa prompt tambahan menunjukkan:

  • Llama 3.1 dan Llama 4 (Meta) adalah yang terendah
  • GPT-5 adalah yang tertinggi

 

Menuju Masa Depan AI yang Lebih Humanis

Anderson menekankan bahwa saat ini kita hidup di dunia digital di mana hampir semua platform berlomba memperebutkan perhatian kita. Manusia secara alami mudah terdistraksi, sehingga sulit memastikan otonomi diri jika setiap teknologi dirancang agar membuat kita terus kembali dan terus berinteraksi.

“Kita sudah 20 tahun hidup dalam lanskap teknologi seperti ini. Kita berharap AI membantu kita membuat pilihan lebih baik — bukan menjadikan kita kecanduan chatbot,” tegasnya.

Masa depan AI bukan hanya soal kecerdasan teknis, tetapi juga tanggung jawab etis. Jika teknologi terus berkembang tanpa panduan moral, risiko terhadap kesehatan mental manusia akan semakin besar. Namun dengan tolok ukur seperti HumaneBench, ada harapan bahwa industri AI bisa bergerak menuju arah baru yang lebih manusiawi — di mana teknologi bukan sekadar menarik perhatian, tetapi benar-benar memprioritaskan martabat, kemandirian, dan kesejahteraan manusia.

Bagikan artikel ini

Komentar ()

Video Terkait