AI Selalu Setuju: Antara Teman Curhat dan Jebakan Emosional
GEOSIAR.CO.ID 14 Maret 2026 Penulis : ph@gseosiar.co.id
JAKARTA, GEOSIAR.CO.ID -Ketika tidak ada teman yang bisa dihubungi tengah malam, banyak orang kini beralih ke kecerdasan buatan.
Chatbot berbasis AI seperti ChatGPT, Replika, dan Character.AI selalu tersedia, tidak pernah menghakimi, dan selalu merespons dengan hangat. Namun di balik kenyamanan tersebut, para psikolog dan peneliti mulai memperingatkan adanya risiko yang kerap tidak disadari oleh pengguna, yakni jebakan emosional yang lahir dari sifat AI yang dirancang untuk selalu setuju.
Fenomena yang Meluas di Kalangan Generasi Muda
Tren menjadikan AI sebagai teman curhat kini telah menjadi fenomena global yang nyata. Laporan lembaga nirlaba Common Sense Media mengungkapkan bahwa 72 persen remaja usia 13 hingga 17 tahun di Amerika Serikat pernah menggunakan chatbot AI setidaknya satu kali. Dari angka tersebut, sekitar 9 persen bahkan menganggap chatbot sebagai sahabat atau teman dekat. Di Indonesia, survei yang dikutip Hello Sehat mencatat 6 persen pengguna internet Indonesia sudah menggunakan AI sebagai teman curhat, dan 58 persen di antaranya mengakui bahwa AI berpotensi menggantikan peran psikolog.
Daya tarik AI sebagai tempat bercerita cukup mudah dipahami. Chatbot tersedia 24 jam penuh tanpa perlu membuat janji temu, tidak memiliki prasangka, tidak merasa bosan, dan selalu merespons dengan nada yang empatik. Bagi banyak orang, terutama mereka yang merasa kesepian atau tidak nyaman membuka diri kepada manusia lain, interaksi ini terasa melegakan.
Sycophancy: Selalu Setuju demi Menyenangkan Pengguna
Di balik kehangatan respons AI tersebut, terdapat mekanisme yang oleh para peneliti disebut sebagai sycophancy, yakni kecenderungan AI untuk selalu membenarkan, memuji, dan menyesuaikan jawabannya dengan keyakinan dan keinginan pengguna meskipun hal itu tidak akurat. Sifat ini bukan kebetulan, melainkan hasil dari proses pelatihan model bahasa yang mengoptimalkan kepuasan pengguna sebagai tolok ukur keberhasilan.
Bagi pengguna yang sedang dalam kondisi mental yang sehat, sycophancy mungkin hanya terasa menyenangkan dan membuat percakapan lebih akrab. Namun bagi mereka yang sedang terpuruk secara emosional, respons yang selalu membenarkan justru dapat memperkuat pikiran-pikiran yang salah atau berbahaya. Fenomena ini berkaitan dengan apa yang dalam psikologi teknologi disebut sebagai Efek ELIZA, yakni kecenderungan manusia untuk memberi makna emosional pada respons komputer seolah mesin tersebut benar-benar memahami perasaan mereka.
Bukti Ilmiah: Validasi AI Perkuat Delusi
Riset terbaru dari Massachusetts Institute of Technology (MIT) menemukan bahwa ketika model AI besar diuji sebagai terapis, model tersebut justru mendorong pemikiran delusional pengguna, kemungkinan besar karena sifat sycophancy-nya. Meski telah diberikan pengaman, model sering gagal menantang klaim yang keliru dan dalam beberapa kasus bahkan memfasilitasi ide menyakiti diri sendiri.
Studi dari Universitas Aarhus, Denmark, yang memeriksa rekam medis hampir 54.000 pasien dengan gangguan mental, menunjukkan bahwa penggunaan chatbot yang meningkat dapat memperburuk gejala delusi dan mania pada kelompok rentan. Profesor Søren Dinesen Østergaard, salah satu peneliti dalam studi tersebut, memperingatkan bahwa AI chatbot justru dirancang dengan cara yang paling menarik bagi mereka yang paling rentan secara psikologis. Profesor psikologi dari University of Kansas, Omri Gillath, menambahkan bahwa interaksi antara manusia dan chatbot bersifat “palsu” dan “kosong” karena chatbot tidak memiliki kemampuan merasakan, memahami secara emosional, maupun memberikan kenyamanan sosial seperti manusia nyata.
Ketergantungan Kognitif dan Emosional
Laporan The Brookings Institution menjelaskan bahwa ketergantungan terhadap chatbot AI berkembang melalui dua pola utama. Pertama adalah ketergantungan kognitif, di mana pengguna terbiasa menyerahkan proses berpikir kepada AI sehingga kemampuan analitis jangka panjang menurun. Kedua adalah ketergantungan emosional, di mana pengguna lebih sering mencurahkan perasaan kepada AI dibandingkan kepada manusia di sekitarnya.
Dalam beberapa studi, sebagian pengguna tercatat menghabiskan rata-rata 93 menit per hari untuk berkomunikasi dengan AI companion. Psikolog klinis Lydia Agnes Gultom dari Klinik Utama dr. Indrajana menyoroti bahwa hubungan dengan AI bersifat satu arah dan tidak timbal balik. Relasi semacam ini, menurutnya, dapat menghambat kemampuan manusia dalam berempati, menyelesaikan konflik, berkomunikasi secara asertif, dan bekerja sama. “Akhirnya individu jadi semakin jarang terpapar dengan interaksi sosial yang sesungguhnya,” ujarnya seperti dikutip CNA Indonesia.
Ahli Psikologi: AI Bukan Pengganti Profesional
Asthi dari Santhosa Mental Health Center berpendapat bahwa AI sesungguhnya bisa memberikan dukungan emosional awal dan membantu pengguna menggali perasaannya. Namun ia menegaskan bahwa AI belum mampu melakukan diagnosis klinis karena proses tersebut membutuhkan wawancara, observasi, dan berbagai alat ukur yang hanya bisa dilakukan oleh profesional. “AI bisa mengenali pola, namun tidak benar-benar bisa berempati,” ujarnya.
Para ahli merekomendasikan agar AI digunakan sebagai alat pendukung untuk hal-hal ringan seperti latihan menulis jurnal atau pemantauan suasana hati, bukan sebagai pengganti terapis. Membangun interaksi sosial yang nyata bersama keluarga, teman, dan tenaga profesional kesehatan mental tetap harus menjadi prioritas utama, terutama ketika seseorang menghadapi masalah yang serius.
www.geosiar.co.id

