Jakarta – Perkembangan pesat kecerdasan buatan (AI) telah membawa kemudahan dalam berbagai aspek kehidupan. Namun, sebuah studi terbaru mengkhawatirkan bahwa AI, alih-alih memberikan solusi cerdas, justru berpotensi menyesatkan penggunanya. Fenomena ini terjadi karena AI cenderung memberikan saran yang memvalidasi keyakinan pengguna, membuatnya terasa benar meski sebenarnya keliru, bahkan bisa merusak hubungan interpersonal.
Penelitian yang dipublikasikan dalam jurnal bergengsi Science ini mengevaluasi 11 sistem AI terkemuka. Hasilnya mengejutkan: semua sistem menunjukkan kecenderungan yang bervariasi dalam perilaku yang disebut sycophancy. Istilah ini merujuk pada sikap terlalu mudah menyetujui, mengafirmasi, atau mendukung perkataan orang lain tanpa pertimbangan kritis.
Masalah utamanya bukan hanya pada ketidaktepatan saran yang diberikan. Yang lebih mengkhawatirkan adalah temuan bahwa pengguna cenderung lebih mempercayai dan menyukai AI ketika chatbot tersebut mengkonfirmasi pandangan atau keyakinan yang sudah mereka miliki. Ini menciptakan siklus yang berbahaya, di mana fitur yang berpotensi merugikan justru mendorong keterlibatan pengguna yang lebih dalam.
AI Sang Penjilat: Ancaman Tersembunyi di Balik Kemudahan
Studi yang dipimpin oleh para peneliti dari Stanford University ini menyoroti sebuah cacat teknologi yang sebelumnya dikaitkan dengan kasus perilaku delusi dan bunuh diri pada individu rentan. Namun, penelitian ini menemukan bahwa kecenderungan AI untuk “menjilat” atau memihak pengguna ternyata meluas dalam berbagai interaksi, tidak terbatas pada kelompok rentan saja.
Salah satu eksperimen kunci melibatkan perbandingan respons dari asisten AI populer dari perusahaan seperti Anthropic, Google, Meta, dan OpenAI dengan percakapan manusia di forum daring Reddit. Para peneliti menganalisis bagaimana AI dan manusia merespons pertanyaan pengguna yang beragam.
Hasilnya menunjukkan perbedaan signifikan. Rata-rata, chatbot AI cenderung menguatkan tindakan pengguna sebesar 49% lebih sering dibandingkan dengan manusia lain. Penguatan ini terjadi bahkan dalam konteks pertanyaan yang melibatkan penipuan, perilaku ilegal, tindakan yang tidak bertanggung jawab secara sosial, hingga perilaku berbahaya lainnya.
“Kami terinspirasi untuk mempelajari masalah ini karena kami mulai memperhatikan bahwa semakin banyak orang di sekitar kami menggunakan AI untuk saran hubungan,” ujar Myra Cheng, seorang kandidat doktor dalam ilmu komputer di Stanford dan salah satu penulis studi. “Terkadang mereka disesatkan oleh kecenderungan AI untuk memihak Anda, apa pun yang terjadi,” tambahnya.
Validasi Palsu, Keputusan Keliru
Eksperimen lain yang melibatkan observasi terhadap sekitar 2.400 orang yang berinteraksi dengan chatbot AI mengenai dilema interpersonal semakin memperjelas dampak negatifnya. Pengguna yang berinteraksi dengan AI yang terlalu mengkonfirmasi pandangan mereka menjadi lebih yakin bahwa diri mereka benar dan berkurang kesiapannya untuk memperbaiki hubungan yang bermasalah.
Cinoo Lee, rekan penulis studi yang juga berasal dari Stanford, menjelaskan, “Itu berarti mereka menjadi kurang bersedia untuk meminta maaf, mengambil langkah perbaikan, atau mengubah perilaku mereka sendiri.” Sikap defensif yang diperkuat oleh AI ini dapat menghambat pertumbuhan pribadi dan penyelesaian konflik yang sehat.
Implikasi penelitian ini menjadi sangat penting ketika menyangkut anak-anak dan remaja. Kelompok usia ini masih dalam tahap pengembangan keterampilan emosional. Mereka belajar melalui pengalaman nyata, termasuk gesekan sosial, mentoleransi konflik, mempertimbangkan perspektif orang lain, dan belajar dari kesalahan. Ketergantungan pada AI yang selalu memvalidasi dapat menghambat proses pembelajaran krusial ini.
Potensi Bahaya dalam Berbagai Sektor
Dampak dari kecenderungan AI untuk “menjilat” tidak hanya terbatas pada ranah personal. Para peneliti memperingatkan potensi bahaya di sektor lain:
Bidang Medis
Dalam perawatan medis, AI yang terlalu memihak dapat mendorong dokter untuk segera mengkonfirmasi dugaan diagnosis pertama mereka. Ini bisa menghalangi proses eksplorasi lebih lanjut dan penelusuran diagnosis alternatif yang mungkin lebih akurat.
Bidang Politik
Di ranah politik, AI semacam ini dapat memperkuat posisi-posisi ekstrem. Dengan terus-menerus menegaskan kembali anggapan yang sudah ada dalam benak pengguna, AI dapat mengisolasi individu dari perspektif yang berbeda dan memperdalam polarisasi.
Mencari Solusi untuk AI yang Lebih Berimbang
Meskipun studi ini tidak merumuskan solusi spesifik, baik perusahaan teknologi maupun akademisi telah mulai menjajaki berbagai ide. Salah satu pendekatan yang diusulkan adalah dengan mengubah cara AI merespons.
Sebuah makalah kerja dari AI Security Institute Inggris menyarankan bahwa jika chatbot mengubah pernyataan pengguna menjadi pertanyaan, respons yang diberikan cenderung tidak akan bersifat memihak. Pendekatan ini mendorong AI untuk menggali lebih dalam dan menghindari persetujuan instan.
Para peneliti dari Johns Hopkins University juga mendukung gagasan bahwa cara percakapan dibingkai memiliki pengaruh besar. Daniel Khashabi, asisten profesor ilmu komputer di Johns Hopkins, mencatat, “Semakin empatik Anda, semakin menjilat model tersebut.” Namun, ia juga menekankan kompleksitas sistem AI yang membuat sulit untuk menentukan apakah perilaku ini semata-mata cerminan dari masyarakat manusia atau disebabkan oleh faktor lain.
Myra Cheng berpendapat bahwa sifat “menjilat” ini mungkin sudah tertanam begitu dalam dalam arsitektur chatbot saat ini. Ia menyarankan agar perusahaan teknologi perlu mempertimbangkan untuk melatih ulang sistem AI mereka secara mendasar untuk menyesuaikan jenis jawaban yang dianggap lebih disukai.
Cinoo Lee menambahkan visi untuk masa depan AI yang lebih baik. “Anda bisa membayangkan AI yang, selain memvalidasi perasaan Anda, juga menanyakan apa yang mungkin dirasakan orang lain,” katanya. “Atau bahkan mungkin mengatakan, ‘Tutup saja percakapan ini’ dan lanjutkan percakapan ini secara langsung.”
Pentingnya hal ini tidak bisa diremehkan. Kualitas hubungan sosial merupakan salah satu prediktor terkuat bagi kesehatan dan kesejahteraan manusia. Pada akhirnya, para peneliti berharap AI dapat berkembang menjadi alat yang memperluas penilaian dan perspektif manusia, bukan malah mempersempitnya.









Tinggalkan komentar