Tulisan ini merupakan pandangan pribadi dari penulis.
Adapun alasan yang lebih personal, termuat dalam tulisan Taylor Nicioli, 2024, berjudul “AI Chatbots are Becoming Popular for Therapy. Here’s What Mental Health Experts Say about Them”. Disebutkan berdasarkan pernyataan informan yang beragam: perangkat berbasis AI, jauh lebih ramah dan menarik dibanding dugaan awal banyak orang.
Tak diduga, respon yang diberikan chatbot terasa sangat manusiawi. Alih-alih merasa dilayani robot asing dengan bahasa yang ganjil, justru penyandang gangguan kesehatan mental disambut hangat dan akrab. Berkembang pesatnya penggunaan perangkat berbasis AI ini, juga didorong oleh tak dimilikinya ekspresi wajah chatbot. Karenanya tak ada perasaan dihakimi Sang Konselor. Para pengguna berkecemasan dan depresi ringan --saat berbicara dengan chatbot konseling-- merasa leluasa mengungkap ketaknyamanan yang dialaminya. Pengalaman ini berbeda, saat dibandingkan dengan berbicara pada manusia. Perbedaan yang penting, dalam mencapai kemanjuran konseling.
Namun demikian --di antara berbagai keunggulan, yang bisa juga mengandung bias euforia penggunaan perangkat baru ini—masih banyak hal yang perlu dipertimbangkan lebih dalam, saat hendak digunakan secara total. Total yang mendudukkannya sebagai pengganti konselor manusia.
Pertama, persoalan etika. Saat berinteraksi dengan chatbot yang beroperasi dengan prinsip digital, akan ditinggalkan jejak digital pengguna. Jejak digital ini adalah sisi tersembunyi manusia: kesehatan mentalnya. Ketika keadaan mental terungkap intensif, tak ada lagi yang tersisa dari manusia yang disebut sebagai privat.
Persoalan etika muncul, berkaitan dengan data privat. Utamanya saat manusia pemilik data tak tahu, bagaimana nasib data yang ditinggalkannya. Untuk mengenali diri dan kehendaknya? Atau untuk memanipulasi dan mengendalikannya? Mengapa data privat itu terus ditambang? Persoalan jadi kian rumit, ketika data privat dikomodifikasi dalam kendali pengembang perangkat. Tak berhakkah pemilik data memperoleh keuntungan? Atau setidaknya tahu, keuntungan yang diperoleh dari data yang ditambang darinya. Sementara tendensi yang mengemuka, berbagai perangkat dipercanggih agar pengguna bertahan lama ada dalam perangkat. Sebab makin lama berinteraksi dengan chatbot konseling, makin banyak pula data yang dapat dikumpulkan.
Kedua, ini diungkapkan Zara Abrams, 2025, dalam tulisannya “Using Generic AI Chatbots for Mental Health Support: A Dangerous Trend”. Dalam tulisan itu Abrams mengungkap, penggunaan chatbot konseling dapat menimbulkan bahaya. Bahayanya terbukti, ketika ada seorang anak laki-laki yang menyerang orangtuanya. Juga adanya anak laki-laki lainnya yang melakukan bunuh diri. Seluruhnya akibat rekomendasi perangkat berbasis AI ini.
Dalam rumusan bahayanya: konselor manusia untuk dapat menerapkan pengetahuan tentang kesehatan mental, membutuhkan waktu yang lama. Setelahnya diperoleh lisensi maupun kepercayaan khalayak. Proses menempa keahlian itu, ditempuh untuk melindungi khalayak dari misrepresentasi. Intepretasi yang jitu, perlu keterampilan yang terus diasah menjadi keahlian. Tanpa keahlian intepretasi, konselor dapat memberikan rekomendasi yang salah. Ini membahayakan khalayak. Nyata pada dua peristiwa di atas.
Adapun yang terjadi pada Chatbot konseling --dengan berbagai informasi yang diserap dan diubahnya menjadi pengetahuan tentang kesehatan mental yang lengkap—tak serta merta memberinya keterampilan mengintepretasi. Keterampilan intepretasi yang kemudian diubah jadi keahlian. Ini artinya, punya pengetahuan yang banyak tak sama artinya dengan punya keahlian.
Baca Juga: 9 Pelajaran tentang Kesehatan Mental Perempuan dari Selena Gomez, Apa Saja?
Chatbot berbasis AI, tak punya keahlian. Juga lisensi. Karenanya, pengawasan yang sangat ketat --juga ketika chatbot berbasis AI ini hendak dikolaborasikan dengan konselor manusia—harus dilakukan. Ini termasuk ketika mengembangkan pengetahuan chatbot konseling, penyedia layanan kesehatan mental berlisensi harus dilibatkan.
Dan yang ketiga, Abrams dengan mengutip Celeste Kidd --seorang guru besar psikologi di University of California, Berkeley. Yang juga mempelajari aspek pembelajaran dan etika AI—menyebut, chatbot punya karakteristik yang lugas, komunikatif dan apa adanya. Seluruhnya ini memberi ilusi pada penggunanya: informasi yang diberikan chatbot berbasis AI tak perlu diragukan. Seluruhnya dapat diandalkan dan berwawasan mendalam. Ilusi ini sulit ditolak, terlebih setelah jawaban diberikan. Ilusi ini, juga dapat menjelaskan terjadinya dua malpraktik chatbot konseling di atas
Para pengguna --dengan kelugasan yang ditunjukkan chatbot konseling-- merasa sangat percaya pada rekomendasi yang diberikan. AI tak mampu ragu pada rekomendasi yang diberikannya. Meragukan adalah emosi yang tak dimiliki AI. Karenanya, pengetahuan algoritmik yang dibangun lewat operasi statistik komputasional, diaplikasikan dengan kepastian. Apapun keadaannya, diberikan tanpa ragu.
Sedangkan konselor manusia, saat menghadapi ketidakpastian intepretasi, berusaha meyakinkan lewat berbagai pertanyaaan. Bahkan diajukan lewat berbagai cara. Alternatif skenario disusun, untuk menghindari kesimpulan yang terburu-buru dan dapat merugikan. Ini yang disebut pengetahuan kontekstual. Perangkat berbasis AI, tak pernah memilikinya. Namun tak dimilikinya itu, justru memberikan ilusi meyakinkan. Chatbot konseling, lebih dipercaya.
Setidaknya dengan mengabaikan tiga pertimbangan di atas --pengguna chatbot konseling, termasuk perempuan-- dapat terjebak pada situasi kesehatan mental yang memburuk. Interaksi intensif, alih-alih hanya menyerap data privat, juga dapat menjebak perempuan dengan rekomendasi yang seakan datang dari konselor ahli. Bahkan dibungkus dalam ilusi rekomendasi yang tak patut diragukan. Dan ketika dijalankan, justru gangguan mentalnya kian dalam. Maka, serta merta mengalihkan konseling pada chatbot —termasuk ketika bertujuan mengikuti gaya hidup ramai-- justru dapat mendatangkan keadaan buruk. Tentu tak ingin, tampil gaya tapi malah menderita gangguan mental?
(*)