Saat dia duduk di seberang saya, pasien saya memiliki ekspresi sedih di wajahnya.
“Aku punya kencan,” dia mengumumkan. “Itu tidak berjalan dengan baik.”
Itu tidak biasa untuk pasien ini. Selama bertahun-tahun, dia berbagi cerita tentang harapan romantis yang pupus. Tapi sebelum saya bisa bertanya apa yang salah, dia melanjutkan, “Jadi saya bertanya kepada chatbot apa yang harus saya lakukan.”
Um. Apa? Simulasi percakapan manusia yang diberdayakan oleh kecerdasan buatan—chatbots—telah banyak diberitakan, tetapi saya belum pernah memiliki pasien yang memberi tahu saya bahwa mereka benar-benar menggunakan satu untuk nasihat sebelumnya.
“Apa yang dikatakannya padamu?” tanyaku penasaran.
“Untuk memberitahunya bahwa aku peduli dengan nilai-nilainya.”
“Oh. Apa itu bekerja?”
“Dua tebakan,” desahnya dan mengangkat tangannya. Meskipun pasien ini adalah yang pertama, sekarang menjadi kejadian biasa dalam praktik terapi saya untuk mendengar dari pasien baru bahwa mereka telah berkonsultasi dengan chatbots sebelum berkonsultasi dengan saya. Paling sering, ini untuk saran cinta dan hubungan, tetapi mungkin juga untuk menghubungkan atau menetapkan batasan dengan anak-anak mereka atau untuk meluruskan persahabatan yang salah. Hasilnya sangat beragam.
Seorang pasien baru bertanya kepada chatbot bagaimana menangani peringatan kematian orang yang dicintai. Sisihkan waktu di hari Anda untuk mengingat apa yang spesial dari orang tersebut, saran bot. Saya sendiri tidak bisa mengatakannya dengan lebih baik.
“Apa yang ditulisnya membuat saya menangis,” kata pasien itu. “Saya menyadari bahwa saya telah menghindari kesedihan saya. Jadi, saya membuat janji ini.”
Pasien lain mulai mengandalkan AI ketika teman-temannya mulai kurus. “Saya tidak bisa menghabiskan chatbot saya,” katanya kepada saya.
Sebagai seorang terapis, saya khawatir sekaligus tertarik dengan potensi AI untuk memasuki bisnis terapi. Tidak ada keraguan bahwa AI adalah masa depan. Sudah, itu terbukti berguna dalam segala hal mulai dari menulis surat lamaran dan pidato hingga merencanakan perjalanan dan pernikahan. Jadi mengapa tidak membiarkannya membantu hubungan kita juga? Sebuah usaha baru yang disebut Replika, “AI pendamping yang peduli,” telah melangkah lebih jauh dan bahkan menciptakan avatar romantis untuk membuat orang jatuh cinta. Situs lain, seperti Character.ai, memungkinkan Anda untuk mengobrol dan bergaul dengan karakter fiksi favorit Anda, atau membuat bot untuk diajak bicara sendiri.
Tapi kita hidup di zaman informasi yang salah. Kami telah melihat contoh yang mengganggu tentang bagaimana algoritme menyebarkan kebohongan dan teori konspirasi di antara manusia yang tidak disadari atau berniat buruk. Apa yang akan terjadi jika kita membiarkan mereka masuk ke dalam kehidupan emosional kita?
“Meskipun AI dapat mengartikulasikan hal-hal seperti manusia, Anda harus bertanya pada diri sendiri apa tujuannya,” kata Naama Hoffman, asisten profesor di Departemen Psikiatri di Fakultas Kedokteran Icahn, Rumah Sakit Mount Sinai, di New York Metropolis. “Tujuan dalam hubungan atau terapi adalah untuk meningkatkan kualitas hidup, sedangkan tujuan AI adalah menemukan apa yang paling banyak dikutip. Seharusnya tidak membantu, tentu saja.
Sebagai seorang terapis, saya tahu bahwa pekerjaan saya dapat memperoleh manfaat dari dukungan dari luar. Saya telah menjalankan kelompok trauma selama dua dekade, dan saya telah melihat bagaimana perancah kerangka psikoedukasi, terutama yang berbasis bukti seperti Searching for Security, memfasilitasi pekerjaan emosional yang lebih dalam. Lagi pula, chatbot asli, Eliza, dirancang untuk menjadi “terapis digital” karena mengajukan pertanyaan terbuka tanpa henti—dan Anda masih dapat menggunakannya. Chatbots dapat membantu orang menemukan inspirasi atau bahkan menghancurkan pertahanan dan memungkinkan orang memasuki terapi. Tapi di manakah titik di mana orang menjadi terlalu bergantung pada mesin?
Subsequent : [randomize]