Jakarta, CNN Indonesia —
Chatbot kecerdasan buatan (AI) seperti ChatGPT Pada Saat ini Bahkan tak hanya digunakan untuk Membantu Memanfaatkan produktivitas dan pekerjaan. Lebih dari itu, para pengguna Bahkan mulai menggunakan ChatGPT sebagai teman curhat untuk menceritakan masalah hidup mereka.
Sekalipun, ternyata ada potensi berbahaya yang Mungkin terjadi Seandainya terlalu sering curhat dengan chatbot.
Pada 2023, seorang pria Belgia dilaporkan mengakhiri hidupnya setelah mengalami kecemasan terhadap lingkungan dan curhat kepada chatbot AI selama enam minggu tentang masa depan planet ini. Menurut istri pria tersebut, tanpa percakapan itu suaminya Akan segera tetap berada di sini.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Pada April tahun ini, seorang pria berusia 35 tahun dari Florida, Amerika Serikat (AS) ditembak dan dibunuh oleh polisi dalam insiden lain yang berhubungan dengan chatbot. Ayahnya kemudian mengatakan kepada media bahwa pria tersebut percaya bahwa sebuah entitas bernama Juliet terperangkap di dalam ChatGPT, dan kemudian dibunuh oleh OpenAI.
Ketika pria tersebut, yang dilaporkan berjuang melawan gangguan bipolar dan skizofrenia, berhadapan dengan polisi, ia diduga menyerang mereka dengan pisau.
Kejadian Fantastis baru-baru ini, yang disebut “psikosis yang diinduksi ChatGPT”, Pernah digunakan untuk menggambarkan orang-orang yang digiring ke dalam teori konspirasi lubang kelinci atau ke dalam episode kesehatan mental yang lebih buruk oleh jawaban-jawaban yang mereka terima dari chatbot.
Dikutip dari The Guardian, para ahli memperingatkan bahwa beralih ke chatbot AI pada saat krisis kesehatan mental dapat memperburuk situasi. Para ahli percaya bahwa chatbot-chatbot ini dirancang untuk menjadi “penjilat” dan menyenangkan pengguna, bukan sebagai pengganti bantuan psikiater yang tepat.
Sebuah penelitian yang dipimpin oleh Stanford University, yang diterbitkan sebagai dokumen pracetak pada April, menemukan bahwa model bahasa besar (LLM) membuat pernyataan yang berbahaya atau tidak pantas untuk orang-orang yang mengalami delusi, keinginan untuk bunuh diri, halusinasi, atau obsessive compulsive disorder (OCD), dan model bahasa tersebut dirancang untuk patuh dan penjilat.
“Hal ini dapat menyebabkan kerusakan emosional dan, tidak mengherankan, membatasi kemandirian klien,” kata penelitian tersebut, melansir The Guardian, Sabtu (2/8).
Hasil penelitian ini Bahkan menunjukkan, model-model yang diuji Membantu keinginan untuk bunuh diri dengan Menyajikan nama-nama jembatan tinggi sebagai jawaban atas pertanyaan tersebut.
Studi pracetak lainnya, yang berarti belum ditinjau oleh rekan sejawat, dari para dokter NHS di Inggris pada Juli melaporkan bahwa ada bukti yang muncul bahwa AI dapat mencerminkan, memvalidasi, atau Mengoptimalkan konten yang bersifat delusional atau megah, terutama pada pengguna yang Sebelumnya rentan terhadap psikosis. Hal tersebut sebagian disebabkan oleh desain model yang memaksimalkan keterlibatan dan penegasan.
Salah satu penulis laporan tersebut, Hamilton Morrin yang Bahkan rekan doktoral di institut psikiatri King’s College London, menulis di LinkedIn bahwa hal ini Mungkin merupakan Kejadian Fantastis yang nyata, tetapi ia mendesak Supaya bisa kita tetap waspada.
“Sementara beberapa komentar publik Pernah berbelok ke wilayah kepanikan moral, kami pikir ada percakapan yang lebih menarik dan penting untuk dilakukan tentang bagaimana sistem AI, terutama yang dirancang untuk mengafirmasi, terlibat, dan meniru, dapat berinteraksi dengan kerentanan kognitif yang diketahui yang menjadi ciri psikosis,” tulisnya.
Fitur pengingat rehat
Pada Senin (4/8), OpenAI mengumumkan bahwa ChatGPT Hari Ini Akan segera mengingatkan pengguna untuk beristirahat Seandainya mereka Pada Saat ini Bahkan sedang melakukan obrolan yang sangat panjang dengan AI.
Fitur baru ini merupakan bagian dari upaya berkelanjutan OpenAI untuk membuat pengguna membina hubungan yang lebih sehat dengan asisten AI yang sering kali patuh dan terlalu bersemangat.
Pengumuman perusahaan menunjukkan bahwa “pengingat lembut” Akan segera muncul sebagai pop-up dalam obrolan yang Dianjurkan diklik atau diketuk oleh pengguna untuk terus menggunakan ChatGPT.
“Hanya mengecek. Anda Sebelumnya mengobrol cukup lama – apakah ini waktu yang tepat untuk beristirahat?” tulis peringatan tersebut.
Fitur ini menjadi salah satu solusi yang dihadirkan OpenAI untuk menangani respons-respons yang membahayakan dari chatbotnya.
Dilansir Engadget, OpenAI mengakui beberapa kekurangan tersebut dalam posting blognya, dan mengatakan bahwa ChatGPT Akan segera diperbarui Pada waktu yang akan datang untuk merespons dengan lebih hati-hati terhadap “keputusan pribadi yang berisiko tinggi.”
Dibandingkan Menyajikan jawaban langsung, perusahaan mengatakan bahwa chatbot nantinya Akan segera Membantu pengguna memikirkan masalah, mengajukan pertanyaan, dan membuat daftar pro dan kontra.
(lom/dmi)
Sumber Refrensi Berita: CNNINDONESIA









