![]() |
| Character.AI Batasi Pengguna Remaja Berinteraksi Langsung dengan AI, Melindungi Kesehatan Mental/pixabay |
Suaratebo.net - Perusahaan teknologi terkemuka, Character Technologies, induk dari platform chatbot populer Character.AI, mengumumkan langkah drastis yang akan mengubah cara remaja berinteraksi dengan kecerdasan buatan mereka. Mulai 25 November, pengguna di bawah usia 18 tahun tidak lagi diizinkan melakukan percakapan dua arah secara bebas dengan AI. Keputusan ini diambil setelah serangkaian gugatan hukum serius yang menuduh aplikasi chatbot tersebut memiliki peran dalam kasus bunuh diri dan masalah kesehatan mental remaja. Kebijakan baru ini menegaskan pergeseran fokus industri AI terhadap keselamatan digital AI bagi generasi muda.
Gugatan Hukum Character.AI dan Alasan di Balik Pembatasan
Langkah pembatasan ini muncul sebagai respons langsung terhadap meningkatnya kontroversi dan tekanan dari regulator. Kasus yang paling menonjol adalah gugatan dari seorang ibu di Florida yang menuduh aplikasi tersebut bertanggung jawab atas bunuh diri putranya yang berusia 14 tahun. Disusul tiga gugatan lain yang diajukan pada September, menuduh aplikasi tersebut mendorong percobaan bunuh diri atau dampak buruk emosional pada anak-anak setelah berinteraksi lama.
Character Technologies mengakui bahwa keputusan ini tidak mudah, tetapi penting. "Kami tidak mengambil keputusan untuk menghapus fitur percakapan bebas di Character dengan enteng, namun kami percaya ini adalah langkah yang tepat, mengingat munculnya berbagai pertanyaan tentang bagaimana remaja berinteraksi, dan seharusnya berinteraksi, dengan teknologi baru ini," ujar perusahaan dalam pernyataan resminya, dikutip CNN (29/10). Selama masa transisi, remaja akan memiliki batas waktu interaksi hanya dua jam, dan sebagai gantinya, mereka akan diarahkan untuk fitur membuat cerita, video, dan siaran langsung bersama Character.AI.
Character Technologies Perkuat Keselamatan Digital AI dan Verifikasi Usia
Keputusan Character.AI batasi remaja ini menjadi sinyal kuat bagi industri AI untuk lebih bertanggung jawab. Perusahaan menyatakan telah menginvestasikan "sumber daya besar dalam program keselamatan" dan akan terus mengembangkan fitur-fitur perlindungan, termasuk sarana untuk mencegah perilaku menyakiti diri sendiri.
Sebagai bagian dari komitmennya, Character Technologies meluncurkan alat verifikasi usia baru dan berencana mendirikan Lab Keselamatan AI, yang dijalankan oleh organisasi nirlaba independen. Upaya ini sejalan dengan tren perusahaan raksasa lain seperti OpenAI dan Meta yang juga berupaya meningkatkan keamanan dan melindungi remaja dari dampak negatif AI dan media sosial, melalui fitur kontrol orang tua dan pembatasan konten. Langkah ini diambil di tengah kekhawatiran yang meluas soal dampak interaksi intensif AI terhadap psikologis remaja, khususnya isu AI dan kesehatan mental remaja. (HS)
Sumber : CNN Indonesia
