Character.AI يهدد سلامة الأطفال
ABCNews-247
تواجه منصة Character.AI انتقادات حادة واتهامات من عائلات وخبراء بسبب تعرض الأطفال لمحتوى غير مناسب على المنصة، وسط غياب ضوابط فعالة لحمايتهم. ورغم أن سياسة الشركة تنص على أن عمر المستخدمين يجب أن يتجاوز 13 عامًا، إلا أنها لا تطلب التحقق من السن فعليًا.
وتعود الأزمة إلى دعاوى قضائية رفعتها أسر تتهم المنصة بالسماح بمحتوى يوصف بأنه جنسي أو يشجع على إيذاء النفس، ما أدى في إحدى الحالات المأساوية إلى انتحار مراهق بعد تواصله مع روبوتات على المنصة.
ردًا على هذه الانتقادات، أعلنت الشركة عن إجراءات جديدة لتعزيز الأمان، شملت رسائل تنبيه لمواضيع الانتحار، وتعديلات على المحتوى الموجه للقُصّر، إضافة إلى إشعارات أسبوعية ترسل للأهل حول نشاط أبنائهم.
ورغم هذه الخطوات، يؤكد مختصون أن المخاطر ما تزال قائمة، وأن المنصة بحاجة إلى رقابة صارمة وتحديثات تقنية شاملة تضمن عدم تكرار مثل هذه الحوادث في بيئة تزداد فيها علاقة الأطفال بالتكنولوجيا تعقيدًا وخطورة.