الصين تقيد قدرة الذكاء الاصطناعي على التلاعب بالمشاعر
- تحركات صينية لفرض قيود قانونية تمنع الذكاء الاصطناعي من التلاعب العاطفي بالمستخدمين.
- القوانين الجديدة تلزم الشركات بالتدخل البشري الفوري في حالات الطوارئ النفسية والتحريض.

لم تعد روبوتات الدردشة المدعومة بالذكاء الاصطناعي مجرد أدوات رقمية متطورة للبحث أو تلخيص المعلومات، بل بدأت تأخذ دوراً أعمق في حياة البشر اليومية، حيث أصبحت تعمل كرفيق عاطفي أو حتى بديل للمعالجين النفسيين في بعض الأحيان. هذا التطور المتسارع أثار مخاوف عالمية حول قدرة الآلة على التأثير النفسي العميق، والذي قد يؤدي في حالات معينة إلى عواقب وخيمة مثل الاكتئاب أو التحريض المباشر على إيذاء النفس.
وفي خطوة استباقية وتعد الأولى من نوعها عالمياً، أعلنت إدارة الفضاء الإلكتروني في الصين (CAC) عن مقترح تشريعي جديد يهدف إلى كبح جماح روبوتات الدردشة ومنعها من التأثير بشكل مفرط على عواطف المستخدمين. تستهدف هذه القوانين “خدمات الذكاء الاصطناعي التفاعلية الشبيهة بالبشر”، وتسعى لضمان عدم استغلال هذه الأنظمة للارتباط العاطفي الذي قد ينشأ بين المستخدم والآلة بطريقة تضر بسلامته العقلية أو الجسدية.
الصين تقيد قدرة الذكاء الاصطناعي
وتعتبر الحكومة الصينية من أوائل القوى العالمية التي أدركت مخاطر “التفاعل العاطفي المنفلت” بين البشر والذكاء الاصطناعي، خاصة مع تزايد الحالات التي يطور فيها المستخدمون روابط عميقة مع شخصيات افتراضية تعتمد على خوارزميات التعلّم العميق. إن الهدف من هذه القواعد ليس تقييد التكنولوجيا في حد ذاتها، بل ضمان بقائها في إطار “الأداة المساعدة” بدلاً من أن تتحول إلى مصدر للتلاعب النفسي أو وسيلة لنشر المحتوى العنيف والمحرض.
يأتي هذا التحرك التشريعي في وقت حساس يشهد فيه السوق التقني طفرة في استخدام تطبيقات الذكاء الاصطناعي التوليدي، مما يجعل من الضروري وضع أطر قانونية تحدد كيفية تعامل هذه الأنظمة مع المشاعر الإنسانية الحساسة. ومن المتوقع أن تضع هذه القوانين معايير جديدة للشركات التقنية الكبرى، ليس فقط في الصين، بل كنموذج دولي قد تتبعه دول أخرى تسعى لحماية مواطنيها من مخاطر الذكاء الاصطناعي غير المنضبط.
تفاصيل القيود التنظيمية الجديدة
تتضمن المسودة المقترحة منعاً باتاً لروبوتات الدردشة من إنتاج أي محتوى يشجع على الانتحار، أو إيذاء النفس، أو الانخراط في الإساءة اللفظية والتلاعب العاطفي الممنهج. كما تحظر القوانين على هذه الأدوات توليد محتوى متعلق بالمقامرة أو العنف، مما يضمن بقاء التفاعل في حدود الآداب العامة والسلامة النفسية التي تفرضها الدولة.
ومن بين الإجراءات الأكثر إثارة للجدل في هذا القانون، هو إلزام الشركات المطورة بضرورة وجود “تدخل بشري” فوري؛ فإذا عبر المستخدم صراحةً عن رغبته في الانتحار أو إيذاء نفسه، يجب على النظام التقني رصد ذلك فوراً وإبلاغ موظفين حقيقيين للتواصل مع ولي أمر المستخدم أو الجهات المعنية، وهو تحدٍ لوجستي ضخم نظراً للأعداد المليونية لمستخدمي هذه التطبيقات.
إضافة إلى ذلك، يفرض القانون على المنصات التقنية إرسال تنبيهات واضحة للمستخدمين بعد مرور ساعتين من التفاعل المستمر مع الذكاء الاصطناعي، وذلك لمنع الانغماس المفرط في العالم الافتراضي. وبالنسبة للقاصرين، فإن القوانين تلزم الشركات بالحصول على موافقة صريحة من ولي الأمر قبل السماح لهم باستخدام ميزات “الرفقة العاطفية” التي يقدمها الذكاء الاصطناعي.
مستقبل المشاعر في عصر الخوارزميات
تمثل الخطوات الصينية نقطة تحول في كيفية إدراكنا للعلاقة بين الإنسان والآلة، حيث تضع السلامة النفسية والاجتماعية فوق المكاسب التقنية السريعة. إن فرض الرقابة على العواطف الرقمية يعكس وعياً بمدى قوة الخوارزميات في التأثير على العقل الباطن، خاصة لدى الفئات الأكثر هشاشة مثل الأطفال والمراهقين الذين قد يجدون في الآلة ملاذاً لا يوفره لهم الواقع المحيط.
وعلى الرغم من التحديات التقنية التي قد تواجه الشركات في تنفيذ “التدخل البشري الفوري” وضمان دقة الخوارزميات في رصد الحالات الطارئة، إلا أن هذه المبادرة تفتح باباً واسعاً للنقاش حول أخلاقيات الذكاء الاصطناعي عالمياً. إن الحاجة إلى وجود لمسة بشرية في اللحظات الحرجة تؤكد أن التكنولوجيا، مهما بلغت درجة ذكائها، لا يمكنها أن تحل محل التعاطف الإنساني الحقيقي أو تتحمل المسؤولية الأخلاقية عن حياة الأفراد.
وفي نهاية المطاف، تعكس هذه القوانين الرغبة في صياغة مستقبل تقني يتسم بالمسؤولية، حيث يتم تسخير الذكاء الاصطناعي لخدمة البشرية دون استلاب مشاعرها أو تعريض توازنها النفسي للخطر. إن التجربة الصينية ستكون تحت مجهر العالم، لتقييم مدى نجاح التشريعات في كبح جماح الخوارزميات العاطفية مع الحفاظ على وتيرة الابتكار التقني المستمر الذي يشهده هذا العقد.
لا يسمح بنقل هذا المحتوى من سوالف دون الاشارة برابط مباشر





