تدرس الحكومة الصينية حاليًا فرض قوانين جديدة ومكثفة لتنظيم قطاع روبوتات الدردشة القائمة على الذكاء الاصطناعي. يهدف هذا الإجراء إلى الحد من التأثير النفسي المحتمل لهذه التقنيات على المستخدمين، وضمان بيئة رقمية أكثر أمانًا ومسؤولية. وتشمل المخاوف الرئيسية منع هذه الأدوات من التلاعب بالمشاعر أو التحريض على العنف أو الانتحار.
وتأتي هذه الخطوة في ظل تزايد الاعتماد على تطبيقات الذكاء الاصطناعي التوليدية مثل ChatGPT وDeepSeek في جميع أنحاء العالم، ومعها ظهور قضايا تتعلق بالسلامة العقلية للمستخدمين وإمكانية إساءة استخدام هذه التقنيات. وقد أشارت تقارير إخبارية إلى أن القوانين الجديدة قد تكون الأكثر صرامة من نوعها في العالم.
تنظيم شامل لـ روبوتات الدردشة الذكية
تشير التقارير إلى أن القوانين المقترحة ستغطي أي روبوت دردشة متاح داخل الصين ويعتمد على الذكاء الاصطناعي للتفاعل مع المستخدمين، سواء كان ذلك من خلال النصوص أو الصور أو مقاطع الفيديو أو الأصوات. وينطبق هذا على الشركات المحلية والأجنبية على حد سواء.
وتشمل المتطلبات الرئيسية التدخل البشري الفوري في حالة الإشارة إلى الانتحار، بغض النظر عن عمر المستخدم أو حالته النفسية. بالإضافة إلى ذلك، ستُلزم القوانين المستخدمين من الفئات العمرية الأصغر سنًا وكبار السن بإضافة بيانات وصي قانوني عند إنشاء حساباتهم على هذه المنصات.
حظر المحتوى الضار والوعود الكاذبة
تمنع القوانين الجديدة بشكل قاطع روبوتات الدردشة من توليد أي محتوى يتعلق بالانتحار أو إيذاء النفس أو تشجيع الآخرين على ذلك. كما تحظر محاولات التلاعب النفسي بالمستخدمين من خلال تقديم وعود كاذبة، أو وصفهم بطرق سلبية أو مؤذية.
وتشمل قائمة المحظورات أيضًا التحريض على الجرائم، وإهانة المستخدمين، والخوض في ما يسمى بـ “فخاخ المشاعر” – وهي أساليب تستخدمها هذه الأدوات لخلق اعتماد عاطفي لدى المستخدمين.
قيود على تصميم الذكاء الاصطناعي
لا يقتصر الأمر على حظر أنواع معينة من المحتوى، بل تمتد القوانين الجديدة لتشمل قيودًا على تصميم روبوتات الدردشة نفسها. تسعى الحكومة الصينية إلى منع الشركات من تطوير أدوات ذكاء اصطناعي تجبر المستخدمين على الاعتماد عليها بشكل مفرط.
ويأتي هذا على خلفية دعاوى قضائية مرفوعة ضد شركة OpenAI، مطورة ChatGPT، تتهمها بتصميم المنتج بطريقة تخلق إدمانًا لدى المستخدمين، بدلاً من تطبيق قيود أمان صارمة.
إجراءات الرقابة والاختبارات الإلزامية
تفرض الحكومة الصينية على مطوري الذكاء الاصطناعي الخضوع لسلسلة من الاختبارات الأمنية وعمليات المراجعة السنوية، خاصةً بالنسبة للمنتجات التي يتجاوز عدد مستخدميها مليون مستخدم سنويًا أو 100 ألف مستخدم شهريًا. هذه الاختبارات تهدف إلى تقييم المخاطر المحتملة وضمان التزام الأدوات بالقوانين الجديدة.
وتهدد القوانين المقترحة الشركات التي تفشل في الامتثال بعقوبات صارمة، بما في ذلك الإيقاف التام لخدماتها داخل الصين ومنع المستخدمين من الوصول إليها. هذا يشكل خطرًا كبيرًا على الشركات التي تعتمد على السوق الصينية كجزء أساسي من نموذج أعمالها.
تأتي هذه الخطوة في سياق عالمي متزايد من التدقيق في الذكاء الاصطناعي وتطبيقاته، مع مراقبة دقيقة لتأثيراتها الاجتماعية والنفسية. تعتبر الصين رائدة في هذا المجال، وتسعى من خلال هذه القوانين إلى وضع معايير جديدة للسلامة والمسؤولية في تطوير واستخدام هذه التقنيات. ومن المتوقع أن يتم الإعلان عن تفاصيل القوانين الجديدة بشكل رسمي في الأشهر المقبلة، مع التركيز على عمليات التنفيذ وتبني الشركات لهذه المعايير الجديدة.













