كشف تقرير حديث عن تزايد القلق وانعدام الثقة بين العاملين في مجال الذكاء الاصطناعي، خاصةً فيما يتعلق بمراجعة وتقييم دقة المعلومات التي تنتجها هذه النماذج. ويشير التقرير، الذي نشرته صحيفة “الغارديان”، إلى أن هؤلاء العاملين يحذرون حتى أفراد أسرهم من الاعتماد على أدوات الذكاء الاصطناعي في الحصول على المعلومات، مما يعكس مخاوف عميقة حول جودة وموثوقية هذه التقنيات.
تأتي هذه المخاوف من معرفة العاملين بالعمليات الداخلية لتقييم نتائج الذكاء الاصطناعي، حيث أن غالبية المشاركين في التقرير يعملون في مهام مراجعة البيانات وتدقيقها. وقد أظهرت تجاربهم وجود تحيزات وأخطاء متكررة في الردود التي تقدمها النماذج، مما يثير تساؤلات حول مدى استعداد هذه التقنيات للاعتماد عليها بشكل واسع النطاق.
أزمة الثقة في نماذج الذكاء الاصطناعي
تصف كريستا باولوسكي، وهي إحدى العاملات في منصة “أمازون ميكانيكال تورك”، تجربتها بالقول أنها كادت أن تمرر ردًا عنصريًا من نموذج ذكاء اصطناعي دون أن تدرك ذلك. هذا أثار لديها تساؤلات حول عدد المرات التي قد تكون فيها قد تجاهلت معلومات خاطئة أو متحيزة دون علم مسبق. “أمازون ميكانيكال تورك” هي منصة توظيف جماعي تتيح للشركات الاستعانة بأفراد لمراجعة وتدقيق البيانات التي تنتجها أنظمة الذكاء الاصطناعي.
دور منصات العمل الحر
أكدت “أمازون” أن منصتها تعمل كـ “متجر مفتوح للوظائف” وأنها ليست مسؤولة بشكل مباشر عن محتوى المهام أو الاختبارات التي يتم إجراؤها من خلالها. ومع ذلك، يثير هذا التوضيح تساؤلات حول الرقابة والإشراف على جودة البيانات التي يتم جمعها وتدريب النماذج عليها. الشركات تعتمد بشكل متزايد على هذه المنصات لتوفير كميات هائلة من البيانات اللازمة لتطوير أنظمة التعلم الآلي، ولكن قد يكون هناك نقص في التدريب المناسب للمراجعين.
تحيزات في نماذج جوجل
وينطبق الأمر نفسه على شركة “غوغل”، حيث يشير التقرير إلى أن عملية تقييم الردود الصحية، على وجه الخصوص، تتم دون تدقيق نقدي كاف. وقد صرح أحد موظفي “غوغل” المسؤولين عن مراجعة ردود الذكاء الاصطناعي لـ “الغارديان” بأن العملية تفتقر إلى الدقة اللازمة. بالإضافة إلى ذلك، كشف أحد العاملين عن وجود تحيزات في نماذج “غوغل”، حيث رفض النموذج تقديم ردود حول تاريخ الفلسطينيين بينما قدم معلومات مفصلة حول تاريخ إسرائيل.
هذا الموظف، الذي يفضل عدم الكشف عن هويته، يعبر عن رفضه لاستخدام تقنيات الذكاء الاصطناعي وروبوتات الدردشة، بل وحذر أصدقائه وعائلته من الاعتماد عليها أو شراء الأجهزة الجديدة التي تعتمد عليها. هذا يعكس قلقًا متزايدًا بشأن تأثير هذه التقنيات على المجتمع.
جودة البيانات وتأثيرها على الذكاء الاصطناعي
تعكس هذه الشكاوى أزمة حقيقية في جودة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي. بينما تركز الشركات على جمع أكبر قدر ممكن من البيانات، فإنها غالبًا ما تهمل جودة هذه البيانات وتصفيتها من التحيزات والأخطاء. هذا يؤدي إلى نماذج قد تكون دقيقة في بعض الحالات، ولكنها أيضًا عرضة لتقديم معلومات خاطئة أو متحيزة في حالات أخرى. تعتبر معالجة اللغة الطبيعية من المجالات الأكثر تأثرًا بهذه المشكلة.
بالإضافة إلى ذلك، فإن سرعة العمل المطلوبة من المراجعين في منصات مثل “أمازون ميكانيكال تورك” قد تمنعهم من إجراء تدقيق شامل ودقيق للبيانات. هذا يزيد من خطر مرور معلومات خاطئة أو متحيزة دون اكتشاف.
وتشير التقارير إلى أن الشركات المطورة لهذه النماذج لا تولي اهتمامًا كافيًا بتدريب المراجعين، مما يزيد من صعوبة مهمتهم. كما أن نقص الشفافية في كيفية عمل هذه النماذج يجعل من الصعب تحديد مصادر التحيزات والأخطاء.
من المتوقع أن تتزايد الضغوط على شركات الذكاء الاصطناعي لتحسين جودة البيانات المستخدمة لتدريب نماذجها وزيادة الشفافية في عملياتها. كما أن هناك حاجة إلى تطوير معايير أخلاقية واضحة لضمان استخدام هذه التقنيات بشكل مسؤول وعادل. ستكون المراقبة المستمرة لنتائج هذه النماذج وتقييمها من قبل خبراء مستقلين أمرًا بالغ الأهمية في بناء الثقة في هذه التقنيات. من المرجح أن نشهد في الأشهر القادمة المزيد من النقاشات حول هذه القضايا، وربما بعض التغييرات في السياسات والممارسات المتعلقة بتطوير ونشر أنظمة الذكاء الاصطناعي.













