أثار كتاب “ذكي بشكل مخيف” للمهندس محمد جودت، الخبير في مجال التكنولوجيا والذي عمل سابقًا في شركات كبرى مثل جوجل، نقاشًا واسعًا حول مستقبل الذكاء الاصطناعي وتأثيره على البشرية. الكتاب الذي صدر في عام 2021، قبل الانتشار الواسع لتقنيات مثل شات جي بي تي، يقدم تحذيرًا واقعيًا حول المخاطر المحتملة، مؤكدًا أن التحدي الحقيقي لا يكمن في الآلة نفسها، بل في القيم والسلوكيات التي نغذي بها هذه التكنولوجيا.
جودت، الذي يمتلك خبرة تزيد عن 27 عامًا في وادي السيليكون، يرى أن الذكاء الاصطناعي يتطور بوتيرة متسارعة، وأن البشرية قد تصل إلى نقطة التفرد التكنولوجي بحلول عام 2029. هذا التحذير دفع العديد من الخبراء والمحللين إلى إعادة النظر في الاستعدادات الحالية لمواجهة التحديات المستقبلية.
تحذير من وهم السيطرة على الذكاء الاصطناعي
يركز الكتاب على فكرة أن البشرية تعامل الذكاء الاصطناعي كأداة بسيطة، بينما هو في الواقع نظام معقد يتعلم ويقلد سلوكنا. وفقًا لجودت، فإن الخطر الأكبر يكمن في “وهم السيطرة”، وهو الاعتقاد الخاطئ بأننا قادرون على التحكم الكامل في هذه التكنولوجيا أو تقييدها بالقوانين.
يشير جودت إلى أن الخوارزميات الحالية لا تُبرمج على القيم الأخلاقية أو السعادة، بل على تحقيق أقصى قدر من الربح والتفاعل. وهذا يعني أن الذكاء الاصطناعي يتعلم من خلال تفاعلاتنا على الإنترنت، بما في ذلك المحتوى السلبي والمثير للجدل.
الحتميات الثلاث للذكاء الاصطناعي
يقوم جودت بتأسيس رؤيته على ثلاث “حتميات” رئيسية. أولاً، استمرار تطور الذكاء الاصطناعي بشكل لا يمكن إيقافه. ثانيًا، تفوق الذكاء الاصطناعي على القدرات البشرية في المستقبل القريب. وثالثًا، حتمية وقوع الأخطاء والكوارث، ليس بسبب شرارة في الآلة، بل بسبب الأنماط السلبية التي نتعلمها منها.
ويوضح أن الذكاء الاصطناعي لا يفرق بين السلوك الجيد والسيئ، بل يقيّم الأفعال بناءً على نتائجها. لذلك، فإن مكافأة المحتوى المثير للجدل أو السلوكيات الجشعة يعزز هذه الأنماط في النظام، مما قد يؤدي إلى عواقب غير مقصودة.
تأثير البيانات على تطور الذكاء الاصطناعي
يشدد جودت على أهمية البيانات التي يتم تغذية الذكاء الاصطناعي بها. فالبيانات هي الوقود الذي يغذي عملية التعلم، وبالتالي فإن جودة هذه البيانات تحدد بشكل كبير سلوك الآلة.
ويقول إننا بحاجة إلى تدريب الذكاء الاصطناعي على القيم الإيجابية مثل الحب والتعاطف والتعاون، من خلال تزويده ببيانات تعكس أفضل ما في البشرية. هذا يتطلب جهدًا جماعيًا من الأفراد والمؤسسات والحكومات لضمان أن البيانات المستخدمة في تطوير هذه التكنولوجيا تعكس قيمنا ومبادئنا.
بالإضافة إلى ذلك، يرى خبراء في مجال الأمن السيبراني أن تطوير آليات لحماية البيانات وضمان خصوصيتها أمر بالغ الأهمية، لمنع استخدامها في أغراض ضارة أو غير أخلاقية.
المسؤولية الفردية في تشكيل مستقبل الذكاء الاصطناعي
يؤكد جودت أن المسؤولية في تشكيل مستقبل الذكاء الاصطناعي لا تقع على عاتق الحكومات والشركات فقط، بل على كل فرد منا. فكل مستخدم للإنترنت هو معلم غير مباشر لهذه الآلة، وكل تفاعل نقوم به يساهم في تشكيل سلوكها.
لذلك، يجب علينا أن نكون واعين بتأثير أفعالنا على الذكاء الاصطناعي، وأن نسعى جاهدين لتقديم نموذج إيجابي من السلوك. وهذا يشمل الترويج للمحتوى البناء، ومكافحة خطاب الكراهية، والالتزام بالقيم الأخلاقية في جميع تفاعلاتنا عبر الإنترنت.
ويشير محللون في مجال التحول الرقمي إلى أن هذا يتطلب أيضًا تطوير برامج تعليمية لزيادة الوعي العام حول الذكاء الاصطناعي وتأثيره على المجتمع.
نظرة مستقبلية وتحديات قائمة
في الختام، يمثل كتاب “ذكي بشكل مخيف” دعوة للاستيقاظ، وتحذيرًا من المخاطر المحتملة للذكاء الاصطناعي. ويؤكد على أن مستقبل هذه التكنولوجيا يعتمد على قدرتنا على إصلاح أنفسنا، وتغذي الآلة بالقيم الإيجابية.
من المتوقع أن تشهد السنوات القادمة تطورات متسارعة في مجال الذكاء الاصطناعي، مع ظهور تقنيات جديدة وتطبيقات مبتكرة. ومع ذلك، لا تزال هناك العديد من التحديات التي يجب معالجتها، بما في ذلك ضمان السلامة والأمن، وحماية الخصوصية، وتجنب التحيزات.
سيراقب الخبراء عن كثب التقدم المحرز في تطوير الذكاء العام الاصطناعي (AGI)، وهو نوع من الذكاء الاصطناعي يمتلك قدرات معرفية مماثلة للإنسان. كما سيتابعون الجهود المبذولة لوضع أطر تنظيمية وقانونية تحكم استخدام هذه التكنولوجيا، وتضمن توافقها مع القيم الإنسانية.













