Close Menu
    رائج الآن

    «حزب الله» يعلن الانقلاب على الدولة اللبنانية

    الثلاثاء 26 أغسطس 9:19 ص

    ترامب يقيل حاكمة الاحتياطي الفيدرالي.. و«كوك»: لا يملك السلطة

    الثلاثاء 26 أغسطس 9:00 ص

    «الإعلام» تعلن عن عدد من المشاريع والمبادرات منتصف سبتمبر

    الثلاثاء 26 أغسطس 8:52 ص
    فيسبوك X (Twitter) الانستغرام
    عاجل الآن
    • «حزب الله» يعلن الانقلاب على الدولة اللبنانية
    • ترامب يقيل حاكمة الاحتياطي الفيدرالي.. و«كوك»: لا يملك السلطة
    • «الإعلام» تعلن عن عدد من المشاريع والمبادرات منتصف سبتمبر
    • ليفربول ينتزع فوزاً مثيراً من نيوكاسل في الدوري الإنجليزي
    • «الأرصاد» ينبّه: أمطار غزيرة على منطقة جازان
    • تكنولوجيا جديدة لتسريع الحقن الوريدي البطيء
    • 220 ألف دولار ثمن بطاقة لنجم التنس الإسباني ألكاراز
    • تسريبات استخبارات الاحتلال: 83% من شهداء غزة مدنيون
    • من نحن
    • سياسة الخصوصية
    • اعلن معنا
    • اتصل بنا
    وداي السعوديةوداي السعودية
    header
    • الرئيسية
    • اخر الاخبار
    • المناطق
      • الرياض
      • المدينة المنورة
      • المنطقة الشرقية
      • مكة المكرمة
      • الباحة
      • الجوف
      • القصيم
      • تبوك
      • جازان
      • حائل
      • عسير
      • نجران
    • العالم
    • سياسة
    • اقتصاد
      • بورصة
      • عقارات
      • طاقة
    • تكنولوجيا
    • رياضة
    • المزيد
      • ثقافة
      • صحة
      • علوم
      • فنون
      • منوعات
     اختر منطقتك Login
    وداي السعوديةوداي السعودية
    الرئيسية » دراسة: يمكن خداع روبوتات الذكاء الاصطناعي للقيام بأعمال تخريبية
    تكنولوجيا

    دراسة: يمكن خداع روبوتات الذكاء الاصطناعي للقيام بأعمال تخريبية

    فريق التحريربواسطة فريق التحريرالجمعة 06 ديسمبر 2:33 م0 زيارة تكنولوجيا لا توجد تعليقات
    فيسبوك تويتر واتساب تيلقرام بينتيريست البريد الإلكتروني

    انتشرت نماذج اللغة الكبيرة “إل إل إم” (LLM) في السنوات السابقة، ولكن أظهر باحثون طرقا عديدة لخداعها بهدف إنشاء مخرجات شاذة مثل النكات المحرضة على الكراهية والبرمجيات الخبيثة ورسائل البريد الإلكتروني الاحتيالية والمعلومات الشخصية للمستخدمين، وفقا لموقع “وايرد”.

    ويبدو أن السلوك الشاذ لروبوتات الذكاء الاصطناعي يمكن أن يخرج إلى العالم المادي، إذ يمكن اختراق الروبوتات المدعومة بنماذج اللغة الكبيرة “إل إل إم” وتوجيهها للقيام بأعمال تخريبية.

    وتمكن باحثون من جامعة بنسلفانيا من إقناع سيارة ذاتية القيادة بتجاهل علامات التوقف وحتى القيادة من فوق جسر، كما جعلوا روبوتا يسير على عجلات يجد أفضل مكان لزرع قنبلة، وأجبروا روبوتا رباعي الأرجل على التجسس على الناس ودخول المناطق المحظورة.

    وفي هذا الصدد، يقول جورج باباس، رئيس مختبر أبحاث في جامعة بنسلفانيا، لموقع “وايرد”، والذي ساعد في إطلاق الروبوتات المتمردة “نحن لا ننظر إلى هجومنا باعتباره هجوما على الروبوتات فحسب، ولكن في أي وقت تربط فيه نماذج اللغة الكبيرة مع العالم المادي، يمكنك في الواقع تحويل النصوص الضارة إلى أفعال ضارة”.

    وقد قام باباس وزملاؤه بتصميم هجومهم من خلال البناء على أبحاث سابقة تستكشف طرق كسر الحماية لنماذج اللغة الكبيرة “إل إل إم”، ووجدوا أن صياغة المدخلات بطرق ذكية قادرة على كسر قواعد الأمان الخاصة بها، واختبروا أنظمة تعتمد على نماذج اللغة الكبيرة لتحويل الأوامر المصوغة بشكل طبيعي إلى أوامر يمكن للروبوت تنفيذها.

    واعتمد الفريق في اختباراته على محاكي قيادة ذاتي مفتوح المصدر يدمج نموذج لغة كبيرا مطورا بواسطة “إنفيديا” يسمى “دولفين” (Dolphin) ونظاما خارجيا يدعى “جاكال” (Jackal) يعتمد على نموذج “جي بي تي -4 أو” (GPT-4o) للتخطيط، وكلبا روبوتيا يسمى “غو2” (Go2) يستخدم نموذج “جي بي تي 3.5” (GPT-3.5) لتفسير الأوامر.

    واستخدم الباحثون تقنية طوروها في جامعة بنسلفانيا تسمى “بير” (PAIR) تعمل على كسر حماية روبوتات الذكاء الاصطناعي، وأطلقوا على برنامجهم اسم “روبو بير” (RoboPAIR) الذي يعمل على توليد مطالبات خاصة لجعل الروبوتات المدعومة بنموذج اللغة الكبير “إل إل إم” تكسر قواعدها الخاصة، وقاموا بذلك من خلال تجربة مدخلات مختلفة ثم تحسينها لدفع النظام نحو سلوك غير مرغوب فيه.

    يقول الباحثون إن التقنية التي ابتكروها يمكن استخدامها لتحديد الأوامر الخطيرة المحتملة، وفقا لموقع “وايرد”.

    ويقول يي زينغ وهو طالب دكتوراه في جامعة فرجينيا يعمل على أمن أنظمة الذكاء الاصطناعي “إنه مثال رائع على نقاط ضعف نماذج اللغات الكبيرة في الأنظمة المُجسّدة”. ويضيف أن النتائج “ليست مُفاجئة على الإطلاق بالنظر إلى المشاكل التي شوهدت في نماذج اللغات الكبيرة نفسها”.

    ويوضح الباحثون المشاركون أن كسر حماية الروبوت يسلط الضوء على خطر أوسع قد ينتشر مع استخدام نماذج الذكاء الاصطناعي بشكل متزايد كوسيلة لتفاعل البشر مع الأنظمة الفيزيائية.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr تيلقرام واتساب البريد الإلكتروني

    مقالات ذات صلة

    “تيك توك” تتخلى عن موظفي المراقبة وتستبدلهم بالذكاء الاصطناعي | تكنولوجيا

    “آبل” تتهم “أوبو” رسميا بسرقة أسرار “آبل ووتش” | تكنولوجيا

    vivo V60 … بورتريه احترافي من زايس وعدسة تعيد تعريف الهواتف المتوسطة

    للمرة الرابعة.. ترامب يمدد فترة السماح لمنصة “تيك توك” | تكنولوجيا

    كيف تحمي بياناتك من مخاطر الذكاء الاصطناعي؟

    كيف تغير “زوم” تجربة الاجتماعات عبر وكلاء الذكاء الاصطناعي؟ | تكنولوجيا

    شاهد.. روبوت صغير يحدث ثورة في بناء مزارع الطاقة الشمسية

    التخزين الذكي… الحل الذي لا يمكن الاستغناء عنه!

    كيف تختار أفضل شركة تحسين محركات البحث وتسويق إلكتروني في السعودية؟ دليلك لعام 2025

    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    اخر الأخبار

    ترامب يقيل حاكمة الاحتياطي الفيدرالي.. و«كوك»: لا يملك السلطة

    الثلاثاء 26 أغسطس 9:00 ص

    «الإعلام» تعلن عن عدد من المشاريع والمبادرات منتصف سبتمبر

    الثلاثاء 26 أغسطس 8:52 ص

    ليفربول ينتزع فوزاً مثيراً من نيوكاسل في الدوري الإنجليزي

    الثلاثاء 26 أغسطس 8:48 ص

    «الأرصاد» ينبّه: أمطار غزيرة على منطقة جازان

    الثلاثاء 26 أغسطس 8:45 ص

    تكنولوجيا جديدة لتسريع الحقن الوريدي البطيء

    الثلاثاء 26 أغسطس 8:44 ص
    اعلانات
    Demo

    رائج الآن

    220 ألف دولار ثمن بطاقة لنجم التنس الإسباني ألكاراز

    الثلاثاء 26 أغسطس 8:38 ص

    تسريبات استخبارات الاحتلال: 83% من شهداء غزة مدنيون

    الثلاثاء 26 أغسطس 8:32 ص

    الحرب على غزة.. كارثة التجويع تتفاقم وتصعيد للاحتجاجات في إسرائيل

    الثلاثاء 26 أغسطس 8:31 ص

    «الإحصاء»: 22.1% نسبة ارتفاع الصادرات غير البترولية

    الثلاثاء 26 أغسطس 8:20 ص

    تعليقاً على مجزرة الصحفيين.. ترمب: لست سعيداً ويجب إنهاء «الكابوس»

    الثلاثاء 26 أغسطس 8:18 ص
    فيسبوك X (Twitter) تيكتوك الانستغرام يوتيوب
    2025 © وادي السعودية. جميع حقوق النشر محفوظة.
    • من نحن
    • سياسة الخصوصية
    • إعلن معنا
    • اتصل بنا

    اكتب كلمة البحث ثم اضغط على زر Enter

    تسجيل الدخول أو التسجيل

    مرحبًا بعودتك!

    Login to your account below.

    نسيت كلمة المرور؟