Close Menu
    رائج الآن

    خلال أسبوعين.. ارتفاع الذهب إلى أعلى مستوياته

    الثلاثاء 26 أغسطس 11:23 ص

    بلجيكا: معاقبة إسرائيل والاعتراف بدولة فلسطينية يهددان الائتلاف الحاكم

    الثلاثاء 26 أغسطس 11:21 ص

    ترامب يقيل عضو الاحتياطي الفدرالي ليزا كوك والأخيرة تحتج قائلة: “لا صلاحية له”

    الثلاثاء 26 أغسطس 11:06 ص
    فيسبوك X (Twitter) الانستغرام
    عاجل الآن
    • خلال أسبوعين.. ارتفاع الذهب إلى أعلى مستوياته
    • بلجيكا: معاقبة إسرائيل والاعتراف بدولة فلسطينية يهددان الائتلاف الحاكم
    • ترامب يقيل عضو الاحتياطي الفدرالي ليزا كوك والأخيرة تحتج قائلة: “لا صلاحية له”
    • سابقة علمية موثوقة.. نجاح أول زراعة رئة خنزير في جسد إنسان
    • مذكرة تفاهم بين المركز العلمي والجمعية الكويتية للتراث
    • تحذير من الأرصاد: أمطار غزيرة متوقعة في جازان
    • الجوازات: سداد الاستحقاقات المالية شرط لإصدار تأشيرة الخروج النهائي
    • فيزيائيون يبتكرون ميكروفونا “يرى” الصوت باستخدام الضوء فقط | علوم
    • من نحن
    • سياسة الخصوصية
    • اعلن معنا
    • اتصل بنا
    وداي السعوديةوداي السعودية
    header
    • الرئيسية
    • اخر الاخبار
    • المناطق
      • الرياض
      • المدينة المنورة
      • المنطقة الشرقية
      • مكة المكرمة
      • الباحة
      • الجوف
      • القصيم
      • تبوك
      • جازان
      • حائل
      • عسير
      • نجران
    • العالم
    • سياسة
    • اقتصاد
      • بورصة
      • عقارات
      • طاقة
    • تكنولوجيا
    • رياضة
    • المزيد
      • ثقافة
      • صحة
      • علوم
      • فنون
      • منوعات
     اختر منطقتك Login
    وداي السعوديةوداي السعودية
    الرئيسية » دراسة: يمكن خداع روبوتات الذكاء الاصطناعي للقيام بأعمال تخريبية
    تكنولوجيا

    دراسة: يمكن خداع روبوتات الذكاء الاصطناعي للقيام بأعمال تخريبية

    فريق التحريربواسطة فريق التحريرالجمعة 06 ديسمبر 2:33 م0 زيارة تكنولوجيا لا توجد تعليقات
    فيسبوك تويتر واتساب تيلقرام بينتيريست البريد الإلكتروني

    انتشرت نماذج اللغة الكبيرة “إل إل إم” (LLM) في السنوات السابقة، ولكن أظهر باحثون طرقا عديدة لخداعها بهدف إنشاء مخرجات شاذة مثل النكات المحرضة على الكراهية والبرمجيات الخبيثة ورسائل البريد الإلكتروني الاحتيالية والمعلومات الشخصية للمستخدمين، وفقا لموقع “وايرد”.

    ويبدو أن السلوك الشاذ لروبوتات الذكاء الاصطناعي يمكن أن يخرج إلى العالم المادي، إذ يمكن اختراق الروبوتات المدعومة بنماذج اللغة الكبيرة “إل إل إم” وتوجيهها للقيام بأعمال تخريبية.

    وتمكن باحثون من جامعة بنسلفانيا من إقناع سيارة ذاتية القيادة بتجاهل علامات التوقف وحتى القيادة من فوق جسر، كما جعلوا روبوتا يسير على عجلات يجد أفضل مكان لزرع قنبلة، وأجبروا روبوتا رباعي الأرجل على التجسس على الناس ودخول المناطق المحظورة.

    وفي هذا الصدد، يقول جورج باباس، رئيس مختبر أبحاث في جامعة بنسلفانيا، لموقع “وايرد”، والذي ساعد في إطلاق الروبوتات المتمردة “نحن لا ننظر إلى هجومنا باعتباره هجوما على الروبوتات فحسب، ولكن في أي وقت تربط فيه نماذج اللغة الكبيرة مع العالم المادي، يمكنك في الواقع تحويل النصوص الضارة إلى أفعال ضارة”.

    وقد قام باباس وزملاؤه بتصميم هجومهم من خلال البناء على أبحاث سابقة تستكشف طرق كسر الحماية لنماذج اللغة الكبيرة “إل إل إم”، ووجدوا أن صياغة المدخلات بطرق ذكية قادرة على كسر قواعد الأمان الخاصة بها، واختبروا أنظمة تعتمد على نماذج اللغة الكبيرة لتحويل الأوامر المصوغة بشكل طبيعي إلى أوامر يمكن للروبوت تنفيذها.

    واعتمد الفريق في اختباراته على محاكي قيادة ذاتي مفتوح المصدر يدمج نموذج لغة كبيرا مطورا بواسطة “إنفيديا” يسمى “دولفين” (Dolphin) ونظاما خارجيا يدعى “جاكال” (Jackal) يعتمد على نموذج “جي بي تي -4 أو” (GPT-4o) للتخطيط، وكلبا روبوتيا يسمى “غو2” (Go2) يستخدم نموذج “جي بي تي 3.5” (GPT-3.5) لتفسير الأوامر.

    واستخدم الباحثون تقنية طوروها في جامعة بنسلفانيا تسمى “بير” (PAIR) تعمل على كسر حماية روبوتات الذكاء الاصطناعي، وأطلقوا على برنامجهم اسم “روبو بير” (RoboPAIR) الذي يعمل على توليد مطالبات خاصة لجعل الروبوتات المدعومة بنموذج اللغة الكبير “إل إل إم” تكسر قواعدها الخاصة، وقاموا بذلك من خلال تجربة مدخلات مختلفة ثم تحسينها لدفع النظام نحو سلوك غير مرغوب فيه.

    يقول الباحثون إن التقنية التي ابتكروها يمكن استخدامها لتحديد الأوامر الخطيرة المحتملة، وفقا لموقع “وايرد”.

    ويقول يي زينغ وهو طالب دكتوراه في جامعة فرجينيا يعمل على أمن أنظمة الذكاء الاصطناعي “إنه مثال رائع على نقاط ضعف نماذج اللغات الكبيرة في الأنظمة المُجسّدة”. ويضيف أن النتائج “ليست مُفاجئة على الإطلاق بالنظر إلى المشاكل التي شوهدت في نماذج اللغات الكبيرة نفسها”.

    ويوضح الباحثون المشاركون أن كسر حماية الروبوت يسلط الضوء على خطر أوسع قد ينتشر مع استخدام نماذج الذكاء الاصطناعي بشكل متزايد كوسيلة لتفاعل البشر مع الأنظمة الفيزيائية.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr تيلقرام واتساب البريد الإلكتروني

    مقالات ذات صلة

    تعرف على الفراش الذي أثنى عليه زوكربيرغ وإيلون ماسك

    “تيك توك” تتخلى عن موظفي المراقبة وتستبدلهم بالذكاء الاصطناعي | تكنولوجيا

    “آبل” تتهم “أوبو” رسميا بسرقة أسرار “آبل ووتش” | تكنولوجيا

    vivo V60 … بورتريه احترافي من زايس وعدسة تعيد تعريف الهواتف المتوسطة

    للمرة الرابعة.. ترامب يمدد فترة السماح لمنصة “تيك توك” | تكنولوجيا

    كيف تحمي بياناتك من مخاطر الذكاء الاصطناعي؟

    كيف تغير “زوم” تجربة الاجتماعات عبر وكلاء الذكاء الاصطناعي؟ | تكنولوجيا

    شاهد.. روبوت صغير يحدث ثورة في بناء مزارع الطاقة الشمسية

    التخزين الذكي… الحل الذي لا يمكن الاستغناء عنه!

    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    اخر الأخبار

    بلجيكا: معاقبة إسرائيل والاعتراف بدولة فلسطينية يهددان الائتلاف الحاكم

    الثلاثاء 26 أغسطس 11:21 ص

    ترامب يقيل عضو الاحتياطي الفدرالي ليزا كوك والأخيرة تحتج قائلة: “لا صلاحية له”

    الثلاثاء 26 أغسطس 11:06 ص

    سابقة علمية موثوقة.. نجاح أول زراعة رئة خنزير في جسد إنسان

    الثلاثاء 26 أغسطس 11:02 ص

    مذكرة تفاهم بين المركز العلمي والجمعية الكويتية للتراث

    الثلاثاء 26 أغسطس 10:54 ص

    تحذير من الأرصاد: أمطار غزيرة متوقعة في جازان

    الثلاثاء 26 أغسطس 10:50 ص
    اعلانات
    Demo

    رائج الآن

    الجوازات: سداد الاستحقاقات المالية شرط لإصدار تأشيرة الخروج النهائي

    الثلاثاء 26 أغسطس 10:48 ص

    فيزيائيون يبتكرون ميكروفونا “يرى” الصوت باستخدام الضوء فقط | علوم

    الثلاثاء 26 أغسطس 10:44 ص

    تعرف على الفراش الذي أثنى عليه زوكربيرغ وإيلون ماسك

    الثلاثاء 26 أغسطس 10:43 ص

    شطب “إيفرغراند”.. نهاية مأساوية لعملاق العقارات الصيني

    الثلاثاء 26 أغسطس 10:34 ص

    مئات الباحثين لمجموعة هارفارد للنشر: أوقفوا الرقابة على فلسطين

    الثلاثاء 26 أغسطس 10:33 ص
    فيسبوك X (Twitter) تيكتوك الانستغرام يوتيوب
    2025 © وادي السعودية. جميع حقوق النشر محفوظة.
    • من نحن
    • سياسة الخصوصية
    • إعلن معنا
    • اتصل بنا

    اكتب كلمة البحث ثم اضغط على زر Enter

    تسجيل الدخول أو التسجيل

    مرحبًا بعودتك!

    Login to your account below.

    نسيت كلمة المرور؟