Close Menu
    رائج الآن

    تجمع أكثر من 117 مليون دولار سنويا.. قنوات “النفايات الرقمية” تغزو يوتيوب

    الخميس 01 يناير 6:32 ص

    60 حبة فول سوداني يوميا.. ماذا تفعل بدماغك؟

    الخميس 01 يناير 5:57 ص

    «التجارة»: السجن والتشهير والإبعاد لأفغاني ارتكب جريمة التستر في المطاعم – أخبار السعودية

    الخميس 01 يناير 5:55 ص
    فيسبوك X (Twitter) الانستغرام
    عاجل الآن
    • تجمع أكثر من 117 مليون دولار سنويا.. قنوات “النفايات الرقمية” تغزو يوتيوب
    • 60 حبة فول سوداني يوميا.. ماذا تفعل بدماغك؟
    • «التجارة»: السجن والتشهير والإبعاد لأفغاني ارتكب جريمة التستر في المطاعم – أخبار السعودية
    • الروائي حسين علي حسين في ذمة الله – أخبار السعودية
    • مختص: قضاء الأطفال وقتاً مع أجدادهم يعزز صحتهم النفسية
    • حي القنوات بدمشق.. حيث يمشي التاريخ على الماء – أخبار السعودية
    • من المخاطرين أطفال ونساء.. الجزيرة نت تنقل المشهد بمحاذاة جدار الموت في القدس
    • تحذير أوروبي: تعليق إسرائيل لعمل منظمات الإغاثة في غزة يعرقل وصول المساعدات “المنقذة للحياة”
    • من نحن
    • سياسة الخصوصية
    • اعلن معنا
    • اتصل بنا
    وداي السعوديةوداي السعودية
    header
    • الرئيسية
    • اخر الاخبار
    • المناطق
      • الرياض
      • المدينة المنورة
      • المنطقة الشرقية
      • مكة المكرمة
      • الباحة
      • الجوف
      • القصيم
      • تبوك
      • جازان
      • حائل
      • عسير
      • نجران
    • العالم
    • سياسة
    • اقتصاد
      • بورصة
      • عقارات
      • طاقة
    • تكنولوجيا
    • رياضة
    • المزيد
      • ثقافة
      • صحة
      • علوم
      • فنون
      • منوعات
     اختر منطقتك Login
    وداي السعوديةوداي السعودية
    الرئيسية » ميتا تحدث قواعدها للإعلان السياسي واستخدام الذكاء الاصطناعي
    تكنولوجيا

    ميتا تحدث قواعدها للإعلان السياسي واستخدام الذكاء الاصطناعي

    فريق التحريربواسطة فريق التحريرالأربعاء 29 نوفمبر 2:58 م0 زيارة تكنولوجيا لا توجد تعليقات
    فيسبوك تويتر واتساب تيلقرام بينتيريست البريد الإلكتروني

    كشفت شركة “فيسبوك” أمس الثلاثاء عن مزيد من التفاصيل بشأن سياساتها بشأن الإعلانات السياسية، بما في ذلك التفويض الذي يكشفه المعلنون عندما يستخدمون الذكاء الاصطناعي لتغيير الصور ومقاطع الفيديو في بعض الإعلانات ذات المحتوى السياسي، بحسب تقرير لموقع “سي إن بي سي”.

    وتحدث رئيس الشؤون العالمية في “ميتا” مالكة فيسبوك نيك كليج عن السياسات الإعلانية الجديدة في منشور بالمدونة، ووصفها بأنها “متسقة إلى حد كبير” مع الطريقة التي يتعامل بها عملاق الشبكات الاجتماعية عادة مع قواعد الإعلان خلال الحملات الانتخابية السابقة.

    ومع ذلك، فإن الأمر المختلف بالنسبة لموسم الانتخابات المقبل هو الاستخدام المتزايد لتقنيات الذكاء الاصطناعي من قبل المعلنين لإنشاء مرئيات ونصوص يتم إنشاؤها بواسطة الحاسوب.

    وقال كليج في إعلان سابق أصدرته ميتا في أوائل نوفمبر/تشرين الثاني الجاري: إنه بدءا من العام المقبل ستطلب ميتا من المعلنين الكشف عما إذا كانوا قد استخدموا الذكاء الاصطناعي أو تقنيات التحرير الرقمية ذات الصلة “لإنشاء أو تغيير إعلان قضية سياسية أو اجتماعية في حالات معينة”.

    وأضاف: “ينطبق هذا على الإعلان إذا كان يحتوي على صورة أو مقطع فيديو واقعي، أو صوت واقعي تم إنشاؤه رقميـا أو تعديله لتصوير شخص حقيقي يقول أو يفعل شيئا لم يقله أو يفعله”. وتابع أنه “ينطبق أيضا على الإعلان إذا كان يصور شخصا ذا مظهر واقعي غير موجود أو حدثا ذا مظهر واقعي لم يحدث، أو يغير لقطات لحدث حقيقي، أو يصور حدثا يظهر بأنه واقعي ويزعم أنه حدث ولكنه ليس حقيقيا سواء أكان صورة أو فيديو أو تسجيلا صوتيا للحدث”.

    وتعرضت شركة ميتا للانتقاد، وعلى الأخص خلال الانتخابات الرئاسية الأميركية عام 2016، وذلك لفشلها في الحد من انتشار المعلومات الخاطئة على مجموعة تطبيقاتها، بما في ذلك فيسبوك وإنستغرام.

    وسمحت ميتا في عام 2019، ببقاء مقطع فيديومعدل رقميا على موقعها لرئيسة مجلس النواب في ذلك الوقت نانسي بيلوسي والذي جعلها تبدو وكأنها تتلعثم في كلماتها، لكن هذا الفيديو لم يكن إعلانا.

    ويمثل صعود الذكاء الاصطناعي كوسيلة لزيادة إنشاء الإعلانات المضللة مشكلة جديدة لعملاق الشبكات الاجتماعية الذي قام بتسريح أعداد كبيرة من فريق الثقة والسلامة التابع له كجزء من جهود خفض التكاليف هذا العام.

    وستقوم ميتا أيضا بحظر إعلانات القضايا السياسية والانتخابية والاجتماعية الجديدة خلال الأسبوع الأخير من الانتخابات الأميركية، والتي قال كليج إنها تتوافق مع السنوات السابقة، وسيتم رفع هذه القيود في اليوم التالي لإجراء الانتخابات.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr تيلقرام واتساب البريد الإلكتروني

    مقالات ذات صلة

    تجمع أكثر من 117 مليون دولار سنويا.. قنوات “النفايات الرقمية” تغزو يوتيوب

    ماذا ينتظرنا في “سي إي إس” 2026؟

    «الشورى» يناقش تقرير جامعة شقراء وأعضاء يواجهونه بالنقد – أخبار السعودية

    أفضل وكالة تسويق إلكتروني في الرياض: كيف تختار الشريك المناسب لنمو عملك؟

    خوفا من القضايا.. “أوبن إيه آي” تعلن عن وظيفة جديدة

    تجنب الاحتيال.. كيف تحمي Apple ID من الاختراق والتصيد الإلكتروني – أخبار السعودية

    تحوّل رقمي كامل.. تطبيقاً لرؤية 2030 – أخبار السعودية

    لماذا كره مؤسس “وي ترانسفير” منصته بعد بيعها؟

    يوسف محمد إسماعيل.. رمز العطاء وأيقونة الإعلام البحريني – أخبار السعودية

    اترك تعليقاً
    اترك تعليقاً إلغاء الرد

    اخر الأخبار

    60 حبة فول سوداني يوميا.. ماذا تفعل بدماغك؟

    الخميس 01 يناير 5:57 ص

    «التجارة»: السجن والتشهير والإبعاد لأفغاني ارتكب جريمة التستر في المطاعم – أخبار السعودية

    الخميس 01 يناير 5:55 ص

    الروائي حسين علي حسين في ذمة الله – أخبار السعودية

    الخميس 01 يناير 5:55 ص

    مختص: قضاء الأطفال وقتاً مع أجدادهم يعزز صحتهم النفسية

    الخميس 01 يناير 5:37 ص

    حي القنوات بدمشق.. حيث يمشي التاريخ على الماء – أخبار السعودية

    الخميس 01 يناير 5:22 ص
    اعلانات
    Demo

    رائج الآن

    من المخاطرين أطفال ونساء.. الجزيرة نت تنقل المشهد بمحاذاة جدار الموت في القدس

    الخميس 01 يناير 5:14 ص

    تحذير أوروبي: تعليق إسرائيل لعمل منظمات الإغاثة في غزة يعرقل وصول المساعدات “المنقذة للحياة”

    الخميس 01 يناير 4:45 ص

    كلية القانون الكويتية العالمية تجدد تعاونها الأكاديمي مع جامعة السلطان قابوس

    الخميس 01 يناير 4:40 ص

    ‫ما إصبع الزناد؟

    الخميس 01 يناير 4:38 ص

    أسماء مرعبة في التشكيلة المثالية للاعبين الأحرار مع بداية 2026

    الخميس 01 يناير 3:10 ص
    فيسبوك X (Twitter) تيكتوك الانستغرام يوتيوب
    2026 © وادي السعودية. جميع حقوق النشر محفوظة.
    • من نحن
    • سياسة الخصوصية
    • إعلن معنا
    • اتصل بنا

    اكتب كلمة البحث ثم اضغط على زر Enter

    تسجيل الدخول أو التسجيل

    مرحبًا بعودتك!

    Login to your account below.

    نسيت كلمة المرور؟