مجلس الرقابة ينتقد سياسات الذكاء الاصطناعي في ميتا
مجلس الرقابة ينتقد سياسات الذكاء الاصطناعي في ميتا
تكنولوجيا واشنطنالعربي الجديد
/> العربي الجديد موقع وصحيفة العربي الجديد 25 يونيو 2025 | آخر تحديث: 16:21 (توقيت القدس) مقر ميتا في مينلو بارك، 2 فبراير 2023 (جاستن سوليفان/Getty) + الخط -استمع إلى الملخص
اظهر الملخص - أصدرت هيئة رقابة داخلية في ميتا قرارًا يشير إلى عدم اتساق تصنيف المحتوى المُولّد بواسطة الذكاء الاصطناعي، مطالبةً الشركة بالاستثمار في تكنولوجيا لرصد وتصنيف الصوت والفيديو المُتلاعب به.- بدأت ميتا في فبراير 2024 بوضع علامات مائية على المحتوى المُولّد بالذكاء الاصطناعي لتمييزه عن المحتوى الحقيقي، تماشيًا مع قانون الذكاء الاصطناعي للاتحاد الأوروبي.
- أعرب المجلس عن قلقه من اعتماد ميتا على جهات خارجية لتقييم المحتوى، مشددًا على ضرورة تطوير قدراتها الداخلية لتصنيف المحتوى المُتلاعب به.
أصدرت هيئة رقابة داخلية تابعة لشركة ميتا في حكمٍ نُشر أمس الثلاثاء، قراراً يفيد بأن تصنيف الشركة للمحتوى المُولّد بواسطة الذكاء الاصطناعي غير متسق. وأعرب مجلس الرقابة (هيئة داخلية لمراجعة قرارات الشركة حول المحتوى) عن قلقه من أنه على الرغم من الانتشار المتزايد للمحتوى المُتلاعب به عبر مختلف الصيغ، فإن تطبيق ميتا لسياسة الوسائط المُتلاعب بها غير متسق. وطالب القرار بأن تُعطي الشركة الأولوية للاستثمار في التكنولوجيا لرصد وتصنيف الصوت والفيديو المُتلاعب به.
وفي فبراير/شباط 2024، بدأت ميتا بوضع علامات مائية أو علامات مرئية على المحتوى المُولّد بواسطة الذكاء الاصطناعي، وذلك في محاولة لمساعدة المستخدمين على التمييز بين المحتوى الحقيقي والمُزيّف على منصات التواصل الاجتماعي التابعة لها، فيسبوك وإنستغرام وثريدز. ويُلزم قانون الذكاء الاصطناعي للاتحاد الأوروبي، وهو تشريع يُنظّم أدوات الذكاء الاصطناعي وفقاً للمخاطر التي تُشكّلها على المجتمع، الشركات التي تُنتج محتوى معدّلاً بأدوات توليد المحتوى بوضع علامة على هذا المحتوى تقول إنه مُولّد واصطناعي.
وصدر حكمٌ في إحدى الحالات التي قرّرت فيها ميتا عدم تصنيف مقطع صوتي يُحتمل أنه مُتلاعب به لسياسيين كرديين عراقيين يناقشان تزوير الانتخابات البرلمانية، قبل أسابيع من فتح باب الاقتراع. ونصّ الحكم
أرسل هذا الخبر لأصدقائك على