جوجل ترفع الحظر عن استخدام الذكاء الاصطناعى فى الأسلحة والمراقبة
في خطوة غير متوقعة، قامت شركة جوجل بتحديث إرشاداتها الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي، حيث ألغت الحظر الصريح على استخدام التكنولوجيا في الأسلحة والمراقبة، وجاء هذا التغيير عبر منشور مدونة نشرته الشركة مؤخرا، تزامنًا مع إصدار تقريرها لعام 2024 حول “الذكاء الاصطناعي المسؤول”.
ووفقًا لما كشفته صحيفة واشنطن بوست من خلال مقارنة الإصدارات المؤرشفة للسياسات، فإن هذا التحديث يمثل تحولًا كبيرًا عن تعهد جوجل السابق بعدم استخدام الذكاء الاصطناعي في التطبيقات التي قد تسبب ضررًا، وفي السابق، التزمت الشركة بعدم استخدام الذكاء الاصطناعي في المجالات التالية:
•تطوير الأسلحة
•المراقبة
•التطبيقات التي قد تسبب ضررًا عامًا
•الاستخدامات التي تنتهك القانون الدولي وحقوق الإنسان
لكن مع التحديث الجديد، اختفت هذه القيود بهدوء من الإرشادات الرسمية للشركة.
تبرير جوجل: تعزيز القيادة الديمقراطية في الذكاء الاصطناعي
في منشور المدونة، كتب كل من ديميس هسابيس، رئيس قسم الذكاء الاصطناعي في جوجل، وجيمس مانيكا، نائب الرئيس الأول للتكنولوجيا والمجتمع: “نحن نستثمر أكثر من أي وقت مضى في أبحاث الذكاء الاصطناعي والمنتجات التي تعود بالفائدة على الناس والمجتمع، كما نعمل على تعزيز سلامة الذكاء الاصطناعي وتحديد المخاطر المحتملة والتعامل معها”.
وأضافوا: “هناك منافسة عالمية على قيادة الذكاء الاصطناعي في ظل بيئة جيوسياسية معقدة بشكل متزايد، نحن نؤمن بأن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مع الالتزام بالقيم الأساسية مثل الحرية والمساواة واحترام حقوق الإنسان”.
هذا التصريح يبدو وكأنه محاولة من جوجل لإضفاء الشرعية على قرارها برفع الحظر عن استخدام الذكاء الاصطناعي في الأسلحة والمراقبة، من خلال الإشارة إلى أنه يخدم الصالح العام، وعندما أعلنت جوجل عن مبادئها الأخلاقية للذكاء الاصطناعي لأول مرة عام 2018، كان ذلك بعد احتجاجات ضخمة من موظفيها ضد مشروع “مافن” (Project Maven)، وهو عقد مع وزارة الدفاع الأمريكية لاستخدام الذكاء الاصطناعي في المراقبة عبر الطائرات بدون طيار.
وبعد ضغط كبير من الموظفين، اضطرت جوجل إلى الانسحاب من المشروع، لكن التغيير الجديد في السياسة يعكس استعداد جوجل المتجدد لاستخدام الذكاء الاصطناعي في
أرسل هذا الخبر لأصدقائك على