قامت شركة جوجل بإجراء تعديل كبير على مبادئها المتعلقة بالذكاء الاصطناعي، وهو التغيير الذي يعد الأبرز منذ نشرها لأول مرة في عام 2018. حسبما أفادت صحيفة واشنطن بوست، قامت جوجل بحذف قسم كان يتضمن تعهدات بعدم تصميم أو نشر أدوات ذكاء اصطناعي للاستخدام في الأسلحة أو تكنولوجيا المراقبة.
كانت النسخة السابقة من الوثيقة تتضمن قسماً بعنوان "التطبيقات التي لن نسعى إليها"، وهو ما تم حذفه في النسخة الأخيرة من المبادئ.
بدلاً من ذلك، أضافت جوجل قسمًا جديدًا بعنوان "التطوير والنشر المسؤول"، حيث أكدت على التزامها بتطبيق "الإشراف البشري المناسب والعناية الواجبة وآليات التغذية الراجعة" مع احترام "القانون الدولي وحقوق الإنسان".
فيما يخص الأسلحة، كانت جوجل قد تعهدت سابقًا بعدم تصميم الذكاء الاصطناعي لأغراض "التسبب في إصابة الناس أو تسهيل ذلك". أما في مجال المراقبة، فقد كانت قد وعدت بعدم تطوير تقنيات تنتهك "المعايير المقبولة دوليًا". ومع التحديث الجديد، يبدو أن الشركة قد قررت توسيع نطاق التزامها ليشمل أهدافًا اجتماعية وقانونية أوسع.
ورغم التعديلات، لا تزال جوجل تلتزم بتطوير تقنيات الذكاء الاصطناعي "التي تدعم الأمن القومي وتنمو عالميًا" بالتوازي مع ضمان حماية حقوق الإنسان. وقد صرح المسؤولون في جوجل بأن الذكاء الاصطناعي أصبح "تكنولوجيا عامة الغرض"، ما يتطلب تعديل سياسات الشركة.
التعديل الجديد في سياسات جوجل يأتي بعد فترة من التغيرات داخل الشركة، التي كانت قد واجهت انتقادات في الماضي بسبب تعاونها مع مشاريع حكومية وعسكرية، بما في ذلك عقد "ماجنوم" مع وزارة الدفاع الأمريكية، الذي شهد استقالات جماعية من موظفي الشركة احتجاجًا على استخدام الذكاء الاصطناعي في أغراض عسكرية.
وبالرغم من التحولات الأخيرة في المبادئ، يواصل قسم الأبحاث في جوجل تركيزه على تطبيقات الذكاء الاصطناعي التي تتماشى مع قيم الشركة، وذلك في محاولة لتجنب المخاطر المحتملة وتقديم فوائد مستدامة للمجتمع.
0 تعليق