أصدرت شركة جوجل مجموعة من المبادئ لتوجيه عملها في مجال الذكاء الاصطناعي، حيث كشفت النقاب عن سياسة أخلاقيات الذكاء الاصطناعي الجديدة بعد تخليها عن المشاركة في مشروع مافن Project Maven التابع لوزارة الدفاع الأمريكية البنتاغون، والذي يستخدم الذكاء الاصطناعي لتحليل اللقطات الواردة من الطائرات بدون طيار، لكنها أكدت في الوقت نفسه أنها ستواصل عملها مع الحكومات والجيش في العديد من المجالات الأخرى، وذلك وفقًا لتصريحات سوندر بيتشاي Sundar Pichai، الرئيس التنفيذي للشركة.
وتعهدت عملاقة البحث بعدم تطوير تقنيات ذكاء اصطناعي يمكن استخدامها في الحرب أو المراقبة، حيث تركز سياسة جوجل الجديدة حول تطوير الذكاء الاصطناعي لبناء التقنيات بشكل مسؤول والحد من أي سوء استخدام محتمل، وذلك حسبما ذكرت الشركة في مدونة نشرتها، وذكرت أنه لن يتم استخدام أي من تقنيات الذكاء الاصطناعي المطورة من قبلها كسلاح أو مراقبة، بالإضافة إلى رفض الشركة تطوير أي من مشاريع الذكاء الاصطناعي التي قد تتسبب أو يحتمل أن تسبب ضررًا عامًا، إلا عندما تكون الفوائد تفوق المخاطر بشكل جوهري، ولكن مع وجود ضمانات.
وتأتي هذه السياسة بعد مرور أيام فقط من إعلان الشركة أنها لن تجدد عقدها مع وزارة الدفاع الأمريكية لتحليل اللقطات الواردة من الطائرات بدون طيار، بعد تعرضها لضغوط كبيرة من قبل موظفيها الذين قاموا بإرسال رسالة إلى الرئيس التنفيذي للشركة تطلب إلغاء مشاركتها المستمرة في مشروع مافن Project Maven، وذلك على الرغم من أن الشركة زعمت أن مشاركتها كانت لأغراض غير هجومية، لكن بعض الموظفين كانوا يخشون من إمكانية استخدام مثل تلك التقنيات يومًا ما في الحرب الفعلية.
وتعد جوجل واحدة من أكثر الشركات تأثيرًا في مجال الذكاء الاصطناعي، وذلك تبعًا لوصفها نفسها بأنها شركة ذكاء اصطناعي بالدرجة الأولى، كما أنها المالكة لمجموعة من إطارات العمل مفتوحة المصدر مثل Kaggle و TensorFlow، وكونها تمتلك عدد من المواهب الفذة والباحثين البارزين في هذا المجال، ووفقًا لتصريحات الشركة فإنها ستواصل عملها مع الحكومات والجيش في العديد من المجالات الأخرى، والتي تشمل الأمن السيبراني والتدريب والتوظيف العسكري والرعاية الصحية للمحاربين القدامى والبحث والإنقاذ.
وتشير المبادئ إلى أن جوجل لن تعمل أيضًا على تطوير مشاريع للمراقبة تستخدم الذكاء الاصطناعي وتنتهك المعايير المقبولة دوليًا، أو المشاريع التي تتعارض مع المبادئ المقبولة على نطاق واسع للقانون الدولي وحقوق الإنسان، مع تركيزها على أبحاث الذكاء الاصطناعي المفيدة اجتماعيًا، وهذا يعني تجنب التحيز غير العادل، حيث أنها تبقى مسؤولة أمام البشر وتخضع لسيطرة الإنسان، مع دعم معايير عالية من التميز العلمي، ودمج ضمانات الخصوصية.
موضوعات ذات صلة بما تقرأ الآن:
وقال سوندر بيتشاي: “نحن نستخدم الذكاء الاصطناعي في جوجل لجعل المنتجات أكثر إفادة، ابتداءًا بالبريد الإلكتروني الخالي من الرسائل غير المرغوب فيها ويساعد المستخدمين في إنشاء الرسائل المطلوبة مرورًا بالمساعد الصوتي الرقمي الذي يمكنك التحدث إليه بشكل طبيعي وصولًا إلى الصور التي تبرز الأشياء الممتعة لتستمتع بها، ونحن ندرك أن هذه التكنولوجيا القوية تثير أسئلة كبيرة بنفس القدر عن كيفية استخدامها، وكيفية تطوير واستخدام الذكاء الاصطناعي وتأثيره الكبير على المجتمع خلال السنوات العديدة القادمة، وباعتبارنا شركة رائدة في الذكاء الاصطناعي، فإننا نشعر بالمسؤولية العميقة لتحقيق هذا الأمر”.
ويأتي قرار جوجل لتوضيح موقفها الأخلاقي حول تطوير الذكاء الاصطناعي بعد سنوات من القلق بشأن التهديد الوشيك الذي تشكله الأنظمة الآلية، بالإضافة إلى المزيد من التحذيرات حول تطوير الذكاء الاصطناعي العام، واجتمع خلال الشهر الماضي ائتلاف من مجموعات حقوق الإنسان والتكنولوجيا لوضع وثيقة بعنوان “إعلان تورونتو” Toronto Declaration تدعو الحكومات وشركات التكنولوجيا إلى ضمان احترام الذكاء الاصطناعي للمبادئ الأساسية للمساواة وعدم التمييز.
وظهرت العديد من الانتقادات المتعلقة بتطوير الذكاء الاصطناعي من قبل مجموعة واسعة النطاق مثل إيلون ماسك Elon Musk، مؤسس شركة تيسلا للسيارات الكهربائية الفاخرة Tesla وشركة سبيس إكس للفضاء SpaceX ويان ليكون Yann LeCun، عالم الحواسيب المتخصص في مجالات تعلم الآلة والرؤية الحاسوبية والروبوتات، وهو ما دفع شركات التكنولوجيا في وادي السيليكون الآن نحو توفير موارد إضافية تتعلق بأبحاث سلامة الذكاء الاصطناعي بمساعدة من المنظمات التي تركز على الأخلاقيات مثل منظمة Open AI غير الربحية.