تعمل شركة غوغل على خدمة من شأنها تقديم نصائح أخلاقية واستشارات للشركات التي تبني حلول الذكاء الاصطناعي.
وتدفع الشركات أموالاً طائلة لموفري الحوسبة السحابية، مثل غوغل ومايكروسوفت وأمازون، لتجنب تشغيل البنية التحتية الرقمية الخاصة بهم.
وسيدعو قسم السحابة في غوغل العملاء قريبًا إلى الاستعانة بمصادر خارجية لشيء ما هو أقل واقعية من وحدات المعالجة المركزية ومحركات الأقراص، الذي يتمثل في الحقوق والخطأ في استخدام الذكاء الاصطناعي.
ووفقًا لتقرير صادر عن مجلة (Wired)، فإن الشركة تدرس إطلاق هذه الخدمة الاستشارية للأخلاقيات بحلول نهاية العام.
من المفترض أن تقدم غوغل في البداية نصائح للآخرين حول مهام، مثل اكتشاف التحيز العنصري في أنظمة الرؤية الحاسوبية، أو تطوير إرشادات أخلاقية تحكم مشاريع الذكاء الاصطناعي.
وقد تعرض الشركة على المدى الطويل تدقيق أنظمة الذكاء الاصطناعي للعملاء من أجل النزاهة الأخلاقية، وتحصيل رسوم مقابل المشورة الأخلاقية.
وتحاول عملاقة البحث من خلال تقديم الخدمة الجديدة اختبار كون الصناعة المربحة يمكنها تعزيز أعمالها من خلال تقديم نصائح أخلاقية.
وتحتل الشركة المرتبة الثالثة في سوق الحوسبة السحابية بعد أمازون ومايكروسوفت، وتضع خبرتها في مجال الذكاء الاصطناعي كميزة تنافسية.
وفي حال نجحت المبادرة الجديدة، يمكن ظهور مصطلح جديد يسمى (EaaS)، للأخلاقيات كخدمة، على غرار (SaaS)، للبرامج كخدمة.
وتعلمت غوغل بعض دروس أخلاقيات الذكاء الاصطناعي بالطريقة الصعبة، إذ اعتذرت في عام 2015 وحظرت تطبيق (Photos) الخاص بها من اكتشاف الغوريلا بعد أن أبلغ أحد المستخدمين أن الخدمة قد طبقت هذا التصنيف على صور له مع صديق أسود.
وفي عام 2018، احتج الآلاف من موظفي عملاقة البحث على عقد البنتاغون المسمى (Maven) الذي استخدم تقنية الشركة لتحليل صور المراقبة من الطائرات بدون طيار.
وبعد فترة وجيزة، أصدرت الشركة مجموعة من المبادئ الأخلاقية لاستخدام تقنية الذكاء الاصطناعي الخاصة بها، وقالت: إنها لن تتنافس بعد الآن على مشاريع مماثلة، لكنها لم تستبعد جميع الأعمال الدفاعية.
وفي العام نفسه، أقرت غوغل باختبار نسخة من محرك البحث الخاص بها المصمم للامتثال للرقابة الاستبدادية في الصين، وقالت: إنها لن تقدم تقنية التعرف على الوجه، كما فعل المنافسان مايكروسوفت وأمازون لسنوات، بسبب مخاطر إساءة الاستخدام.
ومن المرجح أن تتضمن الخدمة دورات تدريبية حول موضوعات، مثل كيفية اكتشاف المشكلات الأخلاقية في أنظمة الذكاء الاصطناعي، على غرار تلك المقدمة لموظفي غوغل، وكيفية تطوير وتنفيذ إرشادات أخلاقيات الذكاء الاصطناعي.
ويمكن لغوغل استخدام تركيزها على التحيز الخوارزمي لبناء برامج مفتوحة المصدر لمكافحة التحيز وخوارزميات غير متحيزة.
https://ift.tt/2QBPfVn
تعليقات
إرسال تعليق