إرشادات أخلاقيات الذكاء الاصطناعي
إرشادات أخلاقيات الذكاء الاصطناعي

ما هي الإرشادات الأخلاقية لاستخدام الذكاء الاصطناعي في دبي؟

تمثل توجيهاتنا الأخلاقية لاستخدام الذكاء الاصطناعي امتداداً للمبادئ المعتمدة في دبي في هذا الصدد، والتي ترتكز على أخلاقيات التعامل بعدالة وشفافية وتسعى لتحقيق المساءلة وسهولة الإيضاح.

تتعلق التوجيهات الإرشادية الأخلاقية لاستخدام أنظمة الذكاء الاصطناعي امتداداً للمبادئ المعتمدة في دبي ذي صلة بالأخلاقيات. وتقدِّم مقترحات ملموسة لمساعدة أصحاب المصلحة في الالتزام بهذا المبدأ. كما أنها تقدِّم توجيهًا تفصيليًّا بشأن القضايا الحساسة: العدالة والمساءلة والشفافية والقابلية للتفسير، المتعلقة بالخوارزميات التي تشكل جوهر أنظمة الذكاء الاصطناعي.

نود أن نرى التوجيهات الإرشادية الأخلاقية لاستخدام أنظمة الذكاء الاصطناعي في دبي وهي تتطور لتشكل إطار عمل عالميًّا عمليًّا قابلاً للتطبيق يدعم المتطلبات الأخلاقية لتصميم أنظمة الذكاء الاصطناعي واستخدامها. وتُعد هذه العملية عمليةً مبنية على التعاون وندعو جميع أصحاب المصالح إلى المشاركة في الحوار الدائر حولها. وفي هذا الصدد، نقدر لكم إسهاماتكم الرامية إلى تنقيح هذه المبادئ وتوسيع نطاق تطبيقها وتطويرها.

 		            العدالة 		          العدالة

سنحقق الاستخدام العادل لأنظمة الذكاء الاصطناعي

1. يجب مراعاة أن تكون البيانات التي يتم تغذية الأنظمة بها والواردة إليها تعكس واقع الفئة المتأثرة

2. يجب التحقق من مدى وجود أي انحياز في عمليات اتخاذ القرارات

3. يجب توفر العدالة في أية قرارات هامة يتم اتخاذها بناءاً على الذكاء الاصطناعي

4. يجب أن تراعي مؤسسات تشغيل الذكاء الاصطناعي مدى إتاحة أنظمتها إمكانية الوصول والاستخدام بطريقة

5. عادلة لمختلف مجموعات المستخدمين

 		            المساءلة 		          المساءلة

سنجعل أنظمة الذكاء الاصطناعي قابلة للمساءلة

1. يجب ألا تكون المساءلة عن مخرجات نظام الذكاء الاصطناعي في النظام نفسه

2. يجب المبادرة بجهود تُسهم مسبقاً في التعرّف على أية مخاطر هامة تتضمنها طبيعة النظام المُصمّم والحد من أثرها

3. معلّق - يجب أن تكون أنظمة الذكاء الاصطناعي المرتبطة بقرارات حرجة متاحة لإجراء التدقيق الخارجي عليها

4. يجب أن يتاح للأشخاص المشاركين والمتأثرين بأنشطة الذكاء الاصطناعي الاعتراض على القرارات المؤتمتة الهامة المتعلقة بهم، وأن يتمكنوا من اختيار عدم المشاركة عند الإمكان.

5. يجب ألا تقوم أنظمة الذكاء الاصطناعي بإصدار أحكام هامة بالنيابة عن الأشخاص المعنيين دون الحصول على موافقتهم المسبقة

6. يجب تطوير أنظمة الذكاء الاصطناعي المرتبطة بالقرارات الهامة بواسطة فرق متعددة الخلفيات والخبرات تتمتع بالمعرفة والخبرات المناسبة

7. يجب أن تكون لمؤسسات تشغيل أنظمة الذكاء الاصطناعي دراية كافية بطبيعة أنظمة الذكاء الاصطناعي التي تستخدمها حتى تكون قادرة على معرفة ملاءمتها لحالة الاستخدام وذلك تحقيقاً لضمان المساءلة والشفافية

 		            الشفافية 		          الشفافية

سنحقق الشفافية في أنظمة الذكاء الاصطناعي

1. يجب أن تضمن المؤسسات المشغلة لأنظمة الذكاء الاصطناعي وتتيح إمكانية تتبع جذور أي قرار هام اتخذته الأنظمة بشكل آلي، وخاصة القرارات التي قد تؤدي إلى وقوع خسائر أو أذى أو ضرر

2. يجب إعلام الناس بمستوى تفاعلهم مع أنظمة الذكاء الاصطناعي

 		            القابلية للشرح 		          القابلية للشرح

سنجعل أنظمة الذكاء الاصطناعي قابلة للشرح تقنيا قدر الإمكان

1. يمكن أن تتيح مؤسسات تشغيل الذكاء الاصطناعي إطلاع الأشخاص المتأثرين بالذكاء الاصطناعي على تفسير عام يشرح كيف تعمل أنظمة الذكاء الاصطناعي الخاصة بهم

2. يجب أن تتيح مؤسسات تشغيل الذكاء الاصطناعي للأشخاص المتأثرين بالذكاء الاصطناعي وسائل لطلب تفسيرات لقرارات هامة تمسهم قدر الإمكان، مع مراعاة حالة البحوث الحالية ونموذج العمل

3. في حالة توفر هذه التفسيرات، يجب إتاحة الوصول السهل والسريع والمجاني إليها، بطريقة سهلة للمستخدم

أداة التقييم الذاتي لمستوى أخلاقيات نظام الذكاء الاصطناعي.

تم انشاء هذه القائمة المرجعية لتمكين المؤسسات المطورة للذكاء الاصطناعي أو المؤسسات المشغلة للذكاء الاصطناعي من اجراء التقييم الذاتي لمستوى أخلاقيات نظام الذكاء الاصطناعي مقابل المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي.

قم باستخدام الأداة وشاركنا ملاحظاتك.

المساهمة في التطوير المستقبلي للإرشادات الأخلاقية لاستخدام أنظمة الذكاء الاصطناعي في دبي

صُممت مجموعة أدوات أخلاقيات الذكاء الاصطناعي في دبي لتحفيز سلوكيات الذكاء الاصطناعي المستقبلية بشكل مسؤول ونشرها. وفي الواقع، يُعد التعاون من جميع أصحاب المصلحة في غاية الأهمية لضمان استدامة هذه الأدوات وتحقيق النفع المرجو منها. لذا، نحن نرحب بملاحظاتك القيّمة.

شاركنا ملاحظاتك

FAQ

Have a Question?
  • تتم مناقشة موضوع الأخلاقيات بشكل متزايد على الساحة الدولية مؤخراً. وتسعى الحكومات والمنظمات غير الربحية والشركات أن تفهم كيف تطور أنظمة الذكاء الاصطناعي بطريقة أخلاقية تضمن حماية الأفراد من الأذى وتفادي إلحاق الضرر بالسمعة و تكبد الخسائر القانونية. ورغم أن هنالك إدراك بأنه قد تكون هنالك حاجة إلى تنظيم هذه التكنولوجيا الناشئة إلا أن هذا المجال لم يصبح ناضجاً بما فيه الكفاية رغم وتيرة التقدم السريعة للغاية. ولا تزال المؤسسات بحاجة إلى توجيه في هذا المجال مما يستدعي  بدء المشرعين في تعلم آلية تنظيم هذه التقنية الناشئة. تقدم المبادئ العامة والمبادئ الإرشادية التوجيه اللازم دون تثبيط الإبتكار بشكل غير مبرر.

    وبالإضافة إلى ذلك، فإنه من المهم وضع رؤية موحدة بشأن أفضل الممارسات لتطوير الذكاء الاصطناعي وتوفير الوضوح لتعريف التطوير الأخلاقي. وترغب دبي في أن تكون جزءًا من هذا الحوار العالمي لترسيخ مكانتها كقائد فكر في تبني الذكاء الاصطناعي في الحكومة وخارجها.

  • الذكاء الاصطناعي هو قدرة أي وحدة وظيفية على تنفيذ وظائف ترتبط بشكل عام بالذكاء البشري مثل الاستنتاج والتعلم والتطوير الذاتي.

    إن نظام الذكاء الاصطناعي عبارة عن منتج أو خدمة أو عملية أو أسلوب لاتخاذ القرارات التي تتأثر بها العملية أو المخرج بشكل كبير  من خلال وحدات وظيفية تستخدم الذكاء الاصطناعي. وتكمن أحد الميزات المعينة لأنظمة الذكاء الاصطناعي في أنها تتعلم السلوك والقواعد غير المبرمجة فيها بوضوح. والأهم من ذلك، أنه من غير الضروري لمخرج أي نظام أن يكون محددًا بشكل منفرد من خلال الوحدات الوظيفية التي تستخدم الذكاء الاصطناعي حتى يتم تعريفه كنظام ذكي اصطناعيًا.

  • تغطي أخلاقيات الذكاء الاصطناعي مفاهيم العدالة والمساءلة والشفافية والقابلية للتفسير. في هذا القسم، لا تشتمل الأخلاقيات على المخاوف المتعلقة بالخصوصية أو دقة النموذج (إلا إذا تعلق الأمر بالعدالة والإنصاف) أو التوظيف أو أية قضايا أخرى ذات علاقة بالذكاء الاصطناعي إلى جانب العدالة والمساءلة والشفافية والقابلية للتفسير.

    1. مبادئ الذكاء الاصطناعي في دبي - مجموعة من العبارات عالية المستوى الغير ملزمة قانونياً والغير خاضعة للتدقيق في مجملها لآلية تطوير الذكاء الاصطناعي التي نرغب بها في دبي. توجد 4 مبادئ شاملة مع مبادئ فرعية تندرج تحت كل منها.

    2. التوجيهات الأخلاقية للذكاء الاصطناعي في دبي - وتمامًا كالمبادئ، تعتبر المبادئ الإرشادية أيضاً غير ملزمة قانونية وغير خاضعة للتدقيق ولكنها عملية بشكل أكبر وتنطبق على مجموعات معينة من الجهات الفاعلة. وتم تطوير مبدأ واحد فقط (الأخلاقيات) إلى مجموعة من المبادئ الإرشادية، ويمكن تطوير المبادئ العامة الأخرى بشكل مماثل في الوقت المناسب، وليس بالضرورة من قبل دبي الذكية.

    3. القائمة المرجعية للتقييم الذاتي - لجعل المبادئ الإرشادية عمليةً بشكل أكبر، قمنا بتقديم قائمة مرجعية. ومن خلال استخدام هذه القائمة المرجعية، يمكن لأي جهة أن تصنف أولاً نظام الذكاء الاصطناعي الخاص بها ومن ثم تقوم بتقييم النتيجة الأخلاقية لديها استنادًا إلى نوع النظام. ويمكن استخدام القائمة المرجعية من قبل المؤسسات المطورة للذكاء الاصطناعي بالإضافة إلى تلك المشغلة لأنظمة الذكاء الاصطناعي. ويمكن إدراجها أيضاً في طلب تقديم العروض للمؤسسات المشغلة للذكاء الاصطناعي للتحقق من النتيجة الأخلاقية لحلول الذكاء الاصطناعي لدى مورديهم. وتتحمل المؤسسات المشغلة للذكاء الاصطناعي المسؤولية عن القائمة المرجعية ويجب عليهم التأكد من تعبئة القائمة المرجعية بشكل صحيح فيما بينهم وبين المورد ووجود دليل لإثبات النتيجة الأخلاقية.

    4. مؤشرات للمؤلفات الرئيسية من أجل الخبراء الفنيين - تهدف هذه الوثيقة إلى مساعدة الخبراء الفنيين (مثل، علماء البيانات، مهندسي التعليم الآلي، مهندسي الذكاء الاصطناعي) في التحقق من آلية تطبيق الذكاء الاصطناعي الأخلاقي. ولا تعتبر هذه وثيقة شاملة حيث يُعد الذكاء الاصطناعي الأخلاقي مجالًا ناشئًا ومن المتوقع أن يحقق مزيدًا من التقدم في السنوات القادمة. كما يجب على المؤسسات المطورة للذكاء الاصطناعي أن تقيّم مدى ملائمة ومخاطر كل طريقة اتخاذ قرار بمفردها.

    `
  • إن المبادئ العامة والمبادئ التوجيهية غير إلزامية وغير خاضعة للتدقيق. وهي اختيارية للجهات حتى تلتزم بالمبادئ العامة والمبادئ الإرشادية أثناء عملية تطوير أي نظام للذكاء الاصطناعي.

  • يمكن أن تكون المشاركة مفيدة للمؤسسات المطورة والمشغلة للذكاء الاصطناعي لعدة أسباب. إذمن خلال المساهمة، يمكن للجهات القيام بما يلي:

    • إجراء التقييم الذاتي والتخفيف من السلوك غير الأخلاقي لأنظمة الذكاء الاصطناعي الخاصة بها والتي بخلاف ذلك قد تؤدي إلى رد فعل عنيف من العامة وإلحاق الضرر بالسمعة أو التأثير سلباً على بعض الأفراد.

    • اكتساب الفهم الواضح لمعنى الأخلاقيات في الذكاء الاصطناعي وتعميم ذلك الفهم داخلياً وعلى الجهات المعنية والعملاء لزيادة الثقة في أنظمة الذكاء الاصطناعي.

    • اكتساب المعرفة بشأن ما قد يصبح لاحقًا تشريعًا، وتقديم المشورة في تشكيل صياغة ومحتوى  هذا التشريع.

    • المساهمة في وضع رؤية موحدة لأفضل الممارسات في عملية تطوير الذكاء الاصطناعي.

    ونرحب أيضاً بآراء الأفراد بشأن المبادئ العامة والمبادئ الإرشادية.

  • تم تصميم مجموعة الأدوات لتستفيد منها المؤسسات المطورة والمشغلة للذكاء الاصطناعي في كلا القطاعين العام والخاص. ومن المتوقع في القريب العاجل أن تستخدم جهات القطاع العام فقط إلى جانب الشركات الخاصة التي تطور أنظمة الذكاء الاصطناعي لهذه الجهات مجموعة الأدوات بشكل فعّال.

    تشير المبادئ التوجيهية إلى «المؤسسات المطورة للذكاء الاصطناعي» و«المؤسسات المشغلة للذكاء الاصطناعي». وفيما يلي تعريفها:

    • المؤسسة المطورة للذكاء الاصطناعي هي أي مؤسسة تقوم بأي من الأعمال التالية:

    • تحديد الغرض من أي نظام للذكاء الاصطناعي

    • تصميم أي نظام للذكاء الاصطناعي

    • بناء أي نظام للذكاء الاصطناعي

    • تنفيذ الصيانة الفنية أو ضبط نظام الذكاء الاصطناعي

    ملاحظة: ينطبق التعريف بغض النظر عما إذا كانت المؤسسة هي المستخدم النهائي للنظام أو إذا قامت ببيعه أو تخلت عنه.

    • المؤسسة المشغلة للذكاء الاصطناعي هي أي مؤسسة تقوم بأي من الأعمال التالية:

    • استخدام أنظمة الذكاء الاصطناعي في عمليات التشغيل أو العمليات الداخلية أو اتخاذ القرارت

    • استخدام نظام الذكاء الاصطناعي لتقديم الخدمة للمستخدم النهائي

    • أن تكون مالكًا تجاريًا لأي من أنظمة الذكاء الاصطناعي

    • شراء البيانات ومعالجتها بهدف استخدامها في أي من أنظمة ذكاء الاصطناعي

    • تقييم حالة الاستخدام لأي نظام ذكاء اصطناعي والتقرير فيما إذا يمضي قدماً أم لا

    ملاحظة: ينطبق هذا التعريف بغض النظر عما إذا تم تطوير نظام الذكاء الاصطناعي داخليًا أو تم شراؤه.

    من الممكن للمؤسسات أن تكون مؤسسة مطورة للذكاء الاصطناعي ومؤسسة مشغلة للذكاء الاصطناعي.

  •  مع أن الذكاء الاصطناعي يحيط بنا بالفعل، إلا أن بعض التطبيقات تُعد أكثر وضوحاً وحساسية من غيرها. وتنطبق مجموعة الأدوات هذه فقط على أنظمة الذكاء الاصطناعي التي تتخذ أو تبلغ عن «قرارات هامة» - أي تلك القرارات التي لديها القدرة على إحداث الأثر الكبير سواء على الأفراد أو على المجتمع برمته، وكذلك «القرارات الحاسمة» التي تشكل مجموعة فرعية من القرارات الهامة. وترد كافة التعريفات في المبادئ التوجيهية.

  • تشكل المبادئ العامة الأساس لاستخدام الذكاء الاصطناعي في دبي. يجب أن تكون الجهات على دراية بها أثناء تطوير وتشغيل أنظمة الذكاء الاصطناعي وعند وضع الاستراتيجية.

    المبادئ الإرشادية: يمكن تطبيقها من خلال دمجها مع المبادئ التوجيهية والمعايير والوثائق الحالية الأخرى المعمول بها لدى الجهة. فمن المهم استخدامها طوال عملية التطوير والنشر من أجل الوصول إلى تصميم أخلاقي بدلاً من أن تكون مرحلة استدراك لاحقة. ويحتاج الموظفون أثناء العملية إلى التثقيف حول معنى وأهمية التصميم الأخلاقي ويمكن أن تعمل المبادئ التوجيهية كوثيقة تعليمية أيضاً.

    القائمة المرجعية: يمكن استخدامها مباشرة من قبل المؤسسات المطورة للذكاء الاصطناعي لضمان تحقيقها للمعايير المتوقعة من أنظمة الذكاء الاصطناعي في القطاع العام. ويمكن أن تتضمن المؤسسات المشغلة للذكاء الاصطناعي أجزاءً من القائمة المرجعية في طلبات تقديم العروض إذا كانت تعمل مع موردين. تتحمل المؤسسات المشغلة للذكاء الاصطناعي، باعتبارها المؤسسات التي تنشر النظام في نهاية المطاف للعامة، المسؤولية عن ضمان تلبية المعايير الأخلاقية الكافية من قبل فرق التطوير داخل مؤسساتهم ومن قبل الموردين الذين تختارهم للقيام بالأعمال التجارية معهم.

  • إن الفرق الأكثر احتمالًا للمشاركة في استخدام مجموعة أدوات الذكاء الاصطناعي الأخلاقي هي فرق الاستراتيجية والامتثال والتقنية/التطوير. ويجب أخذ النقاط التالية في الاعتبار عند اعتماد مجموعة الأدوات:

    • تحديد الشخص المسؤول عن مجموعة الأدوات داخل المؤسسة. ويجب أن يتمتع بالتأثير الكافي ليكون قادراً على تغيير العملية عند الضرورة.

    • مواءمة الاستراتيجية الداخلية للذكاء الاصطناعي مع المبادئ العامة والمبادئ التوجيهية.

    • تقييم كيفية مواءمة المبادئ التوجيهية مع الأنظمة القائمة والسياسات الداخلية والمبادئ التوجيهية والمعايير المعمول بها في المؤسسة.

    • عندئذ:

        ]
      • بالنسبة للمؤسسات المطورة للذكاء الاصطناعي: تقييم أثر مجموعة الأدوات على التصميم والتطوير وعمليات الفحص. تحديد أين يتعين تقديم القائمة المرجعية الخاصة بالتقييم الذاتي.

      • بالنسبة للمؤسسات المشغلة للذكاء الاصطناعي: تقييم أثر مجموعة الأدوات على شراء وتشغيل نظام الذكاء الاصطناعي. إدخال القائمة المرجعية للتقييم الذاتي في طلبات تقديم العروض واستخدام النتائج كمعيار لتقييم الموردين. تحليل التغييرات اللازم إجراؤها على عمليات الفحص. تحديد إذا كان هناك حاجة لفحص الموردين بناء على نتيجة الأخلاقيات التي تم تقييمها ذاتيًا.

    • تحديد العمليات والمسؤوليات المستمرة، وإعداد التحكم والمراقبة.

    • إعداد تقرير نتائج الذكاء الاصطناعي الأخلاقي.

    • تقديم إمكانية الوصول إلى القوائم المرجعية المستكملة على الموقع الإلكتروني للمؤسسة.

    • تنظيم جلسات تثقيفية حول التصميم الأخلاقي للموظفين.

  • لقد حددنا 7 مجالات للتحديات التي تواجه سياسات الذكاء الاصطناعي التي تناولناها بالكامل مع 4 من المبادئ العامة. يُعد المبدأ 3 (الأخلاقيات) مكتملًا بما فيه الكفاية ليتم تطويره بشكل أكبر حاليًا كما يقع ضمن اختصاصات مؤسستنا. وبالتالي تم اختيار هذا المبدأ لتطويره إلى مبادئ توجيهية.

  • تخدم مجموعة الأدوات الأشخاص والمستخدمين النهائيين الذي يعتمدون على أنظمة الذكاء الاصطناعي أو يتأثرون يها. والمصطلح المستخدم في مجموعة الأدوات هو «عينة الذكاء الاصطناعي». وعينة الذكاء الاصطناعي عبارة عن أي شخص طبيعي يمثل أيًا مما يلي:

    • مستخدم نهائي لأي من أنظمة الذكاء الاصطناعي، أو

    • شخص يتأثر مباشرة من خلال تشغيل أو مخرجات أي من أنظمة الذكاء الاصطناعي، أو

    • أي مستفيد من خدمة أو توصية يقدمها أي من أنظمة الذكاء الاصطناعي.

    تساعد مجموعة الأدوات على ضمان توفر المعاملة العادلة للأشخاص والقدرة على استئناف القرارات التي يعتقدون أنها غير عادلة وأنهم يملكون الصلاحية للوصول إلى المعلومات الهامة التي يتم تقديمها بطريقة مفهومة حول كيفية تأثير الذكاء الاصطناعي على حياتهم.

  • تم تعليق بعض التوجيهات وعناصر أداة التقييم الذاتية ذات الصلة بها في الوقت الراهن حتى إشعار آخر. ولم يتم إنشاء آلية تدقيق خارجية حتى الآن، حيث إننا الآن ما زلنا في مرحلة تجميع التوجيهات بغرض تنقيحها بشكل أكبر. ولا يتعين عليك تطبيق هذه التوجيهات في الوقت الحالي حتى إشعار آخر. ولكن يمكنك تقديم ملاحظاتك ومقترحاتك حول سُبل تحسين تلك التوجيهات.