أدّت النهضة المطردة في الذكاء الاصطناعي إلى إيجاد العديد من الفرص على الصعيد العالمي، بدءاً من تيسير التشخيص لأغراض الرعاية الصحية وانتهاء بتمكين البشر من التواصل فيما بينهم عبر مواقع التواصل الاجتماعي، وكذلك تعزيز كفاءة الأيدي العاملة من خلال المهام المؤتمتة.
تُثير هذه التغيرات المطردة بطبيعة الحال مخاوف أخلاقية بالغة تنبع من الإمكانيات الكامنة في نظم الذكاء الاصطناعي لغرس أوجه التحيز واستفحال تدهور المناخ وتهديد حقوق الإنسان، وغيرها الكثير. وبدأت المخاطر الناتجة عن الذكاء الاصطناعي بالتفاقم بالفعل مع أوجه عدم المساواة القائمة، وهو ما يُلحق مزيداً من الأذى بالفئات المهمشة بالفعل.
وانتشرت استخدامات الذكاء الاصطناعي في أكثر من مجال وقطاع، وتمكنت شركات التكنولوجيا من استقطاب 50 مليار دولار من الاستثمارات في 2023، بنمو فاق 70% خلال الأعوام الخمسة الأخيرة. وتوقع تقرير لشركة الاستشارات الإدارية “ماكينزي”، أن يضيف الذكاء الاصطناعي التوليدي ما يتراوح بين 2.6 تريليون دولار و4.4 تريليونات دولار للاقتصاد العالمي كل عام.
واستُخدم الذكاء الاصطناعي في الحروب مؤخرا، حيث حولت إسرائيل قطاع غزة إلى ميدان تجارب لاستخداماته في الحرب، وذلك عندما ضاعفت عدد الأهداف التي ضربتها في القطاع باستخدام الذكاء الاصطناعي، بحسب تقرير الأناضول.
، فإن إسرائيل ضربت 15 ألف هدف باستخدام تقنية الذكاء الاصطناعي المسماة “غوسبيل” في أول 35 يوما من الهجمات (التي بدأت في 7 أكتوبر/تشرين الأول الماضي). أن هذا الرقم أعلى بكثير من عدد الأهداف التي ضربتها في العمليات السابقة، حيث إن إسرائيل تمكنت من ضرب ما يقرب من 6 آلاف هدف خلال الصراع الذي استمر 51 يوما في 2014.
إدارة المخاطر: تعني إدارة مخاطر الذكاء الاصطناعي تقدير ومعالجة المخاطر الناتجة عن تطوير أو استخدام أنظمة الذكاء الاصطناعي، ويحدد التقييم المستويات القصوى للتعرض للمخاطر ويطلق عمليات وإجراءات التخفيف للحد من المخاطر الناشئة، ويمكن لإطار المخاطر المؤلف من أربعة مستويات التعرف على تباين مستويات المخاطر الناجمة عن أنظمة الذكاء الاصطناعي على صحة الفرد وسلامته و/أو حقوقه الأساسية، كما أنه يحدد المتطلبات والالتزامات المتناسبة مع كل مستوى من مستويات المخاطر الماثلة،
وبالإضافة إلى ذلك تستخدم إدارة المخاطر لتصنيف فئات ومستويات المخاطر المرتبطة بتطوير و/أو استخدام تقنيات الذكاء الاصطناعي، وتصنف مستويات المخاطر هذه إلى مخاطر بسيطة أو بلا مخاطر، ومخاطر محدودة، ومخاطر عالية، ومخاطر غير مقبولة، ولن يكون هناك أي قيود على أنظمة الذكاء الاصطناعي التي تشكل “مخاطر بسيطة أو لا تنطوي على أي مخاطر” -مثل مرشحات البريد العشوائي غير المرغوب فيها- ولكن سيتم تشجيع مزودي أنظمة الذكاء الاصطناعي على الالتزام بقواعد السلوك الطوعية. كما أنه سيسمح لأنظمة الذكاء الاصطناعي التي تشكل “مخاطر بسيطة أو لا تنطوي على أي مخاطر” -مثل مرشحات البريد العشوائي غير المرغوب فيها- بدون وضع أي قيود، ولكن سيتم تشجيع موردي أنظمة الذكاء الاصطناعي على الالتزام بالأخلاقيات. يجب أن تخضع أنظمة الذكاء الاصطناعي التي تشكل “مخاطر محدودة” -مثل روبوتات الدردشة- لالتزامات الشفافية (مثل: الوثائق التقنية المتعلقة بالوظيفة والتطوير والأداء) ويمكن أن تختار بالمثل الالتزام بالأخلاقيات. وتخدم التزامات الشفافية -من بين العديد من العوامل الأخرى- في السماح للجهات المسؤولة عن أنظمة الذكاء الاصطناعي باتخاذ قرارات حول سبل دمج برمجيات الذكاء الاصطناعي في منتجاتهم و/أو خدماتهم،
ويتعين على أنظمة الذكاء الاصطناعي التي تشكل “مخاطر عالية” على الحقوق الأساسية الخضوع لإجراء تقييمات ما قبل المطابقة وبعدها، ولا يُسمح بأنظمة الذكاء الاصطناعي التي تشكل “خطراً غير مقبول” على سلامة الناس وسبل عيشهم وحقوقهم كتلك المتعلقة بالتسجيل الاجتماعي أو استغلال الأطفال أو تشويه السلوك البشري الذي يحتمل أن تحدث فيه أضرار جسدية أو نفسية. هذا،
وينبغي أن تكون إدارة المخاطر مرتبطة ارتباطاً مباشراً بمبادرات الذكاء الاصطناعي، بحيث تكون الرقابة متزامنة مع عمليات التطوير الداخلي لتقنيات الذكاء الاصطناعي، وتؤثر إدارة مخاطر أنظمة الذكاء الاصطناعي على مجموعة واسعة من أنواع المخاطر بما في ذلك البيانات والخوارزمية والالتزام والمخاطر التشغيلية والقانونية وتلك المتعلقة بالسمعة والمخاطر التنظيمية،
ويتم بناء المكونات الفرعية لإدارة المخاطر، مثل قابلية النموذج للتفسير، والكشف عن التحيز، ومراقبة الأداء، بحيث تكون المراقبة ثابتة ومتسقة مع أنشطة تطوير الذكاء الاصطناعي. يتم تضمين المعايير والاختبارات والضوابط في هذا النهج في مراحل مختلفة من مراحل عمل نظام الذكاء الاصطناعي، بدءاً من مرحلة التصميم وصولاً إلى التطوير وبعد النشر والتنفيذ الفعلي.
تقرير عدالة الذكاء الاصطناعي: يسمح تقرير العدالة والإنصاف للجهة المسؤولة عن تقنية الذكاء الاصطناعي بتحديد معايير العدالة المستخدمة في نظام الذكاء الاصطناعي بشكل واضح وكذلك توضيح الأساس المنطقي والمبرر وراء ذلك بلغة مباشرة وسهلة الفهم وغير تقنية، ولتنفيذ نظام ذكاء اصطناعي يتسم بالنزاهة والإنصاف على نحو مستدام،
فإن اختيار أهداف النزاهة المواتية يعد أمراً أساسياً لتحديد أسلوب نموذج الذكاء الاصطناعي من حيث معاييره الأخلاقية ومتطلباته التنظيمية، ويتم ذلك من خلال مشاركة الأسباب والقيم الأساسية للإنصاف الواردة في النموذج بالإضافة إلى عملية صنع القرار في نموذج الذكاء الاصطناعي للتواصل مع الجمهور الأوسع نطاقاً والوصول إليه، ويكون هذا التقرير متاحاً ويمكن الوصول إليه من قبل كل من الجمهور والأفراد والأوساط المتأثرة على حد سواء.
تقييم الأثر الأخلاقي: سرّعت أنظمة الذكاء الاصطناعي الابتكار في سبل إجراء الأعمال وتنفيذها من قبل الممارسين، وبالتالي فإنه أصبح من الضروري تطوير تقييمات الأثر الأخلاقي لنظام الذكاء الاصطناعي لتحديد المجالات التي تحتاج إلى تعديل وإعادة المعايرة لتصميم نموذج الذكاء الاصطناعي في تقنية مقبولة أخلاقياً لتعظيم تأثيرها الإيجابي على تعزيز القدرات والمهارات البشرية، ويكمن الهدف من تقييمات الأثر في تقييم وتحليل مستوى التأثير الأخلاقي لتقنية الذكاء الاصطناعي على كل من الأفراد أو المجتمعات في السلوكيات المباشرة وغير المباشرة على حد سواء، مما يساهم بدوره في تمكين الجهة المالكة لنظام الذكاء الاصطناعي من القدرة على معالجة المشكلات المحددة وتعزيز المجالات التي تستلزم إدخال تحسينات وتعديلات، كما أنه من الضروري أيضاً القدرة على تقييم المخاطر الأخلاقية التي يتعرض لها نظام الذكاء الاصطناعي، وتحليل أثر الضرر التمييزي، والتمثيل الدقيق للأثر الأخلاقي للنظام من خلال تحليل متنوع للمتأثرين بالنظام، فضلاً عن العمل لتحديد ما إذا كان النموذج يجب أن ينتقل إلى الإنتاج أو النشر والتنفيذ الفعلي، ويتمثل أحد أهداف تقييم الأثر الأخلاقي في المساعدة على بناء ثقة الجمهور في نظام الذكاء الاصطناعي وإظهار الاهتمام والاجتهاد تجاه الجمهور العام.
معايير الخصوصية والأمان: يساعد معيار الخصوصية والأمان الشركات على تحسين استراتيجيتها لأمن المعلومات من خلال توفير التوجيهات وأفضل الممارسات بناءً على مجال الشركة ونوعية البيانات التي تحتفظ بها، يتضمن الجدول التالي بعض الأمثلة لمعايير الأمان والخصوصية:
التطوّر السريع وفرص الابتكار التي تشهدها تقنية الذكاء الاصطناعي في مختلف المجالات مشوّقة. ورغم ذلك إلا أن المؤسسات التي تستخدم هذه التقنية لم تناقش بعد بشكل عميق وتفصيلي شامل المبادئ والأخلاقيات التي يجب مراعاتها أثناء استخدام الذكاء الاصطناعي، والعالم يحتاج هذه المبادئ والأخلاقيات بصفة عاجلة. يجب أن ينفع الذكاء الاصطناعي كافة أفراد المجتمع، كما يجب أن تُطبق عليه الحوكمة عالمياً، مع احترام كرامة الأفراد وحقوقهم
التعليقات