مصر.. مركز المعلومات بالوزراء يستعرض أبرز التحديات الأخلاقية للذكاء الاصطناعي
أصدر مركز المعلومات ودعم اتخاذ القرار بـ "مجلس الوزراء المصري"، اليوم الأربعاء، تحليلاً جديدًا تناول خلاله موضوع أخلاقيات الذكاء الاصطناعي والتحديات التي يُواجهها وسُبل التصدي لها.
وأشار التحليل إلى تزايد الاعتماد العالمي على تقنيات الذكاء الاصطناعي في شتى مجالات الحياة، كالرعاية الصحية، والتعليم، وأنظمة التمويل والصناعة والتجارة؛ حيث تشير التقديرات إلى أن 35% من المؤسسات العالمية تستخدم تقنيات الذكاء الاصطناعي، فضلًا عن تأكيد 83% من الشركات في مختلف المجالات على أن إدراج تقنيات الذكاء الاصطناعي ضمن استراتيجيتها المستقبلية أصبح يمثِّل أولوية قصوى، الأمر الذي يثير المخاوف بشأن التداعيات المحتملة للاعتماد المفرط على هذه التقنيات، لا سيَّما التحديات الأخلاقية الخاصة بالحفاظ على خصوصية الأفراد وقيم الحرية والابتكار وعدم التمييز.
ولفت مركز المعلومات إلى أن أخلاقيات الذكاء الاصطناعي تُعرف بأنها مجموعة المبادئ والإرشادات والمعايير التوجيهية التي يتعين على مطوري الذكاء الاصطناعي ومستخدميه اتباعها في تصميم واستخدام التقنيات، وتهدف هذه القواعد إلى ضمان المسؤولية الاجتماعية والأخلاقية عند تصميم واستخدام الذكاء الاصطناعي، بحيث يتوافق مع الأسس الأخلاقية، ومبادئ احترام حقوق الإنسان.
المبادئ التي تتضمنها القواعد الأخلاقية للذكاء الاصطناعي:
وأوضح التحليل المبادئ التي تتضمنها القواعد الأخلاقية للذكاء الاصطناعي وهي على النحو التالي:
- الحيادية وعدم التحيز: حيث يتعيَّن تصميم أنظمة الذكاء الاصطناعي بطريقة تضمن أن تكون النتائج والقرارات التي تقدمها حيادية وغير منحازة، وبحيث تتجنب التمييز القائم على العرق أو الدين أو الجنس أو العمر أو الحالة الاجتماعية والاقتصادية، والتعامل بشكل مُنصف ومتساوٍ مع جميع الأفراد، وذلك لعدم مفاقمة التحيزات الثقافية والمجتمعية القائمة.
- الشفافية والقابلية للتفسير: ويعني ذلك ضرورة تمتع أنظمة الذكاء الاصطناعي بالشفافية من خلال تقديمها للمبررات والتفسيرات المتعلقة بالقرارات والإجراءات التي تتخذها، مما يُسهم في بناء المصداقية. هذا بالإضافة إلى تمكين المستخدمين من فهم آليات عمل أنظمة الذكاء الاصطناعي بما يشمل البيانات والخوارزميات المتضمَّنة في عمليات صنع القرار، والنتائج التي يُقدِّمها.
- احترام الخصوصية وحماية البيانات: إذ يجب تنفيذ تدابير محكمة وصارمة تضمن عدم انتهاك الخصوصية وحماية البيانات الشخصية لمستخدمي أنظمة الذكاء الاصطناعي، وذلك من خلال استخدام البيانات الشخصية فقط من أجل الأغراض المحددة بشرط موافقة المستخدم وإخفاء هويته.
- المسؤولية والمساءلة: حيث يجب على مطوري أنظمة الذكاء الاصطناعي والجهات المعنية تحمل المسؤولية والخضوع للمساءلة عن آثار ومخرجات تلك الأنظمة، بالإضافة إلى وضع آليات لمواجهة وتصحيح الأضرار المحتملة التي قد تنجم عن الأنظمة الرقمية التي يتم ابتكارها.
- مراعاة الأمن والسلامة: وذلك من خلال اتخاذ التدابير اللازمة للحد من المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، ويتضمن ذلك الحيلولة دون إمكانية استخدامها بشكل ضار أو إجرامي، وكذلك حمايتها من الاختراق والوصول غير المصرح به لبيانات ومعلومات المستخدمين.
وأضاف المركز في تحليله أن الاعتماد على تقنيات الذكاء الاصطناعي يخلق جملة من التحديات الأخلاقية والإنسانية، والتي يمكن التطرق إلى أبرزها فيما يلي:
- التأثير على الخصوصية: فرغم أن تقنيات الذكاء الاصطناعي تستهدف خدمة البشر وتيسير سبل حياتهم في المقام الأول، وذلك مع التأكيد على الحفاظ على سرية بياناتهم من خلال إجراءات الأتمتة، فإنه ثبت مع تطبيق هذه التقنيات أن تقويض الخصوصية وانتهاك سرية البيانات سمة غالبة؛ حيث إن تزايد الاعتماد على كاميرات المراقبة، واستخدام الهواتف الذكية، والإنترنت جعل من السهل جمع البيانات عن الأشخاص ومراقبة تحركاتهم، بما يفضي في نهاية المطاف إلى انتهاك خصوصياتهم وحرياتهم المدنية، ولا تقتصر المخاوف المتعلقة بانتهاك الخصوصية على مجرد مراقبة تحركات الأشخاص، وإنما في الوصول غير المصرح به لبياناتهم ومعلوماتهم الشخصية وسوء استخدامها.
- الذكاء الاصطناعي يفاقم التحيز: فالقول بأن الذكاء الاصطناعي أكثر حيادية من البشر أمر غير صحيح؛ نظرًا لأن البشر -الذين لا يخلون من التحيز- هم من يقومون ببرمجة أنظمة الذكاء الاصطناعي وتقنياته، ومن ثمّ، فإنهم ينقلون تحيزاتهم إلى تلك الأنظمة.
-مفاقمة عدم المساواة في توزيع الدخل: مع التوقعات التي بدأت تتحقق في الواقع بشأن تراجع الاعتماد على القوى العاملة البشرية مقابل الاعتماد على تقنيات الذكاء الاصطناعي لإنجاز الوظائف والمهام، فمن المرجَّح ارتفاع معدلات البطالة، وما يصاحبها من ارتفاع معدلات الفقر، في مقابل تزايد الأرباح التي يحصل عليها أصحاب الشركات، لا سيَّما مع توفير الأموال المخصصة لبند أجور العاملين، بما يفاقم عدم المساواة في توزيع الدخول بين الأفراد.
- تراجع الابتكار لدى البشر: فاستمرار إحلال تقنيات الذكاء الاصطناعي محل البشر في العديد من الوظائف والمهام قد يؤدي إلى تراجع إسهامات البشر، ومن ثمّ، تقويض مهارات الابتكار لديهم، فضلًا عن تفاقم الشعور السلبي لدى العديد منهم بشأن جدوى مهامهم ودورهم في ظل المهام المعقدة التي تؤديها أنظمة الذكاء الاصطناعي.
- مخاوف متزايدة في القطاع الصحي: فرغم التقدم الذي يشهده قطاع الصحة في ظل اعتماده المتزايد على أنظمة الذكاء الاصطناعي، فإن هناك جُملة من المخاوف بشأن عدم دقة الأنظمة في بعض الحالات، والتي تنطوي على عواقب وخيمة في قطاع الصحة؛ نظرًا لأنها قد تعرض بعض الأشخاص لخطر فقدان حياتهم، فضلًا عن أن الاعتماد على الروبوتات الطبيّة لا يلبي حاجة المرضى النفسية للشعور بالطمأنينة، والتي توفرها الأطقم الطبية البشرية.
- تهديد الحريات: حيث تُعد تقنية التعرف على الوجه سلاحًا ذا حدين، فعلى الرغم من أنها تيسر عملية ضبط المجرمين، والمطلوبين للعدالة، فضلًا عن إقدام بعض الدول على استخدامها إبان جائحة كورونا للتأكد من امتثال المواطنين للإجراءات الاحترازية والحفاظ على الصحة العامة، فإنها يمكن استخدامها بما يهدد قيم الحرية والديمقراطية.
وقد أبرز التحليل آليات مواجهة التحديات الأخلاقية للذكاء الاصطناعي ويتمثل أبرزها فيما يلي؛ التوعية والتثقيف بأخلاقيات الذكاء الاصطناعي؛ وذلك من خلال تعزيز الوعي والمعرفة لدى الأفراد والمؤسسات فيما يخص مخاطر وتحديات وحدود الذكاء الاصطناعي وتثقيف المستخدمين والعملاء حول كيفية حماية بياناتهم الشخصية وتخزينها، بالإضافة إلى قيام المنظمات الدولية والشركات الكبرى العاملة في مجال الذكاء الاصطناعي بوضع مجموعة من المبادئ التوجيهية والإرشادات أو الأطر التنظيمية الملزمة والتي يتعين الالتزام بها عند تطوير أو استخدام أنظمة الذكاء الاصطناعي، وذلك بما يتماشى مع القيم والمبادئ الأخلاقية وبما يضمن تطوير واستخدام التكنولوجيا لخدمة الصالح العام، وتعزيز القيم الإنسانية وحماية حقوق الأفراد، وضمان تنويع الخلفيات الاجتماعية للشخصيات العاملة في مجال تطوير أنظمة الذكاء الاصطناعي، وذلك من خلال اتباع نهج شامل للتوظيف يضمن تمثيل المبرمجين والمطورين لكافة فئات المجتمع.
وتطرق التحليل إلى الدور المصري في مواجهة تحديات تقنيات الذكاء الاصطناعي، حيث أكد أنه بالرغم مما يحمله التوسع في استخدام هذه التقنيات من تحديات أخلاقية وإنسانية متزايدة، إلا أن مصر قد لعبت دورًا مهمًّا في صياغة العديد من المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي في منظمات دولية مختلفة مثل منظمة التعاون الاقتصادي والتنمية، ومنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) ومجموعة العشرين، كما تقود مصر فرقًا تعمل على توحيد التوصيات الأخلاقية للذكاء الاصطناعي على المستوى الإقليمي داخل الاتحاد الإفريقي وجامعة الدول العربية.
علاوةً على ذلك، كانت مصر أول دولة عربية وإفريقية تلتزم بمبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي المسؤول، كما كانت أولى الدول التي اعتمدت وثيقة اليونسكو بشأن توصيات أخلاقيات الذكاء الاصطناعي، كما أطلقت مصر الاستراتيجية الوطنية للذكاء الاصطناعي في يوليو 2021.
بالإضافة إلى ذلك، فقد أطلق المجلس الوطني للذكاء الاصطناعي –الذي دشَّنته الحكومة المصرية في نوفمبر 2019- "الميثاق المصري للذكاء الاصطناعي المسؤول" وذلك في أبريل 2023؛ لبلورة رؤية الدولة المصرية للمبادئ التوجيهية المتعلقة بالأطر التنظيمية للاستخدام الأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي في المجتمع المصري، الأمر الذي يساعد في ضمان إدارة وتطوير ونشر أنظمة الذكاء الاصطناعي في الدولة واستخدامها بشكل واعٍ ومسؤول.
ويستهدف الميثاق الوطني للذكاء الاصطناعي المسؤول تفعيل 5 مبادئ رئيسة، هي: البشرية كمقصد، والشفافية، وقابلية التفسير، والعدالة، والمساءلة، والأمن والأمان، وذلك من خلال اتباع نحو 13 مبدأ توجيهيا عاما، تعد بمثابة قواعد شاملة، بالإضافة إلى 16 مبدأ توجيهياً تنفيذياً؛ والتي تنطبق بشكل أساسي على أي جهة تقوم بتطوير أو نشر أو إدارة نظام ذكاء اصطناعي.
وأفاد التحليل أن من الأهمية بمكان ملاحظة أن القواعد الأخلاقية والمبادئ الإرشادية الموجهة لأنظمة الذكاء الاصطناعي لا تزال قيد التطوير، لا سيَّما في ظل التقديرات التي تتوقع نمو وتوسع مجال الذكاء الاصطناعي في المستقبل؛ إذ تشير بعض الإحصائيات إلى أنه من المتوقّع أن ينمو حجم سوق الذكاء الاصطناعي بنسبة 120٪ على الأقل على أساس سنوي، وأن تصل القيمة السوقية لمجال الذكاء الاصطناعي على مستوى العالم إلى نحو 1.59 تريليون دولار بحلول عام 2030، وهو ما يفرض المزيد من التحديات الأخلاقية المتعلقة بتزايد الاعتماد المفرط على تقنيات الذكاء الاصطناعي، مما يتطلب وضع أطر ومبادئ توجيهية ملزمة لتحقيق التوازن بين التقدم التكنولوجي من ناحية، والاعتبارات والمبادئ الأخلاقية التي قد تنجم عن استخدام أنظمة الذكاء الاصطناعي من ناحية أخرى، وذلك من أجل تعظيم فوائد وإيجابيات الذكاء الاصطناعي مع الحد من الآثار السلبية المحتملة على الأفراد والمجتمعات.