9 كانون الأول/ديسمبر 2019

يتلاقى الذكاء الاصطناعي (AI) مع مجموعة غير عادية من التقنيات الأخرى، بدءاً من التقنية الحيوية وعلم الجينومات، إلى التقنية العصبية، والروبوتات، والتقنية السيبرانية ونظم التصنيع. لقد أصبحت هذه التقنيات، على نحو متزايد، لا مركزية، وخارجة عن سيطرة الدولة، ومتاحة لمجموعة واسعة من الجهات الفاعلة في جميع أنحاء العالم. في حين أن هذه الاتجاهات قد تطلق إمكانات هائلة للبشرية، فإن تقارب الذكاء الاصطناعي والتقنيات الحديثة يفرض أيضًا مخاطر غير مسبوقة على الأمن العالمي. وبوجه خاص، فإنها تخلق تحديات للنظام المتعدد الأطراف والأمم المتحدة والتي تعمل على مستوى الدول.

بفضل إمكاناتها لتمكين الاستجابات في الوقت الحقيقي والفعالة من حيث التكلفة والكفاءة لمجموعة متنوعة من القضايا المتعلقة بالتنمية البشرية والأمنية، تلعب تقنية الذكاء الاصطناعي دورًا مهمًا في إدارة المخاطر المعقدة على السكان المستضعفين وتجنب اندلاع الأزمات وبناء القدرة على الصمود ضد الصدمات داخل مجتمعاتنا. بينما يلتقي الذكاء الاصطناعي، مع التقنيات الأخرى، في جميع أركان عمل الأمم المتحدة، سيكون دوره حاسماً في جدول أعمال الوقاية.

ومع ذلك، من المحتمل أن يؤدي الذكاء الاصطناعي، كتقنية مزدوجة الاستخدام، إلى إضعاف قدرة السكان مثلما يقوم بتمكينهم. إن قدرة الذكاء الاصطناعي على التدخل في السلوك البشري الخاص وربما السيطرة عليه آثار مباشرة على جدول أعمال الأمم المتحدة المتعلق بالوقاية وحقوق الإنسان. في الواقع، قد تتطلب الأشكال الجديدة من الرقابة الاجتماعية والبيولوجية إعادة تصور للإطار المعمول به حالياً لرصد وتنفيذ الإعلان العالمي لحقوق الإنسان. بالتأكيد ستتطلب المخاطر الأمنية المتطورة أن يقوم النظام المتعدد الأطراف بتوقع وفهم أفضل لمجال التقارب السريع الناشئ عن تقنية الذكاء الاصطناعي.

لذلك، من الضروري استخدام التبصر الشامل والتوجيه المعياري في إطار جدول أعمال الوقاية وتقاطعه مع التقنيات الجديدة، استنادًا إلى الاهتمام المتجدد بميثاق الأمم المتحدة لتشكيل إنشاء أنظمة الذكاء الاصطناعي ونشرها وإدارتها.

وعود تقارب الذكاء الاصطناعي

لقد دخلنا في عصر التقارب التقني الذي يسعى إلى دمج حياتنا المادية والرقمية والبيولوجية. يقوم علماء الحاسوب بتطوير خوارزميات تعلّم عميقة يمكنها التعرف على الأنماط ضمن كميات هائلة من البيانات بكفاءة تفوق طاقة البشر وبدون إشراف. في الوقت نفسه، يقوم علماء الوراثة وعلماء الأعصاب بفك تشفير البيانات المتعلقة بالجينوم البشري وعمل الدماغ، والتعرف على صحة الإنسان والرفاهية والإدراك.

النتيجة هي أن القدرات الوظيفية لتفادي الأزمات التي لم يكن من الممكن تصورها في السابق أصبحت الآن حقيقة واقعة حيث تعمل على رفع مستوى الجهود من الطب الدقيق والأمن الغذائي إلى منع نشوب الصراعات. على سبيل المثال، تقوم خوارزميات التعلّم العميق بتشخيص اعتلال الشبكية[1]  للمرضى الذين يعيشون في المناطق الريفية في الهند حيث يوجد نقص في أطباء العيون. يمكن لنفس الخوارزميات تحديد المؤشرات الحيوية الخبيثة بين مساحات كبيرة من بيانات الجينوم من المجموعات البشرية لتصميم اختبارات الدم لمختلف أنواع السرطان.[2]  تستخدم الشركات مثل [3]Zipline   تقنية الذكاء الاصطناعي في الطائرات المسيّرة ذاتية التحكم لإيصال الإمدادات الطبية الحيوية، مثل اللقاحات إلى المستشفيات الريفية في أفريقيا.

يمكن أن يصبح الذكاء الاصطناعي أيضًا أداة قوية لجهود التنمية الدولية للأمم المتحدة. يقوم البنك الدولي بالتعاون مع المنظمة والشركاء العالميين الآخرين ببناء آلية عمل المجاعة[4]  التي تعتمد على أنظمة التعلّم العميق التي طورتها شركات مايكروسوفت وجوجل وأمازون لاكتشاف متى تتحول أزمات الغذاء إلى مجاعات. تتيح نفس الأداة أن تكون متصلة مباشرةً ببرنامج (agile financing) وتزويده بمصادر انعدام الأمن الغذائي. تعتبر مبادرة النبض العالمي للأمم المتحدة (UN Global Pulse) مبادرة[5]  رائدة تستخدم التعلّم الآلي لرصد آثار التطرف العنيف على خطاب الكراهية على الإنترنت. يؤدي الجمع الأمثل للقياسات الحيوية والجينوم والبيانات السلوكية إلى "الحوسبة العاطفية" وهي خوارزميات يمكنها تحليلنا بنجاح وتحفيزنا والتواصل معنا. سيؤدي هذا الشكل من التحليل العاطفي إلى تحسين التفاعلات بين الإنسان والآلة في التطبيقات التي يمكن أن تمكن الفئات المحرومة من السكان في مجالات تتراوح من الطب الدقيق[6]  إلى التعليم المستهدف.[7]

ستراقبنا أنظمة الذكاء الاصطناعي من خلال الحوسبة العاطفية وتقوم بتسجيلنا وتقييمنا. سننتقل حينها من القدرة التنبؤية لخوارزمية واحدة إلى أخرى. إن دخول هذا العالم من تقارب الذكاء الاصطناعي هو خطوة تجاه شبكة من المراقبة المنتشرة والدقيقة.

المراقبة الدقيقة والرقابة الاجتماعية

ستحصل الخوارزميات المجهزة بتقنية التعرف على الوجه على فهم إدراكي أكثر دقة، ليس فقط لميزات القياسات الحيوية لدينا، ولكن أيضًا لعواطفنا وسلوكياتنا البشرية. هذا الشكل الجديد من الحوسبة المتطفلة في حياتنا الشخصية له آثار كبيرة على تقرير المصير والخصوصية ولا سيما خصوصية الأطفال.

على سبيل المثال، ترسل  صديقتي كايلا الدمية الذكية[8]  البيانات الصوتية والعاطفية للأطفال الذين يلعبون بها إلى السحابة، مما أدى إلى رفع شكوى[9]  من قبل لجنة التجارة الفيدرالية بالولايات المتحدة كما تم حظر الدمية في ألمانيا. في الولايات المتحدة، يتم بالفعل استخدام التحليل العاطفي في قاعة المحكمة لكشف الندم[10]  في أشرطة الفيديو الخاصة الشهادة. ويمكن أن يكون ذلك قريباً جزء من مقابلة عمل[11]  لتقييم استجابات المرشحين ولياقتهم للوظيفة.

يعتبر الفيسبوك صديق حميم للذكاء الاصطناعي في التعرف على الأفكار الانتحارية[12]  من خلال المحادثة والتحليل العاطفي. تعمل الشركاتان الناشئتان (Neuralink) و(Kernel) على تقنية واجهات الدماغ والحاسوب[13]  التي من شأنها أن تقرأ العمليات الذهنية للناس وتؤثر على آليات الدماغ التي تعمل على اتخاذ قراراتهم. تعتمد شركة واحدة بالفعل على أجهزة استشعار لاسلكية لتحليل موجات الدماغ[14]  لدى العمال ومراقبة صحتهم العاطفية.

ينشر العملاق التكنولوجي "علي بابا" ملايين الكاميرات المجهزة للتعرف على الوجه عبر عدد من المدن.[15]  يتم إنشاء قواعد البيانات التي ترعاها الحكومة للوجوه والجينومات والمعلومات المالية والشخصية للاتصال بالتصنيفات الائتمانية والوظائف وتصنيفات ولاء المواطنين، وكذلك تصنيفات عينات الحمض النووي للعثور على أفراد الأسرة ذوي الصلة. في الآونة الأخيرة، تم جمع صور وعينات اللعاب لطلاب[16]  من 5000 مدرسة، دون موافقة مسبقة، لتغذية قاعدة بيانات للوجوه والجينوم. علاوة على ذلك، تقوم شركة Cloud Walk[17]   وهي شركة لبرمجيات التعرف على الوجه بتطوير تقنية الذكاء الاصطناعي التي تتعقب حركات الأفراد وسلوكهم لتقييم فرصهم في ارتكاب جريمة.

يمكن لقدرة الذكاء الاصطناعي على دفع السلوك البشري الخاص والسيطرة عليه والتأثير على تقرير المصير بأن يعوق بشكل متزايد قدرة الأمم المتحدة على رصد انتهاكات حقوق الإنسان وحمايتها. هذه القدرة محدودة بدرجة أكبر عندما يمتلك القطاع الخاص، على وجه الحصر تقريبًا، البيانات المطلوبة ويكون مجهزًا بشكل أفضل بالمعرفة اللازمة لفهم وتصميم الخوارزميات.

تدهور الحقيقة والثقة

الآثار المترتبة على الاستخدام المزدوج القوي للذكاء الاصطناعي أصبحت أيضًا صعبة التكهن والاحتواء والتخفيف.  تمكن الذكاء الاصطناعي بالاعتماد على تحليل السلوك والمشاعر من نشر دعاية مستهدفة بشكل أكثر كفاءة وعلى نطاق أوسع داخل النظام الإيكولوجي لوسائل التواصل الاجتماعي.

خذ برنامج الزيف العميق (Deepfake)[18]  كمثال. يمكن الآن لبرامج الذكاء الاصطناعي المتطورة معالجة الأصوات والصور ومقاطع الفيديو مما يؤدي إلى انتحال شخصية من المستحيل تمييزها عن الأصل. تستطيع خوارزميات التعلّم العميق، قراءة الشفاه البشرية بدقة مدهشة وتوليف الكلام وإلى حد ما محاكاة تعبيرات الوجه.

يمكن بسهولة إساءة استخدام هذه المحاكاة بمجرد إطلاقها خارج المختبر مع تداعيات تبعث على القلق (يحدث هذا بالفعل على مستوى منخفض في الواقع). عشية الانتخابات، يمكن لمقاطع الفيديو المنتجة ببرنامج الزيف العميق (Deepfake) أن تصور زوراً مسؤولين حكوميين مشاركين في غسل الأموال أو يمكن زرع الذعر العام من خلال مقاطع فيديو تحذر من أوبئة أو هجمات إلكترونية غير موجودة. يمكن أن تؤدي هذه الحوادث المزيفة إلى تصعيد دولي.

إن قدرة مجموعة من الجهات الفاعلة على التأثير على الرأي العام بمحاكاة مضللة يمكن أن يكون لها آثار قوية طويلة الأجل على دور الأمم المتحدة في الحفاظ على السلم والأمن. من خلال تآكل الإحساس بالثقة والحقيقة بين المواطنين والدولة وبالفعل بين الدول، يمكن أن تشكل الأخبار المزيفة حقًا تآكلًا عميقًا لنظامنا الاستخباراتي والحكم العالمي.

الاستعمار السيبراني والمخاطر الأمنية الجديدة

يمكن أن تؤدي قدرة التقنيات التي يحركها الذكاء الاصطناعي على التأثير على أعداد كبيرة من السكان إلى الاحتمال الحقيقي للغاية لخلق سباق سيبراني. يمكن للدول القوية ومنصات التقنية الكبيرة من الدخول في منافسة مفتوحة على بياناتنا الجماعية كوقود لتوليد التفوق الاقتصادي والطبي والأمني. من المرجح بشكل متزايد أن تظهر أشكال "الاستعمار السيبراني"، لأن الدول القوية قادرة على تسخير الذكاء الاصطناعي والتقنية الحيوية لفهم سكان البلدان الأخرى والنظم الإيكولوجية الخاصة بها والتحكم فيها.

هذه الأشكال من الذكاء الحيوي هي ميزة استراتيجية في ترسانة الأمن في أي دولة وسوف تؤدي إلى تطورات متزايدة في طليعة التدابير الطبية المضادة والبحوث العسكرية.

ومع ذلك، فإن المسؤولية الأخلاقية التي تأتي مع استخدام أنظمة الذكاء الاصطناعي في بيئتنا الأمنية المتطورة لم تعد ملكاً للدول فقط حيث يتم توزيعها بشكل متزايد بين المطورين والمستخدمين والقراصنة. يؤدي هذا الشكل من "المسؤولية الضمنية" إلى مجموعة شاملة من التحديات المترابطة للنظام متعدد الأطراف.

ما دور النظام المتعدد الأطراف؟

لم تعد مجتمعاتنا مستعدة بشكل صحيح لنشر الذكاء الاصطناعي والتقنيات المتقاربة من الناحية السياسية والقانونية والأخلاقية. تأسست الأمم المتحدة قبل عدة عقود من هذه الثورة التكنولوجية. هل المنظمة في وضع جيد حاليًا لتطوير هذا النوع من الحوكمة المسؤولة التي ستحول إمكانات الذكاء الاصطناعي بعيدًا عن المخاطر الحالية والناشئة وتجاه سلامنا الجماعي وأمننا ورفاهنا؟

تشير عودة الأجندات القومية في جميع أنحاء العالم إلى تراجع قدرة النظام المتعدد الأطراف على لعب دور ذي معنى في الإدارة العالمية للذكاء الاصطناعي. قد لا ترى الشركات الكبرى قيمة كبيرة في تطبيق النهج متعدد الأطراف على ما تعتبره التقنيات المربحة والامتلاكية. قد تفضل الدول الأعضاء القوية بلورة مزاياها وقواعدها التنافسية عندما يتعلق الأمر بالتقنيات السيبرانية. قد يقاومون تدخل الأمم المتحدة في الإدارة العالمية للذكاء الاصطناعي لا سيما فيما يتعلق بالتطبيقات العسكرية.

ولكن هناك بعض الطرق المبتكرة التي يمكن للأمم المتحدة من خلالها المساعدة في بناء نوع من الشبكات التعاونية الشفافة التي قد تبدأ في معالجة "اضطراب نقص الثقة". ينبغي للأمم المتحدة أن تعزز مشاركتها مع منصات التكنولوجيا الكبيرة التي تحرك ابتكار الذكاء الاصطناعي أولاً وأن توفر منتدى للتعاون الحقيقي المفيد بينها، إلى جانب الجهات الفاعلة الحكومية والمجتمع المدني. ستحتاج الأمم المتحدة بالنسبة إلى التعاون في مجال الذكاء الاصطناعي إلى أن تكون جسراً بين مصالح الدول التي تمثل قادة في مجال التقنية وتلك التي تستقبلها.

يمكن لمجموعة من الكيانات داخل منظومة الأمم المتحدة في وظيفة الوساطة هذه، أن تلعب دوراً مطلوباً بشدة على المستوى الدولي من خلال 1) التبصر التقني، الذي يشمل تحديات البلدان المختلفة؛ و2) التفاوض على الأطر المعيارية المناسبة؛ و3) تطوير معايير الرقابة والتنسيق والإشراف.

سيكون كل من التبصر الشامل والرصد والتنسيق المعايير الحاسمة بشكل خاص في تعزيز وحماية حقوق الإنسان.  ستحتاج كيانات الأمم المتحدة إلى التعاون لرصد وضمان الاتساق عبر الجهود المعيارية المتعددة التي تحفزها الجهات الفاعلة الوطنية والإقليمية والخاصة بالنظر إلى التأثيرات القوية، والمضادة أحيانًا، التي قد تترتب على الذكاء الاصطناعي في تقرير المصير والخصوصية والحريات الفردية الأخرى.

أخيرًا، سيتطلب تحقيق جدول أعمال الأمم المتحدة للوقاية من توفير مسح أفق حاد وشامل لتوقع طبيعة ونطاق المخاطر الأمنية الناشئة التي ستهدد ليس فقط الدول، ولكن أيضًا الأفراد والسكان المستضعفين. سيصبح هذا التبصر حرجًا بشكل متزايد حيث يتلاقى الذكاء الاصطناعي مع التقنيات الأخرى الخارجة عن سيطرة الدولة ويكون متاحاً لمجموعة واسعة من الجهات الفاعلة حول العالم.

أنشأ مركز أبحاث السياسات في جامعة الأمم المتحدة منصة "الذكاء الاصطناعي والحوكمة العالمية" كمنطقة شاملة للباحثين والجهات الفاعلة في مجال السياسات وكذلك قادة الشركات والفكر، لتوقع واستكشاف تحديات السياسة العالمية التي أثارها الذكاء الاصطناعي بناءً على التكليف الممنوح لجامعة الأمم المتحدة (UNU) في استراتيجية الأمين العام بشأن التقنيات الجديدة. تهدف المنصة إلى تعزيز رؤى متعددة التخصصات فريدة من نوعها لتوجيه المناقشات الحالية من منظور تعددية الأطراف إلى جانب الدروس المستفادة من العمل المنجز على أرض الواقع من خلال الطروحات العالمية المقدمة من القادة في هذا المجال. ستدعم هذه الأفكار الدول الأعضاء في الأمم المتحدة والصناديق والوكالات والبرامج متعددة الأطراف وأصحاب المصلحة الآخرين وهم يأخذون بعين الاعتبار أدوارهم الخاصة والجماعية في تشكيل إدارة الذكاء الاصطناعي.

ولعل أهم تحدي تواجهه الأمم المتحدة في هذا السياق هو التحدي المتمثل في إعادة الإحساس بالثقة في النظام المتعدد الأطراف. إذا أخبرنا التحليل أعلاه بأي شيء، فسيكون مفاده بأن التقنيات التي تعتمد على الذكاء الاصطناعي تعتبر مسألة تتعلق بكل فرد وكل دولة.  هناك خطر حقيقي من أن تقوض تلك التقنيات الاستقرار العالمي بدون وجود أشكال تعاونية جماعية للحوكمة.

ملاحظات
 

[1] Daniel Shu Wei Ting and others, "Development and validation of a deep learning system for diabetic retinopathy and related eye diseases using retinal images from multiethnic populations with diabetes", The Journal of the American Medical Association, vol. 318, No. 22 (12 December 2017), p.p. 2211-2223. متاح على الرابط التالي: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5820739/.

[2] Claire Asher, "Artificial Intelligence to boost liquid biopsies", The Scientist, 26 June 2018. متاح على الرابط التالي: https://www.the-scientist.com/news-opinion/artificial-intelligence-to-bo....

[3] لمزيد من المعلومات، راجع موقع شركة (Zipline International) على الإنترنت، على الرابط التالي: http://www.flyzipline.com/.

[4] World Bank, Famine Action Mechanism (FAM). متاح على الرابط التالي: http://www.worldbank.org/en/programs/famine-early-action-mechanism (تم الوصول إليه في 4 كانون الأول/ ديسمبر، 2018).

[5] Alexandra Olteanu and others, "The effect of extremist violence on hateful speech online", Association for the Advancement of Artificial Intelligence, 16 April 2018. متاح على الرابط التالي: https://www.unglobalpulse.org/sites/default/files/The%20effects%20of%20e....

[6] Massachusetts Institute of Technology Media Laboratory, "Predicting students' wellbeing from physiology, phone, mobility, and behavioral data". متاح على الرابط التالي: https://www.media.mit.edu/projects/predicting-students- wellbeing-from-physiology-phone-mobility-and-behavioral-data/overview/ (تم الوصول إليه في 4 كانون الأول/ ديسمبر، 2018).

[7] Massachusetts Institute of Technology Media Laboratory, "Affective learning companion: Exploring the role of emotion in propelling the SMET learning process". متاح على الرابط التالي: https://affect.media.mit.edu/projectpages/lc/nsf1.html (تم الوصول إليه في 4 كانون الأول/ ديسمبر، 2018).

[8] لمزيد من المعلومات حول الدمية الذكية كايلا، راجع موقع اللعبة على الرابط التالي: https://www.myfriendcayla.com /.

[9] Federal Trade Commission, "Complaint and request for investigation, injunction, and other relief", 6 December 2016. متاح على الرابط التالي: https://epic.org/privacy/kids/EPIC-IPR-FTC-Genesis-Complaint.pdf.

[10] لمعرفة المزيد عن منصة إدارة تسجيلات الفيديو الخاصة بالشهادة القانونية "MediaRebel"، انظر موقع (Affectiva) على الرابط التالي: https://www.affectiva.com/success-story/mediarebel/.

[11] Minda Zetlin, "AI is now analyzing candidates' facial expressions during video job interviews", Inc., 28 February 2018. متاح على الرابط التالي: https://www.inc.com/minda-zetlin/ai-is-now-analyzing-candidates-facial-e....

[12] Jordan Novet, "Facebook is using A.I. to help predict when users may be suicidal", CNBC, 21 February 2018. متاح على الرابط التالي: https://www.cnbc.com/2018/02/21/how-facebook-uses-ai-for-suicide-prevent....

[13] Rafael Yuste and others, "Four ethical priorities for neurotechnologies and AI", Nature, vol. 551 (8 November 2017). متاح على الرابط التالي: https://www.nature.com/news/four-ethical-priorities-for-neurotechnologie....

[14] Stephen Chen, "‘Forget the Facebook leak’: China is mining data directly from workers’ brains on an industrial scale", South China Morning Post, 29 April 2018. متاح على الرابط التالي: https://www.scmp.com/news/china/society/article/2143899/forget-facebook-....

[15] Hua Xiansheng, "City brain and comprehensive urban cognition", Alibaba   Cloud, blog, 30 September 2017. متاح على الرابط التالي: https://www.alibabacloud.com/blog/interview-with-idst-deputy-managing-di....

[16] Wenxin Fan, Natasha Khan and Liza Lin, "China snares innocent and guilty alike to build world’s biggest DNA database", The Wall Street Journal, 26 December 2017. متاح على الرابط التالي: https://www.wsj.com/articles/china-snares-innocent-and-guilty-alike-to-b....

[17] لمزيد من المعلومات حول تقنية (CloudWalk)، راجع موقع الشركة على الرابط التالي: http://www.cloudwalk.cn/.

[18] Hilke Schellman,"Deepfake videos are getting real and that’s a problem", The Wall Street Journal, 15October 2018. متاح على الرابط التالي: https://www.wsj.com/articles/deepfake-videos-are-ruining-lives-is-democr....

 

وقائع الأمم المتحدة ليست سجلاً رسمياً. إن الآراء التي يعبر عنها المؤلفون الأفراد، وكذلك الحدود والأسماء المعروضة والتسميات المستخدمة في الخرائط أو المقالات، لا تعني بالضرورة موافقة أو قبول رسمي من قِبل الأمم المتحدة.

 

 

وقائع الأمم المتحدة ليست سجلاً رسمياً. إنها تتشرف باستضافة كبار مسؤولي الأمم المتحدة وكذلك المساهمين البارزين من خارج منظومة الأمم المتحدة الذين لا تعبر آراءهم بالضرورة عن آراء الأمم المتحدة. وبالمثل، الحدود والأسماء المعروضة والتسميات المستخدمة في الخرائط أو المقالات، لا تعني بالضرورة موافقة أو قبول من قِبل الأمم المتحدة.