تمثل مخاطر التكنولوجيا وتداعياتها الاستراتيجية إحدى القضايا المحورية في سياق الدراسات والتقارير والأدبيات العلمية التي تقدمها مراكز البحث والتفكير في هذا المجال، ويرجع ذلك للعديد من الأسباب، أبرزها ما يشهده قطاعا الاتصالات وتكنولوجيا المعلومات من تغيرات متسارعة وغير مسبوقة. فقطاع الاتصالات يدخل عصرًا جديدًا، وهو عصر الاتصالات الفائقة السرعة المختلف عما قبله، كمًا وكيفًا. وفيما يتعلق بتكنولوجيا المعلومات، فإن حجم البيانات التي يتم نقلها في أقل جزء من الثانية كبير للغاية، والتزامن بين ملايين من أجهزة إنترنت الأشياء ونظم الذكاء الاصطناعي والروبوتات فوري ولحظي، وفي وقته الحقيقي، والتغطية التي سوف يقدمها تغطي سطح الكوكب من دون الحاجة إلى الاتصال بكابلات أرضية.

وقد نتج عن ذلك ظهور مجموعة من المخاطر المستحدثة، التي ازدادت أهميتها النسبية مقارنة بالمراحل السابقة، مثل المخاطر المرتبطة بتطبيقات الذكاء الاصطناعي، ويدخل في هذا الإطار التطور المتسارع في نطاق الطائرات المسيرة أو القوارب والغواصات والأسلحة المسيرة ذاتيا، وغيرها من المعدات ذات الاستخدامات المزدوجة مدنيًا وعسكريًا، وترتبط بهذا المخاطر ذات الصلة بالتكنولوجيا الناشئة، حيث يمر أي ابتكار تكنولوجي يصل إليه الإنسان بعدة مراحل: وأبرزها المرحلة الأولى التي تتسم بارتفاع نسبة المخاطر نظرا لعدم استخدامها من قبل، فلا تجارب سابقة تتعلق بها، ومن ثم فنسبة المخاطر والفشل فيها متقدمة.

كما يدخل في هذا السياق ما يطلق عليه المخاطر الهجين، ومنها مخاطر التضليل المعلوماتي والإعلامي، حيث يشير تقرير الدفاع الرقمي إلى أن الاستخدام المتعمد لمعلومات كاذبة بقصد التأثير في الرأي العام ومحاولات اختلاق الأكاذيب لأغراض التلاعب بالجماهير لها تاريخ طويل. ومع ذلك، وفقًا للتقرير، ظهرت أشكال جديدة من المعلومات المضللة إلى الواجهة على مدار العقد الماضي، وتم تمكينها من خلال التقدم في أساليب الحوسبة والبنية التحتية، وتوفِّر الآن المنصات والخدمات الاستهلاكية، المستخدمة على نطاق واسع، مثل وسائل التواصل الاجتماعي، ومنصات المبدعين، ومحركات البحث، وخدمات الرسائل، للجهات الحكومية وغير الحكومية قنوات قوية لتوزيع المعلومات المضللة. بالإضافة إلى هذه القنوات، توفر هذه الخدمات للجهات الفاعلة الخبيثة أدوات جاهزة لتجربة تأثير حملات المعلومات المضللة ومراقبتها وتكرارها وتحسينها.

من ثم، يأتي موضوع هذه الدراسة في سياق الجهود العلمية الرامية إلى رصد وتحليل المخاطر الاستراتيجية الناتجة عن التطور السريع والمتلاحق للتكنولوجيا، والتعرف على التراكم العلمي والمعرفي المتعلق بكيفية إدارتها والتعامل معها في نطاق بيئة دولية متغيرة. وقد تم تقسيم الدراسة إلى أربعة محاور: تناول الأولى المخاطر الاستراتيجية للذكاء الاصطناعي في ظل تحولات البيئة العالمية، حيث تم رصد ظهور المخاطر الاستراتيجية العالمية العابرة للحدود التي امتدت تأثيراتها لتشمل معظم دول العالم، والتي اتسمت بالطابع المركب والمتعدد الأوجه، وبالمستوى المرتفع للتهديد. ومع التنامي المستمر لدور التكنولوجيا الرقمية في مختلف مجالات الحياة، بدأت مخاطر التكنولوجيا في الظهور والتصاعد بدرجة ملحوظة.

كما تم رصد وتحليل النقلة النوعية التي جرت على صعيد الحقلين العملي والمعرفي لدراسة وتحليل المخاطر الاستراتيجية، التي تمثلت في نشر المنتدى الاقتصادي العالمي منذ عام 2005 تقارير دورية سنوية عن المخاطر التي تهدد الاقتصاد العالمي، كما ازداد الاهتمام بدراسة وتحليل المخاطر الناتجة عن التطور السريع في التكنولوجيا بأنواعها وصورها المتعددة، بما فيها الذكاء الاصطناعي، حيث خصصت مراكز البحوث الأخرى في سياق تقاريرها الأمنية السنوية أقسامًا لها، مثل تقرير ميونيخ للأمن، وتقرير مجتمع الاستخبارات الأمريكي السنوي، والتقارير الصادرة عن حلف شمال الأطلنطي، وغيرها من التقارير الصادرة عن مراكز البحث والتفكير على مستوى العالم.

أما المحور الثاني، فقد ركز على تطور المشهد العالمي للذكاء الاصطناعي وبروز المخاطر المرتبطة به، مثل نشر المعلومات المضللة، وتضخيم التحيزات وعدم المساواة، وقضايا حقوق النشر، والانتحال، والتأثير في السياسة. وتناول المحور الثالث التطور في مفهوم وإدارة المخاطر الاستراتيجية للذكاء الاصطناعي، وأهم الاقترابات العلمية التي تبلورت في سياق عملية تطور إدارة المخاطر الاستراتيجية للذكاء الاصطناعي، وذلك من خلال تحليل أهم الدراسات التي صدرت كدراسة شركة ماكينزي، ودراسة المخاطر في القانون الأوروبي للذكاء الاصطناعي، وتحليل المخاطر في إطار عمل إدارة مخاطر الذكاء الاصطناعي، الصادر عن المعهد الوطني للمعايير والتكنولوجيا بالولايات المتحدة الأمريكية، كما عالج هذا المحور التطور في إدارة مخاطر الذكاء الاصطناعي وأهم الاتجاهات الجديدة في هذا المجال.

في حين تطرق المحور الرابع والأخير لدراسة وتحليل أهم الاتجاهات التي عنيت بإدارة المخاطر الاستراتيجية للذكاء الاصطناعي، وهي: 

1 - اتجاه إدارة المخاطر الاستراتيجية للذكاء الاصطناعي من خلال الحوكمة. يقوم هذا الاتجاه على أساس تحديد أهم المخاطر الاستراتيجية للذكاء الاصطناعي، وربط إدارة هذه المخاطر بما سيجري في نطاق حوكمة الذكاء الاصطناعي الإدارية والقانونية، والمشكلات المتعلقة بقابلية التفسير والتمييز من استخدام الذكاء الاصطناعي.

2 - اتجاه أطر العمل في التعامل مع مخاطر الذكاء الاصطناعي، كإطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي، وإطار عمل إدارة مخاطر الذكاء الاصطناعي، التابع للمعهد الوطني للمعايير والتكنولوجيا، وإرشادات (ISO) بشأن إدارة مخاطر الذكاء الاصطناعي، وإطار إدارة المخاطر الحرجة الناشئة.