شهدت السنوات الأخيرة زيادة مطردة في توظيف تكنولوجيا الذكاء الاصطناعي في إدارة الهجرة وحركة التنقل، فأضحت جزءًا أصيلًا من جميع مراحل دورة الهجرة؛ ابتداءً من مرحلة ما قبل المغادرة واتخاذ الفرد لقرار الهجرة؛ حيث تساعده روبوتات المحادثة في الإبحار في كم هائل من المعلومات عن التأشيرات، ويختصر عليه التعامل الآلي في المطارات ساعات طويلة من الانتظار، مرورًا بمرحلة دخوله بلد الوجهة، حيث المراقبة الآلية للحدود والتفتيش الآلي، وكذا طوال فترة بقائه في الدولة، واختصار كثير من التعاملات مع سلطات الهجرة والقدرة على الحصول على استشارات قانونية ونفسية ومساعدات في البلد الجديد عن طريق تطبيقات متعددة للذكاء الاصطناعي، وصولًا لقدرة الدولة المستضيفة على توظيف أنظمة المراقبة الآلية للكشف عن المهاجرين الذين تجاوزوا مدة التأشيرة، أو الأجانب الخارجين عن القانون، أو رفض بعض طلبات اللجوء واتخاذ القرار بترحيلهم.
في ضوء النطاق الحالي لتوظيف تكنولوجيا الذكاء الاصطناعي، في المراحل المختلفة لدورة الهجرة، توجد فرص عدة أمام الدول والمنظمات الدولية وشركات التكنولوجيا لتحسين كفاءة إدارة الملف، والدفع بتجميع بيانات أكثر دقة عن حركة الهجرة والتنقل، وتحسين القدرة على التنبؤ بموجات الهجرة والنزوح، وبأنماط الاندماج والاستعداد المسبق لها.
وعلى الرغم من مؤشرات الكفاءة تلك، إلا أن القضايا الحقوقية لا تزال حاضرة في أي تقييم موضوعي لاستخدام الذكاء الاصطناعي في شئون الهجرة والتنقل. فبالنظر للتكنولوجيا الجديدة من منظور حقوقي أخلاقي، سنجد أن خواريزمات الذكاء الاصطناعي تؤسس لأنواع كثيرة من التحيز باعتبارها مرآة للتصورات الثقافية والاجتماعية حول العرق واللون والجنس والدين وأوجه التمييز الأخرى السائدة في المجتمع، فضلًا عن الافتقار إلى الشفافية وقابلية التفسير، مما يعيق المساءلة الفعالة عن الأضرار التي تسببها القرارات الآلية، وزيادة العلاقات التقليدية غير المتكافئة، بين الدول المتقدمة تكنولوجيًا وباقي الدول، استقرارًا عن طريق ما يعرف بـ"استعمار البيانات"، وانتهاك حقوق أساسية كالحق في الخصوصية، وحق الإنسان في العمل، وتأمين حياة كريمة، وكذا مخاطر أمننة الهجرة واللجوء.
وبناء على ذلك، باتت مراعاة البعد الحقوقي في مختلف مجالات توظيف الذكاء الاصطناعي ضرورة ملحة. وبمراجعة المبادرات المقدمة من شركات ومؤسسات أكاديمية ومنظمات المجتمع المدني والحكومات؛ خصوصًا التصور الجديد للاتحاد الأوروبي بشأن تحجيم الأضرار الحقوقية الناتجة عن توظيف تكنولوجيا الذكاء الاصطناعي، اتضح أنها مبادرات متشرذمة؛ بعضها يفتقر لرؤية أخلاقية واضحة وشاملة، وبعضها الآخر يقتصر على مجموعة مبادئ دون التطرق لجوانب عملية. وحتى حينما تطرقت بعض التصورات إلى جوانب عملية، كما هو الحال في قانون الاتحاد الأوروبي للذكاء الاصطناعي، وكذا في إطار إدارة مخاطر الذكاء الاصطناعي الذي طرحته الولايات المتحدة، غابت كثير من التفصيلات الضرورية.
من ثم، يجب الارتكاز على الرؤية الحقوقية الأخلاقية التي يحملها الجسد الكبير للقانون الدولي لحقوق الإنسان لما لها من شرعية عالمية، ذات صفة إلزامية، ولتوفيرها إطارًا للموازنة بين الحقوق التي تتعارض مع بعضها بعضا، أي أنها تضع الحدود التي يجب ألا يتجاوزها أي توظيف قانوني للتكنولوجيا. واسترشادًا بتلك الرؤية، يمكن بناء الأضلاع الثلاثة لرؤية عملية تقع حقوق الإنسان محل القلب منها: أولها المسح الشامل لمجالات وتطبيقات الذكاء الاصطناعي وما تثيره من مخاوف وقضايا، ثانيها تبني منهج تشاركي عابر للقطاعات والتخصصات في المناقشة والصياغة والتنفيذ، ثالثها وأخيرًا صياغة سلسلة من الإجراءات الفنية والقانونية التي من شأنها تحجيم المخاطر الحقوقية والاجتماعية لتوظيف تكنولوجيا الذكاء الاصطناعي.