قراءة نقدية موجزة للحوكمة الرقمية..

السلطة والسياسة والذكاء الاصطناعي.

يُعيد انتشار الذكاء الاصطناعي والتقنيات الرقمية تشكيل مشهد الحوكمة العالمية والقوة الاقتصادية والاستقلالية الفردية. لا يمكن، بالعموم، اعتبار الذكاء الاصطناعي أداة محايدة، بل تقنية تجسد الضرورات الإيديولوجية والاقتصادية والسياسية المضمنة التي تشكّل نشره وتأثيره المجتمعي. يُبرز صعود هياكل صنع القرار التي يقودها الذكاء الاصطناعي عدم التوازن في القوة، وهذا يستدعي صناع السياسات والعلماء والمجتمعات المدنية لممارسة عمليات التدقيق الصارم، حيث يتطلّب التفاعل بين الذكاء الاصطناعي وحوكمة الدولة ومصالح الشركات اتباع نهج متعدد الأوجه لضمان الوصول العادل إلى الفوائد التكنولوجية خفض مستوى المخاطر والآثار الخارجية. يميل ميزان القوى لصالح الكيانات المركزية التي تتحكم في التقنيات الجديدة مع قيام الحكومات والشركات العابرة للحدود الوطنية بدمج الذكاء الاصطناعي في البنية التحتية الحيوية، من تقييم المخاطر المالية إلى مراقبة الأمن الوطني وغيرها من المجالات الحساسة. تعمل الأنظمة التي تعتمد على الذكاء الاصطناعي، على الرغم من أنها مصممة لتحسين الكفاءة والتنبؤ بالنتائج، كأدوات للحوكمة تعمل على تشكيل المشاركة المدنية، والتنقل الاقتصادي، والوكالة الاجتماعية، والسياسية. وهنا، تبرز ضرورة لإنشاء نماذج تنظيمية تدعم المبادئ الأخلاقية، وعمليات المساءلة، والحفاظ على المعايير العادلة لمنع تفاقم أوجه عدم المساواة القائمة. عدم التماثل في القوة والهيمنة الخوارزمية يتميز النظام البيئي الرقمي المعاصر بوجود صدع عميق بين القدرات الخوارزمية للجهات الفاعلة في الدولة والشركات والوكالات المعلوماتية للمستخدمين الأفراد. لقد صُمّم الذكاء الاصطناعي، كأداة للتأثير على عملية صنع القرار بشكل غير مسبوق، وغالبًا دون إشراف فعلي أو فهم المستخدم بشكل منطقي. كما يثير اعتماد الذكاء الاصطناعي في التحليلات التنبؤية والمراقبة والهندسة السلوكية مخاوف عميقة بشأن الاستقلالية والإجراءات القانونية الواجبة. ربما يتجاوز دور الذكاء الاصطناعي في تشكيل الخطاب السياسي آليات التأثير التقليدية، ويتجلى في انتشار حملات التضليل المستهدفة على نطاق صغير، وغرف الصدى المنظمة خوارزميًا، وتسليح البيانات للتلاعب بالعمليات المجتمعية والسياسية، كالانتخابات على سبيل المثال. الخصوصية كصالح عام جماعي في العصر الخوارزمي تتجاوز الخصوصية مفهومها التقليدي كحق فردي اليوم، فهي تشكّل منفعة عامة جماعية ضرورية للحفاظ على المجتمعات التي تسودها العدالة أو تحاول إصلاح أنظمتها المنوعة لرفع رفاهية شعوبها. لقد سهّل تجميع البيانات الضخمة التي تعتمد على الذكاء الاصطناعي تسليع المعلومات الشخصية بشكل غير مسبوق، مما أثار معضلات أخلاقية وقانونية فيما يتعلق بالموافقة والمراقبة والتلاعب بالسلوك، ويؤدي تآكل الخصوصية إلى تفاقم نقاط الضعف المجتمعية، مما يتيح آليات تحديد الملفات الشخصية الرقمية التي تؤثر بشكل غير متناسب على المجتمعات المهمشة. كما يثير التكامل الواسع النطاق لتقنيات التعرف على الوجه والتتبع “البيومتري” والشرطة التنبؤية المدعومة بالذكاء الاصطناعي، مخاوف عميقة بشأن التحيز الخوارزمي، حيث تخاطر هذه التقنيات بتفاقم التمييز المنهجي وتآكل الحريات المدنية الأساسية في غياب الضمانات الصارمة. التحيز الخوارزمي والترميز البنيوي لعدم المساواة لا تنعزل أنظمة الذكاء الاصطناعي عن السياقات التاريخية والاجتماعية، بل إنها ترث وتشفر وتقيس التحيزات المضمنة في بيانات التدريب الخاصة بها. لقد أظهر نشر الذكاء الاصطناعي في اتخاذ القرارات عالية المخاطر، بدءًا من تخصيص الائتمان إلى الحكم الجنائي، أنماطًا متكررة من التمييز المنهجي. وقد كشفت دراسة رائدة أجراها معهد ماساتشوستس للتكنولوجيا (2018) عن تباينات عرقية وجنسانية كبيرة في تقنيات التعرف على الوجه، حيث تؤثر معدلات الخطأ بشكل غير متناسب على النساء والأفراد ذوي درجات البشرة الداكنة. يمتد التحيز في الذكاء الاصطناعي إلى ما هو أبعد من التصنيف الخوارزمي الخاطئ، فهو يديم عدم المساواة البنيوية من خلال تعزيز الأنماط التمييزية في التوظيف والوصول إلى الرعاية الصحية والشمول المالي. تشير النماذج الشرطية التنبؤية في بعض الحالات، إلى مجتمعات الأقلية باعتبارها عالية الخطورة بشكل غير متناسب، في حين أظهرت منصات التوظيف التي يقودها الذكاء الاصطناعي تحيزًا بين الجنسين في عمليات اختيار المرشحين، وهذه التفاوتات الخوارزمية تخاطر بتفاقم عدم المساواة المجتمعية القائمة إذا لم يكن هناك تدخل استباقي. الاستقلالية والسيادة المعرفية والوساطة الخوارزمية تمارس آليات تنظيم المحتوى التي يقودها الذكاء الاصطناعي تأثيرًا كبيرًا على الاستقلال المعرفي، وتشكيل الإدراك الفردي والخطاب واتخاذ القرار. تعمل موجزات الأخبار ونتائج البحث وأنظمة التوصية المنظمة خوارزميًا على بناء بيئات معرفية تحدد المواقف السياسية والسلوك الاجتماعي والتفضيلات الاقتصادية. كما يثير التفاعل بين تدفقات المعلومات التي يتوسطها الذكاء الاصطناعي والسيادة المعرفية أسئلة فلسفية وسياسية ملحة فيما يتعلق بالحفاظ على الفكر المستقل في عالم تتوسط فيه الخوارزميات. كما تزيد تقنيات التزييف العميق من تعقيد هذا المشهد، مما يتيح توليد محتوى رقمي شديد الواقعية، ولكنه ملفق بالكامل. تؤكد كذلك قدرة المعلومات المضللة التي يولدها الذكاء الاصطناعي على التلاعب بالمشاعر العامة وتشويه العمليات الانتخابية، أو بشكل عام، التي يدخل بها التفضيل والاختيار البشري، على ضرورة التدخلات التنظيمية الاستباقية التي تحافظ على سلامة المعلومات والوكالة المعرفية. المساءلة وضرورة الحوكمة الخوارزمية على الرغم من الدور الشامل للذكاء الاصطناعي في الحوكمة، تظلّ آليات الرقابة التنظيمية مجزأة، وغالبًا ما تفشل في معالجة الغموض والتأثيرات الخارجية المرتبطة باتخاذ القرارات التي يقودها الذكاء الاصطناعي. كما يؤكد غياب المسارات القانونية الواضحة للانتصاف في حالات التمييز الخوارزمي أو الأحكام القضائية الخاطئة التي يقودها الذكاء الاصطناعي، على الحاجة الملحة لإنشاء هياكل مساءلة قوية. تتطلب كذلك الطبيعة العابرة للحدود الوطنية لنشر محتوى الذكاء الاصطناعي، التعاون العالمي في صياغة المعايير التنظيمية الشاملة التي تعالج التهرب التنظيمي. يمثل الاختلاف في نماذج حوكمة الذكاء الاصطناعي الوطنية تحديًا إضافيًا، حيث تعطي بعض الدول الأولوية لتطوير الذكاء الاصطناعي كأداة للمنافسة الجيوسياسية بينما تؤكد دول أخرى على القيود الأخلاقية وضمانات حقوق الإنسان. يعتبر إنشاء إطار عالمي متناغم لحوكمة الذكاء الاصطناعي أمراً ضرورياً لضمان بقاء الذكاء الاصطناعي متوافقًا مع المبادئ العادلة ورفاهية المجتمعات، لكن على الدول أن تعمل فرادى على إطار وطني لكل منها لضمان الشمولية والعدالة والتمثيل الكلي في الإطار العالمي. همسة في أُذن صُنّاع السياسات 1- على الأطر التنظيمية أن تفرض الشفافية الخوارزمية، وتجبر الكيانات التي تنشر الذكاء الاصطناعي لأغراض الحوكمة والتجارة على الكشف عن المنطق التشغيلي ومصادر البيانات والتحيزات المحتملة المتأصلة في نماذجها. 2- تمكين لجان الرقابة المستقلة من تدقيق البنية التحتية لصنع القرار التي يقودها الذكاء الاصطناعي لضمان الامتثال للمبادئ العادلة وحماية حقوق الإنسان. 3- تدوين الخصوصية باعتبارها منفعة عامة محمية، وتأسيس تفويضات صارمة لحماية البيانات على غرار اللائحة العامة لحماية البيانات (GDPR). 4- فرض قيود قانونية على استخدام أنظمة التتبع البيومترية والسلوكية التي تعتمد على الذكاء الاصطناعي، وإلزام الرقابة القضائية على نشرها في المجالات العامة والتجارية. 5- تنفيذ عمليات تدقيق تحيّز إلزامية لأنظمة الذكاء الاصطناعي المنتشرة في المجالات الحساسة، وهذا يتطلب من المطورين استخدام منهجيات التعلم الآلي الواعية بالعدالة. 6- تشريع أطر المساءلة التي تفرض عقوبات على الكيانات التي تنشر نماذج الذكاء الاصطناعي التمييزية، وتجبر المؤسسات على تبني معايير حوكمة الذكاء الاصطناعي العادلة. 7- فرض معايير تفسير الذكاء الاصطناعي التي توفر للمستخدمين نظرة ثاقبة للمنطق الكامن وراء توصيات المحتوى والتحليلات التنبؤية. 8- إنشاء مبادرات تعليمية لتعزيز محو الأمية الرقمية والمشاركة النقدية مع النظم البيئية للمعلومات التي يتوسطها الذكاء الاصطناعي، وهذا يضمن احتفاظ المستخدمين بالوكالة على أطرهم التفسيرية. 9- إنشاء سجل للقطاع العام يسرد أنظمة صنع القرار التي تعتمد على الذكاء الاصطناعي، وضمان الشفافية والمساءلة. 10- عقد اجتماع لتحالف تنظيمي دولي لتنسيق مبادئ حوكمة الذكاء الاصطناعي، وتخفيف المخاطر التي تفرضها التناقضات التنظيمية وتعزيز التعاون العالمي في نشر الذكاء الاصطناعي الأخلاقي، كالذي تسعى الأمم المتحدة لإنشائه. في النهاية، يمثل الذكاء الاصطناعي فرصة غير مسبوقة وتحديًا وجوديًا في نفس الوقت، وهذا يتوقف على الأطر التنظيمية والأخلاقية والسياسية التي تشكل تطويره واستخدامه. لا تقتصر الضرورة الملحة لصنّاع السياسات على تنظيم الذكاء الاصطناعي فحسب، بل وإعادة تصور نماذج الحوكمة الرقمية بشكل أساسي والتي تعطي الأولوية للمساواة، والشفافية، والنزاهة، والعدالة. يتطلّب التقارب بين الذكاء الاصطناعي والحوكمة التعاون بين التخصصات المختلفة، والاستفادة من الخبرة من العلوم السياسية والأخلاقيات والقانون وعلوم الحاسوب، لبناء هياكل تنظيمية تتماشى مع مسار الذكاء الاصطناعي مع الضرورات المجتمعية. لا يمكن تسخير الإمكانات التحويلية للذكاء الاصطناعي في خدمة الصالح العام إلا من خلال الرقابة الصارمة والتدخل الاستباقي والتعاون الدولي. *رئيس ومؤسس DEVE Initiative لدعم مراكز الفكر وصُنّاع القرار