أ.د/ علي محمد عليان عبد الرازق الخطيب
أستاذ ورئيس قسم الفلسفة- كلية الآداب- جامعة المنيا- مصر
قبل الشروع في الإجابة عن سؤال إعادة إنتاج العنصرية، أرى ضرورة التوقف عند طبيعة السؤال ذاته؛ إذ يبدو، للوهلة الأولى، سؤالًا تقنيًّا بحتًا، ينحصر في الخوارزميات والبيانات والبرمجيات، وكأننا أمام أدوات رياضية محايدة لا علاقة لها بالقِيَم أو الأحكام. غير أن هذا التصوُّر الأوّلي سرعان ما يفقد تماسكه عند إخضاعه لتأمُّل فلسفي جاد؛ إذ إن الذكاء الاصطناعي لا يُنتَج بوصفه كيانًا منفصلًا عن الواقع الاجتماعي، بل ينشأ داخله ويستمدّ مادته ومعاييره من هذا الواقع نفسه. ومن هنا أزعم أن اختزال السؤال في بُعْده التقني وحده لا يَحجب عُمقه الحقيقي فحسب، بل يصرف النظر أيضًا عن جذوره الفلسفية والاجتماعية التي تمنحه معناه الأعمق.
وانطلاقًا من هذا الفهم، أعتقد أن الذكاء الاصطناعي لا يبدأ من نقطة الصفر، بل من نقطة مشبعة بالتاريخ والتجربة والتفاوت الاجتماعي. فهو يُعيد تشكيل الواقع في صورة نماذج رقمية وأنماط احتمالية، من دون أن يخلقه من جديد، بل يُعيد ترتيبه وفق ما يتلقّاه من معطيات سابقة. وفي حالة جنوب إفريقيا، لا يمكن تجاهل أن هذا الواقع ما يزال متأثرًا بإرث نظام الفصل العنصري (الأبارتهايد)؛ حيث استمرت آثار التمييز في التعليم والعمل حتى بعد سقوطه رسميًّا. وهكذا يصبح كل ناتج خوارزمي، من وجهة نظري، امتدادًا غير مباشر لمسار تاريخي لم يُحْسَم بعدُ، لا قطيعة معرفية معه.
ويتضح هذا الترابط بين الماضي والتقنية بجلاء عند النظر إلى نُظُم الذكاء الاصطناعي المستخدَمَة في مجال التوظيف. ففي جنوب إفريقيا، تعتمد بعض الشركات الكبرى على أنظمة آلية لفرز السِّيَر الذاتية واختيار المرشحين، وهي أنظمة تُدرَّب على بيانات تاريخية لسوق عمل تُشكّل لعقود طويلة في ظل إقصاء السود من الوظائف العليا والمِهَن المتخصصة. ونتيجة لذلك، تميل الخوارزميات إلى تفضيل مسارات تعليمية ومهنية ارتبطت تاريخيًّا بالبيض أو بالطبقات الميسورة، فتُقصي –بصورة غير مباشرة– خريجي جامعات فقيرة أو مدارس كانت مُهمَّشة سابقًا. وهنا أزعم أن الخوارزمية لا تُمارس عنصرية واعية، لكنها تتعامل مع نتائج التمييز التاريخي بوصفها معايير كفاءة طبيعية، وتُعيد إنتاجها في ثوب تقني مُحايد.
ولا يختلف الأمر كثيرًا في أنظمة التقييم الائتماني التي تَستخدم الذكاء الاصطناعي لمنح القروض. فالكثير من سكان الأحياء التي كانت مُخصَّصة للسود خلال حقبة الأبارتهايد لا يمتلكون تاريخًا مصرفيًّا قويًّا، لا بسبب ضعف فردي، بل نتيجة إقصاء طويل الأمد من النظام الاقتصادي الرسمي. وعندما تُدرَّب الخوارزميات على هذه البيانات، فإنها تتعلم ربط السكن في مناطق معينة أو غياب السجل الائتماني بمستوى عالٍ من المخاطرة، فتُعيد إنتاج التمييز نفسه، ولكن هذه المرة بلغة الأرقام والاحتمالات، لا بلغة السياسات العنصرية المباشرة.
ومن هذا المنطلق، أرى أن الذكاء الاصطناعي يشبه مرآة رقمية تعكس ما وُضِعَ أمامها، غير أن خطورتها لا تكمن في العكس وحده، بل في التثبيت والتضخيم؛ فحين تُستخدَم أنظمة التنبؤ بالجريمة، المعتمدة على بيانات الشرطة السابقة، فإنها تُركّز على الأحياء التي كانت تاريخيًّا خاضعة للمراقبة المكثفة، وهي في الغالب أحياء السود والفقراء. وكلما زادت المراقبة في هذه المناطق، زادت البيانات المسجَّلة عنها، فتتعلم الخوارزمية أن هذه الأحياء أكثر إجرامًا، مما يؤدي إلى مزيد من المراقبة. وهكذا أستنتج أننا أمام دائرة مغلقة يُعيد فيها الذكاء الاصطناعي ترسيخ الماضي داخل الحاضر، ويمنحه شرعية تقنية يصعب مساءلتها.
وانطلاقًا من ذلك كله، أعتقد أن العلاقة بين الذكاء الاصطناعي والمجتمع في جنوب إفريقيا ليست علاقة استخدام بريء أو محايد، بل علاقة تفاعل مُعقّد ومتبادل. فالمجتمع يقدّم تاريخه غير المتكافئ في صورة بيانات، بينما تعيد التكنولوجيا تنظيم هذا التاريخ وتحويله إلى قرارات تبدو علمية ومحايدة. وهنا يظهر سؤال جوهري يمهّد لما بعده: هل البيانات التي يتعلم منها الذكاء الاصطناعي تحمل في طياتها تاريخًا غير مُفكَّر فيه؟ هذا السؤال لا يُنهي النقاش، بل يفتحه على مستوى أعمق؛ حيث ننتقل من مساءلة الذكاء الاصطناعي ذاته إلى مساءلة مادته الخام، أي البيانات، بوصفها شكلًا من أشكال الذاكرة الاجتماعية، لا مجرد معطيات رقمية صامتة.
البيانات بوصفها ذاكرة اجتماعية:
أرى -من خلال تحليل طبيعة الذكاء الاصطناعي وآليات تَعلُّمه- أن البيانات لا يمكن التعامل معها بوصفها مجرد أرقام محايدة أو وحدات معلومات منفصلة عن السياق، بل هي في حقيقتها شكل مكثّف من الذاكرة الاجتماعية. فهي تَختزن داخلها تجارب بشرية طويلة، وتراكمات تاريخية لم تُمحَ بزوال القوانين أو تَغيُّر الخطابات الرسمية، بل استمرت كامنة في أنماط الحياة اليومية. وانطلاقًا من هذا الفهم، أتوصل إلى أن أيّ نظام ذكاء اصطناعي يتعلَّم من هذه البيانات إنما يتعلّم، في الوقت نفسه، من التاريخ الذي صاغها، حتى وإن بدا هذا التاريخ غائبًا عن الواجهة التقنية.
ويتجلّى هذا المعنى بوضوح في مجتمع مثل جنوب إفريقيا؛ حيث ما تزال آثار الفصل العنصري حاضرة، لا بوصفها موقفًا سياسيًّا مُعلنًا، بل كواقع اجتماعي ملموس. فالتوزيع العمراني لا يزال يعكس الفصل القديم بين الأحياء، وتوزيع المدارس يكشف تفاوتًا حادًّا في جودة التعليم، كما أن فرص الوصول إلى الجامعات المرموقة أو الوظائف عالية الدخل ما تزال، في كثير من الحالات، مرتبطة بمكان السكن والخلفية الاجتماعية. ومِنْ ثَمَّ، فإن البيانات التي تُجْمَع عن معدلات الدخل، أو نِسَب البطالة، أو فُرَص الترقّي الوظيفي، لا تُعبِّر عن فروق طبيعية بين الأفراد، بل تعكس تفاوتًا بنيويًّا تَشكَّل عبر عقود طويلة، ثم جرى تطبيعه إحصائيًّا حتى بدا وكأنه واقع محايد.
ومن هنا أستنتج أنه عندما تُظهر قواعد البيانات، على سبيل المثال، أن فئات معينة في جنوب إفريقيا تعاني من معدلات بطالة أعلى أو مستويات تعليم أقل، فإن الخوارزمية لا ترى في ذلك أثرًا لتاريخ طويل من الإقصاء الاجتماعي، بل تتعامل معه كنمط متكرّر قابل للتنبؤ. فهي تتعلّمه كما هو، وتعيد استخدامه في قراراتها اللاحقة، سواء في التوظيف أو الإقراض أو التقييم. وبذلك لا تعمل الخوارزمية بوصفها فاعلًا أخلاقيًّا، ولا تتخذ موقفًا عنصريًّا واعيًا، وإنما تتعامل مع الماضي بوصفه دليلًا إرشاديًّا للحاضر والمستقبل.
وأرى أن الخطورة الحقيقية لا تكمن في نية النظام، بل في منطق عمله. فالتعلّم الآلي، بطبيعته، يقوم على تعظيم ما هو متكرر وتقليل ما هو استثنائي. وهذا يعني أن التفاوت الاجتماعي، كلما تكرّر في البيانات، ازداد ترسّخًا في نتائج الخوارزميات. فعلى سبيل المثال، إذا استُخدمت خوارزمية لتقييم الاستحقاق المالي في جنوب إفريقيا، اعتمادًا على مؤشرات مثل تاريخ السداد، ونمط الدخل، ومكان الإقامة، فإنها قد تقلّل تلقائيًّا من فرص أفراد يسكنون في أحياء كانت مُهمَّشة تاريخيًّا. ولا يحدث ذلك بسبب سلوكهم الفردي، بل لأن البيانات السابقة ربطت تلك المناطق بمعدلات تعثُّر أعلى، فتتحوّل هذه العلاقة التاريخية إلى حكم آلي معاصر يُمارَس باسم الموضوعية الحسابية.
وينطبق الأمر ذاته على أنظمة التنبؤ بالجريمة، التي تعتمد على بيانات الشرطة السابقة. فالأحياء التي خضعت تاريخيًّا لمراقبة أمنية مكثّفة –وغالبًا ما تكون أحياء السود والفقراء– تولّد بيانات أكثر عن الجريمة. ومع تكرار هذا النمط، تتعلّم الخوارزمية أن هذه المناطق أكثر خطورة، فتُوجّه إليها موارد أمنية أكبر، ما يؤدي إلى تسجيل وقائع أكثر، فتزداد البيانات، وتستمر الدائرة. وهكذا أستنتج أننا أمام حلقة مغلقة يُعاد فيها إنتاج الماضي داخل الحاضر، لكن هذه المرة عبر وسيط تقني يبدو محايدًا وغير قابل للتشكيك.
وانطلاقًا من هذا التحليل، أتوصل إلى أن المشكلة لا تكمن في الآلة ذاتها، ولا في ذكائها الاصطناعي، بل في التاريخ غير المُفكَّر فيه الذي تحمله البيانات، والذي ينتقل إلى الخوارزميات دون مساءلة نقدية. ومن هنا يصبح الذكاء الاصطناعي وسيطًا لإعادة إنتاج الذاكرة الاجتماعية، لا مجرد أداة لمعالجتها. ومن ثمّ يظهر سؤال أكثر دقة وعمقًا: كيف يمكن لخوارزمية يُفترض فيها الحياد أن تنتج نتائج غير محايدة؟
ولا يتوقف الإشكال عند طبيعة البيانات ذاتها، بل يمتد إلى الكيفية التي تُترجَم بها هذه البيانات إلى قرارات تبدو محايدة في شكلها، لكنها تحمل آثارًا غير محايدة في نتائجها. ففي جنوب إفريقيا، لا يعني اعتماد الأرقام والخوارزميات تجاوز العنصرية، بقَدْر ما قد يعني إعادة صياغتها في لغة تقنية جديدة. وهكذا، أرى أن مُساءَلة الذكاء الاصطناعي تقتضي، بالضرورة، مساءلة الذاكرة الاجتماعية التي تتخفَّى داخل بياناته؛ لأن العدالة لا تُختزل في دقة الحساب، بل في نقد التاريخ الذي يُغذّي هذا الحساب.
الخوارزمية بين الحياد والنتيجة:
أرى أن الادعاء الشائع بحياد الخوارزميات يحتاج إلى مراجعة دقيقة، بل إلى تفكيك مفاهيمي واعٍ. إذ غالبًا ما يُفهَم الحياد على أنه غياب النية، وكأن عدم القصد كافٍ لرفع المسؤولية الأخلاقية. غير أن هذا الفهم، من وجهة نظري، يتجاهل حقيقة رئيسة، وهي أن الأثر لا يقل أهمية عن القصد. فالخوارزمية، في تصميمها الرياضي، قد تكون خالية من أيّ تحيُّز مقصود، لكنّها في نتائجها العملية قد تُنتج آثارًا منحازة بوضوح. ومن هنا أزعم أن الفصل بين التصميم والنتيجة يظل فصلًا نظريًّا لا يصمد أمام تعقيدات الواقع الاجتماعي.
وانطلاقًا من هذا التصور، أستنتج أن الخوارزمية لا تعمل بوصفها ذاتًا مستقلة أو عقلًا محايدًا، بل بوصفها وسيطًا يُعيد ترتيب المعطيات التي قُدِّمت لها. فعندما يُستخدم نظام ذكاء اصطناعي في جنوب إفريقيا لفرز طلبات التوظيف، اعتمادًا على بيانات سابقة لسوق العمل، فإن هذا النظام لا يختار بالمعنى الإنساني، بل يُرجّح احتمالات مبنية على أنماط تاريخية. ونتيجة لذلك، قد يستبعد تلقائيًّا متقدمين من أحياء معيّنة أو جامعات محددة، ليس لأنهم أقل كفاءة، بل لأن البيانات السابقة ربطت تلك المسارات التعليمية أو المناطق بفرص أقل ومسارات مهنية محدودة، وهي روابط تشكّلت أصلًا في سياق تمييزي سابق.
وأرى أن خطورة هذا المثال لا تكمن فقط في الإقصاء غير المرئي، بل في طبيعته الصامتة. فالمتقدّم الذي يُرفض طلبه لا يُواجه مسؤول توظيف يشرح له السبب، ولا خطابًا يمكن الاعتراض عليه، بل قرارًا آليًّا لا يُعرَف مصدره بدقة. وهنا تظهر مفارقة عميقة: قرار بلا فاعل أخلاقي مباشر، لكنّه يُنتج أثرًا أخلاقيًّا ملموسًا. ففي الواقع الجنوب إفريقي، قد يعني هذا القرار حرمان فرد من فرصة عمل كانت تمثّل له وسيلة للخروج من دائرة الفقر التاريخي، دون أن يكون هناك مَن يمكن مساءلته مباشرة.
ويتكرر هذا النمط في مجالات أخرى، مثل أنظمة التقييم الائتماني. فإذا استخدم بنك في جنوب إفريقيا خوارزمية لتحديد أهلية القروض، اعتمادًا على مؤشرات رقمية مثل تاريخ السداد، ومكان الإقامة، ونمط الدخل، فإن سكان الأحياء التي كانت مُهمَّشة خلال حقبة الأبارتهايد قد يُصنَّفون تلقائيًّا ضمن فئة عالية المخاطرة. لا لأنهم أكثر ميلًا للتعثر ماليًّا، بل لأن التاريخ الاقتصادي لتلك المناطق، كما هو ممثَّل في البيانات، يحمل آثار إقصاء قديم. وهكذا يتحوَّل الماضي الاجتماعي -عبر الخوارزمية- إلى حكم مالي معاصر يُمارَس باسم الموضوعية.
ومن هذا المنطلق، أتوصل إلى أن الإنسان لا يَغيب عن القرار الخوارزمي، بل يحضر فيه بصورة مؤجَّلة وغير مرئية. فهو الذي اختار نوع البيانات، وهو الذي حدّد معايير التقييم، وهو الذي قرر الاعتماد على النتائج دون مراجعة نقدية للسياق الاجتماعي. وبذلك، لا تكون الخوارزمية سوى حلقة في سلسلة أطول من القرارات البشرية. غير أن خطورتها تكمن في أنها تُخفي هذه السلسلة خلف واجهة من الدقة الحسابية، فتبدو النتائج وكأنها حتمية لا تقبل النقاش أو الاعتراض.
وعلى هذا الأساس، أستنتج أن النقاش حول الذكاء الاصطناعي لا ينبغي أن يقتصر على سؤال: هل الخوارزمية محايدة؟ بل يجب أن ينتقل إلى سؤال أكثر إلحاحًا: هل نتائجها عادلة؟ وهو انتقال ضروري، لأن العدالة لا تُقاس بسلامة المعادلة الرياضية، بل بتأثيرها الفعلي على البشر في واقعهم المعيش. ففي جنوب إفريقيا؛ حيث ما تزال الفوارق الاجتماعية والاقتصادية حادة، تصبح نتائج الخوارزميات مسألة حياة وفرص، لا مجرد مسألة تقنية.
وهكذا، لا يقف النقد عند حدود فكرة الحياد ذاتها، بل ينفتح على سؤال أوسع وأكثر تعقيدًا، يتعلق بـــ”العدالة الخوارزمية”؛ بوصفها إشكالًا معاصرًا يتجاوز حدود التقنية ليطال المجال الإنساني والاجتماعي. ومن هنا، أرى أن التحدي الحقيقي لا يتمثل في جعل الخوارزميات أكثر ذكاءً، بل في جعل استخدامها أكثر وعيًا بالتاريخ، وأكثر حساسية للواقع الذي تعمل داخله.
العدالة الخوارزمية كإشكال معاصر:
أستنتج، في ضوء ما سبق، أن مفهوم العدالة في عصر الذكاء الاصطناعي لم يَعُد قابلًا للفهم ضمن الأطر القانونية أو الأخلاقية التقليدية وحدها. فالعدالة لم تَعُد تُمارَس فقط من خلال قرارات بشرية مباشرة يمكن تحديد فاعليها ومساءلتهم، بل أصبحت تُنتَج أيضًا عبر آليات تقنية دقيقة تعمل في الخلفية، وتؤثر في حياة الأفراد دون أن يشعروا بوجودها. ومن هنا يتحول الذكاء الاصطناعي إلى فاعل غير مرئي في تشكيل الفرص، وتوزيع الموارد، وترتيب الأولويات داخل المجتمع.
وفي واقع مثل جنوب إفريقيا؛ حيث ما تزال الفوارق الاجتماعية قائمة بوصفها أثرًا تراكميًّا لتجارب تاريخية طويلة، يظهر هذا التحول بوضوح في استخدامات الذكاء الاصطناعي في مجالات مثل تقييم الجدارة الائتمانية، وتخصيص الموارد العامة، وتحديد أولويات الخدمات. فعندما تُستخدَم أنظمة آلية لتقييم أهلية الأفراد أو المناطق للحصول على قروض، أو دعم حكومي، أو استثمارات تنموية، اعتمادًا على بيانات غير مصحّحة تاريخيًّا، فإن هذه الأنظمة لا تكتفي بعكس الواقع القائم، بل تُعيد تثبيته وتمنحه طابع العقلانية التقنية. وهكذا تبدو النتائج عادلة لأنها صادرة عن نظام حسابي، بينما هي في جوهرها امتداد لتفاوت اجتماعي سابق.
وأرى أن المثال الأوضح على ذلك يتمثل في نظم آلية تُعطي أولوية أقل لمناطق كانت تاريخيًّا محرومة من البنية التحتية أو التعليم الجيد، بحجة انخفاض الكفاءة أو ضعف العائد الاقتصادي. ففي بعض الحالات في جنوب إفريقيا، تُستخدَم نماذج رقمية لتحديد أين تُطوَّر الخدمات أولًا، وغالبًا ما تُفضَّل المناطق التي تُظهر بياناتها وضعًا اقتصاديًّا أفضل. غير أنّ هذا الضعف في العائد ليس نتيجة اختيار فردي، بل نتيجة تهميش بنيوي طويل. وهنا تتحول الخوارزمية إلى مفارقة؛ إذ يُعاد تعريف الاستحقاق بناءً على مؤشرات رقمية مجرّدة، بينما يُستبعد السياق الاجتماعي الذي أنتج هذه المؤشرات، فيغيب السؤال الأخلاقي خلف ستار من الدقة الحسابية.
ومن هذا التحليل، أتوصل إلى أن العدالة الخوارزمية لا تعني مجرد تحسين دقة النماذج أو تقليل الأخطاء الإحصائية، بل تعني -في المقام الأول- إعادة التفكير في المعايير نفسها التي تُقاس بها الكفاءة والاستحقاق. فالخوارزمية، إذا تُركت تعمل دون تصحيح نقدي، تتحوَّل إلى أداة تحفظ الماضي بدل تجاوزه، وتكافئ الامتيازات القائمة بدل مساءلتها. ففي جنوب إفريقيا، قد يعني ذلك تثبيت الفجوة بين من استفادوا تاريخيًّا من فرص التعليم والعمل، ومن حُرموا منها، لكن بلغة تقنية جديدة أكثر قبولًا اجتماعيًّا.
ولهذا، تتجلى الحاجة إلى ما يمكن تسميته بـ”تحرير الخوارزمية” من سجن الماضي، أي: كسر العلاقة التلقائية بين التاريخ والقرار الآلي. وهذا التحرير لا يتحقق تقنيًّا فقط عبر تحسين النماذج، بل يتطلب تدخلًا إنسانيًا واعيًا يُعيد إدخال البُعْد السياقي إلى قلب العملية الخوارزمية. فهنا لا يكون الإنسان مجرد مستخدم للنظام، بل يصبح مصححًا له، ومسؤولًا عن مساءلة معاييره، وإعادة توجيه نتائجه بما يراعي التعقيد الاجتماعي الذي تَعْجز الآلة عن إدراكه بذاتها.
وهكذا، لا يقف التحليل عند حدود تشخيص الإشكال، بل ينفتح على سؤال الدور الإنساني ذاته، بوصفه عنصرًا حاسمًا في توجيه الذكاء الاصطناعي وتصحيح مساراته. ففي مجتمع ما بعد الأبارتهايد، لا تكون العدالة الخوارزمية مسألة تقنية فحسب، بل مشروعًا أخلاقيًّا ومعرفيًّا يسعى إلى منع تحويل الذاكرة الاجتماعية غير العادلة إلى مستقبل رقمي يُعيد إنتاجها باسم الحساب والدقة.
الإنسان كمُصحِّح للذكاء الاصطناعي:
أرى أن أخطر ما يمكن أن يحدث في علاقتنا بالذكاء الاصطناعي هو تسليم القرار بالكامل للآلة، بدعوى الدقة أو السرعة أو ما يُسمَّى بالحياد. فهذا التسليم، في اعتقادي، لا يُعبِّر عن تطوُّر تقني بقدر ما يعكس انسحابًا إنسانيًّا من المسؤولية. فالذكاء الاصطناعي، مهما بلغ تعقيده، لا يمتلك حسّ العدالة، ولا يعرف معنى الإنصاف، ولا يُميِّز بين الخطأ الناتج عن اختيار فردي والخطأ الناتج عن ظروف قسرية، بل يقوم بالحساب فقط، ويُرجّح الاحتمالات بناءً على ما قُدِّم له من بيانات.
وانطلاقًا من هذا الفهم، أستنتج أن دور الإنسان لا ينبغي أن يقتصر على تشغيل النظام أو مراقبة كفاءته التقنية، بل يتجاوز ذلك إلى ممارسة دور تصحيحي واعٍ، وهو ما أُسمّيه الوعي التصحيحي. ويعني هذا الوعي القدرة على مراجعة النتائج الخوارزمية، لا من حيث دقتها الحسابية فقط، بل من حيث عدالتها وسياقها الإنساني. فالخوارزمية قد تكون صحيحة رياضيًّا، لكنها غير منصفة اجتماعيًّا، وهنا تحديدًا يظهر الفرق الجوهري بين الحساب بوصفه إجراءً تقنيًّا، والحكم بوصفه فعلًا أخلاقيًّا.
ويتجلّى هذا الفرق بوضوح في أنظمة التوظيف الآلي. فحين تُقيَّم طلبات العمل اعتمادًا على مؤشرات رقمية مجرّدة، مثل تاريخ العمل أو نوع المؤسسة التعليمية، قد تُقصَى فئات كاملة من المتقدمين؛ لأن مساراتهم التعليمية أو المهنية تشكّلت في سياق اجتماعي غير متكافئ. غير أن إدخال دور الإنسان بوصفه مصححًا للنظام يُتيح تعديل هذه النتائج، في ضوء الواقع الاجتماعي الذي أنتج هذه المؤشرات. فعندما يُمنَح متقدّم فرصة إضافية لأن تعليمه تأثّر بضعف البنية التعليمية في منطقته، يتحول الذكاء الاصطناعي من أداة تُعيد إنتاج الأنماط السابقة إلى أداة تسهم في تصحيح مسارها.
وينطبق الأمر ذاته على أنظمة التقييم الائتماني. فإذا صنّفت خوارزمية فردًا ما بوصفه عالي المخاطرة بسبب مكان سكنه أو تاريخه المالي؛ فإن المراجعة البشرية يمكن أن تكشف أن هذا التصنيف لا يعكس سلوكًا فرديًّا، بل نتيجة إقصاء اقتصادي طويل. وهنا يصبح التدخل الإنساني شرطًا ضروريًّا لمنع تحويل التفاوت التاريخي إلى حكم مالي معاصر يصدر باسم الموضوعية الرقمية.
ومن هذا المنطلق، أتوصل إلى أن العلاقة السليمة بين الإنسان والذكاء الاصطناعي ليست علاقة إحلال، بل علاقة تكامل. فالآلة تحسب، والإنسان يُقيِّم؛ الآلة تُنفِّذ، والإنسان يُراجِع. وبهذا المعنى، لا يصبح الذكاء الاصطناعي بديلًا عن الحكم الإنساني، بل امتدادًا له، بشرط أن يظل هذا الحكم حاضرًا وفاعلًا، لا مؤجَّلًا أو مغيَّبًا خلف واجهة التقنية.
وهنا يتضح أن إدراك التكنولوجيا بوصفها امتدادًا للأخلاق البشرية، لا بديلًا عنها، ليس موقفًا نظريًّا مجردًا، بل شرطًا عمليًّا لتفادي إعادة إنتاج التفاوت. وهذا الإدراك لا يكتمل إلا إذا تُرْجِم إلى خطوات واضحة، وهو ما يقودنا مباشرة إلى طرح توصيات عملية تمثّل الخاتمة المنطقية لهذا التحليل.
نحو استخدام واعٍ للذكاء الاصطناعي: توصيات ختامية
أتوصل -في ضوء هذا التحليل- إلى أن السؤال عن إعادة إنتاج العنصرية لا يُجاب عنه بإدانة الذكاء الاصطناعي أو تمجيده، بل بإعادة توجيه استخدامه ضمن أُفق إنساني واعٍ بالسياق الاجتماعي والتاريخي. ومن هنا، يمكن تقديم مجموعة من التوصيات التي لا تنطلق من موقف أيديولوجي، بل من ضرورة فلسفية وعملية في آنٍ واحد.
أولًا: ضرورة التعامل مع البيانات بوصفها مادة قابلة للمراجعة لا حقيقة نهائية. ويتحقق ذلك عبر إدخال آليات تصحيح تعكس التنوع الاجتماعي بدل الاقتصار على المتوسطات الرقمية. فعلى سبيل المثال، يمكن إعادة وزن بعض المؤشرات بحيث لا يُعاقَب الأفراد على ظروف تعليمية أو اقتصادية لم يكونوا طرفًا في صنعها.
ثانيًا: إخضاع نتائج الخوارزميات إلى مراجعة بشرية دورية، لا بهدف تعطيلها، بل بهدف مساءلتها. فكما يُراجع الباحث نتائجه العلمية في ضوء آثارها، ينبغي مراجعة القرارات الآلية في ضوء انعكاساتها الواقعية على حياة الأفراد، لا في ضوء كفاءتها التقنية فقط.
ثالثًا: إشراك باحثين من العلوم الإنسانية والاجتماعية في تصميم أنظمة الذكاء الاصطناعي. فالفلسفة، وعلم الاجتماع، والأنثروبولوجيا لا تؤدي هنا دورًا تجميليًّا، بل دورًا نقديًّا يَحُدّ من انغلاق التقنية على ذاتها، ويكشف ما قد تُخفيه الأرقام من تفاوتات ومعانٍ.
ومن خلال هذه التوصيات، أستنتج أن الذكاء الاصطناعي يمكن أن يكون أداة لتجاوز التفاوت، لا لإعادة إنتاجه، بشرط أن يُستخدَم بوصفه وسيلة للفهم والتصحيح، لا كسلطة صامتة تُنْهي النقاش. وهكذا، لا ينتهي السؤال المطروح بإجابة قاطعة، بل يفتح أُفقًا أوسع للتفكير في مسؤوليتنا تجاه المستقبل؛ حيث لا يكون التقدم التقني نقيضًا للعدالة، بل فرصة حقيقية لإعادة بنائها على أُسُس أكثر وعيًا وإنصافًا.









































