الذكاء الاصطناعي بلا حوكمة: كيف قد تخسر المنظمات غير الربحية ثقة أصحاب المصلحة؟

ع ع ع

الذكاء الاصطناعي قد يرفع كفاءة المنظمات غير الربحية، لكنه قد يضعف الثقة بها إذا استُخدم بلا إشراف منضبط، ونستند في هذا الرّأي إلى طرح من Info-Tech Research Group نقله موقع NonProfit PRO، ومفاده أن كثيرًا من مبادرات الذكاء الاصطناعي في القطاع غير الربحي ما تزال متفرقة، تجريبية، وتفتقر إلى المساءلة والحوكمة الواضحة، وهذا يحدّ من أثرها ويعرّض ثقة أصحاب المصلحة للاهتزاز.


ليست المشكلة في دخول الذكاء الاصطناعي إلى المنظمات غير الربحية، بل في الطريقة التي يدخل بها. فحين تتعامل المنظمة مع الذكاء الاصطناعي بوصفه أداة سريعة للحاق بالموجة، لا خيارًا مؤسسيًا منضبطًا، فإنها قد تكسب بعض السرعة وتخسر شيئًا أكبر: ثقة المتبرع، واطمئنان المستفيد، ووضوح القرار الداخلي، ولا تأتي القيمة الحقيقية باختصار من كثرة الأدوات، بل من وجود إطار يحكم استخدامها، وبيانات جاهزة لها، وربط مباشر بينها وبين رسالة المنظمة وأولوياتها. 


والرسالة الأهم هنا أن نجاح الذكاء الاصطناعي في المنظمات غير الربحية لا يعتمد على الأداة وحدها. الأداة قد تكون متقدمة، لكن أثرها يظل محدودًا أو حتى ضارًا إذا غابت عنها ثلاثة أسس: الحوكمة المنضبطة، جاهزية البيانات، ومواءمة الاستخدام مع رسالة المنظمة وهذا هو الفارق بين منظمة تستخدم الذكاء الاصطناعي كزينة تقنية، وأخرى تستخدمه كرافعة حقيقية للأثر.


أولًا: الحوكمة المنضبطة
الحوكمة هنا لا تعني التعقيد الإداري، بل تعني ببساطة أن تعرف المنظمة: ماذا يُقرّر؟ من يراجع؟ من يُحاسَب؟ وما الحدود الأخلاقية والتشغيلية للاستخدام؟ إنّ غياب الإشراف المنسق والمساءلة الواضحة يجعل مبادرات الذكاء الاصطناعي متقطعة ومربكة، ويحوّلها إلى تجارب منفصلة بدل أن تكون قدرة مؤسسية متماسكة.

في السياق غير الربحي، الحوكمة المنضبطة تحمي المنظمة من ثلاثة مخاطر متداخلة:
الأول، الانحراف عن الأولوية، حين يبدأ الفريق باستخدام الذكاء الاصطناعي فيما هو لافت لا فيما هو نافع.
الثاني، الضرر السمْعي، عندما تصدر مخرجات غير دقيقة أو غير عادلة أو غير حساسة لطبيعة الفئات المستفيدة.
الثالث، تآكل المسؤولية، حين يصبح القرار “قرار النظام” بدل أن يبقى قرار المنظمة. وهذا المعنى تؤكده أيضًا أدبيات الذكاء الاصطناعي الموثوق، التي تشدد على أن الثقة لا تُبنى فقط على أداء النظام، بل على وضوح المساءلة التنظيمية حوله. 

ولهذا فإن الحوكمة الجيدة في هذا الباب تبدأ من أسئلة عملية جدًا:
هل لدينا سياسة معلنة لاستخدام الذكاء الاصطناعي؟
هل توجد مراجعة بشرية قبل اعتماد المخرجات الحساسة؟
هل نميز بين ما يجوز أتمتته وما يجب أن يبقى بيد الإنسان؟
هل يعرف مجلس الإدارة أو القيادة التنفيذية أين يستخدم الذكاء الاصطناعي فعلًا، ولماذا؟


من دون هذه الأسئلة، يصبح الذكاء الاصطناعي بابًا للاجتهادات الفردية لا للاستخدام المؤسسي الرشيد وهذا ما يجعل الثقة عرضة للتآكل حتى لو بدت النتائج الأولية واعدة.


ثانيًا: جاهزية البيانات
الذكاء الاصطناعي لا يعمل في فراغ، هو يتغذى على ما تعطيه المنظمة من بيانات: جودتها، ترتيبها، اكتمالها، وحداثتها، لذلك فإن ضعف البيانات لا ينتج ذكاءً اصطناعيًا ضعيفًا فقط، بل قد ينتج قرارات مضللة تبدو ذكية. وبين نجاح الاستخدام وبين جاهزية البيانات، لا تقوم أي مبادرة على أساس معلوماتي منظم ستبقى سطحية أو خاطئة أو غير قابلة للتوسع. 


في المنظمات غير الربحية، مشكلة البيانات غالبًا ليست في انعدامها، بل في تشتتها: بيانات متبرعين هنا، وتقارير أثر هناك، وملفات مستفيدين في نظام منفصل، وسجلات تشغيلية غير مكتملة أو غير موحدة. في هذه البيئة، لا يستطيع الذكاء الاصطناعي أن يقدم قيمة مستقرة؛ لأنه يقرأ صورة ناقصة عن الواقع والنتيجة قد تكون توصيات غير دقيقة، أو تصنيفات غير عادلة، أو رسائل تواصل مخصصة على نحو يسيء أكثر مما يخدم. 


جاهزية البيانات تعني أن تسأل المنظمة قبل شراء الأداة:
هل بياناتنا نظيفة ومنظمة؟
هل نعرف مصدرها؟
هل نملك الإذن المناسب لاستخدامها؟
هل يمكن الوثوق بها في بناء توصية أو تنبؤ أو تخصيص؟
فإذا كانت الإجابة مضطربة، فإن الاستثمار الحقيقي ينبغي أن يبدأ من ترتيب البنية المعلوماتية لا من اللهاث وراء المنصات، وهذا استنتاج منطقي تدعمه الأبحاث المتعلقة بالثقة والامتثال في الذكاء الاصطناعي، والتي ترى أن مشكلات الشفافية والمساءلة تتفاقم حين تكون البيانات نفسها غير مهيأة أو غير مفهومة. 


ثالثًا: مواءمة الاستخدام مع رسالة المنظمة
هذا هو البعد الذي يغفل عنه كثيرون. ليس كل استخدام ممكن للذكاء الاصطناعي استخدامًا مناسبًا للمنظمة غير الربحية، والقيمة تظهر عندما تُربط المبادرات بأولويات الرسالة، لا عندما تُدار بوصفها تجارب تقنية مستقلة، أي أن السؤال ليس: ماذا تستطيع الأداة أن تفعل؟ بل: ما الذي تحتاجه رسالتنا فعلًا؟ 

المنظمة التي رسالتها خدمة مُستفيدين حساسين، مثل الأطفال أو المرضى أو الأسر الأشد حاجة، لا يجوز لها أن تنظر إلى الذكاء الاصطناعي بالمنطق نفسه الذي تنظر به مؤسسة تجارية إلى أتمتة التسويق. هنا تصبح الرسالة معيارًا لاختيار الاستخدام:
هل نستخدم الذكاء الاصطناعي لتخفيف العبء الإداري عن الفريق؟
لتحسين تحليل بيانات التبرع؟
لتسريع إنتاج تقارير داخلية؟
لتحسين الفرز الأولي للاستفسارات؟
أم أننا نندفع إلى استخدامه في نقاط تمس الكرامة الإنسانية أو العدالة في الخدمة أو خصوصية الفئات المستفيدة؟
المواءمة مع الرسالة تعني أن تبقى التقنية في موقع الخادم للمقصد، لا القائد له. 

ومن هنا يمكن القول إن المنظمة غير الربحية تنجح مع الذكاء الاصطناعي حين تستخدمه في المساحات التي تزيد الفاعلية دون أن تضعف الإنسان. ينجح مثلًا في تنظيم المعرفة، تلخيص الوثائق، دعم التحليل، تحسين الكفاءة التشغيلية، أو مساعدة فرق التواصل في بناء مسودات أولية لكنه يصبح خطرًا حين يُمنح سلطة لا تناسب طبيعته، مثل اتخاذ قرارات نهائية تمس الاستحقاق أو الأولوية أو الحساسية الاجتماعية دون مراجعة بشرية مسؤولة، وهذا قريب من الخلاصة العامة في الأدبيات الحديثة: الثقة في الذكاء الاصطناعي ليست مسألة تقنية فقط، بل مسألة تنظيمية وأخلاقية وسياقية. 


ما الذي يعنيه هذا عمليًا للقطاع غير الربحي؟
يعني أن المنظمة التي تريد الاستفادة من الذكاء الاصطناعي لا تبدأ بالسؤال عن “أفضل أداة”، بل تبدأ بثلاثة أسئلة أكثر نضجًا:
هل لدينا حوكمة تضبط الاستخدام؟
هل بياناتنا جاهزة ويمكن الوثوق بها؟
هل هذا الاستخدام يخدم رسالتنا فعلًا؟

إذا كانت الإجابة نعم، فإنّ التقنية قد تصبح رافعة قوية. وإذا كانت الإجابة لا، فإن إدخال الذكاء الاصطناعي قد يضيف طبقة جديدة من التعقيد والمخاطر بدل أن يحل المشكلات. 


الذكاء الاصطناعي ليس خصمًا للمنظمات غير الربحية، لكنه أيضًا ليس معجزة جاهزة، بل هو فرصة كبيرة، نعم، لكن قيمته لا تُقاس بمدى حداثة الأداة، بل بمدى نضج المنظمة في إدارتها وحين تجتمع الحوكمة المنضبطة، والبيانات الجاهزة، والمواءمة الصادقة مع الرسالة، يصبح الذكاء الاصطناعي أداة تعزّز الأثر وتحفظ الثقة. أما حين يغيب ذلك، فإن المنظمة لا تخاطر فقط بسوء الاستخدام، بل بتآكل أصلها الأهم: ثقة الناس فيها



  • هل كانت هذه المقالة مفيدة؟
  •    

scroll to top