في السنوات الأخيرة، لم يعد الذكاء الاصطناعي ترفًا تقنيًا أو مشروعًا تجريبيًا محدودًا. بل تحوّل إلى ركيزة أساسية في عمل المؤسسات حول العالم، بما فيها المنظمات غير الربحية. في المملكة العربية السعودية، ومع تنامي دور القطاع غير الربحي في تحقيق مستهدفات رؤية 2030، بدأت الجمعيات والهيئات الوقفية في التفكير الجاد بكيفية الاستفادة من قدرات الذكاء الاصطناعي لتطوير برامجها، تعزيز كفاءتها، وتحسين تجربة المستفيد والمتبرع.
لكن هذه القوة الهائلة تحمل في طياتها مسؤولية لا تقل وزنًا عن حجم الفرص. فالذكاء الاصطناعي يمكن أن يكون أداةً لتحقيق العدالة الاجتماعية وتوسيع نطاق الأثر التنموي، لكنه قد يتحول أيضًا — إذا أسيء استخدامه أو غابت عنه الضوابط — إلى أداة تكرّس التمييز، تهدد الخصوصية، وتضعف الثقة العامة التي يقوم عليها العمل الخيري.
إن ما نقدمه هنا ليس مجرد استعراض لمبادئ عامة، بل هو ترجمة عملية ومواءمة ذكية للقطاع غير الربحي السعودي، حيث الثقة المجتمعية هي رأس المال الأهم، وحيث أي خطأ أخلاقي في استخدام التقنية يمكن أن يهدم سنوات من العمل المؤسسي.
1) لماذا يهمنا في القطاع غير الربحي السعودي؟
المملكة اليوم تخوض رحلة التحول الوطني في ظل رؤية 2030، حيث يتنامى دور القطاع غير الربحي في التنمية، والذكاء الاصطناعي يطرق أبواب هذا القطاع بقوة.
للقيادات:
-
المتبرعون (سواء كانوا أفرادًا أو مؤسسات أو صناديق وقفية) أصبحوا يسألون عن الشفافية والحوكمة قبل الدعم.
-
الخطأ الأخلاقي في استخدام الذكاء الاصطناعي، مثل نشر بيانات مستفيدين حساسة أو نموذج متحيز، قد يقوّض الثقة المجتمعية ويهدد استمرار التمويل.
للمنفذين:
-
أنتم من تديرون قواعد البيانات، وتتعاملون مع المستفيدين، وتشغلون الأنظمة التقنية.
-
أخطاء تبدو صغيرة — مثل إدخال بيانات ناقصة أو استخدام نموذج جاهز دون تدقيق — يمكن أن تتحول إلى أزمات مؤسسية.
2) المبادئ الخمسة للذكاء الاصطناعي الأخلاقي
1. العدالة وعدم التمييز
-
التحدي: خوارزميات قد تفضّل المتقدمين من مناطق حضرية على حساب الريف.
-
الحل: جمع بيانات شاملة ومتوازنة، مع مراجعة النتائج حسب فئات مختلفة (جندر، عمر، موقع جغرافي).
2. الشفافية وقابلية التفسير
-
التحدي: مستفيد يُرفض طلبه دون معرفة السبب.
-
الحل: تقديم "بطاقة قرار" توضح المعايير التي استند إليها النظام.
3. الأمن وحماية الخصوصية
-
التحدي: بيانات صحية لأسر مستفيدة تُستخدم في تدريب نموذج دون موافقة.
-
الحل: اعتماد مبدأ "البيانات الأقل تكفي"، وإزالة الهوية من كل معلومة.
4. المساءلة والحوكمة
-
التحدي: خوارزمية توزيع منح طلابية أصدرت نتائج منحازة. من يتحمل المسؤولية؟
-
الحل: وضع مصفوفة مسؤوليات (RACI Matrix) تحدد دور كل طرف: المبرمج، المورد، الإدارة.
5. المواءمة مع القيم الإنسانية
-
التحدي: استخدام الذكاء الاصطناعي لتسريع العمل على حساب حقوق المستفيد.
-
الحل: التأكد أن كل مشروع يخضع لمراجعة قيمية: هل يخدم الإنسان؟ هل يحقق العدالة؟
3) التوترات الأخلاقية: أين يقع القطاع غير الربحي السعودي؟
-
السرعة × السلامة: الجمعيات تريد إطلاق منصات ذكاء اصطناعي بسرعة لمواكبة رؤية 2030، لكن ذلك قد يعني تخطي مراجعات الأخلاقيات.
-
الأتمتة × المساءلة: أنظمة تقييم المتقدمين للمنح الدراسية قد تعمل آليًا، لكن عند خطأ القرار، هل المسؤول هو مطور النظام أم الجمعية؟
-
الأداء × العدالة: نظام تصنيف المستفيدين قد يكون دقيقًا، لكنه يحرم ذوي الإعاقة لعدم توفر بيانات كافية عنهم.
-
الوصول للبيانات × الخصوصية: الحاجة لبيانات ضخمة قد تصطدم بحساسية معلومات عن الأسر محدودة الدخل.
4) المخاطر الأخلاقية الكبرى في الواقع السعودي
1. التحيز الخوارزمي
-
مثال: نظام منح دراسية يعطي أولوية للطلاب في المدن بسبب وفرة البيانات، ويُقصي طلاب القرى.
-
أداة للتخفيف: استخدام خوارزميات Fairness Metrics مثل Demographic Parity.
2. الصندوق الأسود
-
مثال: جمعية تستخدم نموذجًا جاهزًا لتصنيف حالات الدعم، ولا تفهم لماذا يرفض بعض الحالات.
-
أداة للتخفيف: تقنيات التفسير مثل SHAP و LIME لتوضيح أسباب القرارات.
3. انتهاك الخصوصية
-
مثال: نشر بيانات صور المستفيدين في تقارير عامة.
-
أداة للتخفيف: تطبيق Privacy by Design واعتماد التعلم الاتحادي (Federated Learning).
4. إساءة الاستخدام
-
مثال: استخدام الذكاء التوليدي لإنتاج محتوى تسويقي دون مراجعة، فيخرج محتوى مسيء.
-
أداة للتخفيف: أنظمة تدقيق المحتوى ووضع علامة مائية على المخرجات.
5. فجوات الحوكمة
-
مثال: شراكة بين جمعية ومطور برمجيات خارجية، وقع خطأ. من المسؤول؟
-
أداة للتخفيف: إنشاء سياسات حوكمة واضحة مع عقود تحدد المسؤولية.
5) خارطة الطريق التنفيذية للجمعيات السعودية
للقيادات
-
تشكيل لجنة أخلاقيات: تضم ممثلين من البرامج، القانون، التقنية، والمستفيدين.
-
اعتماد إطار حوكمة عالمي: مثل NIST AI RMF مع تكييفه للسياق السعودي.
-
إدراج مؤشرات أخلاقية في لوحة الأداء: نسبة العدالة، معدل اعتراض المستفيدين، مستوى الشفافية.
للمنفذين
-
سجل نماذج: سجل رقمي يضم كل النماذج المستخدمة ومخاطرها.
-
مراجعة أخلاقية إلزامية: لكل مشروع جديد قبل الإطلاق.
-
التواصل مع المستفيدين: إعلان واضح أن "النظام الذكي" هو من اتخذ القرار مع حق المستفيد في الاعتراض.
6) المشهد التنظيمي: كيف ينعكس علينا؟
-
أوروبا (EU AI Act): يفرض متطلبات صارمة، وقد يطبق على جمعيات سعودية إذا تعاملت مع متبرعين أوروبيين.
-
الولايات المتحدة (FTC): تحذر من الممارسات المضللة؛ رسالة مهمة للجمعيات التي تنشر تقارير بالإنجليزية لجمهور دولي.
-
كولورادو (CAIA): سيُلزم بتجنب التمييز الخوارزمي بدءًا من 2026؛ يمكن أن يؤثر على شراكات سعودية مع مطورين أمريكيين.
-
الخلاصة: المواكبة المبكرة تعني جاهزية للتعاون الدولي وجذب للمانحين العالميين.
7) أدوات التنفيذ
-
Microsoft Fairlearn / IBM AI Fairness 360: أدوات مفتوحة المصدر لفحص العدالة.
-
Google Model Cards: لتوثيق خصائص كل نموذج.
-
Privacy Enhancing Technologies (PETs): مثل Differential Privacy وFederated Learning لحماية بيانات المستفيدين.
-
Red Teaming: فرق داخلية تختبر الأنظمة لمحاكاة إساءة الاستخدام.
-
Dashboards داخلية: لعرض مؤشرات الأداء الأخلاقي بشكل دوري.
8) خاتمة: من التقنية إلى الثقة
-
للقيادات: أنتم لا تقودون مجرد مشاريع تقنية، بل تبنون ثقة مجتمعية. الالتزام بالأخلاقيات يجلب دعمًا أكبر من المانحين ويضمن استدامة مؤسسية.
-
للمنفذين: أنتم حراس البوابة. التزامكم اليومي بالشفافية والعدالة يجعل الذكاء الاصطناعي أداة للتمكين، لا للتمييز.
الذكاء الاصطناعي الأخلاقي ليس رفاهية… إنه شرط للاستدامة غير الربحية في السعودية.
- هل كانت هذه المقالة مفيدة؟
