الذكاء الاصطناعي في جمع التبرعات: إرشادات عملية لحماية الثقة والامتثال

ع ع ع

نشر هذا المقال استنادًا إلى توجيهٍ حديثٍ كتبه Kieron James (عضو مجلس) حول إرشادات استخدام الذكاء الاصطناعي في جمع التبرعات الخيرية. ويأتي هذا التوجيه في لحظة يتسارع فيها اعتماد الجمعيات على أدوات الذكاء الاصطناعي، ما يجعل السؤال الحقيقي ليس: هل نستخدم التقنية أم لا؟ بل: كيف نستخدمها دون أن نمسّ جوهر الثقة التي يقوم عليها العمل الخيري. ينطلق المقال من أفكار الإرشاد الأساسية: منهج “دورة الحياة” في تبنّي الذكاء الاصطناعي، مسؤولية مجالس الإدارة عن القرار والمساءلة، أهمية التدريب، مبدأ الشفافية المتناسبة بحسب خطر التضليل، وضرورة الإشراف البشري لضبط الدقة والإنصاف والالتزام. الهدف هنا تحويل الإرشاد من وثيقة تنظيمية إلى قراءة عملية تساعد العاملين في القطاع غير الربحي على توظيف الذكاء الاصطناعي بوصفه أداة لرفع الكفاءة دون التفريط في النزاهة والاحترام والوضوح.


حين تتسارع الأدوات وتتباطأ الأسئلة الصعبة

لم يعد الذكاء الاصطناعي (AI) مجرد “أداة إضافية” في صندوق أدوات جمع التبرعات، بل أصبح جزءًا من المشهد اليومي في كتابة الرسائل، وصناعة المحتوى، وتحليل البيانات، وتحسين الاستهداف، وربما حتى تصميم تجارب تواصل أكثر تخصيصًا مع المتبرعين. هذا الاتساع السريع يفتح بابًا مهمًا لرفع الكفاءة وتقليل الجهد في أوقات ضغوط مالية وتشغيلية، لكنه في الوقت نفسه يخلق أسئلة أكثر حساسية: كيف نضمن ألا تضلل أدوات الذكاء الاصطناعي المتبرعين دون قصد؟ كيف نمنع المحتوى “المقنع” لكنه غير الدقيق؟ وما دور مجلس الإدارة والقيادة التنفيذية في ضبط الاتجاه قبل أن تتحول التقنية إلى مخاطرة على السمعة والثقة؟

ضمن هذا السياق، جاء إصدار توجيه جديد يشرح كيفية استخدام الذكاء الاصطناعي في جمع التبرعات بما ينسجم مع مدونة الممارسة المعتمدة (Code of Fundraising Practice). الفكرة الجوهرية ليست في تشجيع استخدام الذكاء الاصناعي أو منعه، بل في وضع معيار واضح: إذا تم استخدامه، فيجب أن يكون الاستخدام قانونيًا، مفتوحًا، صادقًا، محترمًا، ومتوافقًا مع الضوابط المهنية.


لماذا الآن؟ بيانات تبنّي مرتفعة وحاجة ملحّة للضبط

تشير بيانات 2025 إلى أن نسبة الجمعيات التي تستخدم الذكاء الاصطناعي ارتفعت مقارنة بالعام السابق، بالتوازي مع شعور متزايد في القطاع بالحاجة إلى مساعدة عملية لفهم “كيف نمتثل” عند إدخال هذه الأدوات في جمع التبرعات. هذا المعطى يكشف نقطة جوهرية: تبنّي التقنية غالبًا يسبق النضج التنظيمي المصاحب لها. فالجمعية قد تبدأ باستخدام أدوات توليد النصوص أو تحليل البيانات قبل أن تحدد سياساتها الداخلية، أو قبل أن يفهم مجلس الأمناء طبيعة المخاطر وحدود المسؤولية.

هنا يتدخل التوجيه الجديد ليملأ فجوة عملية: ليس بتقديم خطاب تقني، بل بتقديم خريطة ضبط مهني تقرأ الذكاء الاصطناعي باعتباره “عملية” لها مراحل ومسؤوليات، لا باعتباره برنامجًا نحمّله ثم ننطلق.


منهج “دورة الحياة”: الذكاء الاصطناعي ليس قرارًا لحظيًا

واحدة من أقوى نقاط التوجيه هي اعتماده “منهج دورة الحياة” في التعامل مع الذكاء الاصطناعي. بمعنى أنه لا يتوجّه فقط لمن يستخدم الأدوات بالفعل، بل يشمل ثلاث حالات:

  1. مرحلة الاستكشاف: هل يمكن للذكاء الاصطناعي أن يدعم جمع التبرعات؟ ما الاستخدامات الممكنة؟ وما المخاطر؟

  2. مرحلة الاستعداد للتطبيق: اختيار الأداة، تصميم العملية، تحديد من يراجع، ووضع قواعد الشفافية.

  3. مرحلة الاستخدام التشغيلي: تشغيل الأداة داخل الحملات، متابعة أثرها، وإدارة الانحرافات والأخطاء.

الأهم أن المنهج لا يقتصر على استخدام الجمعية المباشر للأداة؛ بل يشمل أيضًا التعامل مع أطراف ثالثة (موردين، وكالات، منصات) قد تستخدم الذكاء الاصطناعي نيابة عنها. فقد لا تخطط الجمعية لاستخدام الذكاء الاصطناعي، لكن طرفًا متعاقدًا قد يستخدمه في كتابة الرسائل أو تصميم المحتوى أو تحليل بيانات الاستهداف، ما يعني أن “المخاطر قد تدخل من الخارج” حتى لو كانت السياسة الداخلية متحفظة.


دور مجلس الإدارة: المسؤولية العليا لا تنتقل إلى الأداة

يشدد التوجيه على أن الأمناء أو مجلس الإدارة هم الطرف الأعلى مساءلة عن استخدام الذكاء الاصطناعي في جمع التبرعات. وهذا يغيّر زاوية النظر: الموضوع ليس قرارًا تقنيًا تتخذه الإدارة التنفيذية وحدها، بل قرار استراتيجي يمس الثقة والامتثال والسمعة.

لكن مساءلة المجلس لا تكون شكلية. المطلوب هو “تمكين الفهم”؛ أي أن يبني المجلس معرفة كافية تمكّنه من تقييم الفرص والمخاطر بواقعية. وهذا يتطلب أسئلة حوكمة محددة، مثل:

  • ما حدود استخدام الذكاء الاصطناعي داخل الجمعية؟ وأين نمنعه؟

  • ما مستوى المخاطر المقبول؟ ومن يقرر؟

  • ما آلية المراجعة البشرية قبل النشر أو الإرسال؟

  • هل لدينا سياسة واضحة للتعامل مع الأخطاء؟ وكيف نبلغ إن حدث تضليل غير مقصود؟

  • ماذا عن الموردين؟ هل لدينا بند تعاقدي يفرض الشفافية والضبط؟

المغزى هنا أن المجلس لا يحتاج أن يصبح “فريقًا تقنيًا”، لكنه يحتاج أن يفهم الذكاء الاصطناعي بقدر يكفي لحماية الجمعية من قرارات تشغيلية قصيرة النظر.


تدريب المستخدمين: المهارة شرط أخلاقي قبل أن تكون شرطًا تقنيًا

يشير التوجيه بوضوح إلى أن التدريب عنصر محوري: أي شخص يطوّر أو يدير أو يستخدم أدوات الذكاء الاصطناعي في جمع التبرعات يجب أن يمتلك المهارات الكافية. في القطاع غير الربحي، قد تظهر إغراءات “الحلول السريعة”: موظف ينسخ نصًا من أداة، أو يطلب صياغة قصة مؤثرة، أو يولد رسالة بريدية خلال دقائق. لكن غياب المهارة قد يجعل الجمعية تقع في ثلاث فجوات شائعة:

  • فجوة الدقة: نص يبدو ممتازًا لكنه يحتوي معلومات خاطئة أو أرقامًا غير موثقة.

  • فجوة الملاءمة: لغة لا تناسب قيم الجمعية أو سياقها المحلي أو حساسية جمهورها.

  • فجوة الامتثال: محتوى قد يبالغ في الادعاءات أو يوحي بما يضلل المتبرع دون قصد.

التدريب هنا ليس “دورة تقنية”، بل بناء قدرة على التمييز بين محتوى صالح للنشر ومحتوى يحتاج إعادة صياغة وتوثيقًا ومراجعة.


الشفافية: ليست لافتة دائمة… بل قرار متناسب مع خطر التضليل

واحدة من أكثر النقاط حساسية هي الشفافية عند استخدام الذكاء الاصطناعي. التوجيه يقرر مبدأ متوازنًا: ليس كل استخدام للذكاء الاصطناعي يحتاج إلى وضع علامة أو إفصاح. أحيانًا يكون ذلك غير ضروري أو غير متناسب مع طبيعة الاستخدام. لكن في حالات أخرى، قد يكون الإخفاء سببًا لتضليل المتبرع أو الجمهور.

المعيار المقترح واضح: كلما زادت احتمالات التضليل، زادت الحاجة للشفافية.
ومن أمثلة الحالات عالية الحساسية:

  • محتوى مولد بالذكاء الاصطناعي يحاكي شهادة شخصية أو تجربة إنسانية قد تُفهم بوصفها حقيقية.

  • صور أو قصص أو “اقتباسات” قد توهم المتلقي بواقعية غير موجودة.

  • رسائل توحي بأن تواصلًا ما تم بناء على معرفة دقيقة بظروف المتبرع أو نواياه، بينما هو ناتج عن تحليل آلي قد يخطئ.

الشفافية هنا ليست ترفًا. إنها أداة لحماية الثقة قبل أن تكون مجرد التزام شكلي.


الإشراف البشري المتناسب: لأن الذكاء الاصطناعي قد يخطئ بثقة

يحذر التوجيه من أن أدوات الذكاء الاصطناعي قد تولد محتوى “مقنعًا لكنه غير صحيح”، أو تعيد إنتاج تحيزات، أو تتسبب بعواقب غير مقصودة. لذلك يؤكد على ضرورة وجود إشراف بشري متناسب يراجع: الدقة، والإنصاف، والالتزام القانوني قبل استخدام أي محتوى في جمع التبرعات.

المقصود بـ “متناسب” أن مستوى التدقيق يرتفع كلما ارتفعت حساسية الاستخدام. رسالة عامة قصيرة قد تحتاج مراجعة لغوية وحقائق أساسية، بينما حملة كبرى أو قصة مستفيد أو إعلان أرقام أثر تحتاج مراجعة متعددة المستويات، وربما توثيق مصادر، وموافقة قيادية، وتدقيق التزام قبل النشر.

هنا يصبح الذكاء الاصطناعي مساعدًا لا بديلًا: يسرّع المسودة، لكنه لا يحسم الحقيقة.


البعد الأخلاقي والاجتماعي والبيئي: هل يتسق الاستخدام مع قيم الجمعية؟

يلفت التوجيه أيضًا إلى أن بعض الجمعيات تفكر في مسألة أعمق من الكفاءة: هل يتسق استخدام الذكاء الاصطناعي مع قيمنا؟ إذ توجد اعتبارات أخلاقية واجتماعية وبيئية مرتبطة بهذه التقنية. وقد لا يكون القرار “مسموحًا” فقط، بل “مناسبًا” لهوية الجمعية ورسالتها. وهذا سؤال ناضج ينبغي طرحه داخل مجالس الإدارة، لأن قيمة العمل غير الربحي لا تقاس بالمخرجات فقط، بل بالثقة والمعنى والسلوك الأخلاقي.


الذكاء الاصطناعي لا يهدد الجمعيات… سوء استخدامه هو التهديد

يقدم التوجيه الجديد رسالة واقعية للقطاع: لست مضطرًا أن تكون مؤيدًا أو معارضًا للذكاء الاصطناعي. المهم أن تدير استخدامه وفق معيار مهني يحمي المتبرع ويحمي الجمعية. منهج دورة الحياة يذكّرنا أن التقنية قرار مستمر، ودور مجلس الإدارة يضمن أن الحوكمة تسبق الحماس، والشفافية المتناسبة تمنع الالتباس، والإشراف البشري يحاصر أخطاء “الهلوسة” والتحيز قبل أن تتحول إلى أزمة سمعة.

في النهاية، الذكاء الاصطناعي يمكن أن يرفع كفاءة جمع التبرعات، لكنه لن يشتري الثقة. الثقة تُبنى عندما تكون الجمعية دقيقة في قصتها، صادقة في خطابها، واضحة في نواياها، ومحكومة بضوابط تجعل التقنية في خدمة الرسالة لا في قيادة الرسالة.

  • هل كانت هذه المقالة مفيدة؟
  •    

scroll to top