3 ممارسات تمكن مؤسسات الشرق الأوسط من خفض المخاطر في رحلتها نحو تبني الذكاء الاصطناعي

دبي – أصداف نيوز:
استعرضت اليوم شركة F5 اليوم، وعلى لسان محمد أبوخاطر، نائب الرئيس الإقليمي للمبيعات في منطقة الشرق الأوسط وتركيا وأفريقيا لدى الشركة مجموعة من الممارسات التي تساعد المؤسسات في منطقة الشرق الأوسط على الحدّ من المخاطر التي تصاحب نشر تقنيات الذكاء الاصطناعي في عملها.
وتشير البيانات التي تستند إلى دراسات بحثية متخصصة إلى أن وتيرة اعتماد الشركات للذكاء الاصطناعي التوليدي تتصاعد على نحو لافت بالرغم من وجود فجوات تنظيمية تستوجب التريث وإعادة التقييم.
ووفقاً لدراسة “وكلاء الذكاء الاصطناعي” التي أجرتها شركة برايس ووترهاوس كوبر (PWC) في مايو 2025، فقد تبنت 79% من الشركات حلول الذكاء الاصطناعي، في حين 2% فقط منها لا ترى أي توجه نحو الاعتماد على الذكاء الاصطناعي الوكيل. وبغض النظر عما إذا كانت هذه النماذج تُظهر سمات متقدمة بالفعل مرتبطة بتطبيقات الذكاء الاصطناعي الوكيل، إلا أن مستوى الاعتماد يبقى مرتفع للغاية، مع اتجاه شبه عام بين المؤسسات إلى زيادة استثماراتها في الذكاء الاصطناعي خلال العام المقبل.
وبالمقارنة مع نتائج أبحاث F5 الخاصة التي تعتمد على مؤشر جاهزية الذكاء الاصطناعي لقياس القدرة التشغيلية على توسيع نطاق الأنظمة المدعومة بالذكاء الاصطناعي وتأمينها وضمان استمراريتها، يتبيّن أن 2% فقط من المؤسسات تتمتع بجاهزية عالية تؤهلها من التعامل مع التحديات الجوهرية المرتبطة في تصميم هذه الأنظمة ونشرها وتشغيلها بكفاءة.
ومع ذلك، تُظهر أبحاث EY أن فرق تكنولوجيا المعلومات والأمن ليست أمامها بدائل حقيقية، إذ يرى معظم قادة الأعمال أن اعتماد الذكاء الاصطناعي الوكيل خلال هذا العام أصبح ضرورة لتحقيق تقدم تنافسي بحلول الوقت نفسه من العام المقبل. أما المؤسسات التي تتريث بما يكفي لمعالجة فجوات الأمن والحَوْكمة معالجة منهجية، فستكون في عام 2026 في موقع أكثر متانة وأقل تعرضاً للمخاطر مقارنة بتلك التي تُهمل هذه الجوانب الحاسمة.
ستساعد الممارسات الثلاث التالية في الحد من المخاطر عند الانتقال إلى استخدام الذكاء الاصطناعي التوليدي والوكيل:
- تأمين النماذج
تستلزم كل تقنية جديدة مستوى متقدم من الحماية، ويعتمد الذكاء الاصطناعي التوليدي في جوهره على نموذج أو أكثر من نماذج اللغة الكبيرة. ولا يكفي التعويل على مطوري هذه النماذج لتحسين الدقة، والحد من الهلوسة، ومنع محاولات التحايل. فالمؤسسات مطالبة بالاستثمار في خدمات مخصصة للنماذج وعمليات التوجيه، قادرة على رصد السلوكيات غير المرغوب فيها وإيقافها بصورة مستقلة.
وبالإضافة إلى ذلك، وبما أن كل مؤسسة تستخدم نموذج لغوي كبير تعتمد عملياً على أكثر من نموذج واحد، يصبح عزل التطبيقات عن استدعاءات واجهة برمجة التطبيقات الخاصة بالاستدلال أمراً ضرورياً لضمان تلبية متطلبات التوافر، ومسارات التوجيه، وقابلية التوسع، وإدارة التكلفة لتلك التطبيقات.
- تأمين البيانات
قد تكون البيانات التي تزود بها المؤسسة نماذج الذكاء الاصطناعي التوليدي بيانات جديدة أو بيانات موجودة لديها مسبقاً، لكن في جميع الحالات يجب التعامل معها باعتبارها أصول هامة تحتاج إلى حماية صارمة. والحماية هنا لا تقتصر على تأمين البيانات في أماكن تخزينها أو تشفيرها أثناء انتقالها عبر الشبكات، بل تشمل أيضاً القدرة على اكتشاف أي بيانات داخل بيئة المؤسسة، مهما كانت طريقة استخدامها، وحمايتها حتى عندما تشارك مع خدمات خارجية معتمدة أو تستخدم من قبل جهات خارجية.
- تأمين الوكلاء
يمثل وكلاء الذكاء الاصطناعي تحولا جوهرياً في طريقة عمل الأنظمة، إذ يعتمدون على نماذج اللغة الكبيرة لاتخاذ قرارات تحدد ما يجب تنفيذه من إجراءات لتحقيق هدف يحددونه ذاتياً. وللقيام بذلك، يحتاج الوكيل إلى صلاحيات تمكّنه من الوصول إلى الموارد، وإنشاء المعلومات وتعديلها وحذفها. ولهذا، فإن تشغيل الوكلاء يستوجب وجود آلية رقابية خارجية تراقب أداءهم عن قرب وتقيّم سلوكهم بفعالية. ولقد برز نهجان رئيسيان يستحقان متابعة دقيقة مع تطوّرهما خلال الأشهر المقبلة: أطر الحماية التنظيمية لوكلاء الذكاء الاصطناعي (مثل MCP-Universe)، وأطر النموذج المحكم LLM-as-a-Judge (مثل Microsoft LLM-as-a-Judge Framework).
يعمل النهج الأول على تحديد “الحقيقة الأساسية” من خلال عمليات دقيقة للغاية تعتمد على مهام محددة، يتم من خلالها مقارنة نتائج الإجراءات التي ينفّذها الوكيل مع إجراءات أخرى يتم جلبها مسبقاً بواسطة برامج موجهة بشكل واضح. وتتمثل قوته في اتساع نطاق الشيفرات النموذجية المتاحة للتحقق من مختلف المعطيات والحقائق.
أما النهج الثاني فيعتمد على نموذج لغوي آخر، وأحياناً عدة نماذج، لتحليل سلوك الوكيل بعد نشره وتقييم مدى جودة وملاءمة نتائجه وفق المعايير التي تضعها المؤسسة. ويواصل هذا الأسلوب تطوره بسرعة، تماماً كنهج أطر الحماية، وكلاهما يخضع لسيطرة المؤسسة بشكل كامل. كما يمكن دعم أي منهما بآليات تدخل بشري عند الحاجة لتعزيز الرقابة والدقة.
تساعد هذه الممارسات الثلاث في إحكام السيطرة على النماذج والبيانات والوكلاء، وفي سد الفجوات المرتبطة بالأمن السيبراني والحوكمة. ومن دون ذلك، تبقى المؤسسات عرضة لأنماط جديدة من المخاطر التي تصاحب الذكاء الاصطناعي التوليدي والأنظمة الذكاء الاصطناعي الوكيل.



