تكنولوجيا
أخر الأخبار

جارتنر: 50% من المؤسسات ستعتمد حوكمة البيانات القائمة على مبدأ “الثقة المعدومة” بحلول عام 2028

انتشار البيانات المولدة بالذكاء الاصطناعي يضع موثوقية النماذج اللغوية الكبيرة المستقبلية أمام تحديات متزايدة

دبي – أصداف نيوز:

بحلول عام 2028، ستعتمد 50% من المؤسسات نهج الثقة المعدومة (zero-trust) في حوكمة البيانات، نتيجة الانتشار المتزايد للبيانات غير الموثوقة التي يتم توليدها بواسطة تقنيات الذكاء الاصطناعي، وذلك وفقاً لتقديرات شركة جارتنر، المتخصصة في أبحاث وتحليلات الأعمال والتكنولوجيا.

وقال وان فوي تشان، نائب الرئيس التنفيذي لدى جارتنر: “لم يعد بإمكان المؤسسات منح البيانات ثقة تلقائية أو افتراض أنها من إنتاج الانسان. ومع تزايد انتشار البيانات التي يتم توليدها بواسطة تقنيات الذكاء الاصطناعي وصعوبة تمييزها عن البيانات التي ينشئها الإنسان، يصبح اعتماد نهج “الثقة المعدومة” القائم على آليات واضحة للمصادقة والتحقق أمراً ضرورياً لحماية النتائج التجارية والمالية”.

البيانات المولدة بالذكاء الاصطناعي تزيد من مخاطر انهيار النماذج وتزيد متطلبات الامتثال

يتم تدريب نماذج اللغات الكبيرة (LLMs) عادة على بيانات مستخرجة من شبكة الإنترنت، إلى جانب مصادر متنوعة تشمل الكتب، ومستودعات الشيفرات البرمجية، والأوراق البحثية. ويحتوي عدد من هذه المصادر بالفعل على محتوى تم تولديه باستخدام تقنيات الذكاء الاصطناعي، ومع استمرار الاتجاهات الحالية، فمن المتوقع أن تصبح الغالبية العظمى من هذه المصادر، بمرور الوقت، مليئة بالبيانات التي جرى توليدها بالذكاء الاصطناعي.

ووفقاً لاستطلاع جارتنر لمديري تقنية المعلومات وكبار التنفيذيين في قطاع التكنولوجيا لعام 2026، يتوقع 84% من المشاركين أن تقوم مؤسساتهم بزيادة مخصصات التمويل لتقنيات الذكاء الاصطناعي التوليدي في عام 2026. ومع تسارع وتيرة تبني مبادرات الذكاء الاصطناعي وتوسع حجم الاستثمارات المرتبطة بها، سيواصل حجم البيانات المولدة بواسطة هذه التقنيات نمو المتسارع. ويعني ذلك أن الأجيال المستقبلية من نماذج اللغات الكبيرة سيتم تدريبها بشكل متزايد على مخرجات نماذج سابقة، الأمر الذي يرفع احتمالات ما يعرف بـ «انهيار النماذج»، حيث قد تفقد استجابات أدوات الذكاء الاصطناعي قدرتها على تمثيل الواقع بدقة.

وقال تشان: “مع تزايد انتشار المحتوى الذي يتم توليده باستخدام تقنيات الذكاء الاصطناعي، فمن المتوقع أن تشهد بعض المناطق تشديداً في المتطلبات التنظيمية الرامية إلى التحقق من البيانات “الخالية من الذكاء الاصطناعي”. إلا أن هذه المتطلبات قد تختلف بدرجة كبيرة بين المناطق، إذ تسعى بعض الدول إلى فرض ضوابط أكثر صرامة على المحتوى الذي يتم توليده بالذكاء الاصطناعي، فيما تتجه دول ومناطق أخرى إلى اعتماد أطر تنظيمية أكثر مرونة”.

وأضاف: “في ظل هذا المشهد التنظيمي المتغير، ستحتاج جميع المؤسسات إلى امتلاك القدرة على التعرّف إلى البيانات التي يتم توليدها باستخدام الذكاء الاصطناعي وتصنيفها بصورة واضحة. وسيتوقف تحقيق ذلك على توافر الأدوات المناسبة، إلى جانب كوادر تمتلك كفاءات راسخة في إدارة المعلومات والمعرفة، فضلاً عن حلول متقدمة لإدارة البيانات الوصفية، التي تُعد عنصرًا أساسياً في عمليات فهرسة البيانات وتنظيمها.

ستصبح ممارسات إدارة البيانات الوصفية النشطة عاملَ تميز رئيسي، إذ ستمكن المؤسسات من تحليل بياناتها، وإصدار التنبيهات ذات الصلة، وأتمتة عمليات اتخاذ القرار عبر مختلف أصول البيانات لديها.

إدارة المخاطر المرتبطة بانتشار البيانات المولدة بالذكاء الاصطناعي والتي لم يتم التحقق من موثوقيتها

يتعين على المؤسسات النظر في مجموعة من الإجراءات الاستراتيجية للحد من مخاطر البيانات غير المتحقق منها، من أبرزها:

  • تعيين مسؤول لحوكمة الذكاء الاصطناعي: استحداث دور مخصص يتولى الإشراف على حوكمة الذكاء الاصطناعي، بما يشمل تطبيق نهج “الثقة المعدومة”، وإدارة مخاطر الذكاء الاصطناعي، ومتطلبات الامتثال. ويتعيّن على هذا المسؤول العمل بشكل وثيق مع فرق البيانات والتحليلات لضمان جاهزية البيانات والأنظمة لدعم تطبيقات الذكاء الاصطناعي والتعامل المنضبط مع المحتوى المُولَّد بواسطة هذه التقنيات.
  • تعزيز التعاون متعدد التخصصات: تشكيل فرق عمل مشتركة تضم الأمن السيبراني، وفرق البيانات والتحليلات، إلى جانب الجهات المعنية الأخرى، لإجراء تقييمات شاملة لمخاطر البيانات، بهدف تحديد المخاطر التجارية المرتبطة بالبيانات المُولَّدة باستخدام تقنيات الذكاء الاصطناعي، والتمييز بين المخاطر التي تغطيها سياسات أمن البيانات المعتمدة حاليًا وتلك التي تستدعي تطوير استراتيجيات جديدة لمعالجتها.
  • الاستفادة من سياسات الحوكمة القائمة: الارتكاز إلى أطر حوكمة البيانات والتحليلات المعتمدة حالياً، مع التركيز على تحديث السياسات المرتبطة بالأمن، وإدارة البيانات الوصفية، والأطر الأخلاقية، لمعالجة المخاطر المستجدة الناجمة عن البيانات المُولَّدة باستخدام تقنيات الذكاء الاصطناعي.
  • اعتماد ممارسات نشطة لإدارة البيانات الوصفية: يتيح ذلك إطلاق تنبيهات فورية عند تقادم البيانات أو الحاجة إلى إعادة اعتمادها، بما يساعد المؤسسات على رصد الحالات التي قد تصبح فيها الأنظمة الحيوية للأعمال عُرضة لبيانات غير دقيقة أو منحازة.
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى