العودة للمقالات
11 يناير 2026حوكمة الذكاء الاصطناعي11 دقائق للقراءة

إطار تدقيق الذكاء الاصطناعي الظل: منهجية الكشف المؤسسي في 5 خطوات

إطار شامل لتدقيق الذكاء الاصطناعي الظل للمؤسسات. تعرف على منهجيتنا في 5 خطوات لاكتشاف وتقييم وحوكمة أدوات الذكاء الاصطناعي غير المصرح بها.

Q

QAIZEN

فريق حوكمة الذكاء الاصطناعي

📖ما هذا؟

تدقيق الذكاء الاصطناعي الظل

تقييم منهجي لتحديد وتصنيف وتقييم أدوات الذكاء الاصطناعي غير المصرح بها داخل المؤسسة. يشمل الاكتشاف التقني وتقييم المخاطر وتطوير خطط المعالجة والحوكمة لجلب استخدام الذكاء الاصطناعي تحت السيطرة التنظيمية.

67

متوسط أدوات الذكاء الاصطناعي لكل مؤسسة

Source: Prompt Security 2025

68%

يستخدمون الذكاء الاصطناعي عبر حسابات شخصية

Source: Telus Digital 2025

57%

شاركوا بيانات حساسة مع الذكاء الاصطناعي

Source: Telus Digital 2025

النقاط الرئيسية
  • المؤسسة المتوسطة لديها 67 أداة ذكاء اصطناعي - معظمها غير مُدار
  • إطارنا في 5 خطوات: الاكتشاف، التصنيف، تقييم المخاطر، المعالجة، الحوكمة
  • ابدأوا بتحليل الشبكة واكتشاف نقاط النهاية لمكاسب سريعة
  • استبيانات الموظفين تكشف أدوات لا تكتشفها الفحوصات التقنية
  • المعالجة يجب أن تقدم بدائل معتمدة، ليس الحظر فقط

واقع الذكاء الاصطناعي الظل

المؤسسة المتوسطة لديها 67 أداة ذكاء اصطناعي قيد الاستخدام. معظم فرق تكنولوجيا المعلومات والأمن تعرف أقل من 10.

هذه الفجوة بين استخدام الذكاء الاصطناعي المتصور والفعلي هي الذكاء الاصطناعي الظل - الاستخدام غير المصرح به لأدوات الذكاء الاصطناعي الذي يخلق مخاطر أمنية وامتثال وتشغيلية.

لماذا يهم التدقيق:

  • 68% من الموظفين يستخدمون الذكاء الاصطناعي عبر حسابات شخصية
  • 57% شاركوا بيانات حساسة مع أدوات الذكاء الاصطناعي
  • معظم الذكاء الاصطناعي الظل يمر دون اكتشاف بواسطة أدوات الأمان القياسية

إطار التدقيق في 5 خطوات

توفر منهجيتنا نهجاً منظماً لاكتشاف وحوكمة الذكاء الاصطناعي الظل:

1
الاكتشاف
2
التصنيف
3
تقييم المخاطر
4
المعالجة
5
الحوكمة

كل خطوة تبني على السابقة، مما يخلق رؤية شاملة لاستخدام الذكاء الاصطناعي ومساراً نحو التحكم.


الخطوة 1: الاكتشاف

الهدف

تحديد جميع أدوات الذكاء الاصطناعي المستخدمة في المؤسسة، بغض النظر عن كيفية اقتنائها أو نشرها.

طرق الاكتشاف

الطريقةما تجدهالجهدالدقة
تحليل الشبكةاستدعاءات API لخدمات الذكاء الاصطناعيمتوسطعالية
مراقبة نقاط النهايةتطبيقات الذكاء الاصطناعي، إضافات المتصفحمتوسطعالية
اكتشاف SaaSاشتراكات الذكاء الاصطناعي السحابيةمنخفضمتوسطة
استبيانات الموظفينالاستخدام المُبلغ عنه ذاتياًمتوسطمتغيرة
تحليل المصروفاتأدوات الذكاء الاصطناعي المدفوعةمنخفضمتوسطة
تحليل تذاكر ITطلبات متعلقة بالذكاء الاصطناعيمنخفضمنخفضة

قائمة تحقق تحليل الشبكة

الهدفالمؤشراتالأدوات
OpenAI/ChatGPTapi.openai.com, chat.openai.comسجلات جدار الحماية
Anthropic/Claudeapi.anthropic.com, claude.aiسجلات جدار الحماية
Google Geminigenerativelanguage.googleapis.comسجلات جدار الحماية
Microsoft Copilotcopilot.microsoft.comإدارة M365
Midjourneymidjourney.com, discord.comسجلات جدار الحماية
خدمات IA أخرى/api/, /v1/chat, /completionsمطابقة الأنماط

قائمة تحقق اكتشاف نقاط النهاية

الهدفطريقة الاكتشاف
إضافات المتصفح للذكاء الاصطناعيجرد الإضافات
تطبيقات سطح المكتبجرد التطبيقات
أدوات التطويرفحص مستودع الكود
تطبيقات الجوالجرد MDM
علامات تبويب المتصفحالسجل (بموافقة)

نموذج استبيان الموظفين

القسم 1: استخدام أدوات الذكاء الاصطناعي

1. هل تستخدم أدوات الذكاء الاصطناعي في العمل؟ (نعم/لا)
2. ما أدوات الذكاء الاصطناعي التي تستخدمها؟ (حدد الكل)
ChatGPTClaudeCopilotGeminiأخرى: ___
3. كم مرة؟ (يومياً/أسبوعياً/شهرياً/نادراً)
4. لأي مهام تستخدم الذكاء الاصطناعي؟ (نص حر)

القسم 2: إدارة البيانات

5. ما نوع البيانات التي تدخلها في أدوات الذكاء الاصطناعي؟
معلومات عامةمستندات داخليةبيانات عملاءكودأخرى
6. هل تعرف سياسات استخدام الذكاء الاصطناعي؟ (نعم/لا)
7. هل ستستخدم أداة ذكاء اصطناعي معتمدة من IT إذا توفرت؟ (نعم/لا)

مخرجات الاكتشاف

المخرجالمحتوى
مخزون IAجميع الأدوات، المستخدمين، أنماط الاستخدام
تحليل الحركةالحجم، التكرار، تدفقات البيانات
نتائج الاستبيانملخص الاستخدام المُبلغ عنه ذاتياً
تحليل الفجواتالأدوات المعروفة مقابل المكتشفة

الخطوة 2: التصنيف

الهدف

تصنيف أدوات الذكاء الاصطناعي المكتشفة حسب النوع والوظيفة التجارية والحالة التنظيمية.

تصنيف الأدوات

الفئةالوصفأمثلة
معتمد مؤسسياًمصرح من IT، عقود ساريةCopilot مرخص، ChatGPT Enterprise
ظل - معروفمكتشف لكن غير معتمدChatGPT مجاني، Claude
ظل - شخصيحسابات شخصية للعملحساب OpenAI شخصي
ظل - مضمنذكاء اصطناعي في أدوات SaaS أخرىميزات الذكاء الاصطناعي في Notion, Slack
ظل - تطويرذكاء اصطناعي في الكود/المنتجاتGitHub Copilot، واجهات API للذكاء الاصطناعي

التصنيف حسب الوظيفة التجارية

الوظيفةحالات استخدام الذكاء الاصطناعي النموذجيةمستوى المخاطر
الهندسةإنشاء الكود، تصحيح الأخطاءعالي
التسويقإنشاء المحتوى، التحليلمتوسط
المبيعاتصياغة البريد، البحثمتوسط
الموارد البشريةفرز السير الذاتية، السياساتعالي
الماليةالتحليل، إعداد التقاريرعالي
القانونيةمراجعة العقود، البحثحرج
خدمة العملاءصياغة الردودعالي
القيادة التنفيذيةالملخصات، العروض التقديميةمتوسط

تصنيف حساسية البيانات

المستوىالوصفأمثلة البيانات
حرجمنظم، عالي القيمةPII، PHI، بيانات مالية
سريحساس للأعمالالاستراتيجية، الملكية الفكرية، العقود
داخليغير عام لكن غير حساسالاتصالات الداخلية
عاملا حساسيةمحتوى التسويق

مخرجات التصنيف

المخرجالمحتوى
المخزون المصنفالأدوات حسب الفئة، الوظيفة، الحساسية
خريطة الحرارةالاستخدام حسب القسم والمخاطر
خريطة تدفق البياناتما البيانات التي تذهب إلى أين

الخطوة 3: تقييم المخاطر

الهدف

تقييم المخاطر لكل أداة ذكاء اصطناعي مكتشفة وتحديد أولويات المعالجة.

معايير التقييم

المعيارالوزنأسئلة التقييم
حساسية البيانات30%ما نوع البيانات التي تذهب لهذه الأداة؟
التعرض التنظيمي25%تبعات GDPR، HIPAA، SOX؟
أمان المورد20%معالجة البيانات، سياسات التدريب؟
حجم الاستخدام15%كم عدد المستخدمين، ما التردد؟
أهمية الأعمال10%التأثير إذا تمت إزالته؟

مصفوفة تسجيل المخاطر

النقاطحساسية البياناتتنظيميالموردالحجمالأهمية
5PII/PHI/ماليعالي (HIPAA، SOX)لا اتفاقيات>100 مستخدمحرج
4سريمتوسط (GDPR)شروط مستهلك50-100عالي
3داخليمنخفضشروط مؤسسات20-50متوسط
2حساسية منخفضةأدنىBAA/DPA متاح5-20منخفض
1عاملا شيءاتفاقيات موقعة<5أدنى

نقاط المخاطر المركبة

نقاط المخاطر = (البيانات × 0.30) + (التنظيمي × 0.25) + (المورد × 0.20) +
(الحجم × 0.15) + (الأهمية × 0.10)
النقاط المركبةمستوى المخاطرالجدول الزمني للإجراء
4.0-5.0حرجفوري (24-48 ساعة)
3.0-3.9عاليقصير المدى (1-2 أسبوع)
2.0-2.9متوسطمتوسط المدى (شهر)
1.0-1.9منخفضطويل المدى (ربع سنة)

مخرجات تقييم المخاطر

المخرجالمحتوى
سجل المخاطرجميع الأدوات مع نقاطها
ترتيب الأولوياتترتيب المعالجة
تقرير المخاطرملخص تنفيذي

الخطوة 4: المعالجة

الهدف

معالجة مخاطر الذكاء الاصطناعي الظل المحددة من خلال مزيج من الضوابط والبدائل والسياسات.

خيارات المعالجة

الخيارمتى تستخدمهالتنفيذ
الحظرمخاطر حرجة، لا حاجة مشروعةضوابط الشبكة/نقاط النهاية
الاستبدالحاجة مشروعة، أداة غير آمنةتوفير بديل معتمد
الحوكمةمقبول مع ضوابطسياسات، مراقبة
القبولمخاطر منخفضة، قيمة أعمالتوثيق القبول

شجرة قرارات المعالجة

أداة ذكاء اصطناعي ظل مكتشفة
مخاطر حرجة؟
│ ├── نعم → الحظر فوراً
│ └── لا → متابعة التقييم
│ ├── هل توجد حاجة أعمال مشروعة؟
│ │ ├── لا → الحظر
│ │ └── نعم → متابعة
│ │ ├── هل يوجد بديل معتمد؟
│ │ │ ├── نعم → الاستبدال
│ │ │ └── لا → متابعة
│ │ │ ├── هل يمكن حوكمتها؟
│ │ │ │ ├── نعم → الحوكمة
│ │ │ │ └── لا → الحظر
│ │ │ └── المخاطر مقبولة؟
│ │ │ ├── نعم → القبول مع التوثيق
│ │ │ └── لا → الحظر

أولويات المعالجة

الأولويةالإجراءالهدف
P1حظر أدوات المخاطر الحرجة24-48 ساعة
P2الترحيل إلى البدائل المعتمدةأسبوعان
P3تنفيذ ضوابط الحوكمةشهر واحد
P4توثيق قبول المخاطرربع سنوي

متطلبات البدائل المعتمدة

المتطلبالوصفالتحقق
اتفاقيات المؤسساتDPA، BAA، ملحق الأمانمراجعة قانونية
لا تدريب على البياناتالبيانات لا تحسن النماذجتأكيد المورد
إقامة البياناتيلبي المتطلبات الجغرافيةمراجعة معمارية
سجل التدقيقيمكن مراقبة الاستخداماختبار تقني
SSO/SCIMالتكامل مع الهويةاختبار تقني
ضوابط المسؤولإدارة مركزيةمراجعة الوظائف

مخرجات المعالجة

المخرجالمحتوى
خطة المعالجةالإجراءات، المالكين، الجداول الزمنية
قائمة الأدوات المعتمدةأدوات IA المصرح بها مع حالات الاستخدام
تحديثات السياسةسياسة الاستخدام المقبول للذكاء الاصطناعي
اتصالات المستخدميندليل الترحيل

الخطوة 5: الحوكمة

الهدف

إنشاء حوكمة مستمرة لمنع تكرار الذكاء الاصطناعي الظل وتمكين تبني آمن للذكاء الاصطناعي.

إطار الحوكمة

المكونالغرضالمالك
سياسة الذكاء الاصطناعيقواعد واضحة لاستخدام الذكاء الاصطناعيالقانونية/الامتثال
الكتالوج المعتمدقائمة الأدوات المصرح بهاتكنولوجيا المعلومات
عملية الطلبكيفية الموافقة على أدوات جديدةIT/الأمن
المراقبةالكشف المستمر عن الذكاء الاصطناعي الظلالأمن
التدريبتوعية المستخدمينالموارد البشرية/الأمن
وتيرة المراجعةإعادة التقييم المنتظمةلجنة الحوكمة

عناصر سياسة الاستخدام المقبول

العنصرالتغطية
النطاقمن وماذا يشمل
الأدوات المعتمدةالقائمة أو رابط الكتالوج
الاستخدامات المحظورةما لا يُسمح به أبداً
معالجة البياناتما يمكن/لا يمكن إدخاله للذكاء الاصطناعي
المسؤوليةمن المسؤول
العواقبما يحدث عند الانتهاكات

المراقبة المستمرة

نشاط المراقبةالتكرارالمالك
تحليل حركة الشبكةمستمرالأمن
فحوصات الاكتشافأسبوعيIT
استبيانات الموظفينربع سنويHR
تدقيقات الامتثالربع سنويالامتثال
إعادة تقييم المخاطرنصف سنويالأمن

مقاييس الحوكمة

المقياسالهدفالغرض
عدد أدوات الظلمتناقصفعالية الحوكمة
اعتماد الأدوات المعتمدةمتزايدنجاح البدائل
الوعي بالسياسة>90%فعالية التدريب
وقت الطلب-الموافقة<5 أيامكفاءة العملية
عدد الحوادثمتناقصتقليل المخاطر

مخرجات الحوكمة

المخرجالمحتوى
ميثاق الحوكمةالهيكل، الأدوار، المسؤوليات
وثائق السياسةالاستخدام المقبول، معالجة البيانات
خطة المراقبةالأدوات، التكرار، التصعيد
مواد التدريبمحتوى توعية المستخدمين
لوحة القيادةرؤية مستمرة للمقاييس

الجدول الزمني للتنفيذ

الأسبوع 1: الاكتشاف

  • إعداد مراقبة الشبكة
  • نشر اكتشاف نقاط النهاية
  • إطلاق استبيان الموظفين
  • تحليل مخزون SaaS

الأسبوع 2: التصنيف

  • تصنيف الأدوات المكتشفة
  • الربط بالوظائف التجارية
  • تقييم حساسية البيانات
  • إنشاء مخزون مصنف

الأسبوع 3: تقييم المخاطر

  • تسجيل نقاط كل أداة
  • تحديد أولويات المخاطر
  • توثيق النتائج
  • العرض على أصحاب المصلحة

الأسبوع 4: تخطيط المعالجة

  • تحديد إجراءات المعالجة
  • تحديد البدائل المعتمدة
  • إنشاء خطة الترحيل
  • صياغة تحديثات السياسة

الأسابيع 5-8: تنفيذ المعالجة

  • حظر المخاطر الحرجة
  • ترحيل المستخدمين للأدوات المعتمدة
  • تنفيذ الضوابط
  • نشر السياسات

مستمر: الحوكمة

  • المراقبة المستمرة
  • إعادة التقييم المنتظمة
  • تطبيق السياسات
  • تقديم التدريب

الخلاصة

تدقيق الذكاء الاصطناعي الظل ليس مشروعاً لمرة واحدة - إنه برنامج مستمر. يوفر إطار الخطوات الخمس هيكلاً واضحاً:

النقاط الرئيسية:

  1. الاكتشاف أساسي - لا يمكنكم حوكمة ما لا تعرفونه
  2. التصنيف يوجه الأولويات - ليس كل الذكاء الاصطناعي الظل بنفس المخاطر
  3. تسجيل المخاطر يمكّن القرارات - معايير موضوعية للمعالجة
  4. البدائل تتفوق على الحظر - المستخدمون يحتاجون أدوات تعمل
  5. الحوكمة تمنع العودة - ابنوا ضوابط مستدامة

المؤسسات التي تتقن هذا الإطار ستحول الذكاء الاصطناعي الظل من مخاطر خفية إلى قدرة محكومة.

مجاني • 5 دقائق

قيّم مخاطر الذكاء الاصطناعي الخفي

20%

من الاختراقات مرتبطة بـ Shadow AI

+670 ألف$

متوسط التكلفة لكل حادث

40%

من الشركات متأثرة بحلول 2026

تقييم المخاطر على 5 أبعاد. التعرض المالي محدد. خارطة طريق EU AI Act مضمنة.

قيّم مخاطري

بدون بريد إلكتروني • نتائج فورية

المصادر

  1. [1]Prompt Security. "State of AI Security Report 2025". Prompt Security, March 20, 2025.
  2. [2]Telus Digital. "GenAI in the Workplace Report". Telus Digital, June 15, 2025.
  3. [3]CyberArk. "Shadow AI: The Hidden Cybersecurity Threat". CyberArk, September 10, 2025.
  4. [4]Gartner. "Managing Shadow AI in the Enterprise". Gartner, August 22, 2025.

مقالات ذات صلة