
403
Sorry!!
Error! We're sorry, but the page you were looking for doesn't exist.
كاسبرسكي: 83% من الموظفين في السعودية يستخدمون الذكاء الاصطناعي
(MENAFN- Golin Mena) كاسبرسكي: 83% من الموظفين في السعودية يستخدمون الذكاء الاصطناعي
الرياض، المملكة العربية السعودية – الأربعاء، 22 أكتوبر 2025 – أجرت كاسبرسكي دراسة حديثة عنوانها «الأمن السيبراني في العمل: معارف الموظفين وسلوكياتهم»، وقد شملت المملكة العربية السعودية، وبينت نتائجها أنّ 83% من الموظفين المشمولين بالاستطلاع يستخدمون أدوات الذكاء الاصطناعي في مهام العمل. لكن لم يتلقّ إلا 45% من أولئك الموظفين تدريبات على جوانب الأمن السيبراني المرتبطة بالذكاء الاصطناعي، التي تعرف بأنها من العناصر الجوهرية للحماية من أخطار استخدام الذكاء الاصطناعي، بدءاً من تسريب البيانات وانتهاء بعمليات حقن أوامر الذكاء الاصطناعي الخبيثة.
أشار 92% من المشاركين في المملكة العربية السعودية إلى إدراكهم معنى مصطلح «الذكاء الاصطناعي التوليدي»، وقد تجاوزت هذه المعرفة الجوانب النظرية؛ إذ باتت أدوات الذكاء الاصطناعي جزءاً جوهرياً من حياتهم اليومية. يستخدم 83% من المشاركين أدوات الذكاء الاصطناعي في أعمالهم؛ سواء لكتابة النصوص وتحريرها 63%، أو في كتابة رسائل البريد الإلكتروني المرتبطة بالعمل 51%، أو في إنشاء صور وفيديوهات باستخدام الذكاء الاصطناعي 50%، أو في تحليل البيانات 59%.
وأظهر الاستطلاع فجوة خطيرة في جاهزية الموظفين للتعامل مع أخطار الذكاء الاصطناعي؛ إذ أفاد 26% من الموظفين بعدم حصولهم على أي تدريب مرتبط بالذكاء الاصطناعي. أما الموظفون الذين حضروا دورات تدريبية بهذا المجال، فأشار 53% منهم إلى أنّ تلك الدورات ركزت على طريقة استخدام أدوات الذكاء الاصطناعي بفعالية وإنشاء الأوامر، أما الموظفون الذين تدربوا على جوانب الأمن السيبراني المرتبطة باستخدام الذكاء الاصطناعي فاقتصرت نسبتهم على 45% فقط.
صحيح أنّ أدوات الذكاء الاصطناعي، التي تفيد في أتمتة المهام اليومية، شاعت كثيراً في المؤسسات، غير أنها جزء من «تكنولوجيا معلومات الظل»، لا سيما إذا استخدمها الموظفون دون توجيه من الشركة. وفي هذا الصدد قال 72% من المشاركين إنّ استخدام أدوات الذكاء الاصطناعي التوليدي مسموح في عملهم، بينما أقر 20% بعدم السماح بها، في حين أبدى 8% عدم يقينهم من قرار شركتهم بشأنها.
إذا أرادت الشركات أن يكون استخدام موظفيها للذكاء الاصطناعي أكثر أماناً وشفافية، فعليها تطبيق سياسة شاملة على مستوى الشركة كافة بشأن هذه المسألة. فتمنع هذه السياسة استخدام الذكاء الاصطناعي في وظائف معينة ولأنواع معينة من البيانات، وتستطيع تنظيم أدوات الذكاء الاصطناعي المتاحة للموظفين، فتسمح حصراً باستخدام الأدوات من القائمة المعتمدة في الشركة. ولا بد من توثيق هذه السياسة رسمياً، وعلى الموظفين تلقي التدريب المناسب فيها. وبعدما تضع الشركات قائمة بإجراءات السلامة الرقمية وضوابطها، ينبغي لها مراقبة استخدام الذكاء الاصطناعي، وتحديد الخدمات الشائعة، وتوظيف هذه المعلومات لتخطيط الإجراءات المستقبلية وتحسين تدابيرها الأمنية.
يعلق على هذه المسألة محمد هاشم، المدير العام لدى كاسبرسكي في المملكة العربية السعودية والبحرين: «لا يبدو المنع التام أو الحرية المطلقة حليّن فعّالين فيما يتعلق باستخدام الذكاء الاصطناعي ضمن الشركات. فالنهج المتوازن يقتضي وضع سياسة تتيح للموظفين مستويات مختلفة من الوصول إلى الذكاء الاصطناعي وفقاً لنوع البيانات التي تتعامل معها إدارات الشركة المختلفة. وإذا اقترن هذا النهج بالتدريب المناسب والفعال، فسيعزز مستويات الكفاءة والمرونة، ويكفل استخدام الذكاء الاصطناعي بطريقة آمنة».
توصي كاسبرسكي المؤسسات باتباع التدابير التالية لضمان استخدام الذكاء الاصطناعي بأمان وثقة:
· احرص على تدريب الموظفين على الاستخدام المسؤول للذكاء الاصطناعي. وتعزز دورات أمن الذكاء الاصطناعي التدريبية، المتاحة في منصة كاسبرسكي للتوعية الأمنية، البرامج التعليمية في الشركات بتدريبات متخصصة.
· زوّد متخصصي تكنولوجيا المعلومات بالمعارف اللازمة بخصوص تقنيات استغلال الثغرات واستراتيجيات الدفاع العملية. وتقدم كاسبرسكي تدريب «أمن النماذج اللغوية الكبيرة» ضمن مجموعتها لتدريبات الأمن السيبراني، وهو إلى ذلك يعزز التطور المهني والأمن السيبراني الشامل للمؤسسة.
· تأكد من تثبيت الموظفين لحلٍ للأمن السيبراني في أجهزتهم الشخصية والمهنية التي يستخدمونها للوصول إلى بيانات الأعمال. تحمي منتجات Kaspersky Next المستخدمين من مجموعة متنوعة من التهديدات، مثل التصيد الاحتيالي أو تثبيت أدوات ذكاء اصطناعي وهمية، لا سيما أنّ الوقت الحالي يشهد تنامياً في أعداد المجرمين الذين يدمجون برمجيات سرقة المعلومات في تطبيقات الذكاء الاصطناعي الوهمية.
· احرص على تنفيذ استطلاعات منتظمة لمراقبة وتيرة استخدام الذكاء الاصطناعي والمهام المرتبطة به.
· استخدم وكيلَ ذكاء اصطناعي متخصصاً يتولى تصفية استعلامات الموظفين آنياً لإزالة بعض البيانات الحساسة مثل (الأسماء أو معرفات العملاء)، ويطبق نظام التحكم المعتمد على الدور الوظيفي لمنع حالات الوصول غير المصرح بها.
· أنشئ سياسة شاملة تتناول مجموعة الأخطار المتعلقة بالذكاء الاصطناعي. يمكنك الاستفادة من إرشادات كاسبرسكي للتطبيق الآمن للذكاء الاصطناعي.
*أجرت وكالة تولونا للأبحاث هذا الاستطلاع عام 2025 بطلب من كاسبرسكي. وتضمنت عينة الدراسة إجراء 2,800 مقابلة مرئية عبر الإنترنت مع موظفين وأرباب أعمال يستخدمون الحواسيب في عملهم ضمن 7 دول هي: تركيا، وجنوب إفريقيا، وكينيا، وباكستان، ومصر، والمملكة العربية السعودية، ودولة الإمارات العربية المتحدة.
-انتهى-
الرياض، المملكة العربية السعودية – الأربعاء، 22 أكتوبر 2025 – أجرت كاسبرسكي دراسة حديثة عنوانها «الأمن السيبراني في العمل: معارف الموظفين وسلوكياتهم»، وقد شملت المملكة العربية السعودية، وبينت نتائجها أنّ 83% من الموظفين المشمولين بالاستطلاع يستخدمون أدوات الذكاء الاصطناعي في مهام العمل. لكن لم يتلقّ إلا 45% من أولئك الموظفين تدريبات على جوانب الأمن السيبراني المرتبطة بالذكاء الاصطناعي، التي تعرف بأنها من العناصر الجوهرية للحماية من أخطار استخدام الذكاء الاصطناعي، بدءاً من تسريب البيانات وانتهاء بعمليات حقن أوامر الذكاء الاصطناعي الخبيثة.
أشار 92% من المشاركين في المملكة العربية السعودية إلى إدراكهم معنى مصطلح «الذكاء الاصطناعي التوليدي»، وقد تجاوزت هذه المعرفة الجوانب النظرية؛ إذ باتت أدوات الذكاء الاصطناعي جزءاً جوهرياً من حياتهم اليومية. يستخدم 83% من المشاركين أدوات الذكاء الاصطناعي في أعمالهم؛ سواء لكتابة النصوص وتحريرها 63%، أو في كتابة رسائل البريد الإلكتروني المرتبطة بالعمل 51%، أو في إنشاء صور وفيديوهات باستخدام الذكاء الاصطناعي 50%، أو في تحليل البيانات 59%.
وأظهر الاستطلاع فجوة خطيرة في جاهزية الموظفين للتعامل مع أخطار الذكاء الاصطناعي؛ إذ أفاد 26% من الموظفين بعدم حصولهم على أي تدريب مرتبط بالذكاء الاصطناعي. أما الموظفون الذين حضروا دورات تدريبية بهذا المجال، فأشار 53% منهم إلى أنّ تلك الدورات ركزت على طريقة استخدام أدوات الذكاء الاصطناعي بفعالية وإنشاء الأوامر، أما الموظفون الذين تدربوا على جوانب الأمن السيبراني المرتبطة باستخدام الذكاء الاصطناعي فاقتصرت نسبتهم على 45% فقط.
صحيح أنّ أدوات الذكاء الاصطناعي، التي تفيد في أتمتة المهام اليومية، شاعت كثيراً في المؤسسات، غير أنها جزء من «تكنولوجيا معلومات الظل»، لا سيما إذا استخدمها الموظفون دون توجيه من الشركة. وفي هذا الصدد قال 72% من المشاركين إنّ استخدام أدوات الذكاء الاصطناعي التوليدي مسموح في عملهم، بينما أقر 20% بعدم السماح بها، في حين أبدى 8% عدم يقينهم من قرار شركتهم بشأنها.
إذا أرادت الشركات أن يكون استخدام موظفيها للذكاء الاصطناعي أكثر أماناً وشفافية، فعليها تطبيق سياسة شاملة على مستوى الشركة كافة بشأن هذه المسألة. فتمنع هذه السياسة استخدام الذكاء الاصطناعي في وظائف معينة ولأنواع معينة من البيانات، وتستطيع تنظيم أدوات الذكاء الاصطناعي المتاحة للموظفين، فتسمح حصراً باستخدام الأدوات من القائمة المعتمدة في الشركة. ولا بد من توثيق هذه السياسة رسمياً، وعلى الموظفين تلقي التدريب المناسب فيها. وبعدما تضع الشركات قائمة بإجراءات السلامة الرقمية وضوابطها، ينبغي لها مراقبة استخدام الذكاء الاصطناعي، وتحديد الخدمات الشائعة، وتوظيف هذه المعلومات لتخطيط الإجراءات المستقبلية وتحسين تدابيرها الأمنية.
يعلق على هذه المسألة محمد هاشم، المدير العام لدى كاسبرسكي في المملكة العربية السعودية والبحرين: «لا يبدو المنع التام أو الحرية المطلقة حليّن فعّالين فيما يتعلق باستخدام الذكاء الاصطناعي ضمن الشركات. فالنهج المتوازن يقتضي وضع سياسة تتيح للموظفين مستويات مختلفة من الوصول إلى الذكاء الاصطناعي وفقاً لنوع البيانات التي تتعامل معها إدارات الشركة المختلفة. وإذا اقترن هذا النهج بالتدريب المناسب والفعال، فسيعزز مستويات الكفاءة والمرونة، ويكفل استخدام الذكاء الاصطناعي بطريقة آمنة».
توصي كاسبرسكي المؤسسات باتباع التدابير التالية لضمان استخدام الذكاء الاصطناعي بأمان وثقة:
· احرص على تدريب الموظفين على الاستخدام المسؤول للذكاء الاصطناعي. وتعزز دورات أمن الذكاء الاصطناعي التدريبية، المتاحة في منصة كاسبرسكي للتوعية الأمنية، البرامج التعليمية في الشركات بتدريبات متخصصة.
· زوّد متخصصي تكنولوجيا المعلومات بالمعارف اللازمة بخصوص تقنيات استغلال الثغرات واستراتيجيات الدفاع العملية. وتقدم كاسبرسكي تدريب «أمن النماذج اللغوية الكبيرة» ضمن مجموعتها لتدريبات الأمن السيبراني، وهو إلى ذلك يعزز التطور المهني والأمن السيبراني الشامل للمؤسسة.
· تأكد من تثبيت الموظفين لحلٍ للأمن السيبراني في أجهزتهم الشخصية والمهنية التي يستخدمونها للوصول إلى بيانات الأعمال. تحمي منتجات Kaspersky Next المستخدمين من مجموعة متنوعة من التهديدات، مثل التصيد الاحتيالي أو تثبيت أدوات ذكاء اصطناعي وهمية، لا سيما أنّ الوقت الحالي يشهد تنامياً في أعداد المجرمين الذين يدمجون برمجيات سرقة المعلومات في تطبيقات الذكاء الاصطناعي الوهمية.
· احرص على تنفيذ استطلاعات منتظمة لمراقبة وتيرة استخدام الذكاء الاصطناعي والمهام المرتبطة به.
· استخدم وكيلَ ذكاء اصطناعي متخصصاً يتولى تصفية استعلامات الموظفين آنياً لإزالة بعض البيانات الحساسة مثل (الأسماء أو معرفات العملاء)، ويطبق نظام التحكم المعتمد على الدور الوظيفي لمنع حالات الوصول غير المصرح بها.
· أنشئ سياسة شاملة تتناول مجموعة الأخطار المتعلقة بالذكاء الاصطناعي. يمكنك الاستفادة من إرشادات كاسبرسكي للتطبيق الآمن للذكاء الاصطناعي.
*أجرت وكالة تولونا للأبحاث هذا الاستطلاع عام 2025 بطلب من كاسبرسكي. وتضمنت عينة الدراسة إجراء 2,800 مقابلة مرئية عبر الإنترنت مع موظفين وأرباب أعمال يستخدمون الحواسيب في عملهم ضمن 7 دول هي: تركيا، وجنوب إفريقيا، وكينيا، وباكستان، ومصر، والمملكة العربية السعودية، ودولة الإمارات العربية المتحدة.
-انتهى-
إخلاء المسؤولية القانونية:
تعمل شركة "شبكة الشرق الأوسط
وشمال أفريقيا للخدمات المالية" على توفير المعلومات "كما هي" دون أي
تعهدات أو ضمانات... سواء صريحة أو ضمنية.إذ أن هذا يعد إخلاء لمسؤوليتنا
من ممارسات الخصوصية أو المحتوى الخاص بالمواقع المرفقة ضمن شبكتنا بما
يشمل الصور ومقاطع الفيديو. لأية استفسارات تتعلق باستخدام وإعادة استخدام
مصدر المعلومات هذه يرجى التواصل مع مزود المقال المذكور أعلاه.
الأخبار الأكثر تداولاً
لغز الأعماق.. لماذا تنمو أسنان القرش الشبح على جباهها؟...