(
MENAFN- Alghad Newspaper)
إبراهيم المبيضين
عمان– رغم الفوائد الكثيرة التي يقدمها الذكاء الاصطناعي للناس عبر تقليل الجهد والتكاليف وزيادة حجم الإنتاجية وتجويد القرارات وغيرها من الميزات إلا أن خبراء يحذرون من مجموعة من التحديات والمخاوف التي يمكن أن تنشأ عن استخدامه أو "إساءة استخدامه"، من بينها خرق خصوصية البيانات والأمن والمراقبة وأخرى ترتبط بإلغاء الوظائف.
وأشار الخبراء إلى مخاوف أخرى متعددة ترتبط باستغلال أنظمة الذكاء الاصطناعي من قبل جهات خبيثة وقراصنة الانترنت، ما قد يعرض الأمن السيبراني أو خصوصية البيانات الشخصية للخطر، في ظل استخدام خمسة مليارات إنسان للإنترنت حول العالم منهم 11 مليونا في الأردن.
وأوضح الخبراء أن هنالك مخاوف أخرى لها علاقة باستخدام الذكاء الاصطناعي في التطبيقات العسكرية، إضافة إلى المخاطر الاخرى هي (مخاطر التحيز والتمييز) عندما تعزز نماذج الذكاء الاصطناعي بشكل غير مقصود التحيزات الموجودة في البيانات التي تم تدريبها عليها، ما يؤدي إلى معاملة غير عادلة للأفراد أو الفئات، خاصة في مجالات مثل التوظيف أو الإقراض أو تطبيق القانون.
ولمواجهة هذه التحديات والمخاوف المرتبطة بالذكاء الاصطناعي اكد الخبراء أهمية وضرورة وضع تشريعات وأطر تنظيمية على مستوى دولي ومحلي لضمان استخدام الذكاء الاصطناعي وتطبيقاته بالشكل الامثل، فضلا عن اهمية وضع إرشادات أخلاقية تشرف على تطوير الذكاء الاصطناعي، لضمان استخدامه بشكل يتماشى مع القيم الإنسانية وحقوق الأفراد.
وأكدوا على اهمية عامل التوعية والتدريب للافراد والمؤسسات، في استخدام الذكاء الاصطناعي وخصوصا لحماية الافراد والمؤسسات من الهجمات السيبرانية التي يمكن ان تنجم عن اساءة استخدامه او عن إتاحة بيانات الناس لقراصنة الانترنت.
ويمكن تعريف الذكاء الاصطناعي على انه مجموعة من الخوارزميات والتقنيات والأنظمة التي تهدف إلى تعليم أجهزة الكمبيوتر والبرمجيات كيفية القيام بمهام تشابه مهام الذكاء البشري، حيث يتيح الذكاء الصناعي لأجهزة الكمبيوتر والأنظمة القدرة على استخدام البيانات والمعرفة لاتخاذ القرارات، وحل المشاكل، وتنفيذ المهام بشكل ذكي ودقيق وسريع، دون الحاجة إلى تدخلٍ بشري.
وفي تعريف آخر يمكن وصف الذكاء الاصطناعي أنه التقنية التي تسمح لجهاز الحاسوب أن يفكر، ويتصرف، ويستجيب كما لو أنه إنسان.
وأكد خبير إستراتيجيات الذكاء الاصطناعي والميتافيرس رامي الدماطي أن ثمة مخاطر وأضرار محتملة يمكن أن تنشأ عن استخدام أو سوء استخدام تقنيات الذكاء الاصطناعي، موضحا أنه يمكن تصنيف هذه المخاطر بشكل عام إلى عدة فئات منها : (مخاطر السلامة) إذ قد تتعطل أنظمة الذكاء الإصطناعي أو تتخذ قرارات غير صحيحة، خاصة في القطاعات الحيوية مثل الرعاية الصحية أو القيادة الذاتية أو الدفاع، ما قد يؤدي إلى أضرار جسدية أو حوادث.
وقال الدماطي "من المخاطر الاخرى هي (مخاطر التحيز والتمييز) عندما تعزز نماذج الذكاء الاصطناعي بشكل غير مقصود التحيزات الموجودة في البيانات التي تم تدريبها عليها، ما يؤدي إلى معاملة غير عادلة للأفراد أو الفئات، خاصة في مجالات مثل التوظيف أو الإقراض أو تطبيق القانون".
واشار الدماطي إلى (مخاطر الأمان) إذ يمكن استغلال أنظمة الذكاء الاصطناعي من قبل جهات خبيثة، بما في ذلك الهجمات التنافسية التي تستغل نقاط الضعف في الأنظمة (مثل التلاعب بالمدخلات لتضليل خوارزميات الذكاء الاصطناعي)، ما قد يعرض الأمن السيبراني أو خصوصية البيانات الشخصية للخطر.
وأكد الدماطي مخاطر اخرى تتعلق بـ(القضايا الأخلاقية) إذ قد تثير تطبيقات الذكاء الاصطناعي، خاصة في مجالات المراقبة واتخاذ القرارات والخصوصية الشخصية، قضايا أخلاقية تتعلق بالموافقة والاستقلالية وحقوق الأفراد.
واشار الدماطي الى (مخاطر الاضطراب الاقتصادي) إذ يمكن أن تؤدي الأتمتة الناتجة عن الذكاء الاصطناعي إلى فقدان الوظائف، مما يؤثر سلبًا على الاقتصادات ويساهم في زيادة التفاوت الاجتماعي.
وبين أن هناك مخاطر تتعلق بـالأنظمة المتقدمة للذكاء الاصطناعي التي تعمل بدون تدخل بشري، مثل الأسلحة المستقلة أو الأنظمة ذات القدرات التعلمية الذاتية، كما ان هنالك مخاطر كبيرة تتعلق بالسلامة والأخلاقيات إذا تصرفت بطرق غير متوقعة أو خارجة عن السيطرة.
ولمواجهة هذه المخاطر المحتملة للذكاء الاصطناعي بين الدماطي أن هنالك حاجة الى تنفيذ استراتيجيات متعددة لضمان أمان وموثوقية هذه الأنظمة.
وقال "هذه الاستراتيجيات يجب ان تشمل توفير حوكمة فعالة للذكاء الاصطناعي وان تكون هناك هيكلية حوكمة شاملة لإدارة مخاطر الذكاء الاصطناعي، مثل معيار ISO/IEC 42001".
وأضاف" يجب إجراء تقييمات دورية للمخاطر المحتملة، مع التأكد من استباق التهديدات التي قد تنشأ عن تشغيل الذكاء الاصطناعي في القطاعات الحيوية" لافتا إلى أهمية التدريب والتوعية وتعزيز ثقافة الأمان للمستخدمين والمطورين حول المخاطر المحتملة والتصرف الأمثل للتعامل معها، مثل التحيزات التي قد تتسلل إلى النماذج المدربة.
واكد الدماطي أهمية تعزيز الشفافية في طريقة عمل أنظمة الذكاء الاصطناعي وتوفير إمكانية تفسير القرارات، لضمان ثقة المستخدمين وصناع القرار في المخرجات التي تقدمها هذه الأنظمة.
وأكد أهمية تطبيق آليات مراقبة وتدقيق خارجي للتأكد من امتثال أنظمة الذكاء الاصطناعي للمعايير المطلوبة ومعالجة أي مشكلات تظهر في أدائها أو قراراتها، وإصدار تشريعات وقوانين صارمة تنظم استخدام الذكاء الاصطناعي وتحدد مسؤوليات المطورين والمستخدمين حيال المخاطر، مثل القوانين المتعلقة بالخصوصية وحقوق الأفراد.
وقال الدماطي "من المهم أن تكون هناك إرشادات أخلاقية تشرف على تطوير الذكاء الاصطناعي، لضمان استخدامه بشكل يتماشى مع القيم الإنسانية وحقوق الأفراد".
من جانبه، أكد الاستشاري التقني الاستراتيجي م.هاني البطش أن الذكاء الاصطناعي " اصبح جزءًا لا يتجزأ من حياتنا اليومية"، وهو يغير الطريقة التي نعيش ونعمل بها، مع قدرته الكبيرة على معالجة كميات هائلة من البيانات واتخاذ قرارات مستنيرة تجعله قوة دافعة وراء الابتكار والتقدم.
وقال البطش "اليوم في ظل تحول كل اعمالنا وتواصلنا عبر الانترنت والتطبيقات الذكية فقد اصبح من الصعب الاستغناء عن هذه التقنية وخصوصا ان كل شيء من حولنا اليوم من هواتف ذكية وتطبيقات واجهزة اصبحت مرتبطة ومزودة بالذكاء الاصطناعي مثل أجهزة التلفاز الحديثة والأجهزة المنزلية والمكتبية واجهزة المراقبة وادارة الطاقة وغيرها من الاجهزة.
وبين البطش أن اهمية الذكاء الاصطناعي تكمن في عدة جوانب منها أتمتة المهام المتكررة، ما يزيد الكفاءة والإنتاجية، ويسمح للبشر بالتركيز على المهام التي تتطلب الإبداع والتفكير النقدي، فضلا عن مساعدته في تحويل البيانات الخام إلى رؤى قيمة، مما يدعم اتخاذ قرارات أكثر دقة وسرعة في مختلف المجالات، من الأعمال إلى الرعاية الصحية الى مختلف القطاعات.
وقال "كل قطاع يمكن أن يستفيد من الذكاء الاصطناعي بطرق مختلفة، ما يعزز الكفاءة، ويقلل التكاليف، ويحسن جودة الخدمات المقدمة" مشيرا الى أن نجاح تطبيق الذكاء الاصطناعي في أي قطاع يعتمد على فهم احتياجات ذلك القطاع وتطوير حلول مخصصة له.
وبين البطش أنه على الرغم من الفوائد الكبيرة التي يقدمها الذكاء الاصطناعي، إلا أنه قد تنجم عنه مجموعة من المخاطر والتحديات التي يجب التعامل معها بحذر.
وقال "من أبرز هذه المخاطر هي فقدان الوظائف، إذ يمكن للذكاء الاصطناعي أتمتة العديد من المهام الروتينية، مما يثير مخاوف بشأن البطالة كما أن التحيز في البيانات المستخدمة لتدريب الأنظمة يمكن أن يؤدي إلى نتائج غير عادلة".
بالإضافة إلى ذلك، قال البطش "جمع وتحليل كميات كبيرة من البيانات الشخصية يطرح تحديات كبيرة فيما يتعلق بالخصوصية والأمن السيبراني، كما ان تطوير الأسلحة المستقلة المعتمدة على الذكاء الاصطناعي يثير مخاوف أخلاقية وقانونية خطيرة".
ولفت الى أن الاعتماد الزائد على الذكاء الاصطناعي في اتخاذ القرارات الحيوية قد يؤدي إلى فقدان السيطرة البشرية وتعرض الأنظمة للاختراق، فضلا عن مخاوف مرتبطة باستخدام الذكاء الاصطناعي لإنشاء محتوى مزيف ومضلل، مما يهدد الثقة في المعلومات ويؤثر على الرأي العام.
وفي سياق متصل اكد الخبير في مجال التقنية والاتصالات وصفي الصفدي ان الذكاء الاصطناعي يعتبر اليوم واحدا من اعمدة التحول الرقمي والاتمتة وهو يساعد في تحسين وتطوير معظم القطاعات الاقتصادية، متوقعا له مزيد من الانتشار والاستخدام خلال السنوات المقبلة.
وعن أهمية الذكاء الاصطناعي واستخدامه في حياتنا اليومية والعملية، استشهد الصفدي بمقولة للرئيس التنفيذي لشركة "انفيديا "- واحدة من كبرى الشركات التقنية العالمية" جنسن هوانغ، والذي صرح سابقا " يجب على الجميع استخدام الذكاء الاصطناعي حتى لا يأتي احد ويأخذ مكانك لانه يستخدم الذكاء الاصطناعي". وقال "من المتوقع ان " يستمر تبني الذكاء الاصطناعي في الارتفاع مع ادراك الشركات والحكومات والافراد لفوائده".
واشار الى ان التوافر المتزايد لادوات الذكاء الاصطناعي والحوسبة السحابية وتحليلات البيانات الضخمة يجعل الذكاء لاصطناعي أكثر استخداما بالنسبة للشركات الصغيرة وحتى المستخدمين الافراد، كما ان ادراج الذكاء الاصطناعي في التكنولوجيا اليومية مثل الهواتف الذكية واجهزة المنزل الذكية وتطبيقات خدمات العملاء يدفع ايضا الى استخدامه على نطاق واسع.
وعلى الرغم من فوائده الكبيرة إلا ان الصفدي ايضا يقول ان الذكاء الصطناعي يثير العديد من المخاوف. وبين ان من المخاوف معضلات اخلاقية تنشأ فيما يتعلق بخصوصية البيانات والامن والمراقبة واشار الى احتمالات ازاحة الوظائف او الغائها بسبب الاتمتة ما قد يتسبب ذلك بتحديات اجتماعية واقتصادية.
وقال الصفدي "هناك مخاطر ترتبط بالتحيز في خوارزميات الذكاء الاصطناعي والذي يمكن ان يعزز التفاوتات المجتمعية اذا كانت البيانات المعتمد عليها غير متوازنة وغير دقيقة".
وأكد أن هنالك ثمة مخاوف مرتبطة باستخدام الذكاء الاصطناعي في التطبيقات العسكرية تثير المخاوف بشأن الاسلحة المستقلة.
ولمواجهة هذه التحديات طرح الصفدي مجموعة من الحلول منها اصدار وتنفيذ اللوائح والمبادئ التوجيهية الاخلاقية لما لها من اهمية بالغة، كما تحتاج الحكومات الى تنفيذ قوانين صارمة لحماية خصوصية البيانات لحماية الافراد
واشار الصفدي الى انه يمكن للشفافية في تطوير الذكاء الاصطناعي ان تساعد في مكافحة التحيز الخوارزمي، فضلا عن اهمية توفير وتنفيذ برامج رفع المهارات واعادة التدريب للافراد والشباب وموظفي الشركات والمؤسسات الحكومية وغير الحكومية على الاستخدام الامثل والامن لانظمة وتطبيقات الذكاء الاصطناعي.
ويشار إلى أن الحكومة وضعت السياسة الاردنية للذكاء الاصطناعي في عام 2020، وهي تمضي اليوم في تنفيذ الاستراتيجية الوطنية للذكاء الاصطناعي 2023 حتى 2027، مع خطة تنفيذية تشمل مجموعة كبيرة من المشاريع في قطاعات متنوعة، كما ان الحكومة وضعت قبل عامين الميثاق الوطني لاخلاقيات الذكاء الصطناعي لضمان استخدامه بالشكل الامثل والامن.
MENAFN29102024000072011014ID1108831852