الخبراء يسعون إلى طريقة لجعل الذكاء الاصطناعي ينسى بعض ما تعلمه
فالخيار القانوني المتمثل في تلويح براين هود في أبريل الفائت برفع دعوى تشهير على شركة «أوبن إيه آي» (منشئة «تشات جبي بي تي») لا يبدو حلاً مناسباً.
كذلك لا يكمن الحلّ في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وقتاً طويلاً وهو مكلف جداً.
ويرى المختصون أن مسألة «إلغاء التعلّم» أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، وخصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.
وتؤكد أستاذة علوم المعلومات في جامعة «آر إم آي تي» في ملبورن ليسا غيفن أن «القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً». لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظرا إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.
ففي ظل الكم الهائل من البيانات التي يُدرَّب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.
واكتسب الموضوع زخما خلال السنوات الثلاث أو الأربع الأخيرة، على ما يوضح لوكالة فرانس برس الباحث الخبير في هذا المجال مقداد كرمانجي من جامعة وارويك البريطانية.
وعملت «جوجل ديب مايند» المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأمريكية الشهر المنصرم مع كورمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي «تشات جي بي تي» و«بارد» (من «جوجل»).
إخلاء المسؤولية القانونية:
تعمل شركة "شبكة الشرق الأوسط
وشمال أفريقيا للخدمات المالية" على توفير المعلومات "كما هي" دون أي
تعهدات أو ضمانات... سواء صريحة أو ضمنية.إذ أن هذا يعد إخلاء لمسؤوليتنا
من ممارسات الخصوصية أو المحتوى الخاص بالمواقع المرفقة ضمن شبكتنا بما
يشمل الصور ومقاطع الفيديو. لأية استفسارات تتعلق باستخدام وإعادة استخدام
مصدر المعلومات هذه يرجى التواصل مع مزود المقال المذكور أعلاه.

Comments
No comment