403
Sorry!!
Error! We're sorry, but the page you were looking for doesn't exist.
التوازن بين الحاجة للبيانات وحماية حقوق الأفراد
(MENAFN- Al Watan)
في ذروة المنافسة العالمية على تطوير نماذج الذكاء الاصطناعي، بخاصة النماذج اللغوية الكبيرة، لم تعد الآليات التي تُجمع بها البيانات مجرد تفاصيل تقنية، بل تحولت إلى ساحة صراع تنظيمي وأخلاقي تتقاطع فيها قضايا الخصوصية والملكية الفكرية والحوكمة الرقمية.
وتأتي وثيقة منظمة التعاون الاقتصادي والتنمية (أكتوبر 2025) لتضع خريطة دقيقة لهذا المشهد، مُصنِّفة آليات جمع البيانات ومسلطة الضوء على فجوة متنامية بين الممارسات الأخلاقية والممارسات التجارية.
وفي عالمٍ تعد فيه البيانات وقوداً حيوياً لصناعة الذكاء الاصطناعي، يبرز سؤال محوري: كيف نوازن بين الحاجة الهائلة للبيانات وحماية حقوق الأفراد؟
البيانات المباشرة
قسمت خريطة OECD آليات جمع البيانات في مستواها الأول إلى البيانات المجمعة مباشرة من الأفراد أو المنظمات، وهي فئة تُبنى على مسارين رئيسين يشكلان الأساس الأولي لتغذية نماذج الذكاء الاصطناعي هما: البيانات المقدمة والبيانات المراقبة.
فالبيانات المقدمة هي تلك التي يشاركها الأفراد طواعية، كتفاعلات المستخدمين مع روبوتات الدردشة أو مساهماتهم في الأنظمة الذكية. أما البيانات المراقبة، فهي التي تُجمع دون تدخل مباشر من المستخدم، عبر تتبع أنشطته في التطبيقات والخدمات الرقمية، خاصة ضمن بيئات الأعمال للمستهلك (B2C).
ويزداد الاعتماد على هذا النوع من البيانات مع توسع شركات التكنولوجيا التي تمتلك منصات ضخمة قادرة على رصد سلوك المستخدمين بشكل دقيق، مما يخلق مخزوناً بياناتياً هائلاً يُستخدم لتدريب النماذج وتحسين أدائها.
لكن هذه البيانات تطرح إشكاليات تتعلق بالشفافية والخصوصية، إذ يجد المستخدمون أنفسهم في كثير من الأحيان غير مدركين لحجم البيانات التي يجري التقاطها واستغلالها.
تبرعات البيانات
ضمن فئة البيانات المباشرة، تبرز آلية التبرعات الطوعية باعتبارها مقاربة جديدة تحمل وعودا مستقبلية. فالاعتماد على تبرع الأفراد أو المؤسسات ببياناتهم يفتح الباب أمام توفير معلومات متنوعة وواقعية تعكس الأنماط البشرية بشكل أفضل.
ورغم أن هذه الممارسات لا تزال في بداياتها، فإنها تمثل مساراً أكثر شفافية وأخلاقية من غيرها، لأنها تمنح الأفراد سلطة فعلية على بياناتهم وتحدد شروط استخدامها مسبقاً.
ومع ذلك، تظل التحديات قائمة، أبرزها القدرة على جمع حجم بيانات كافٍ لتدريب نماذج ضخمة، إضافة إلى ضرورة ضمان عدم استغلال المتبرعين كأصول مجانية في اقتصاد بيانات يزداد ربحية وتعقيداً.
بيانات الطرف الثالث
إذا كانت البيانات المباشرة تعتمد على المستخدمين، فإن وثيقة OECD ترى أن الفئة الثانية تعتمد على الأطراف الأخرى. وهنا تلعب اتفاقيات الترخيص التجاري دوراً محورياً، إذ تلجأ شركات تطوير الذكاء الاصطناعي إلى شراء أو استئجار مجموعات بيانات من منظمات تمتلك قواعد ضخمة ومنظمة.
ويعد هذا الأسلوب من أكثر الآليات احترافاً، خاصة مع نمو أسواق البيانات ووسطاء البيانات الذين يديرون عمليات بيع وتوزيع البيانات كما لو كانت سلعة قابلة للتداول.
ويشكل هذا المجال العمود الفقري لـ((اقتصاد البيانات)) الحديث، لكنه يطرح أيضاً أسئلة حول العدالة، إذ تستطيع الشركات الكبرى شراء كميات هائلة من البيانات، بينما تواجه الشركات الناشئة صعوبة في الوصول إلى نفس الموارد.
الكشط الرقمي
في مقابل هذا النظام التجاري المنظم، تظهر ممارسة أكثر جدلاً: تسمى بـ((كشط البيانات أو Data Scraping)). وهي عملية تشمل سحب بيانات من مواقع الإنترنت سواء كانت منشورات أو تعليقات أو نصوص وصور، وتكون هذه غالباً دون إذن صريح من أصحابها.
ومع توسع الحاجة إلى بيانات ضخمة ومتنوعة، أصبح الكشط الرقمي ممارسة واسعة الانتشار، مما دفع إلى موجة تحقيقات وقضايا قانونية تتهم الشركات بانتهاك حقوق النشر، ومبادئ الخصوصية، وأطر حماية البيانات.
وتتعقد المشكلة أكثر عندما يفقد الأفراد القدرة على تتبع بياناتهم، أو على المطالبة بحذفها أو تصحيحها بعد أن تصبح جزءاً من نماذج الذكاء الاصطناعي.
وبينما تدافع الشركات عن ممارساتها هذه باعتبار أنها استخدام عادل، يرى خبراء الخصوصية القانونيون أن الحاجة إلى البيانات لا ينبغي أن تتحول إلى مبرر لانتهاك الحقوق.
البيانات المفتوحة
في الجهة المقابلة، يأتي نموذج أقل تعقيداً وأكثر شفافية: البيانات المفتوحة.
وتشمل هذه المبادرات البيانات التي ينشرها القطاعان العام والخاص بموجب تراخيص مفتوحة، مما يتيح استخدامها مجاناً لتطوير النماذج وتدريب الأنظمة.
كما يسهم ناشرو مجموعات البيانات في تنسيق وتنظيف وتجهيز البيانات، مما يضيف قيمة كبيرة للمجتمع التقني ولمشاريع الذكاء الاصطناعي المفتوح.
وتعتمد كثير من المشاريع الأكاديمية والتطبيقات الحكومية على هذا النوع من البيانات، الذي يعد ركيزة أساسية لبناء حلول مبتكرة تراعي الشفافية.
تحديات التتبع
يرى تقنيون وقانونيون أنه مع هذا التنوع الكبير في مصادر وآليات جمع البيانات، تصبح حوكمة البيانات التحدي الأكبر أمام المشرعين.
فالقوانين الجديدة حول العالم من قانون الذكاء الاصطناعي الأوروبي مروراً بالتشريعات الكورية والبرازيلية واليابانية جميعها تضع شرطاً جوهريا وهو: تتبع البيانات من المصدر إلى الاستخدام.
وهذا الشرط يهدف إلى التحقق من جودة البيانات وتقليل التحيز وتفادي النتائج غير المتوقعة التي قد تنتج عن أخطاء أو انحيازات في مجموعات التدريب.
ويعد التتبع الدقيق خطوة أساسية لضمان بناء أنظمة ذكاء اصطناعي جديرة بالثقة وتتماشى مع معايير الامتثال العالمية.
حلول معززة
تشير منظمة التعاون الاقتصادي والتنمية إلى أن التقنيات المعززة للخصوصية أو PETs تقدم حلولًا عملية لتحقيق التوازن بين الحاجة إلى البيانات وحماية الحقوق.
وتشمل هذه التقنيات بيئات معالجة آمنة قادرة على استخدام البيانات دون كشفها، مما يقلل الأخطار المتعلقة بالخصوصية والملكية الفكرية.
ويمكن لهذه الأدوات أن تمهد الطريق لنموذج جديد من الحوكمة المبنية على الشفافية والمساءلة، يضمن استمرار الابتكار دون المساس بحقوق الأفراد.
وتأتي وثيقة منظمة التعاون الاقتصادي والتنمية (أكتوبر 2025) لتضع خريطة دقيقة لهذا المشهد، مُصنِّفة آليات جمع البيانات ومسلطة الضوء على فجوة متنامية بين الممارسات الأخلاقية والممارسات التجارية.
وفي عالمٍ تعد فيه البيانات وقوداً حيوياً لصناعة الذكاء الاصطناعي، يبرز سؤال محوري: كيف نوازن بين الحاجة الهائلة للبيانات وحماية حقوق الأفراد؟
البيانات المباشرة
قسمت خريطة OECD آليات جمع البيانات في مستواها الأول إلى البيانات المجمعة مباشرة من الأفراد أو المنظمات، وهي فئة تُبنى على مسارين رئيسين يشكلان الأساس الأولي لتغذية نماذج الذكاء الاصطناعي هما: البيانات المقدمة والبيانات المراقبة.
فالبيانات المقدمة هي تلك التي يشاركها الأفراد طواعية، كتفاعلات المستخدمين مع روبوتات الدردشة أو مساهماتهم في الأنظمة الذكية. أما البيانات المراقبة، فهي التي تُجمع دون تدخل مباشر من المستخدم، عبر تتبع أنشطته في التطبيقات والخدمات الرقمية، خاصة ضمن بيئات الأعمال للمستهلك (B2C).
ويزداد الاعتماد على هذا النوع من البيانات مع توسع شركات التكنولوجيا التي تمتلك منصات ضخمة قادرة على رصد سلوك المستخدمين بشكل دقيق، مما يخلق مخزوناً بياناتياً هائلاً يُستخدم لتدريب النماذج وتحسين أدائها.
لكن هذه البيانات تطرح إشكاليات تتعلق بالشفافية والخصوصية، إذ يجد المستخدمون أنفسهم في كثير من الأحيان غير مدركين لحجم البيانات التي يجري التقاطها واستغلالها.
تبرعات البيانات
ضمن فئة البيانات المباشرة، تبرز آلية التبرعات الطوعية باعتبارها مقاربة جديدة تحمل وعودا مستقبلية. فالاعتماد على تبرع الأفراد أو المؤسسات ببياناتهم يفتح الباب أمام توفير معلومات متنوعة وواقعية تعكس الأنماط البشرية بشكل أفضل.
ورغم أن هذه الممارسات لا تزال في بداياتها، فإنها تمثل مساراً أكثر شفافية وأخلاقية من غيرها، لأنها تمنح الأفراد سلطة فعلية على بياناتهم وتحدد شروط استخدامها مسبقاً.
ومع ذلك، تظل التحديات قائمة، أبرزها القدرة على جمع حجم بيانات كافٍ لتدريب نماذج ضخمة، إضافة إلى ضرورة ضمان عدم استغلال المتبرعين كأصول مجانية في اقتصاد بيانات يزداد ربحية وتعقيداً.
بيانات الطرف الثالث
إذا كانت البيانات المباشرة تعتمد على المستخدمين، فإن وثيقة OECD ترى أن الفئة الثانية تعتمد على الأطراف الأخرى. وهنا تلعب اتفاقيات الترخيص التجاري دوراً محورياً، إذ تلجأ شركات تطوير الذكاء الاصطناعي إلى شراء أو استئجار مجموعات بيانات من منظمات تمتلك قواعد ضخمة ومنظمة.
ويعد هذا الأسلوب من أكثر الآليات احترافاً، خاصة مع نمو أسواق البيانات ووسطاء البيانات الذين يديرون عمليات بيع وتوزيع البيانات كما لو كانت سلعة قابلة للتداول.
ويشكل هذا المجال العمود الفقري لـ((اقتصاد البيانات)) الحديث، لكنه يطرح أيضاً أسئلة حول العدالة، إذ تستطيع الشركات الكبرى شراء كميات هائلة من البيانات، بينما تواجه الشركات الناشئة صعوبة في الوصول إلى نفس الموارد.
الكشط الرقمي
في مقابل هذا النظام التجاري المنظم، تظهر ممارسة أكثر جدلاً: تسمى بـ((كشط البيانات أو Data Scraping)). وهي عملية تشمل سحب بيانات من مواقع الإنترنت سواء كانت منشورات أو تعليقات أو نصوص وصور، وتكون هذه غالباً دون إذن صريح من أصحابها.
ومع توسع الحاجة إلى بيانات ضخمة ومتنوعة، أصبح الكشط الرقمي ممارسة واسعة الانتشار، مما دفع إلى موجة تحقيقات وقضايا قانونية تتهم الشركات بانتهاك حقوق النشر، ومبادئ الخصوصية، وأطر حماية البيانات.
وتتعقد المشكلة أكثر عندما يفقد الأفراد القدرة على تتبع بياناتهم، أو على المطالبة بحذفها أو تصحيحها بعد أن تصبح جزءاً من نماذج الذكاء الاصطناعي.
وبينما تدافع الشركات عن ممارساتها هذه باعتبار أنها استخدام عادل، يرى خبراء الخصوصية القانونيون أن الحاجة إلى البيانات لا ينبغي أن تتحول إلى مبرر لانتهاك الحقوق.
البيانات المفتوحة
في الجهة المقابلة، يأتي نموذج أقل تعقيداً وأكثر شفافية: البيانات المفتوحة.
وتشمل هذه المبادرات البيانات التي ينشرها القطاعان العام والخاص بموجب تراخيص مفتوحة، مما يتيح استخدامها مجاناً لتطوير النماذج وتدريب الأنظمة.
كما يسهم ناشرو مجموعات البيانات في تنسيق وتنظيف وتجهيز البيانات، مما يضيف قيمة كبيرة للمجتمع التقني ولمشاريع الذكاء الاصطناعي المفتوح.
وتعتمد كثير من المشاريع الأكاديمية والتطبيقات الحكومية على هذا النوع من البيانات، الذي يعد ركيزة أساسية لبناء حلول مبتكرة تراعي الشفافية.
تحديات التتبع
يرى تقنيون وقانونيون أنه مع هذا التنوع الكبير في مصادر وآليات جمع البيانات، تصبح حوكمة البيانات التحدي الأكبر أمام المشرعين.
فالقوانين الجديدة حول العالم من قانون الذكاء الاصطناعي الأوروبي مروراً بالتشريعات الكورية والبرازيلية واليابانية جميعها تضع شرطاً جوهريا وهو: تتبع البيانات من المصدر إلى الاستخدام.
وهذا الشرط يهدف إلى التحقق من جودة البيانات وتقليل التحيز وتفادي النتائج غير المتوقعة التي قد تنتج عن أخطاء أو انحيازات في مجموعات التدريب.
ويعد التتبع الدقيق خطوة أساسية لضمان بناء أنظمة ذكاء اصطناعي جديرة بالثقة وتتماشى مع معايير الامتثال العالمية.
حلول معززة
تشير منظمة التعاون الاقتصادي والتنمية إلى أن التقنيات المعززة للخصوصية أو PETs تقدم حلولًا عملية لتحقيق التوازن بين الحاجة إلى البيانات وحماية الحقوق.
وتشمل هذه التقنيات بيئات معالجة آمنة قادرة على استخدام البيانات دون كشفها، مما يقلل الأخطار المتعلقة بالخصوصية والملكية الفكرية.
ويمكن لهذه الأدوات أن تمهد الطريق لنموذج جديد من الحوكمة المبنية على الشفافية والمساءلة، يضمن استمرار الابتكار دون المساس بحقوق الأفراد.
إخلاء المسؤولية القانونية:
تعمل شركة "شبكة الشرق الأوسط
وشمال أفريقيا للخدمات المالية" على توفير المعلومات "كما هي" دون أي
تعهدات أو ضمانات... سواء صريحة أو ضمنية.إذ أن هذا يعد إخلاء لمسؤوليتنا
من ممارسات الخصوصية أو المحتوى الخاص بالمواقع المرفقة ضمن شبكتنا بما
يشمل الصور ومقاطع الفيديو. لأية استفسارات تتعلق باستخدام وإعادة استخدام
مصدر المعلومات هذه يرجى التواصل مع مزود المقال المذكور أعلاه.

Comments
No comment