المؤلف: دينغ جيانبنغ، أستاذ في كلية الحقوق، الجامعة المركزية للمالية والاقتصاد، ومدير مركز التكنولوجيا المالية والبحوث القانونية
نُشرت هذه المقالة لأول مرة في صحيفة العلوم الاجتماعية الصينية
في السنوات الأخيرة، أحدث صعود الذكاء الاصطناعي التوليدي محليًا ودوليًا، متمثلًا في ChatGPT وDeepSeek، تغييرات جذرية في التكنولوجيا، وطرح تحديات جديدة أمام نظام المسؤولية التقصيرية الحالي. تسعى القواعد التنظيمية الحالية إلى توضيح نسب المسؤولية في إطار قانون المسؤولية التقصيرية التقليدي، وذلك بتقسيم عملية التقديم ببساطة إلى "التوفير" و"الاستخدام"، والتركيز على مقدمي خدمات التكنولوجيا كأهداف تنظيمية أساسية. ومع ذلك، ومع تزايد تغلغل التكنولوجيا في مختلف السيناريوهات الصناعية، من الواضح أن هذا التفكير "الثنائي" غير كافٍ. من الضروري التخلي عن النماذج الأكاديمية والأطر التنظيمية الراسخة، وإعادة النظر في منطق تحديد المسؤولية عن انتهاكات الذكاء الاصطناعي. تحافظ "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي" الحالية على هيكل ثنائي لـ"المزودين" و"المستخدمين" ككيانات مسؤولة. ومع ذلك، في سياق التكامل العميق للقطاع، لا يكفي هذا التصنيف لتغطية جميع الكيانات. تتأثر مخرجات الذكاء الاصطناعي التوليدي بعوامل متعددة، بما في ذلك جودة بيانات التدريب، وبنية الخوارزميات، واسترجاع البيانات في الوقت الفعلي، وتعليمات المستخدم. وعلى وجه الخصوص، أصبح القائمون على النشر - أي أولئك الذين يُكيّفون النموذج الأساسي مع سيناريوهات محددة من خلال استدعاءات الواجهة، والنشر المحلي، وتكامل النظام - مؤثرين رئيسيين في المخرجات. فالمُنشرون هم مستخدمون للذكاء الاصطناعي، وفي الوقت نفسه، يستغلونه لتقديم خدمات مهنية أكثر تطورًا. هذا التصنيف المُبسط للكيانات يُطمس نطاق المسؤولية ومعيار العناية المعقولة، مما يؤثر بشكل أكبر على تحديد المسؤولية. على سبيل المثال، قد تُطوّر المؤسسات المالية منتجات استشارية آلية باستخدام نماذج لغوية كبيرة، مع ضبط النماذج بدقة باستخدام بيانات عملائها الخاصة، وتضمين منطق التحكم في المخاطر. إذا أدت المشورة الاستثمارية المُولّدة إلى خسائر فادحة للعملاء، فمن يتحمل المسؤولية؟ من الواضح أن دور المؤسسات المالية التي تنشر النماذج وتُكيّفها مع سيناريوهات محددة يتجاوز مجرد دور "المستخدمين" ويقترب من دور الجهات المُتحكمة المشتركة. يتأثر مخرجات الذكاء الاصطناعي بكلٍّ من النموذج والبيانات، وينبغي توزيع المسؤولية بشكل مناسب بناءً على درجة الخطأ. لذلك، من الضروري تحديد ثلاث فئات من الأطراف المسؤولة: مُقدّمو الخدمات (الذين يُطوّرون النموذج الأساسي ويُوفّرونه)، والمُطبّقون (الذين يُكيّفون السيناريوهات ويُدمجون الأنظمة)، والمستخدمون (الذين يستخدمون المحتوى المُولّد الناتج). ينبغي أن يُعيد القانون صياغة الالتزامات والمسؤوليات بناءً على سيطرتهم ونفوذهم الفعلي، بدلاً من الالتزام الصارم بالتصنيفات التقليدية. معضلة تحديد الخطأ وحلها: يواجه السلوك الضار باستخدام الذكاء الاصطناعي المُولّد عقبات في تحديد الخطأ. يكمن الصراع الأساسي في التوتر بين طبيعة "الصندوق الأسود" للخوارزمية وقابلية التفسير اللازمة للإسناد القانوني. يتطلب قانون المسؤولية التقصيرية التقليدي الحكم على الخطأ الشخصي للفاعل، إلا أن تعدد الأطراف المسؤولة، وغموض عملية اتخاذ القرارات الخوارزمية، وعشوائية الخوارزمية تجعل تحديد القصد أو الإهمال أمرًا بالغ الصعوبة.
ولهذا الغرض، يمكن النظر في المسارات التالية لتخفيف هذه المعضلة: أولًا، الترويج المؤسسي لشفافية الخوارزميات. في المستقبل، يمكن للجهات التنظيمية استخدام القواعد والتوجيهات لإلزام مقدمي الخدمات والجهات المُستخدمة بالإفصاح عن مبادئ تصميم الخوارزميات الأساسية، وأنواع بيانات التدريب، ونطاق الانحراف المحتمل، وتقديم تقارير ملفات الخوارزميات وتقارير الشفافية. ثانيًا، إدخال معايير مقارنة السلوك. من خلال مقارنة مُخرجات محتوى الذكاء الاصطناعي التوليدي بأنظمة مماثلة أو السلوك المتوقع من "الأشخاص العقلاء" في نفس الموقف، يمكن الاستدلال بشكل غير مباشر على وجود خطأ. وأخيرًا، تحليل السلوك التاريخي. باستخدام سجلات النظام وسجلات المخرجات التاريخية، يُفحص ما إذا كان قد ظهر محتوى مُخالف مماثل، أو ما إذا كان قد تم تصحيحه من خلال آلية التغذية الراجعة. إذا أخرج نموذج ما نصوصًا مُخالفة عدة مرات دون تصحيحها، يُمكن افتراض إهمال مُقدم الخدمة. قد لا تُزيل هذه الأساليب "الصندوق الأسود" تمامًا، ولكنها تُمكنها أساسًا من إرساء إطار معقول نسبيًا لافتراض الخطأ في ظل الظروف التقنية الحالية. في سلاسل إنشاء المحتوى التي تضم جهات فاعلة متعددة، غالبًا ما يكون من الصعب على جهة فاعلة واحدة التسبب في ضرر بشكل مُستقل. وينطبق هذا بشكل خاص عندما يكون الذكاء الاصطناعي التوليدي مُتجذرًا بعمق في مجالات مُتخصصة مثل البحث الأكاديمي، أو التمويل، أو الرعاية الصحية. قد يتضمن سلوكه عوامل مُتعددة، بما في ذلك التحيز الخوارزمي، وتلوث البيانات، والنشر غير السليم، والاستخدام الضار. على سبيل المثال، استخدمت منصة استشارات طبية عبر الإنترنت نموذجًا كبيرًا لتقديم توصيات تشخيصية أولية. ونظرًا لاعتماد النموذج المُفرط على البيانات التاريخية المُتاحة، فقد أخطأ مرارًا وتكرارًا في تقدير خطر الإصابة بأمراض القلب والأوعية الدموية لدى فئة سكانية مُحددة، مما أثار دعاوى قضائية مُتعددة. في مثل هذه الحالات، تم تسمية مزود النموذج الأساسي وشركة التكنولوجيا الطبية التي نشرت النموذج محليًا والمنصة التي استخدمت المحتوى المُولّد في النهاية لتقديم تشخيصات مبسطة كمدعى عليهم مشتركين. في هذه الحالة، يصعب تطبيق النموذج التقليدي للمسؤولية الفردية على مثل هذه الانتهاكات الهيكلية. بدلاً من ذلك، يجب تطبيق أنظمة الانتهاك المشترك والمسؤولية المشتركة على نطاق أوسع، لا سيما في المواقف التي يصل فيها المُنشر إلى واجهات بيانات خارجية أو يعدل معلمات النموذج أو يحث المستخدمون بشكل ضار على إنشاء محتوى منتهك. إذا كان مزود الخدمة أو المُنشر على علم أو كان ينبغي أن يكون على علم بالمخاطر ولكنه فشل في اتخاذ تدابير وقائية معقولة، فقد يشكل هذا انتهاكًا مشتركًا. توفر المواد من 1168 إلى 1175 من القانون المدني لبلدي مجموعة غنية من الموارد المؤسسية للانتهاك متعدد الأطراف، والتي يمكن تكييفها لسيناريوهات الذكاء الاصطناعي التوليدي. على سبيل المثال، إذا ارتكبت أطراف متعددة مسؤولة متورطة في الذكاء الاصطناعي التوليدي، بشكل مستقل، أفعالًا ضارة، مسببةً نفس الضرر، وكان كل فعل كافيًا لإحداث الضرر بأكمله، تُطبق المسؤولية التضامنية (المادة 1171 من القانون المدني). إذا ارتكب طرفان أو أكثر أفعالًا ضارة بشكل منفصل، مسببةً نفس الضرر، يتحمل كل طرف المسؤولية المقابلة إذا أمكن تحديد مدى المسؤولية؛ وإذا كان من الصعب تحديد مدى المسؤولية، تُقسّم المسؤولية بالتساوي (المادة 1172 من القانون المدني). في حالة انتهاك الذكاء الاصطناعي التوليدي، ونظرًا لطبيعة المحتوى المُخرج متعدد العوامل، غالبًا ما يكون سيناريو المسؤولية التناسبية للمادة 1172 من القانون المدني أكثر اتساقًا. ومع ذلك، إذا كان لطرف واحد (مثل المُنشئ) سيطرة حاسمة على محتوى المُخرج، فسيظل يتحمل المسؤولية الأساسية. ومع ذلك، يجب أن يكون تطبيق المسؤولية التضامنية حذرًا لتجنب تثبيط الشركات المبتكرة. على سبيل المثال، إذا تم نشر نموذج من قِبل طرف ثالث لكتابة أخبار آلية ونتج عنه قدر كبير من المعلومات الخاطئة، فهل يتحمل المطور الأصلي المسؤولية التضامنية؟ من منظور قابلية التحكم التقني والكفاءة الاقتصادية، ما لم يكن النموذج الأصلي يعاني من عيوب تصميمية واضحة أو ثغرات أمنية معروفة لم تُعالج، ينبغي تجنب التتبع المفرط للمطور الأصلي. باختصار، ينبغي أن يُحقق تعريف مسؤولية الانتهاك توازنًا بين تشجيع الابتكار المؤسسي وحماية المنافع الاجتماعية، وتجنب توريط مطوري نماذج المصدر المفتوح في دعاوى قضائية غير ضرورية. تحويل أسباب الإعفاء: في السنوات الأخيرة، جادل بعض الباحثين بأن الذكاء الاصطناعي التوليدي يُمكنه الامتثال التام لقواعد "الإشعار والإزالة" المتبعة في الخدمات الإلكترونية التقليدية. ومع ذلك، ربما أغفل هؤلاء الباحثون الاختلافات في الطبيعة الاستباقية وغير المتوقعة لتوليد محتوى الذكاء الاصطناعي التوليدي. على سبيل المثال، على منصة برمجيات الرسم بالذكاء الاصطناعي، يُدخل المستخدمون مطالبات نصية لتوليد صور شخصية. إذا أدخل المستخدمون عمدًا اسم شخص آخر وأوصافًا تشهيرية لخداع الذكاء الاصطناعي لتوليد صور مماثلة، فمن المرجح أن يُنتج النظام محتوى مُنتهكًا. في هذه الحالة، إذا أُعفيت منصة برمجيات الرسم بالذكاء الاصطناعي تمامًا من المسؤولية لمجرد حذفها الصورة بعد تلقيها الإشعار، فمن الواضح أنها لا تستطيع تعويض الضرر الذي لحق بالحقوق الشخصية للضحية. لذلك، ينبغي وضع آلية إعفاء محدودة ومتدرجة، تركز على "قدرات التحكم المعقولة" و"الجدوى التقنية". أولًا، إذا أثبت مزود الخدمة أو المُنشئ اتخاذه جميع التدابير المعقولة في ظل الظروف التقنية الحالية (مثل تنظيف البيانات، وتصفية الامتثال، وتحذيرات المخاطر، والمراقبة الفورية، وما إلى ذلك) ومع ذلك لم يتمكن من منع انتهاك محتوى مُنشأ مُعين، فقد يُعفى جزئيًا أو كليًا من المسؤولية. ثانيًا، فعالية آلية التصحيح والملاحظات في الوقت المناسب. إذا أثبت الطرف المسؤول أنه حذف المحتوى المُخالف على الفور أو عدّل النموذج بعد تلقيه الإشعار، فيمكن استخدام ذلك كسبب لتخفيف المسؤولية. وأخيرًا، ينبغي اعتبار فعالية نظام الامتثال عاملًا في الإعفاء من المسؤولية. إذا استطاعت شركات البحث والتطوير التكنولوجي إثبات إرساء عمليات امتثال شاملة والتزمت بدقة بمعايير الصناعة، فيجب تخفيف مسؤوليتها في حال وقوع انتهاكات غير متوقعة. على سبيل المثال، إذا أدخلت الشركات تقنية "التتبع المُولّد" في النماذج الكبيرة، ووفرت شروحًا لمصادر البيانات للمخرجات الرئيسية، فيمكنها الحد بشكل كبير من مخاطر المعلومات الخاطئة ونزاعات حقوق النشر. وينبغي أن تُصبح هذه الابتكارات التكنولوجية عاملًا مهمًا في تخفيف المسؤولية أو الإعفاء منها.