Tác giả: Deng Jianpeng, Giáo sư Khoa Luật, Đại học Tài chính và Kinh tế Trung ương, kiêm Giám đốc Trung tâm Công nghệ Tài chính và Nghiên cứu Pháp lý
Bài viết này được đăng lần đầu trên Nhật báo Khoa học Xã hội Trung Quốc
Trong những năm gần đây, sự trỗi dậy của AI tạo sinh trong và ngoài nước, đại diện là ChatGPT và DeepSeek, đã gây ra những thay đổi đột phá về công nghệ và mang đến những thách thức mới cho hệ thống trách nhiệm bồi thường thiệt hại ngoài hợp đồng hiện hành. Các quy định hiện hành cố gắng làm rõ việc quy trách nhiệm trong khuôn khổ luật bồi thường thiệt hại ngoài hợp đồng truyền thống, chỉ đơn giản là chia quy trình đăng ký thành "cung cấp" và "sử dụng" và tập trung vào các nhà cung cấp dịch vụ công nghệ làm mục tiêu điều chỉnh cốt lõi. Tuy nhiên, khi công nghệ ngày càng thâm nhập vào nhiều lĩnh vực công nghiệp khác nhau, tư duy "phân đôi" này rõ ràng là không đủ. Việc thoát khỏi các khuôn mẫu học thuật và khuôn khổ pháp lý đã được thiết lập và xem xét lại logic của việc xác định trách nhiệm bồi thường thiệt hại ngoài hợp đồng đối với hành vi vi phạm AI là hết sức cấp thiết. "Các biện pháp tạm thời cho việc quản lý dịch vụ trí tuệ nhân tạo tạo sinh" hiện hành duy trì cấu trúc nhị phân gồm "nhà cung cấp" và "người dùng" là các thực thể chịu trách nhiệm. Tuy nhiên, trong bối cảnh hội nhập sâu rộng của ngành, cách phân loại này là không đủ để bao quát tất cả các thực thể. Kết quả đầu ra của AI tạo sinh bị ảnh hưởng bởi nhiều yếu tố, bao gồm chất lượng dữ liệu đào tạo, kiến trúc thuật toán, truy xuất dữ liệu thời gian thực và hướng dẫn người dùng. Đặc biệt, các bên triển khai - những người điều chỉnh mô hình cơ bản cho các tình huống cụ thể thông qua các lệnh gọi giao diện, triển khai cục bộ và tích hợp hệ thống - đã trở thành những yếu tố ảnh hưởng chính đến kết quả đầu ra. Các bên triển khai vừa là người dùng AI, vừa tận dụng AI để cung cấp các dịch vụ chuyên nghiệp phức tạp hơn. Cách phân loại thực thể đơn giản này làm mờ phạm vi trách nhiệm pháp lý và tiêu chuẩn chăm sóc hợp lý, từ đó tác động thêm đến việc xác định trách nhiệm pháp lý. Ví dụ: các tổ chức tài chính có thể phát triển các sản phẩm tư vấn robot bằng cách sử dụng các mô hình ngôn ngữ lớn, tinh chỉnh các mô hình với dữ liệu khách hàng của riêng họ và nhúng logic kiểm soát rủi ro. Nếu lời khuyên đầu tư được tạo ra dẫn đến tổn thất đáng kể cho khách hàng, ai sẽ chịu trách nhiệm? Rõ ràng, vai trò của các tổ chức tài chính triển khai mô hình và điều chỉnh chúng cho phù hợp với các tình huống cụ thể vượt xa vai trò đơn thuần là "người dùng" và gần gũi hơn với vai trò của các bên đồng kiểm soát. Kết quả đầu ra của AI chịu ảnh hưởng của cả mô hình và dữ liệu, và trách nhiệm pháp lý cần được phân bổ phù hợp dựa trên mức độ lỗi. Do đó, cần thiết lập ba nhóm bên chịu trách nhiệm: nhà cung cấp dịch vụ (phát triển và cung cấp mô hình nền tảng), bên triển khai (điều chỉnh kịch bản và tích hợp hệ thống) và bên sử dụng (sử dụng nội dung được tạo ra). Luật nên tái cấu trúc các nghĩa vụ và trách nhiệm dựa trên sự kiểm soát và ảnh hưởng thực tế của họ, thay vì tuân thủ cứng nhắc các phân loại truyền thống. Thế tiến thoái lưỡng nan trong việc xác định lỗi và giải pháp: Hành vi vi phạm pháp luật sử dụng AI tạo ra gặp phải những trở ngại trong việc xác định lỗi. Mâu thuẫn cốt lõi nằm ở sự căng thẳng giữa bản chất "hộp đen" của thuật toán và khả năng giải thích cần thiết để quy kết trách nhiệm pháp lý. Luật bồi thường thiệt hại ngoài hợp đồng truyền thống yêu cầu phải đánh giá lỗi chủ quan của chủ thể, nhưng việc có nhiều bên chịu trách nhiệm, sự thiếu minh bạch trong việc ra quyết định của thuật toán và tính ngẫu nhiên của thuật toán khiến việc xác định lỗi cố ý hay sơ suất trở nên cực kỳ khó khăn.
Để đạt được mục tiêu này, có thể xem xét các hướng đi sau đây để giảm bớt tình trạng tiến thoái lưỡng nan này: Thứ nhất, thúc đẩy tính minh bạch của thuật toán trong phạm vi thể chế. Trong tương lai, các cơ quan quản lý có thể sử dụng các quy tắc và hướng dẫn để yêu cầu các nhà cung cấp dịch vụ và đơn vị triển khai công bố các nguyên tắc thiết kế của các thuật toán cơ bản, các loại dữ liệu đào tạo và phạm vi sai lệch có thể có, đồng thời nộp báo cáo nộp thuật toán và báo cáo minh bạch. Thứ hai là giới thiệu các tiêu chuẩn so sánh hành vi. Bằng cách so sánh nội dung đầu ra của trí tuệ nhân tạo tạo sinh với các hệ thống tương tự hoặc hành vi dự kiến của "những người bình thường" trong cùng một tình huống, có thể gián tiếp suy ra liệu nó có lỗi hay không. Cuối cùng, phân tích hành vi lịch sử. Với sự trợ giúp của nhật ký hệ thống và hồ sơ đầu ra lịch sử, có thể kiểm tra xem nội dung vi phạm tương tự đã xuất hiện hay chưa, hoặc liệu nó đã được sửa thông qua cơ chế phản hồi hay chưa. Nếu một mô hình đưa ra các văn bản vi phạm nhiều lần nhưng không được sửa, có thể suy đoán rằng nhà cung cấp dịch vụ đã sơ suất. Các phương pháp này có thể không mở hoàn toàn "hộp đen", nhưng về cơ bản chúng có thể thiết lập một khuôn khổ giả định lỗi tương đối hợp lý trong các điều kiện kỹ thuật hiện có. Trong các chuỗi sáng tạo nội dung liên quan đến nhiều tác nhân, một tác nhân đơn lẻ thường khó có thể tự mình gây ra thiệt hại. Điều này đặc biệt đúng khi AI tạo sinh được nhúng sâu vào các lĩnh vực chuyên môn như nghiên cứu học thuật, tài chính hoặc chăm sóc sức khỏe. Hành vi của nó có thể liên quan đến nhiều yếu tố, bao gồm sai lệch thuật toán, ô nhiễm dữ liệu, triển khai không đúng cách và sử dụng có mục đích xấu. Ví dụ: một nền tảng tư vấn y tế trực tuyến đã sử dụng một mô hình lớn để đưa ra khuyến nghị chẩn đoán sơ bộ. Do mô hình quá phụ thuộc vào dữ liệu lịch sử hiện có, nó đã liên tục đánh giá sai nguy cơ mắc bệnh tim mạch ở một nhóm dân số cụ thể, gây ra nhiều vụ kiện. Trong những trường hợp như vậy, nhà cung cấp mô hình cơ sở, công ty công nghệ y tế đã triển khai mô hình tại địa phương và nền tảng cuối cùng sử dụng nội dung được tạo ra để cung cấp chẩn đoán đơn giản hóa đều được nêu tên là đồng bị đơn. Trong trường hợp này, mô hình trách nhiệm cá nhân truyền thống khó áp dụng cho các vi phạm cấu trúc như vậy. Thay vào đó, các hệ thống vi phạm và trách nhiệm chung nên được áp dụng rộng rãi hơn, đặc biệt là trong các trường hợp người triển khai truy cập vào giao diện dữ liệu bên ngoài, sửa đổi các tham số của mô hình hoặc người dùng cố ý tạo ra nội dung vi phạm. Nếu nhà cung cấp dịch vụ hoặc bên triển khai biết hoặc đáng lẽ phải biết về các rủi ro nhưng không thực hiện các biện pháp phòng ngừa hợp lý, thì điều này có thể cấu thành hành vi vi phạm chung. Các điều từ 1168 đến 1175 của Bộ luật Dân sự nước tôi cung cấp một bộ tài nguyên thể chế phong phú cho hành vi vi phạm của nhiều bên, có thể được điều chỉnh cho các tình huống AI tạo ra. Ví dụ: nếu nhiều bên chịu trách nhiệm liên quan đến AI tạo ra độc lập thực hiện các hành vi vi phạm pháp luật, gây ra cùng một thiệt hại và mỗi hành vi đủ để gây ra toàn bộ thiệt hại, thì trách nhiệm liên đới sẽ được áp dụng (Điều 1171 của Bộ luật Dân sự). Nếu hai hoặc nhiều bên riêng lẻ thực hiện các hành vi vi phạm pháp luật, gây ra cùng một thiệt hại, thì mỗi bên sẽ chịu trách nhiệm tương ứng nếu có thể xác định được mức độ trách nhiệm; nếu mức độ trách nhiệm khó xác định, thì trách nhiệm sẽ được chia đều (Điều 1172 của Bộ luật Dân sự). Trong hành vi vi phạm AI tạo ra, do bản chất đa yếu tố của nội dung đầu ra, nên kịch bản trách nhiệm tương ứng của Điều 1172 của Bộ luật Dân sự thường nhất quán hơn. Tuy nhiên, nếu một bên duy nhất (chẳng hạn như bên triển khai) có quyền kiểm soát quyết định đối với nội dung đầu ra, bên đó vẫn phải chịu trách nhiệm chính. Tuy nhiên, việc áp dụng trách nhiệm liên đới nên thận trọng để tránh làm nản lòng các công ty đổi mới. Ví dụ, nếu một mô hình được bên thứ ba triển khai để viết tin tức tự động và tạo ra một lượng lớn thông tin sai lệch, liệu nhà phát triển ban đầu có nên chịu trách nhiệm liên đới không? Xét về khả năng kiểm soát kỹ thuật và hiệu quả kinh tế, trừ khi mô hình ban đầu có những lỗi thiết kế rõ ràng hoặc các lỗ hổng đã biết vẫn chưa được vá, việc truy ngược quá mức đến nhà phát triển ban đầu nên được tránh. Tóm lại, định nghĩa về trách nhiệm vi phạm nên cân bằng giữa việc khuyến khích đổi mới của doanh nghiệp và bảo vệ lợi ích xã hội, tránh lôi kéo các nhà phát triển mô hình nguồn mở vào các vụ kiện tụng không cần thiết. Chuyển đổi Cơ sở Miễn trừ: Trong những năm gần đây, một số học giả đã lập luận rằng AI tạo sinh có thể tuân thủ đầy đủ các quy tắc "thông báo và gỡ bỏ" của các dịch vụ trực tuyến truyền thống. Tuy nhiên, những học giả này có thể đã bỏ qua sự khác biệt về bản chất chủ động và không thể đoán trước của việc tạo nội dung AI tạo sinh. Ví dụ: trên nền tảng phần mềm vẽ tranh AI, người dùng nhập lời nhắc văn bản để tạo ảnh chân dung. Nếu người dùng cố tình nhập tên và mô tả phỉ báng của người khác để lừa AI tạo ra hình ảnh tương ứng, hệ thống có khả năng sẽ xuất ra nội dung vi phạm. Trong trường hợp này, nếu nền tảng phần mềm vẽ AI được miễn trừ hoàn toàn trách nhiệm chỉ vì đã xóa hình ảnh sau khi nhận được thông báo, rõ ràng là nền tảng không thể bồi thường thiệt hại cho quyền cá nhân của nạn nhân. Do đó, cần thiết lập một cơ chế miễn trừ hạn chế, phân cấp, tập trung vào "khả năng kiểm soát hợp lý" và "khả năng khả thi về mặt kỹ thuật". Thứ nhất, nếu nhà cung cấp dịch vụ hoặc đơn vị triển khai có thể chứng minh rằng họ đã thực hiện tất cả các biện pháp hợp lý trong điều kiện kỹ thuật hiện tại (chẳng hạn như làm sạch dữ liệu, lọc tuân thủ, cảnh báo rủi ro, giám sát thời gian thực, v.v.) mà vẫn không thể ngăn chặn một số nội dung được tạo ra vi phạm, họ có thể được miễn trừ một phần hoặc toàn bộ trách nhiệm. Thứ hai, tính hiệu quả của cơ chế sửa lỗi và phản hồi kịp thời. Nếu bên chịu trách nhiệm chứng minh rằng họ đã kịp thời xóa nội dung vi phạm hoặc điều chỉnh mô hình sau khi nhận được thông báo, điều này có thể được sử dụng làm lý do để giảm nhẹ trách nhiệm. Cuối cùng, tính hiệu quả của hệ thống tuân thủ nên được xem xét như một yếu tố để miễn trừ trách nhiệm. Nếu các công ty nghiên cứu và phát triển công nghệ có thể chứng minh rằng họ đã thiết lập các quy trình tuân thủ toàn diện và tuân thủ nghiêm ngặt các tiêu chuẩn ngành, họ sẽ được giảm nhẹ trách nhiệm pháp lý trong trường hợp xảy ra các vi phạm không lường trước được. Ví dụ: nếu các công ty áp dụng công nghệ "truy xuất nguồn gốc" vào các mô hình lớn và cung cấp chú thích nguồn dữ liệu cho các kết quả đầu ra chính, họ có thể giảm đáng kể rủi ro thông tin sai lệch và tranh chấp bản quyền. Những đổi mới công nghệ như vậy nên được xem xét quan trọng trong việc giảm hoặc miễn trừ trách nhiệm pháp lý.