/ Kết nối
/ Đề xuất quy định về trách nhiệm minh bạch của nhà cung cấp hệ thống trí tuệ nhân tạo

Đề xuất quy định về trách nhiệm minh bạch của nhà cung cấp hệ thống trí tuệ nhân tạo

04/03/2026 10:40 |

(LSVN) - Bộ Tư pháp vừa công khai Hồ sơ thẩm định dự thảo Nghị định của Chính phủ quy định chi tiết một số điều và biện pháp thi hành Luật Trí tuệ nhân tạo. Trong đó, dự thảo Nghị định mới có đề xuất quy định về trách nhiệm minh bạch của nhà cung cấp hệ thống trí tuệ nhân tạo.

Cụ thể, theo Điều 17 dự thảo Nghị định quy định về trách nhiệm minh bạch và giải trình của nhà cung cấp hệ thống trí tuệ nhân tạo (AI) có nêu rõ, nhà cung cấp hệ thống AI có trách nhiệm thực hiện biện pháp minh bạch và giải trình đối với hệ thống do mình cung cấp phù hợp với mục đích sử dụng, bối cảnh triển khai và mức độ rủi ro của hệ thống.

Ảnh minh họa. Nguồn: Internet.

Ảnh minh họa. Nguồn: Internet.

Đối với hệ thống AI có rủi ro trung bình hoặc rủi ro cao, khi có yêu cầu hợp pháp, nhà cung cấp có trách nhiệm cung cấp hoặc công khai các thông tin cơ bản sau:

Thứ nhất, tên hệ thống, phiên bản, mục đích thiết kế và phạm vi ứng dụng chính;

Thứ hai, các chức năng chính của hệ thống, giới hạn sử dụng và cảnh báo rủi ro có thể phát sinh trong quá trình vận hành;

Thứ ba, mô tả khái quát về logic tổng thể, quy trình ra quyết định, điều kiện vận hành an toàn.

Ngoài ra, nhà cung cấp được sử dụng tài liệu theo tiêu chuẩn quốc tế, bao gồm Thẻ mô hình hoặc Thẻ hệ thống, để thực hiện trách nhiệm cung cấp hoặc công khai các thông tin cơ bản nêu trên.

Trách nhiệm minh bạch thông tin quy định tại Điều 17 này không bắt buộc nhà cung cấp phải cung cấp, tiết lộ thuật toán chi tiết, trọng số mô hình, dữ liệu huấn luyện, mã nguồn hoặc bí mật công nghệ khác, trừ trường hợp pháp luật có quy định khác.

Trường hợp nhà cung cấp không đồng thời là tổ chức, cá nhân phát triển mô hình AI được tích hợp trong hệ thống, nhà cung cấp có trách nhiệm phối hợp với tổ chức, cá nhân phát triển mô hình để thực hiện trách nhiệm minh bạch và giải trình quy định tại Điều này theo thỏa thuận và quy định của pháp luật có liên quan.

Nhà cung cấp hệ thống AI có rủi ro cao là tổ chức, cá nhân nước ngoài cung cấp hoặc triển khai hệ thống tại Việt Nam phải thiết lập đầu mối liên hệ tại Việt Nam theo quy định của pháp luật.

Bộ Khoa học và Công nghệ hướng dẫn hình thức, nội dung thông tin và phương thức thực hiện trách nhiệm minh bạch, giải trình quy định tại Điều này phù hợp với từng mức độ rủi ro. Việc hướng dẫn không quy định thêm tiêu chí phân loại rủi ro, không làm phát sinh thủ tục hành chính, nghĩa vụ báo cáo định kỳ hoặc yêu cầu khác vượt quá quy định của Nghị định này.

Bên cạnh đó, cũng tại dự thảo Tờ trình, theo Bộ Khoa học và Công nghệ, cần thiết xây dựng các quy định chi tiết hướng dẫn thi hành Luật AI, tạo nền tảng vững chắc để quản lý và thúc đẩy hoạt động nghiên cứu, phát triển, triển khai và sử dụng AI ở Việt Nam.

Việc có một hệ thống pháp luật toàn diện sẽ là đòn bẩy giúp Việt Nam vượt qua các thách thức, xây dựng một nền kinh tế AI năng động, và khẳng định vị thế của một quốc gia có năng lực tự chủ về công nghệ.

MẠNH QUÂN

Các tin khác