/ Kinh nghiệm - Thực tiễn
/ Những điểm quan trọng trong Dự thảo Luật Trí tuệ nhân tạo

Những điểm quan trọng trong Dự thảo Luật Trí tuệ nhân tạo

03/12/2025 07:45 |

(LSVN) - Trước yêu cầu cấp bách về quản lý hiệu quả các công nghệ mới và theo kịp xu thế phát triển của thế giới, Việt Nam đang từng bước xây dựng và hoàn thiện khuôn khổ pháp lý riêng biệt dành cho trí tuệ nhân tạo. Đây không chỉ là bước đi cần thiết để bảo đảm an toàn, minh bạch trong hoạt động ứng dụng trí tuệ nhân tạo ở đa lĩnh vực, đa ngành nghề, mà còn nhằm tạo hành lang pháp lý ổn định, thúc đẩy đổi mới sáng tạo và hỗ trợ các chủ thể tham gia vào hệ sinh thái công nghệ số.

Dự thảo Luật Trí tuệ nhân tạo lần 2 (“Dự thảo”) ngày 21/11/2025[1] được trình tại Kỳ họp thứ 10 Quốc hội khóa XV, đã có nhiều sự thay đổi bao gồm 08 Chương với 36 điều, được tinh chỉnh so với lần 1. Nội dung của Dự thảo lần này kế thừa các quy định liên quan đến trí tuệ nhân tạo tại Luật Công nghiệp công nghệ số 2025, chỉnh sửa phù hợp những quy định tập trung vào đối tượng cá nhân, tổ chức có liên quan và quản lý nhà nước đối với các hoạt động trí tuệ nhân tạo tại Việt Nam. Dưới đây là một số điểm tiêu biểu tại Dự thảo Luật Trí tuệ nhân tạo.

Ảnh minh họa. Nguồn: Internet.

Ảnh minh họa. Nguồn: Internet.

Giữ nguyên phân loại mức độ rủi ro của hệ thống trí tuệ nhân tạo

Phân loại mức độ rủi ro hệ thống trí tuệ nhân tạo là tiền đề, cơ sở để xác định mức độ rủi ro có thể gây ra từ trí tuệ nhân tạo nhằm đưa ra khung pháp lý điều chỉnh phù hợp với thực tiễn. Tại Điều 7 Dự thảo, cơ chế phân loại tiếp tục giữ nguyên 04 mức độ rủi ro tăng dần với hệ thống bao gồm: (i) rủi ro thấp; (ii) rủi ro trung bình; (iii) rủi ro cao; (iv) rủi ro không chấp nhận được. Đây được xem là trách nhiệm bắt buộc phải thực hiện đối với nhà cung cấp trước khi lưu hành hoặc đưa vào sử dụng. Đặc biệt, đối với những hệ thống được xếp vào mức rủi ro cao hoặc trung bình thì phải thông báo kết quả phân loại đến Bộ Khoa học và Công nghệ thông qua Cổng thông tin điện tử một cửa về trí tuệ nhân tạo. Bên cạnh đó, Dự thảo khuyến khích các bên phát triển hệ thống trí tuệ nhân tạo có mức rủi ro thấp công khai thông tin cơ bản trên Cổng thông tin điện tử một cửa về trí tuệ nhân tạo.

Trong một số trường hợp không xác định được mức độ rủi ro, nhà cung cấp có thể đề nghị Bộ Khoa học và Công nghệ xác nhận mức phân loại trên cơ sở hồ sơ kỹ thuật.

Ngoài ra, mục đích phân loại này giúp cơ quan quản lý xác định mức độ thực hiện nghĩa vụ và trách nhiệm pháp lý của các cá nhân, tổ chức phát triển hệ thống trí tuệ nhân tạo để đảm bảo phát hiện sớm các rủi ro và xử lý vi phạm các sai lệch trong quá trình vận hành hệ thống.

Nghĩa vụ pháp lý về minh bạch, gắn nhãn và giải trình của các bên liên quan với hệ thống trí tuệ nhân tạo

Trách nhiệm phân loại mức độ rủi ro được xem là nền tảng trong quản trị rủi ro hệ thống trí tuệ nhân tạo của cơ quan quản lý nhà nước thì trách nhiệm trong minh bạch, gắn nhẵn và giải trình tiếp tục được quy định để triển khai, làm rõ và đảm bảo tính an toàn, tin cậy cho người sử dụng.

Đối với việc gán nhãn, thuật ngữ pháp lý “gắn nhãn” lần đầu tiên được đưa ra tại theo khoản 12 Điều 3 Dự thảo, tạo cơ sở cho việc nhận diện và quản lý thông tin do trí tuệ nhân tạo tạo ra trong nhiều bối cảnh khác nhau. Cơ chế này là một biện pháp kỹ thuật để thông báo đến người sử dụng để nhận biết, tránh nhầm lẫn các nội dung hoặc sản phẩm được tạo ra hoặc chỉnh sửa ở mức đáng kể bởi trí tuệ nhân tạo.

Tuy nhiên, không phải tất cả các hệ thống trí tuệ đều bắt buộc phải gắn nhãn mà chỉ những trường hợp quy định ở khoản 3 Điều 9 Dự thảo mới phải thực hiện việc gắn nhãn.[2]

Cụ thể, bên triển khai hệ thống cần thông báo rõ ràng cho người sử dụng về các nội dung do trí tuệ nhân tạo ra, chỉnh sửa, xử lý, hoặc cung cấp khi thuộc các trường hợp phải gắn nhãn. Đồng thời, bên triển khai phải thực hiện gắn nhãn hoặc công bố thông tin kèm theo.

Về phía nhà cung cấp cần có trách nhiệm bảo đảm việc hệ thống được thiết kế, vận hành phù hợp với mức độ rủi ro đã xác định trước đó, kèm theo là cung cấp cách thức theo dõi, hướng dẫn kỹ thuật và các vấn đề cần thiết để bên triển khai tiếp tục thực hiện nghĩa vụ minh bạch, gắn nhẵn và giải trình.

Tạo điều kiệu thông qua Cơ chế thử nghiệm có kiểm soát đối với trí tuệ nhân tạo

Căn cứ theo Quyết định số 127/QĐ-TTg ngày 26/01/2021, nhiệm vụ về hoàn thiện thể chế, chính sách cho phát triển trí tuệ nhân tạo được đặt ra như: “Xây dựng khung thể chế thử nghiệm (sandbox)”; “Hoàn thiện thể chế, các chính sách thu hút đầu tư trực tiếp của nước ngoài”. Để thực hiện mục tiêu đó, tại Điều 22 Dự thảo, cơ chế thử nghiệm có kiểm soát được phép triển khai, trong đó khuyến khích thực hiện đánh giá đối với các hệ thống trí tuệ nhân tạo như hệ thống trí tuệ nhân tạo đa tác tử, hệ thống trí tuệ nhân tạo tự động,... nhằm kiểm tra tính hiệu quả, an toàn trước khi thương mại hóa.

Kết quả thử nghiệm được công nhận hợp lệ bởi cơ quan Nhà nước có thẩm quyền được xem là cơ sở để các tổ chức, cá nhân giảm tải các thủ tục về đánh giá sự phù hợp, chứng nhận hoặc chấp thuận để triển khai hệ thống. Đồng thời, các doanh nghiệp này còn được xem xét miễn, giảm một số nghĩa vụ tuân thủ và ưu tiên tiếp cận nguồn hỗ trợ tài chính từ Quỹ Phát triển Trí tuệ nhân tạo Quốc gia.

Cơ chế này không chỉ có nhiều ưu đãi cho các cá nhân, doanh nghiệp đã, đang và dự kiến hoạt động trong lĩnh vực trí tuệ nhân tạo mà còn là cơ sở, kinh nghiệm thực tiễn, giúp nhanh chóng hoàn thiện về tiêu chuẩn, quy chuẩn với các chính sách, quy định pháp luật về trí tuệ nhân tạo trong tương lai. Từ đó, thúc đẩy sự hợp tác của Nhà nước với các doanh nghiệp, chuyên gia trong ngành, phát triển hệ sinh thái đổi mới sáng tạo cho quốc gia.

Trách nhiệm pháp lý đối với thiệt hại do hệ thống trí tuệ nhân tạo gây ra

Khoảng trống pháp lý về trách nhiệm của trí tuệ nhân tạo là một trong những vấn đề quan tâm nhất đối với các cá nhân, doanh nghiệp hoạt động trong lĩnh vực này. Các quy định về vấn đề này sẽ tác động trực tiếp đến các đối tượng liên quan trong chuỗi giá trị khi rủi ro về trí tuệ nhân tạo vẫn còn tiềm ẩn và phát sinh bất cứ lúc nào.

Cùng với đó, ở khía cạnh của cơ quan quản lý Nhà nước, việc xây dựng hành lang pháp lý hoàn chỉnh, phù hợp đặt ra nhiều thách thức khi phải xác định trách nhiệm pháp lý từ hành vi gây thiệt hại của trí tuệ nhân tạo. Bởi hệ quả của vấn đề này có thể bị tác động bởi nhiều chủ thể liên quan như nhà phát triển, nhà sản xuất, người sử dụng hay chính hệ thống trí tuệ nhân tạo đó.

Hiện nay, tùy theo tính chất, mức độ nghiêm trọng của hậu quả, cá nhân hoặc doanh nghiệp có thể bị xử phạt hành chính và/hoặc bị truy cứu trách nhiệm hình sự trong lĩnh vực trí tuệ nhân tạo. Đối với xử phạt hành chính, việc thực hiện dựa theo quy định luật chuyên ngành về trí tuệ nhân tạo và pháp luật về xử lý hành chính. Theo Điều 30 Dự thảo, doanh nghiệp có thể bị phạt tối đa 2% doanh thu tại Việt Nam và bị phạt thêm tối đa 2% doanh thu toàn cầu năm trước liền kề nếu tiếp tục tái phạm. Tuy vậy, một số trường hợp doanh nghiệp hoặc cá nhân mới thành lập, không có doanh thu năm trước thì mức xử phạt được đưa ra có thể tối đa đến 2.000.000.000 đồng (hai tỷ đồng) đối với các tổ chức và 1.000.000.000 đồng (một tỷ đồng) đối với cá nhân.

Bên cạnh đó, tổ chức, cá nhân cũng có trách nhiệm bồi thường thiệt hại từ hành vi gây ra từ hệ thống trí tuệ nhân tạo. Tùy theo phân loại mức độ rủi ro của hệ thống, trách nhiệm bồi thường sẽ có sự khác nhau theo khoản 3 Điều 30 Dự thảo. Đối với hệ thống trí tuệ nhân tạo rủi ro cao, trường hợp nếu tự chính hệ thống gây thiệt hại thì việc bồi thường sẽ xác định do nguồn nguy hiểm cao độ theo Điều 601 Bộ luật dân sự 2015. Ngược lại, thiệt hại do hành vi vi phạm trong quản lý, sử dụng của tổ chức, cá nhân thì chính tổ chức, cá nhân đó bồi thường. Đối với các hệ thống ở mức rủi ro trung bình hoặc thấp thì bồi thường theo các quy định bồi thường thiệt hại của pháp luật dân sự. Ở trường hợp hệ thống trí tuệ nhân tạo được hình thành bởi nhiều bên tham gia, triển khai thì các bên liên quan có thể phải liên đới bồi thường căn cứ theo mức độ quản lý, kiểm soát, các biện pháp xử lý rủi ro trên thực tế.

Dự thảo Luật Trí tuệ nhân tạo đánh dấu bước tiến quan trọng trong việc thiết lập cơ chế quản trị hiện đại, phù hợp với đặc thù của công nghệ mới, cũng như xu hướng phát triển trí tuệ nhân tạo trên toàn cầu. Nhà nước với vai trò là cơ quan quản lý cần “trung hòa” giữa hai mặt của vấn đề mới phát sinh trong xã hội giữa tự do phát triển và rủi ro mang lại. Rõ ràng đây không phải “bài toán” dễ dàng gì đối với bất kỳ quốc gia nào trên thế giới, không chỉ riêng Việt Nam.

Những quy định về phân loại rủi ro, minh bạch, gắn nhãn, cơ chế thử nghiệm có kiểm soát và trách nhiệm pháp lý góp phần hình thành nền tảng pháp lý đầy đủ, tạo môi trường an toàn và thuận lợi cho đổi mới sáng tạo. Khi được hoàn thiện và ban hành, đạo luật này được kỳ vọng sẽ hỗ trợ doanh nghiệp phát triển bền vững, đồng thời bảo đảm quyền lợi của người sử dụng và lợi ích chung của xã hội. 

[1] https://duthaoonline.quochoi.vn/dt/luat-tri-tue-nhan-tao/251009091536864496, truy cập lần cuối ngày 30/11/2025

[2] Khoản 3 Điều 9 Dự thảo:

“3. Việc gắn nhãn được thực hiện đối với các trường hợp sau đây: (a) Nội dung do hệ thống trí tuệ nhân tạo tạo ra hoặc chỉnh sửa có yếu tố giả mạo, mô phỏng người thật, sự kiện thật và có khả năng khiến người xem, người nghe hoặc người đọc hiểu sai là thật;

(b) Nội dung do trí tuệ nhân tạo tạo ra nhằm mục đích truyền thông, quảng cáo, tuyên truyền hoặc cung cấp thông tin công khai;

(c) Các trường hợp khác theo quy định của Thủ tướng Chính phủ.”

Luật sư NGUYỄN NHẬT DƯƠNG

NGUYỄN VIỆT HÙNG

Công ty Luật TNHH HM&P