Bộ Khoa học & Công nghệ - đơn vị chủ trì xây dựng Luật Công nghiệp Công nghệ số - cho biết, với việc thông qua luật này, Việt Nam trở thành nước đầu tiên trên thế giới ban hành một bộ luật riêng về lĩnh vực công nghiệp công nghệ số.
Trong phiên họp ngày 14/6, Quốc hội đã chính thức thông qua
Luật Công nghiệp Công nghệ số với tỷ lệ 441/445 phiếu thuận (92,26%). Luật gồm sáu chương, 49 điều và bắt đầu có hiệu lực từ ngày 1/1/2026.
Đây là bộ luật đầu tiên điều chỉnh toàn diện lĩnh vực công nghệ số – từ công nghiệp số (Chương 2), công nghiệp bán dẫn (Chương 3), trí tuệ nhân tạo AI (Chương 4) đến tài sản số (Chương 5).
Khuyến khích phát triển công nghệ số nội địa
Luật tập trung vào các giải pháp chiến lược và chính sách hỗ trợ nhằm nâng cao tỷ trọng sản phẩm công nghệ số nội địa, bao gồm ưu tiên sử dụng sản phẩm công nghệ số nội địa trong các dự án ngân sách nhà nước (Điều 30, 31); hỗ trợ các dự án khởi nghiệp sáng tạo kinh phí - có thể lên tới 50% chi phí - để mua công nghệ tiên tiến và phát triển mẫu thử (Điều 29); cho phép chi phí nghiên cứu và phát triển (R&D) được tăng mức chi bổ sung khi xác định thu nhập chịu thuế (Điều 16) v.v
Trong số đó, quy định tăng mức chi bổ sung cho chi phí R&D là một chính sách ưu đãi mới rất có lợi cho doanh nghiệp. Khi một doanh nghiệp chi tiền cho R&D, họ sẽ được tính thêm một khoản chi phí (lớn hơn số tiền thực tế đã chi), kéo theo tổng chi phí ghi nhận tăng lên, làm lợi nhuận chịu thuế của doanh nghiệp giảm xuống, và do đó, làm giảm số thuế thu nhập doanh nghiệp phải nộp trong năm. Mức tăng chi này sẽ do Chính phủ quy định trong các văn bản hiện hành hoặc tương lai.
Cơ chế thử nghiệm có kiểm soát
Bên cạnh đó, Luật cho phép cơ chế thử nghiệm có kiểm soát (sandbox) đối với sản phẩm, dịch vụ ứng dụng công nghệ số trong các ngành, lĩnh vực (Điều 8). Trong thời gian sandbox, các cơ quan, tổ chức, doanh nghiệp, cá nhân tham gia thử nghiệm được miễn trừ một số trách nhiệm pháp lý – miễn là họ đã tuân thủ đúng quy trình (Điều 4).
Các nội dung chi tiết của sandbox có thể được quy định rõ hơn trong Luật Khoa học, Công nghệ và Đổi mới sáng tạo (dự kiến sẽ được Quốc hội thông qua trong năm nay)
Theo lý thuyết, sandbox thường ưu tiên những sản phẩm “chưa có luật điều chỉnh rõ ràng”, có tính tích hợp công nghệ cao và đổi mới sáng tạo mạnh mẽ, đi kèm cam kết quản lý rủi ro và bảo vệ người dùng. Thử nghiệm trong sandbox có thể kéo dài đến hai năm - như các sandbox về fintech sắp đi vào hiệu lực vào tháng tới.
Quản lý rủi ro AI trong suốt vòng đời
Đáng lưu ý, đây là lần đầu tiên các nội dung liên quan đến trí tuệ nhân tạo (AI) như việc phát triển, cung cấp, triển khai và sử dụng hệ thống AI được luật hóa trong một khung bảy nguyên tắc (Điều 41).
Đó là: (1) Phục vụ sự thịnh vượng và hạnh phúc của con người, lấy con người làm trung tâm, nâng cao năng suất, hiệu quả công việc, thúc đẩy thông minh hóa; tiếp cận bao trùm, linh hoạt, công bằng và không phân biệt đối xử; tôn trọng các giá trị đạo đức, dân tộc; quyền con người, quyền công dân, quyền và lợi ích hợp pháp của tổ chức, cá nhân; (2) Bảo đảm minh bạch, trách nhiệm giải trình, khả năng giải thích được; bảo đảm không vượt qua tầm kiểm soát của con người; (3) Bảo đảm an toàn, an ninh mạng; (4) Bảo đảm tuân thủ quy định pháp luật về dữ liệu, bảo vệ dữ liệu cá nhân; (5) Bảo đảm khả năng kiểm soát thuật toán, mô hình trí tuệ nhân tạo; (6) Kiểm soát rủi ro trong suốt vòng đời của hệ thống trí tuệ nhân tạo; (7) Bảo đảm tuân thủ pháp luật về bảo vệ quyền lợi người tiêu dùng và pháp luật khác có liên quan.
Các khung nguyên tắc trong Luật khá sát với
"Bộ nguyên tắc về nghiên cứu, phát triển AI có trách nhiệm" mà Bộ Khoa học & Công nghệ từng công bố vào tháng 6/2024
(bao gồm chín nguyên tắc: Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; Tính minh bạch; Khả năng kiểm soát; An toàn; Bảo mật; Quyền riêng tư; Tôn trọng quyền và phẩm giá con người; Hỗ trợ người dùng và Trách nhiệm giải trình).
Theo Luật Công nghiệp Công nghệ số, các hệ thống AI sẽ được phân loại thành ba nhóm: rủi ro cao, có tác động lớn, và nhóm khác (Điều 43). Hai nhóm đầu đều phải tuân thủ yêu cầu kỹ thuật nghiêm ngặt và giám sát chặt chẽ (Điều 43) – một động thái tương tự cách tiếp cận của EU.
Đây là lần đầu tiên vấn đề quản lý rủi ro AI được luật hóa một cách cụ thể ở cấp độ quốc gia. Quyền quy định cụ thể về các biện pháp kiểm soát và quản lý rủi ro sẽ do Chính phủ ban hành, căn cứ vào thực tiễn của từng lĩnh vực.
Hơn nữa, việc Luật Công nghiệp Công nghệ số bổ sung cơ chế thử nghiệm có kiểm soát (sandbox) sẽ mở ra cánh cửa để thiết kế các không gian thử nghiệm riêng cho từng lĩnh vực ứng dụng AI – từ giáo dục, y tế đến nông nghiệp. Bước tiến này hết sức quan trọng, bởi dù AI đã được sử dụng khá phổ biến trong các ngành này, đến nay vẫn chưa có tiêu chuẩn hay hướng dẫn rõ ràng để đảm bảo quá trình triển khai được giám sát chặt chẽ, hạn chế rủi ro.
Ràng buộc trách nhiệm của các bên trong hệ thống AI
Luật Công nghiệp Công nghệ số cũng làm rõ trách nhiệm pháp lý của ba nhóm chủ thể chính liên quan đến AI: bên phát triển, bên cung cấp và bên triển khai sử dụng hệ thống AI (Điều 45)
Cụ thể, bên phát triển AI phải tuân thủ đầy đủ bảy nguyên tắc đạo đức và kỹ thuật được quy định nêu trên.
Bên cung cấp - tức những tổ chức, cá nhân đưa hệ thống AI ra thị trường dưới thương hiệu của mình - ngoài tuân thủ bảy nguyên tắc chung, còn có trách nhiệm đáp ứng các yêu cầu quản lý đối với AI rủi ro cao hoặc có tác động lớn, và các yêu cầu về thông báo nhận dạng AI cho người dùng.
Bên triển khai sử dụng – thường là các cơ quan, tổ chức có quyền quản lý hệ thống AI – bị ràng buộc bởi các tiêu chuẩn tương tự (tuân thủ 6/7 nguyên tắc chung, trừ nguyên tắc về kiểm soát thuật toán), đáp ứng các yêu cầu quản lý với AI rủi ro cao hoặc tác động lớn, và phải chịu thêm các nguyên tắc về AI sẽ được phát triển riêng cho mỗi ngành, lĩnh vực cụ thể.
Những quy định này sẽ định hình hành lang pháp lý cho AI, đảm bảo các chủ thể liên quan không né tránh trách nhiệm khi xảy ra sự cố, đồng thời thúc đẩy phát triển AI có đạo đức và bền vững.
Nhận diện AI: Người dùng phải biết mình đang “nói chuyện với máy”
Luật cũng buộc các hệ thống AI tương tác trực tiếp với con người phải có thông báo cho người sử dụng biết họ đang tương tác với AI (Điều 44). Ví dụ, các chatbox gọi tự động chăm sóc khách hàng hoặc bán hàng phải báo trước với người nghe rằng chúng là AI.
Tương tự, các sản phẩm số do AI tạo ra (ví dụ: ảnh, video v.v) đều phải có dấu hiệu nhận dạng để máy móc hoặc người sử dụng có thể nhận biết (Điều 44).
Trước khi Luật Công nghiệp Công nghệ số ra đời, Việt Nam đã có Chiến lược quốc gia về AI đến năm 2030 do Chính phủ ban hành từ năm 2021, cùng khoảng 11 văn bản pháp lý liên quan. Tuy nhiên, Luật Công nghiệp Công nghệ số là văn bản đầu tiên mang tính tổng thể và ràng buộc pháp lý cao nhất về AI.
Tin đăng KH&PT số 1349 (số 25/2025)