Năm nay sẽ là năm đầu tiên các quy định về trí tuệ nhân tạo (AI) có hiệu lực. Chúng ta sẽ chứng kiến các công ty công nghệ đang hoạt động tại những thị trường lớn nhất thế giới như Mỹ, EU và Trung Quốc triển khai những quy định này như thế nào.
Mỹ: Cơ chế dựa trên thị trường
AI đã được thảo luận chính trị sôi nổi ở Mỹ trong năm 2023. Nhưng nó không chỉ là những cuộc tranh luận. Người ta đã bắt đầu hành động, đỉnh điểm là việc ban hành sắc lệnh hành pháp về AI của Tổng thống Joe Biden vào cuối tháng 10/2023 - một chỉ thị rộng lớn kêu gọi minh bạch và các tiêu chuẩn mới.
Năm nay sẽ tiếp tục đà phát triển của 2023 và nhiều mục được nêu chi tiết trong sắc lệnh của ông Biden sẽ được ban hành. Người ta cũng sẽ được nghe nhiều hơn về Viện An toàn trí tuệ nhân tạo, cơ quan mới được thành lập, trực thuộc Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ (NIST).
Đây sẽ là nơi chịu trách nhiệm thực hiện hầu hết các chính sách được nêu ra trong sắc lệnh điều hành AI của Mỹ, bao gồm phát triển các tiêu chuẩn về an toàn, bảo mật AI; các tiêu chuẩn xác thực nội dung do AI tạo ra; cung cấp môi trường thử nghiệm cho các mô hình AI trước khi ra mắt; yêu cầu các nhà phát triển AI chia sẻ kết quả kiểm tra độ an toàn cũng như những thông tin quan trọng khác về AI với Chính phủ…
Trong thời gian tới, chúng ta có thể mong đợi Mỹ sẽ có một cách phân loại và sử dụng AI theo mức độ rủi ro, tương tự như Đạo luật AI của Liên minh châu Âu. Viện NIST đã đề xuất một khuôn khổ như vậy.
Từ quan điểm của Quốc hội Mỹ, sẽ có các luật mới điều chỉnh AI ngoài sắc lệnh hành pháp kể trên. Các nghị sĩ đã nêu lên những đề xuất lập pháp liên quan đến các khía cạnh khác nhau của AI, chẳng hạn như tính minh bạch, công nghệ deepfake và trách nhiệm giải trình của các nền tảng mạng xã hội. Nhưng không rõ dự luật nào sẽ được đưa vào thảo luận trong năm nay.
Một vấn đề trong các quy định AI của Mỹ là việc thiếu sự quan tâm và bảo vệ đối với quyền riêng tư, của người dùng khi các công ty và tổ chức AI có thể sử dụng dữ liệu cá nhân và đưa ra các quyết định ảnh hưởng đến cuộc sống của họ mà không cần có sự đồng ý hoặc giải thích. Mới có 12/50 tiểu bang của Mỹ có luật bảo mật toàn diện về dữ liệu của người tiêu dùng. Không có luật liên bang cho vấn đề này.
Nói chung, mô hình quản lý AI của Mỹ sẽ dựa trên nguyên tắc thị trường tự do và khuyến khích đổi mới sáng tạo. Nó có thể tạo môi trường kinh doanh thuận lợi, linh hoạt và cạnh tranh cho các công ty khởi nghiệp AI, đồng thời khuyến khích sự hợp tác giữa các bên liên quan trong việc phát triển và ứng dụng AI. Tuy nhiên, sự thiếu thống nhất trong các quy định và tiêu chuẩn về AI của các bang sẽ khiến các bên liên quan gặp khó khăn trong việc tuân thủ và giải quyết các tranh chấp.
EU: Tôn trọng quyền con ngườiGiữa tháng 12 năm ngoái, Liên minh châu Âu (EU) đã đạt được thỏa thuận lịch sử giữa các quốc gia thành viên để tạo điều kiện thông qua Đạo luật AI. Khi đạt được thủ tục chấp thuận chính thức của các nước châu Âu và Nghị viện EU vào nửa đầu năm nay, Đạo luật AI sẽ nhanh chóng có hiệu lực. Trong kịch bản lạc quan nhất, lệnh cấm sử dụng một số dạng AI nhất định trên lãnh thổ EU có thể được áp dụng ngay cuối năm nay.
Mô hình quản lý AI của EU sẽ dựa trên nguyên tắc chung là tôn trọng quyền con người và dự phòng rủi ro. Luật của EU đưa ra bốn cấp độ rủi ro, liên quan chặt chẽ đến các quyền con người mà họ coi trọng.
Mặc dù hầu hết các ứng dụng AI sẽ được tự do triển khai vì chúng ở mức “rủi ro tối thiểu” hoặc “rủi ro hạn chế”, nhưng các mô hình và ứng dụng nền tảng AI được coi là có “rủi ro cao” đối với các quyền cơ bản, chẳng hạn như các quyền được sử dụng trong lĩnh vực giáo dục, chăm sóc sức khỏe và chính sách, sẽ phải đáp ứng các tiêu chuẩn kiểm soát khắt khe. Ngay cả cảnh sát cũng không được phép sử dụng những công nghệ này ở nơi công cộng, trừ khi họ được tòa án chấp thuận trước cho các mục đích cụ thể như chống khủng bố, ngăn chặn buôn bán người hoặc tìm người mất tích.
Các ứng dụng AI ở mức “rủi ro không thể chấp nhận được” sẽ bị cấm hoàn toàn, chẳng hạn như tạo cơ sở dữ liệu nhận dạng khuôn mặt hoặc sử dụng công nghệ nhận dạng cảm xúc tại nơi làm việc hoặc trong trường học.
Đạo luật AI sẽ yêu cầu các công ty minh bạch hơn về cách họ phát triển các mô hình của mình và khiến họ và các tổ chức sử dụng các hệ thống AI có rủi ro cao phải chịu trách nhiệm cao hơn về bất kỳ tác hại nào xảy ra. Để đáp ứng các yêu cầu mới, các công ty AI sẽ phải suy nghĩ kỹ hơn về cách họ xây dựng hệ thống của mình và ghi lại nghiêm ngặt công việc của họ để có thể kiểm toán. Không chỉ các công ty đang ở EU phải tuân thủ quy định, mà bất kỳ công ty nào muốn kinh doanh trong khối thương mại này cũng phải đáp ứng.
Các công ty AI nguồn mở được miễn hầu hết các yêu cầu về tính minh bạch của Đạo luật AI, trừ khi họ đang phát triển các mô hình chuyên sâu về điện toán như GPT-4 của OpenAI hoặc Gemini của Google Deepmind (những công nghệ này đang được xếp vào dạng “rủi ro cao”). Không tuân thủ các quy tắc có thể dẫn đến phạt tiền nặng hoặc khiến sản phẩm của họ bị chặn khỏi EU.
Trước đó vào năm 2018, Liên minh châu Âu đã ban hành Quy định chung về bảo vệ dữ liệu (GDPR) - là một bộ luật bảo vệ quyền riêng tư của người dùng trước các hoạt động thu thập, xử lý và chia sẻ dữ liệu của các công ty và tổ chức. GDPR áp dụng cho tất cả các ứng dụng AI sử dụng dữ liệu cá nhân của công dân châu Âu.
Nhìn chung, các quy định ưu tiên quyền cá nhân của châu Âu là một thách thức đối với các công ty công nghệ. Một số nhà quan sát đánh giá rằng những quy định chặt chẽ về AI và GDPR thực sự làm tổn thương các công ty startup và kìm hãm sự đổi mới sáng tạo. Nó có thể đẩy các quốc gia đi theo xuống bên lề công nghệ. Điều này vẫn đang gây tranh cãi ở châu Âu.
Trung Quốc: Phản ứng nhanh với các rủi ro nổi bật
Cho đến nay, quy định về AI ở Trung Quốc đã bị phân mảnh sâu sắc. Thay vì đưa ra một tiêu chuẩn điều chỉnh AI nói chung, Trung Quốc đã ban hành các nghị định riêng lẻ bất cứ khi nào một sản phẩm AI trở nên nổi bật. Đó là lý do tại sao Trung Quốc có một bộ quy tắc cho các thuật toán đề suất nội dung giống như TikTok, một bộ quy tắc cho deepfake và một bộ quy tắc khác cho AI tạo sinh.
Cách tiếp cận này cho phép Chính quyền Trung Quốc phản ứng nhanh chóng với những rủi ro nổi lên từ các tiến bộ công nghệ, bảo vệ cả người dùng và chính phủ. Nhưng nó ngăn cản sự phát triển của một tầm nhìn dài hạn và toàn cảnh hơn.
Điều này có thể thay đổi vì Hội đồng Nhà nước Trung Quốc đã tuyến bố xây dựng “Luật trí tuệ nhân tạo”. Luật này sẽ bao gồm tất cả mọi thứ, giống như Đạo luật AI của châu Âu. Do phạm vi đầy tham vọng của nó, thật khó để nói quá trình lập pháp sẽ mất bao lâu. Dự thảo đầu tiên có thể xuất hiện vào năm 2024, hoặc lâu hơn. Nhưng trong thời gian chờ, sẽ không có gì đáng ngạc nhiên nếu các nhà quản lý Internet Trung Quốc đưa ra các nghị định mới để đối phó với những công cụ AI mới phổ biến năm nay.
Cho đến nay có rất ít thông tin được công bố về luật AI của Trung Quốc, nhưng một tài liệu của Học viện Khoa học Xã hội Trung Quốc có thể giúp chúng ta dự đoán về luật này. Vào tháng tám, Học viện đã tiết lộ một phiên bản đề xuất của chuyên gia, trong đó đề xuất thành lập một văn phòng AI quốc gia để giám sát sự phát triển của AI ở Trung Quốc, yêu cầu phải có một báo cáo trách nhiệm xã hội độc lập hàng năm về các mô hình nền tảng, và thiết lập một danh sách giới hạn về các lĩnh vực AI có độ rủi ro cao mà các công ty không thể nghiên cứu nếu không có sự chấp thuận của chính phủ.
Hiện tại, các công ty AI của Trung Quốc đã phải tuân theo rất nhiều quy định. Trên thực tế, bất kỳ mô hình nền tảng nào cũngcần phải được đăng ký với chính phủtrước khi có thể phát hành cho công chúng Trung Quốc. Tính đến cuối năm 2023, có 22 công ty đã đăng ký mô hình AI của họ. Điều này có nghĩa là AI ở Trung Quốc đang được kiểm soát tương đối nhiều. Nhưng không phải lúc nào đó cũng là sự kiểm soát chặt.
Chẳng hạn, cuối tháng 12, Tòa án Internet Bắc Kinh vừa cho phép bảo vệ bản quyền đối với nội dung do AI tạo ra. Trên thực tế, từ khi ban hành nghị định hồi tháng bảy, Chính phủ Trung Quốc đã kêu gọi các cơ quan hành chính và tòa án ở tất cả các cấp áp dụng lập trường pháp lý thận trọng và khoan dung đối với AI tạo sinh. Vài tháng sau, họ đã hạ một ít rào cản pháp lý với những công ty chatbot trong cùng lĩnh vực. Điều này có thể tạo ra nhiều tranh cãi về lợi ích của công dân và rủi ro lâu dài, nhưng không thể phủ nhận Trung Quốc đang muốn thúc đẩy giá trị kinh tế của AI.
Mặt khác, Trung Quốc cũng đang ra sức bảo vệ các công ty AI trong nước, vì các công ty AI nước ngoài chưa nhận được bất kỳ sự chấp thuận nào để phát hành sản phẩm của họ ở Trung Quốc.
Những nơi khác: Bắt đầu xây dựng quy định
Dưới sự tiên phong của Mỹ, EU và Trung Quốc, người ta dự đoán rằng nhiều khu vực khác trên thế giới cũng sẽ đưa ra các quy định mới về AI trong năm nay.
Liên minh châu Phi có thể sẽ đưa ra một chiến lược AI vào đầu năm 2024, nhằm thiết lập các chính sách mà từng quốc gia riêng lẻ có thể sao chép để cạnh tranh về AI và bảo vệ người tiêu dùng châu Phi khỏi các công ty công nghệ phương Tây.
Một số quốc gia như Rwanda, Nigeria và Nam Phi đã soạn thảo các chiến lược AI quốc gia và đang nỗ lực phát triển các chương trình giáo dục, năng lực tính toán và các chính sách thân thiện với ngành để hỗ trợ các công ty AI.
Ở Đông Nam Á, nơi đã thực hiện một cách tiếp cận thân thiện với doanh nghiệp AI, các quốc gia đang tự thiết lập các khung và bộ công cụ quản trịAI theo mô hình tự nguyện và hướng dẫn tự đánh giá. Reuters dẫn lời các giám đốc điều hành công nghệ cho biết cách tiếp cận tương đối không can thiệp của ASEAN thân thiện hơn với doanh nghiệp vì nó hạn chế gánh nặng tuân thủ trong một khu vực mà luật pháp hiện hành đã khá phức tạp, và điều này cũng cho phép đổi mới sáng tạo nhiều hơn.
Trong vài năm qua, Singapore, Thái Lan, Malaysia hay Việt Nam đã đưa ra nhiều sáng kiến thúc đẩy AI trong nền kinh tế. Mặc dù hiện tại không có luật pháp cụ thể bao quát nào về AI nhưng một vài nước đã tuyên bố kế hoạch hoặc đang trong quá trình xây dựng dự thảo liên quan đến việc điều chỉnh AI trong năm 2024 hoặc 2025.
Các cơ quan toàn cầu như Liên Hợp Quốc, OECD, G20 đã bắt đầu tạo ra các nhóm làm việc, ban cố vấn,các nguyên tắc, bộ tiêu chuẩn vàtuyên bố về AI.Tổ chức OECD có thể chứng minh vai trò của mình trong việc tạo ra sự nhất quán về quy định AI giữa các khu vực khác nhau, làm giảm bớt gánh nặng tuân thủ cho các công ty đa quốc gia.
Về mặt địa chính trị, chúng ta có thể thấy sự khác biệt ngày càng tăng giữa cách các quốc gia theo đuổi hoặc đối mặt với AI. Và sẽ thật thú vị khi xem các công ty AI bản địa ưu tiên mở rộng ra toàn cầu hay chuyên môn hóa trong lãnh thổ của nước mình. Nhiều công ty AI sẽ phải đưa ra những quyết định khó khăn vào năm 2024./.
Bài đăng số 1277-1279 (số 5-7/2024) KH&PT