Châu Âu, Mỹ và Trung Quốc có những cách tiếp cận khác nhau trong quản lý AI. Dù vậy, vẫn chưa có cơ chế quản lý nào được coi là hoàn thiện.

“Quy định quản lý AI là thiết yếu”, Sam Altman, Giám đốc điều hành của công ty công nghệ OpenAI, nói với các thượng nghị sĩ Mỹ vào tháng Năm vừa qua trong phiên điều trần về trí tuệ nhân tạo (AI). Nhiều chuyên gia công nghệ đồng tình với ý kiến này. Năm nay, Liên minh châu Âu dự kiến thông qua luật AI đầu tiên sau hơn hai năm tranh luận. Trung Quốc thì đã có các quy định về AI.

Nhưng AI vẫn là một công nghệ mới lạ đến mức giới chuyên gia chưa hết tranh cãi về những phương diện cần phải kiểm soát và mức độ rủi ro của AI cho đến nay. Ba quốc gia và khu vực có vai trò lớn nhất trong ngành - Mỹ, EU và Trung Quốc - đã thực hiện các cách tiếp cận khác nhau.

EU rất thận trọng. Đạo luật trí tuệ nhân tạo sắp tới của họ tập trung vào việc cấm một số cách sử dụng AI, đồng thời đưa ra quy trình thẩm định để các công ty AI tuân thủ. Mỹ, nơi đặt trụ sở của nhiều công ty AI hàng đầu, cho đến nay là quốc gia có cách quản lý "thoáng" nhất. Trong khi đó, tại Trung Quốc, chính phủ đang cố gắng cân bằng giữa đổi mới sáng tạo với việc duy trì kiểm soát chặt chẽ các tập đoàn.

Ảnh minh hoạ

“Nhiều người nói rằng đây là bước đổi mới sáng tạo quan trọng nhất mà nhân loại từng tạo ra. Nói ‘Dừng lại’ thì dễ, nhưng nói ‘Đi theo hướng này’ thì khó hơn nhiều", David Wang, Giám đốc đổi mới của Wilson Sonsini, một công ty luật lớn ở Thung lũng Silicon, California, Mỹ, cho biết. Nhìn chung, chúng ta đang chứng kiến một cuộc thử nghiệm quy định trên quy mô lớn.

EU: Quản lý theo rủi ro

Tháng 6 này, Quốc hội EU đã thông qua Đạo luật AI - một bộ luật khổng lồ phân loại các công cụ AI dựa trên rủi ro tiềm ẩn. Mặc dù đạo luật có thể vẫn còn tiếp tục thay đổi vì nó cần được sự đồng thuận cả ba cơ quan Quốc hội, Ủy ban Châu Âu và Hội đồng Châu Âu. Phiên bản hiện tại của Đạo luật cấm sử dụng các phần mềm AI có mức rủi ro được phân loại không thể chấp nhận được, theo định nghĩa gồm AI sử dụng trong an ninh, nhận dạng cảm xúc và nhận dạng mặt theo thời gian thực.

Nhiều cách sử dụng AI khác được cho phép, nhưng đi kèm các yêu cầu khác nhau, tùy thuộc vào mức rủi ro. Trong các trường hợp sử dụng AI để quyết định phúc lợi xã hội hay tuyển dụng nhân sự, Đạo luật của EU yêu cầu các nhà phát triển phần mềm chứng minh rằng hệ thống của họ an toàn, hiệu quả, tuân thủ quyền riêng tư, minh bạch, có thể giải thích rõ ràng cơ chế quyết định cho người dùng và không phân biệt đối xử.

Đối với các trường hợp sử dụng rủi ro cao hơn, như pháp luật và giáo dục, theo Đạo luật, yêu cầu phải có tài liệu chi tiết ghi lại toàn bộ quá trình hoạt động và phần mềm phải được kiểm tra về độ chính xác, bảo mật và công bằng.

Các công ty vi phạm có thể bị phạt 7% lợi nhuận toàn cầu hằng năm. Giới doanh nghiệp có khoảng 2 năm để hoàn thành việc tuân thủ sau khi Đạo luật có hiệu lực.

Vẫn còn tranh cãi về những trường hợp sử dụng nào được coi là nhiều rủi ro. Năm ngoái, OpenAI trình bày một sách trắng cho EU, lập luận rằng các mô hình ngôn ngữ lớn LLM, như những mô hình đằng sau ChatGPT và các mô hình tạo hình ảnh của họ, không nên được đưa vào danh mục này. Lập luận của công ty đã có tác dụng và được phản ánh trong phiên bản hiện tại của Đạo luật, đặt các mô hình mang tính "nền tảng", được định nghĩa là các hệ thống AI có mục đích chung, trái ngược với các hệ thống dành cho một ứng dụng cụ thể, vào danh mục riêng. Danh mục này cũng bao gồm các công cụ AI tổng quát có thể tự động hóa việc sản xuất văn bản, hình ảnh và video.

OpenAI sẽ là một trong các công ty chịu ảnh hưởng bởi quy định quản lý AI dựa trên rủi ro của châu Âu khi có hiệu lực.

Nguyên nhân là các công cụ tạo hình ảnh và LLM có thể làm tăng số lượng nội dung có hại như khiêu dâm, phần mềm độc hại, lừa đảo và thông tin sai lệch, đồng thời có thể làm suy giảm lòng tin của mọi người đối với xã hội. Và bởi vì các hệ thống này được đào tạo dựa trên số lượng lớn văn bản và tác phẩm nghệ thuật do con người tạo ra, vi phạm bản quyền cũng là một vấn đề chưa được giải quyết.

EU sẽ yêu cầu các nhà phát triển AI mang tính nền tảng biên soạn và xuất bản bản tóm tắt các tài liệu có bản quyền đã được sử dụng trong dữ liệu đào tạo, và đào tạo các mô hình sao cho không tạo ra nội dung vi phạm pháp luật. Văn bản hiện tại của Đạo luật cũng yêu cầu bên sử dụng nói rõ nội dung nào được tạo bởi AI, nhưng yêu cầu này chỉ áp dụng cho nội dung "deepfake", tái hiện người thật đang làm hoặc nói một điều gì đó mà chưa có sự đồng thuận.

Một hạn chế đối với cách tiếp cận của EU là nếu các công ty đã tuân thủ các quy tắc gắn với mức rủi ro mà phần mềm của họ được xếp loại, thì sẽ gần như được miễn trách nhiệm pháp lý đối với tác hại có thể xảy ra, theo Matthias Spielkamp, Giám đốc điều hành của AlgorithmWatch, một tổ chức phi lợi nhuận có trụ sở tại Berlin (Đức) chuyên nghiên cứu về tác động của tự động hóa đối với xã hội. Hơn nữa, một công ty có thể xây dựng AI dựa trên công cụ của công ty khác, và công ty này lại xây dựng trên công cụ của công ty thứ ba, vì vậy không rõ ai sẽ chịu trách nhiệm pháp lý cho bất kỳ thiệt hại nào xảy ra.

Lilian Edwards, chuyên gia về luật Internet tại Đại học Newcastle (Vương quốc Anh), cho biết Đạo luật AI sẽ tiếp tục phát triển trước khi nó được thông qua và cảnh báo rằng không nên phân tích quá mức vào thời điểm này. Tuy nhiên, Edwards muốn Đạo luật xác định mức độ rủi ro của AI theo một bộ tiêu chí thay vì danh sách cố định các trường hợp sử dụng hiện có, đây cũng là một cách để bộ luật giữ được giá trị khi công nghệ tiếp tục phát triển.

Mỹ: Chưa có quy định liên bang

Trái ngược với EU, Mỹ không có đạo luật chung của liên bang cho AI, và cũng không có các quy tắc bảo vệ dữ liệu như Quy định về bảo vệ dữ liệu (GPDR) của EU.

Tháng 10/2022, Văn phòng Chính sách Khoa học và Công nghệ (OSTP) của Nhà Trắng phát hành bản phác thảo Dự luật về Quyền trong thời đại AI, một sách trắng mô tả 5 nguyên tắc hướng dẫn sử dụng AI, nói rằng AI phải an toàn và hiệu quả, không phân biệt đối xử, bảo vệ quyền riêng tư của mọi người và minh bạch. Mọi công dân nên được thông báo khi một AI đưa ra quyết định cho họ hoặc về họ, cùng với đó là được biết thông tin về cách AI đó hoạt động và quyền từ chối quyết định của AI và yêu cầu con người thay thế.

“Về mặt triết lý, bản phác thảo [của Mỹ] và Đạo luật AI của EU rất giống nhau trong việc xác định các mục tiêu của quy định về AI: đảm bảo rằng các hệ thống an toàn và hiệu quả, không phân biệt đối xử và minh bạch”, Suresh Venkatasubramanian, nhà khoa học máy tính tại Đại học Brown, cho biết. Venkatasubramanian là đồng tác giả bản phác thảo khi ông còn là trợ lý giám đốc khoa học và tư pháp tại OSTP. Mặc dù quan điểm thực thi của Mỹ khác EU, nhưng giữa hai bên có nhiều sự tương đồng, ông nói thêm.

Mỹ cũng đã tổ chức các phiên điều trần và các cuộc họp của tổng thống liên quan đến quy định về AI. Vào tháng 7, 7 công ty của Mỹ - gồm Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI - đã gặp Tổng thống Joe Biden và thông báo rằng họ sẽ thực hiện các biện pháp bảo vệ như kiểm tra sản phẩm của mình, báo cáo các hạn chế và nghiên cứu việc đặt các dấu hiệu để đánh dấu nội dung do AI tạo ra. Tuy nhiên, những lời hứa này nói chung mơ hồ và không có tính ràng buộc.

Sam Altman, người đứng đầu công ty công nghệ OpenAI, tại phiên điều trần của Thượng viện Mỹ về AI vào tháng 5.

Trong một phiên điều trần tại Thượng viện cũng trong tháng 7, Dario Amodei, người đứng đầu Anthropic, đã kêu gọi luật pháp Mỹ bắt buộc kiểm tra và thử nghiệm độ an toàn các mô hình AI.

“Giới luật sư thường có một câu châm biếm rằng người Mỹ đổi mới về mặt công nghệ, còn người châu Âu đổi mới về mặt pháp lý. Một số người nói rằng không phải ngẫu nhiên mà châu Âu đi trước trong việc điều chỉnh Big Tech, bởi vì họ có ít công ty công nghệ khổng lồ hơn và do đó ít vận động hành lang hơn", David Wang nói.

Trung Quốc: Giữ quyền kiểm soát

Cho đến nay, Trung Quốc là nước ban hành nhiều luật về AI nhất - mặc dù luật này được áp dụng cho các hệ thống AI mà các công ty chứ không phải chính phủ sử dụng.

Một bộ luật năm 2021 yêu cầu các công ty phải minh bạch và không thiên vị khi sử dụng dữ liệu cá nhân trong các quyết định được tự động hóa, và cho phép người dân quyền chọn không chấp nhận các quyết định đó.

Một bộ quy tắc năm 2022 về các thuật toán đề xuất, do Cơ quan quản lý không gian mạng Trung Quốc (CAC) ban hành, nói rằng những thuật toán này không được lan truyền tin giả, khiến người dùng nghiện nội dung hoặc thúc đẩy bất ổn xã hội.

Vào tháng 1 năm nay, CAC bắt đầu thực thi các quy tắc được ban hành vào năm 2022 nhằm kiểm soát deepfake và các dạng nội dung khác do AI tạo ra. Các nhà cung cấp dịch vụ tạo sinh hình ảnh, video, âm thanh hoặc văn bản phải xác minh danh tính của người dùng, có sự đồng thuận của người bị tái tạo bằng deepfake, đặt hình mờ, ghi lại toàn bộ nội dung đầu ra và phải khắc phục khi thông tin sai lệch được tạo ra.

Trong tháng 8, CAC sẽ bắt đầu thực thi các quy định khác nhằm vào các công cụ như ChatGPT và DALL-E, yêu cầu rằng các công ty phải ngăn chặn lan truyền tin giả, thông tin riêng tư, nội dung mang tính phân biệt đối xử hoặc bạo lực, hoặc bất cứ điều gì làm suy yếu các giá trị xã hội của Trung Quốc.

“Một mặt, chính phủ Trung Quốc rất muốn áp đặt kiểm soát. Mặt khác, có những mong muốn thực sự trong việc bảo vệ quyền riêng tư cá nhân khỏi sự xâm phạm của các công ty", theo Kendra Schaefer, trưởng bộ phận nghiên cứu chính sách công nghệ tại Trivium China, một công ty tư vấn có trụ sở tại Bắc Kinh chuyên cung cấp thông về chính sách của Trung Quốc.

Nguồn: