Bất chấp những kêu gọi sớm đưa ra những luật mới trong hợp tác quốc tế về AI, Nhà Trắng sẽ từng bước một, xây dựng khung quản lý rủi ro AI trong nước và mở một cuộc thảo luận với các gã khổng lồ công nghệ như Google, Microsoft và những công ty công nghệ sử dụng AI trong việc tuân theo những điều luật trong khủng quản lý đó.

Phòng thí nghiệm AI và Robot của Phòng thí nghiệm quốc gia Lawrence Berkeley (Bộ Năng lượng Mỹ), do TS. Yan Zeng dẫn dắt, sử dụng AI để nghiên cứu về vật liệu.
Phòng thí nghiệm AI và Robot của Phòng thí nghiệm quốc gia Lawrence Berkeley (Bộ Năng lượng Mỹ), do TS. Yan Zeng dẫn dắt, sử dụng AI để nghiên cứu về vật liệu.

Nhà Trắng một mặt loan báo một số chỉ số đo lường mở rộng để đảm bảo sự an toàn của trí tuệ nhân tạo (AI) nhưng mặt khác lại tạm dừng việc đề xuất những luật mới hoặc hợp tác quốc tế về AI.

Vào đầu tháng năm, những bước đi mới đã được Nhà Trắng loan báo, trong đó bao gồm việc hình thành những chính sách mới của chính phủ về sử dụng AI. Một khoản kinh phí đầu tư thêm trị giá 140 triệu USD phân bổ cho Quỹ Khoa học Mỹ (NSF) để tài trợ cho các nghiên cứu về ứng dụng AI, và một thỏa thuận với nhiều công ty công nghệ Mỹ để cho phép các hacker thử nghiệm các phép thử về độ an toàn mở trên các hệ AI của các công ty tại một hội thảo về khoa học máy tính sắp diễn ra.

Nhưng khi được hỏi trong một cuộc họp báo về những thỏa thuận quốc tế hoặc những vấn đề pháp lý có thể bàn đến trong tương lai thì một quan chức của Chính phủ Mỹ nói một cách ngần ngại rằng “chúng tôi cần đi cẩn trọng từng bước một”. Trong khi thừa nhận “đây rõ ràng là một công nghệ toàn cầu”, ông cũng đề cập đến những phiên họp của Hội đồng Thương mại và Công nghệ Mỹ - châu Âu được tổ chức gần đây như một diễn đàn thảo luận quốc tế về AI, và loại bỏ đề xuất việc Mỹ có thể muốn “cạnh tranh” với những quy định pháp luật do châu Âu đề xuất. Một phiên họp vào tháng 12/2022 đã dẫn đến những sáng kiến hợp tác giữa Mỹ và châu Âu về AI bao gồm cơ sở hạ tầng số và các tiêu chuẩn sản xuất, dẫu châu Âu cảm thấy không cảm thấy hài lòng về “cho phép các hệ AI đáng tin cậy để tăng cường đổi mới sáng tạo, các rào cản hạ thấp hơn để cho phép giao dịch thương mại, thúc đẩy cạnh tranh, áp dụng các giá trị chung và bảo vệ quyền con người phổ quát cũng như phẩm giá của các công dân”.

Viên quan chức này cũng cho biết việc Mỹ tập trung vào chính sách quốc gia về AI. Trong cuộc hội thảo tại Washington giữa Phó Tổng thống Kamala Harris và bốn CEO của các công ty công nghệ như Microsoft, Open AI, Alphabet/Google, và Anthropic - một công ty khởi nghiệp chuyên về phát triển các hệ thống AI và các mô hình ngôn ngữ với mục tiêu sử dụng AI có trách nhiệm, do các thành viên cũ của OpenAI thành lập. Đây là một thảo luận thẳng thắn về những rủi ro mà chúng ta có thể thấy ở thời điểm hiện tại và trong tương lai gần”, ông nói. Các quy định pháp lý về AI sẽ được thảo luận tiếp ở Quốc hội Mỹ.

Tổng thống Biden “đã có quan điểm rất rõ ràng về sự cần thiết phải thảo luận vấn đề này ở Quốc hội Mỹ trên cơ sở đóng góp của cả hai đảng, nhằm đảm bảo cho các công ty công nghệ phải chịu trách nhiệm với sản phẩm của mình, trong đó có cả việc sàng lọc các thuật toán do mình tạo ra”.

Cảm giấc bất định


Những biện pháp mới của chính quyền Mỹ, dẫu mới chỉ ở mức khởi động từ Nhà Trắng, có thể chỉ đem lại cảm giác không chắc chắn về chính sách về AI của Mỹ mà nhiều nhà quan sát nước ngoài đã chỉ ra. Và từ nhiều quốc gia, tiếng chuông cảnh báo về AI đã được rung lên. Bên cạnh Đạo luật AI của châu Âu mà đang được Nghị viện châu Âu bàn bạc đến, Chính phủ Ý vào tháng trước đã cấm sử dụng hệ thống ChatGPT để xử lý dữ liệu công dân Italia, chỉ ra sự rủi ro với quyền riêng tư.

Hiện tại, chưa có sự đồng thuận nào ở Quốc hội Mỹ về những quy định cho AI, cho thấy sự bế tắc giữa các nghị sĩ Đảng Cộng hòa và Dân chủ về các lĩnh vực của chính sách công. Và kết quả là bằng sắc luật, chính phủ của ông Biden đã loan báo về một loạt các biện pháp đã được họ gia tăng trong năm qua – bao gồm công khai một kế hoạch chi tiết về ứng phó chính sách với việc sự lạm dụng AI trong từng lĩnh vực, thay vì có thể áp dụng cho công nghệ này ở mọi lĩnh vực, vốn được coi là tiền thân của một đạo luật về các quyền với AI để nhấn mạnh vào những rủi ro mà công nghệ này có thể mang lại; và một khung quản lý rủi ro AI do Viện Nghiên cứu Tiêu chuẩn và Công nghệ quốc gia Mỹ (NIST) xây dựng nhưng người ta không rõ là các công ty công nghệ lớn có chấp thuận khung quy định này hay không bởi đây là một khung tự nguyện chứ không mang tính bắt buộc.

Từ trước đến nay, các vấn đề liên quan đến rủi ro AI được thả lỏng cho chính các công ty xử lý theo chính sách của riêng mình, ngoại trừ những trường hợp rõ ràng là công nghệ đang được triển khai có vi phạm quy định tồn tại về quyền riêng tư, làm hại hoặc lừa gạt. Nhấn mạnh vào điều này, người phụ trách Ủy ban Thương mại liên bang Mỹ đã cảnh báo một cách công khai là sẽ bắt các công ty AI tuân theo các quy định trong khung quản lý đó.

Điểm kết thúc?

Kể từ khi những công cụ AI được coi là gây chú ý dư luận nhất từ trước đến nay ra đời, nhiều nhà nghiên cứu Mỹ và nhiều lãnh đạo các công ty công nghệ Mỹ đã bắt đầu thúc đẩy việc tạm dừng cơn sốt phát triển AI hiện nay. Vào tháng ba, một nhóm các người dẫn đầu về công nghệ Mỹ, trong đó có nhà sáng lập Tesla là Elon Musk và đồng sáng lập Apple Steve Wozniak, thúc đẩy một hành động tạm dừng cuộc chạy đua phát triển AI thương mại đã nằm ngoài sự kiểm soát hiện nay. Và vào ngày 3/5/2023, Geoffrey Hinton, một nhà tiên phong về AI người Canada gốc Anh, trả lời CBC Radio là việc AI không được kiểm soát có thể dẫn đến “điểm chót của loài người” bởi “Tôi nghĩ là có thể tưởng tượng ra đến một tương lai mà một dạng trí tuệ tiên tiến nào đó có thể vượt ra ngoài tầm với của chúng ta. Trong vòng 50 năm qua, tôi đã cố gắng làm cho máy tính có thể học được với hy vọng là chúng có thể học như con người. Nhưng mới gần đây, tôi đi đến kết luận là dạng trí tuệ số mà chúng ta đang phát triển như những chatbot lớn trên thực tế lại là hình thức trí tuệ hoàn toàn khác biệt với trí tuệ sinh học – và có thể trên thực tế lại xuất sắc hơn nhiều. Đó có thể là điểm kết thúc của con người”.

Trong những biện pháp mới được loan báo, điểm đáng chú ý là một kế hoạch do Văn phòng Quản lý và ngân sách Nhà Trắng mở một cuộc tham vấn công vào mùa hè này để soạn thảo những hướng dẫn cho chính quyền liên bang sử dụng AI hoặc mua sắm công AI.

Nhà Trắng cũng kêu gọi “một cam kết độc lập của Google, OpenAI, Microsoft, và các công ty công nghệ khac “tham gia vào một đánh giá công khai về các hệ AI” tại DEFCON 31, một hội nghị của các hacker tại Las Vegas vào tháng tám này. Tại đó, các mô hình AI của các công ty sẽ “được đánh giá thông qua hàng nghìn thành viên của cộng đồng này và cả các chuyên gia AI, nhằm khám phá cách các mô hình này có thể phù hợp với những khuyến nghị trong Tuyên ngôn về AI của chính phủ không.