Các nhà hoạch định chính sách, các công ty và các tổ chức dân sự ở hai bên bờ Đại Tây Dương đều lo ngại về sự thiếu vắng của quy định pháp lý trước những mối nguy tiềm ẩn của AI tạo sinh. Do đó, EU đang đề xướng việc thiết lập một bộ quy tắc ứng xử tự nguyện để lấp đầy khoảng trống pháp lý này.

Bộ phận AI ở Deepmind của Google từng phát triển một hệ thống AI có thể đánh bại nhà vô địch thế giới cờ vây.
Bộ phận AI ở Deepmind của Google từng phát triển một hệ thống AI có thể đánh bại nhà vô địch thế giới cờ vây.

EU hiện đang kêu gọi các công ty tham gia hợp tác để tạo ra một cú hích mang tính quốc tế để có thể tự điều chỉnh các sản phẩm trí tuệ nhân tạo (AI) tạo sinh – dạng hệ thống AI có năng lực tạo ra văn bản, hình ảnh hay các sản phẩm truyền thống khác thông qua học hỏi các mẫu hình và cấu trúc từ dữ liệu huấn luyện đầu vào và tạo ra dữ liệu mới với những đặc điểm tương tự. Một trong những ví dụ điển hình của AI tạo sinh là ChatGPT, phần mềm mới ra mắt vào tháng 11 năm ngoái, gây xôn xao dư luận toàn cầu vì có thể viết tiểu luận, tham gia các thảo luận mang tính triết học và viết cả mã máy tính.

Vừa qua, các chuyên gia hàng đầu về AI thế giới, trong đó có các CEO của nhà phát triển ChatGPT là Sam Altman của OpenAI, Bill Gates của Gates Ventures, Lila Ibrahim của bộ phận AI ở Deepmind của Google, đã đưa ra một cảnh báo là AI tạo sinh có thể dẫn đến sự diệt vong của loài người. Họ cho rằng “giảm thiểu sự nguy hiểm của diệt vong do AI tạo sinh gây ra phải là một ưu tiên ở quy mô toàn cầu bên cạnh các nguy cơ rủi ro ở cấp độ xã hội khác như đại dịch và chiến tranh hạt nhân”.

Trước tình trạng luật điều chỉnh các hoạt động AI tụt hậu so với những tiến bộ của công nghệ cũng như dự báo khả năng nó sẽ đạt được trong tương lai, EU mong muốn cùng với Mỹ bàn thảo, tiến tới thiết lập một bộ quy tắc ứng xử để dẫn hướng các công ty cùng đăng ký tự nguyện tham gia. Đề xuất này đã được đặt ra trong khuôn khổ phiên họp Hội đồng Thương mại và công nghệ US/EU (TTC) trong tuần qua do bà Margrethe Vestager, Phó chủ tịch Ban điều hành Hội đồng chủ trì. “Chúng ta đang nói về thứ công nghệ có sức tiến triển theo từng tháng, vì vậy chúng ta cùng ngồi lại đây, ở phiên họp quan trọng này để cùng nhau thiết lập một sáng kiến để thu hút thật nhiều quốc gia cùng tham gia vào một bộ quy tắc ứng xử AI mà các công ty sẽ tình nguyện áp dụng theo”, bà Vestager nói.

Pháp luật sẽ tạo thời gian cho hành động phản hồi

Từ thời điểm ChatGPT được thiết lập vào năm ngoái, các công ty công nghệ lớn của Mỹ như Google và Microsoft đã cùng đưa ra những dịch vụ AI tạo sinh của mình, mở ra cánh cửa vào kỷ nguyên mới của đổi mới sáng tạo số.

Ở thời điểm này, khi mà các chính phủ nghĩ đến chuyện ban hành các điều luật để kiểm soát các tác động bất lợi tiềm ẩn của thứ công nghệ này thì có lẽ mọi thứ đã quá muộn, Hội đồng châu Âu đã trình bày một đề xuất quy định pháp lý về AI từ tháng tư năm ngoái nhưng quá trình đưa dự thảo luật này sang Nghị viện châu Âu lại diễn ra rất chậm chạp. Bà Vestager hy vọng những cuộc trao đổi ban đầu giữa ba cơ quan luật pháp của EU, dự kiến sẽ diễn ra vào những tuần tới, với một thỏa thuận được kỳ vọng sẽ dẫn đến khả năng đạt được vào cuối năm nay. Nhưng ngay cả khi điều này diễn ra thì “pháp luật cũng sẽ không có hiệu lực lập tức, có thể sẽ mất đến vài ba năm sau, đấy là trong những trường hợp thuận lợi nhất”, Vestager cảnh báo.

Được coi là một thỏa thuận thay thế để lấp đầy khoảng trống pháp lý này, Vestager hy vọng là sẽ tạo ra được một thỏa thuận quốc tế giữa nhóm các quốc gia G7 và một số quốc gia mời như Ấn Độ và Indonesia. Có thể điều này sẽ hiệu quả, khi các quốc gia trong khối này, vốn đại diện cho một phần ba dân số thế giới, cùng ký vào một bộ hướng dẫn quy tắc ứng xử AI.

Giảm thiểu những nhược điểm

Tại phiên họp cấp bộ trưởng lần thứ tư của TTC tại Luleå, Thụy Điển, nơi cả EU và Mỹ đều nhận thức được rằng, dẫu các công nghệ AI đều có những cơ hội kinh tế lớn lao nhưng chúng cũng phô ra những nguy cơ rủi ro về mặt xã hội rất đáng kể. Cuộc họp này cho thấy những kết quả ban đầu đạt được trong nỗ lực thực hiện một lộ trình hợp tác để có được AI đáng tin cậy và quản lý rủi ro có thể đến.

Ngoại trưởng Mỹ Anthony Blinken nói, TTC có thể là một nền tảng hợp lý cho sự hình thành của các bộ quy tắc ứng xử tự nguyện tiên tiến nhằm giảm thiểu những nhược điểm tiềm ẩn của AI tạo sinh trong khi vẫn khuyến khích được những lợi ích của nó. “Tôi nghĩ chúng ta chung niềm tin là TTC có một vai trò quan trọng trong việc giúp thiết lập các quy tắc ứng xử tự nguyện có thể mở ra cho tất cả các quốc gia cùng chí hướng, bởi vì hầu như luôn luôn có một khoảng trống tồn tại khi những công nghệ mới xuất hiện, và có một tác động lớn lên con người, và thời điểm này chính là lúc các chính phủ, các tổ chức cùng xác lập cách pháp luật có thể điều chỉnh chúng như thế nào”, ngoại trưởng Mỹ Blinken nói.

TTC đã lập tức thành lập ba nhóm chuyên gia để cùng bàn luận về việc nhận diện các tiêu chuẩn và công cụ cho AI đáng tin cậy. Công việc này hiện đang được tập trung vào các hệ AI tạo sinh. Ba nhóm chuyên gia đã đồng ý về một cách phân loại các thuật ngữ về AI và cùng theo dõi sự xuất hiện của những rủi ro mà AI có thể dẫn đến.

Bà Vestager cho biết, TTC sẽ cùng soạn thảo một dự thảo về bộ quy tắc hướng dẫn ứng xử AI với ngành công nghiệp trong vài tuần tới, với hy vọng là Canada, Anh, Nhật Bản, Ấn Độ và các quốc gia khác ủng hộ nỗ lực này.

Đại diện của lĩnh vực tư nhân cũng có mối lo ngại không kém các nhà lập pháp châu Âu và Mỹ về những rủi ro nhìn thấy của thứ công nghệ này. Dario Amodei, CEO của startup về AI của Mỹ là Anthropic, cho rằng không ai biết những gì mà một hệ AI có thể tạo ra cho đến khi nó được hàng triệu người sử dụng. Do đó, các công ty cần phải nên tránh sử dụng các ứng dụng từ AI theo cách ‘ăn xổi’ hoặc nhìn vào lợi ích trước mắt, có thể sẽ làm ảnh hưởng đến các nỗ lực điều chỉnh thứ công nghệ này theo cùng cách các chính phủ đã sử dụng khi điều chỉnh ngành công nghiệp ô tô hoặc hàng không.

“Khó khăn trong việc dò ra những khả năng nguy hiểm tiềm ẩn ở công nghệ này cũng là một trở ngại lớn trong việc giảm thiểu nguy cơ của chúng”, Amodei lưu ý. “Một vài tiêu chuẩn hoặc đánh giá sẽ là những điều kiện tiên quyết để quản lý AI hiệu quả hơn”.

Phó chủ tịch Microsoft Brad Smith cho rằng EU, Mỹ, cùng với các quốc gia G7, và một số quốc gia khác có thể đi theo hướng thiết lập các tiêu chuẩn AI tự nguyện. “Nếu chúng ta có thể cùng làm việc với nhau về một cơ sở AI tự nguyện thì mọi thứ sẽ diễn ra nhanh hơn và đem lại nhiều lợi ích cho chúng ta hơn”.