Mỹ mới thông báo khung quản lý rủi ro về AI với châu Âu, nhằm khiến các công ty trở nên có trách nhiệm hơn trong cách phát triển các hệ AI.
Viện Tiêu chuẩn và Công nghệ quốc gia Mỹ (NIST) mới thông báo khung quản lý rủi ro AI vào cuối tuần qua nhưng hiện tại vẫn chưa rõ là các công ty công nghệ lớn sẽ chấp thuận bộ hướng dẫn này không và chúng sẽ ăn khớp với khung pháp lý AI của châu Âu như thế nào. “Chúng tôi tin tưởng là khung tự nguyện của chúng tôi sẽ giúp phát triển và sử dụng AI theo cách cho phép các tổ chức ở Mỹ và cả các quốc gia khác tăng cường độ tin cậy AI trong khi vẫn quản lý được rủi ro dựa trên những giá trị của nền dân chủ “, Don Graves, Thứ trưởng Bộ Thương mại Mỹ, nói tại Washington. DC.
Hiện nay, có rất nhiều bước nhảy vọt trong quá trình tiến triển của AI – với rất nhiều nguy cơ rủi ro kèm theo. Hàng triệu người đã thử nghiệm ChatGPT của OpenAI cho các mục tiêu giáo dục, văn học và nhiều ứng dụng tích cực khác nhưng cũng có một số lợi dụng chatbot này để có thể có được thông tin để tạo ra các loại vũ khí tự chế như chai gây cháy (Molotov cocktail) và chất kích thích thần kinh methamphetamine.
Hiện tại các công ty phát triển AI lớn chủ yếu đặt trụ sở tại Mỹ và châu Âu.
15 tháng sau quá trình làm việc và hàng trăm lần xem xét đệ trình với các đối tác, trường đại học và tổ chức xã hội dân sự, NIST cuối cùng đã thông báo phiên bản đầu tiên về khung rủi ro AI. Nó bao gồm một số khuyến nghị mà nếu áp dụng theo có thể sẽ làm chuyển đổi nguồn nhân lực ở các công ty công nghệ và cho phép các tổ chức, cá nhân bên ngoài có được vai trò lớn hơn trong việc tạo ra các hệ thống AI.
Các chuyên gia, người sử dụng và “các cộng đồng bị ảnh hưởng” cần được “tham gia tư vấn” để đánh giá tác động của các hệ AI “khi cần thiết”. Còn các công ty phát triển các hệ AI phải đa dạng hơn – không chỉ về mặt đạo đức mà còn theo nghĩa nền tảng chuyên ngành, chuyên môn và kinh nghiệm – để điểm trúng vấn đề mà một nhóm đồng nhất về mặt chuyên môn có thể sẽ bỏ qua.
Khung khuyến nghị này kêu gọi cần xem xét nhiều hơn nữa tài liệu khi tạo ra các hệ AI, bao gồm một hồ sơ về tác động trông đợi của công cụ AI, không chỉ với công ty và người sử dụng mà còn cả cho xã hội và cả hành tinh.
Không giống như bản dự thảo luật của EU, không có việc sử dụng AI nào bị đặt giới hạn. Và mức nguy cơ rủi ro của những công ty đó khi phát triển AI như thế nào phụ thuộc vào chính họ. “Khung quản lý nguy cơ rủi ro AI có thể được sử dụng để ưu tiên tránh rủi ro chứ không quy định mức độ chấp nhận rủi ro”.
Sự chấp thuận còn chưa rõ ràng
Câu hỏi đặt ra lúc này là liệu các công ty trên thực tế có chấp nhận ý tưởng của NIST không. Kush Varshney, người phụ trách nhóm học máy của IBM, đã tán thành khung hướng dẫn ngay tại buổi công bố. Ông nói rằng có thể nó “rất hữu dụng” cho việc thúc đẩy nghiên cứu và đổi mới sáng tạo của công ty theo những hướng quan trọng với ngành công nghiệp, chính phủ và xã hội.
Người phát ngôn của DeepMind, một phụ trách phòng thí nghiệm AI thuộc Alphabet, công ty mẹ của Google, cho rằng “sẽ bình luận về nộ dung của NIST và chia sẻ nó với các nhóm nội bộ của công ty”, và có thể sẽ chia sẻ trường hợp nghiên cứu của mình với trung tâm nguồn lực của NIST. Dù DeepMind đặt tại Anh nhưng nó cũng ứng dụng AI để thúc đẩy các sản phẩm của Google.
Carlos Ignacio Gutierrez, một nhà nghiên cứu về chính sách AI tại Viện nghiên cứu Tương lai của sự sống, một think tank công nghệ đặt trụ sở tại Mỹ, chỉ ra là nhiều công ty lớn hiện đang có những khung quản lý rủi ro riêng. Vì vậy, ông đề xuất là ý tưởng của NIST có thể sẽ hữu dụng với các công ty nhỏ và vừa còn thiếu các nguồn lực xây dựng các quy tắc kiểm tra rủi ro.
Dẫu khung này còn thiếu tính bắt buộc của luật thì hy vọng của những người xây dựng nó vẫn là các công ty sẽ chấp thuận nó để giới hạn những vấn đề có thể họ sẽ gặp phải vì sự trục trặc của một hệ AI nào đây. Và các công ty có thể bắt đầu sử dụng nó trong khi đạo luật AI của EU sẽ còn mất nhiều năm tranh cãi mới có thể chính thức có hiệu lực.
Nhưng những gì được chấp thuận trong bộ khung này khi thực hành vẫn còn khó nắm bắt, khi bản thân NIST cũng khuyến khích các công ty điều chỉnh và đáp ứng các khuyến nghị tùy theo dạng AI mà họ tạo ra.
Sử dụng nó “có thể theo nhiều cách”, Gutierrez nói. “Có thể là họ sử dụng một phần trong đó, cũng có thể là họ theo toàn bộ những điều đó”.
Marc Rotenberg, chủ tịch của Trung tâm AI và chính sách số, một think tank có trụ sở tại Washington. DC, gọi bộ khung khuyến nghị của NIST là “một nguồn xuất sắc cho các tổ chức tham khảo trước khi họ sử dụng các hệ thống AI”.
Nhưng nó không phải là một thứ thay thế cho một bộ khung pháp lý “để đảm bảo sự phân bổ hiệu quả quyền và trách nhiệm”, ông nói.
Làm việc trong kết nối
Một câu hỏi khác là những hướng dẫn của NIST sẽ khớp với Đạo luật AI của EU như thế nào. Có thể là các công ty sẽ tuân theo những khuyến nghị của NIST để giảm thiểu những vấn đề về pháp lý của mình ở Mỹ trong khi tuân theo luật pháp của EU để tránh va chạm với các quy tắc này.
Nhưng Gutierrez thấy trước khả năng cả hai sẽ kết nối được với nhau. Soạn thảo Đạo luật AI của EU đặt điều kiện cho các công ty cần một khung quản lý rủi ro để đánh giá những nguy hiểm khi phát triển AI – và có thể theo những khuyến nghị của NIST, ông nói. “Có thể là cách tốt để hoàn thiện cả hai”, ông nhận xét.
Trong một dấu hiệu hướng đến sự tương kết, NIST thông báo hướng dẫn để khung của họ có thể dẫn đường tới Đạo luật AI của EU cũng như các công cụ quản lý AI khác.
Mỹ và EU đang hợp tác về AI thông qua Hội đồng Thương mại và Công nghệ, cuộc họp vẫn được tổ chức đều đặn giữa các quan chức hai bên. Trong cuộc họp mới đây vào tháng 12/2022, hai bên đã loan báo là “một lộ trình kết hợp” để nhấn mạnh các thuật ngữ quan trọng của AI, và trắc lượng chung để đảm bảo độ tin cậy của AI. Điều này không có nghĩa là họ sẽ quản lý công nghệ này theo cùng một cách nhưng việc có chung thuật ngữ có thể giúp các công ty định hướng về luật tốt hơn trong hoạt động ở cả hai lục địa.
Và tuần vừa qua, cả hai bên loan báo sẽ có thể cùng thực hiện nghiên cứu chung về AI và giải quyết những thách thức toàn cầu, bao gồm dự báo khí hậu, tối ưu mạng lưới điện và quản lý phản hồi trường hợp khẩn cấp. “Chúng tôi hy vọng về một cách tiếp cận xuyên lục địa trong quản lý rủi ro để có được những thực hành tốt nhất”, Alexandra Belias, người quản lý chính sách quốc tế công tại DeepMind, nói.
Nguồn: sciencebusiness.net