Có cách nào để chúng ta lường trước, hoặc có công cụ nào để chúng ta “cầm cương” các thuật toán ngày càng xâm nhập vào nhiều mặt của đời sống con người?

Công nghệ nhận diện nhờ AI và camera khắp mọi nơi giúp đảm bảo an ninh nhưng cũng đặt ra những thảo luận về quyền riêng tư và vấn đề giám sát. Ảnh: Shutterstock
Công nghệ nhận diện nhờ AI và camera khắp mọi nơi giúp đảm bảo an ninh nhưng cũng đặt ra những thảo luận về quyền riêng tư và vấn đề giám sát. Ảnh: Shutterstock

Khi thuật toán xâm nhập vào nhiều mặt của đời sống

Sự hiện diện của trí tuệ nhân tạo (AI) trong mọi lĩnh vực của đời sống giúp thúc đẩy năng suất lao động và hiệu quả nền kinh tế, giúp cuộc sống thuận tiện hơn nhưng ngược lại cũng đang làm dấy lên nhiều câu hỏi lo ngại “liệu AI có cướp việc của chúng ta?”, “liệu thuật toán có thao túng chúng ta”, “liệu AI sẽ chiếm quyền định đoạt thế giới này?”, “liệu chúng ta, một ngày nào đó sẽ phụ thuộc vào AI?”...

Có thể ai đó sẽ cho là quá sớm để đặt ra những câu hỏi như vậy, nhưng thực ra chúng ta đã phải đối diện với nhiều vấn đề ngay trước mắt. Chẳng hạn, với những công nghệ đã sớm được sử dụng rộng rãi như nhận diện bằng AI, một khi chúng ta bị “nhận diện” ở tất cả mọi nơi, bị “lập hồ sơ” trong từng hành động và bị “dự đoán” mọi thói quen, mọi sự lựa chọn thì liệu chúng ta có chắc rằng mình vẫn giữ được trong tay quyền tự chủ và không bị thao túng? Hoặc đơn giản hơn, mọi “dấu vết” tìm kiếm trên Google, trò chuyện trên mạng xã hội đều được AI ghi nhận và lại tiếp tục gợi ý, định hướng, điều khiển nội dung cho chúng ta đọc/ xem sau đó. Hoặc khi các công cụ AI được sử dụng ngày càng nhiều nhằm giúp sàng lọc và đưa ra các quyết định, lựa chọn, kể cả trong sàng lọc những người thụ hưởng các dịch vụ thương mại, dịch vụ công thì sao?

“Đã có nhiều minh chứng về bất công bằng trong xã hội khi vận hành hệ thống AI nếu có sự sai lệch về dữ liệu, sai lệch về nhận thức”, TS. Nguyễn Phương Châm, thành viên nhóm nghiên cứu “Xây dựng bộ nguyên tắc và một số hướng dẫn về AI có trách nhiệm ở Việt Nam”, của trường Đại học Luật, Đại học Quốc gia Hà Nội, cho biết tại hội thảo “Góp ý dự thảo Bộ nguyên tắc và một số hướng dẫn về AI có trách nhiệm ở Việt Nam” ngày 12/12/2024.

Bà lấy ví dụ về việc sử dụng AI trong tuyển dụng nhưng dữ liệu lại có sự phân biệt đối xử trong dữ liệu, hoặc là sai lệch về thuật toán, ví dụ như trong hoạt động tín dụng, nếu sử dụng mô hình của nước ngoài, có đánh giá lịch sử tín dụng, khả năng thanh khoản thì sẽ có sự sai lệch.

Vì Việt Nam người ít dùng thẻ tín dụng, nhất là ở nông thôn miền núi, hầu như không có lịch sử tín dụng, do đó nếu phê duyệt hồ sơ vay dựa trên tiêu chí này sẽ tạo ra sự phân biệt đối xử với nhóm nhân khẩu học không có lịch sử tín dụng. Để đảm bảo được tính công bằng khi sử dụng AI, sẽ “chỉ giảm thiểu rủi ro được nếu minh bạch, xác định được được các nguồn rủi ro. Các hệ thống AI phải minh bạch mới xác định được rủi ro”, bà Phương Châm nhấn mạnh.

Tuy nhiên, trên thực tế, không phải nhà phát triển AI nào cũng đảm bảo được tiêu chí minh bạch, nghĩa là “làm rõ cho các bên liên quan hiểu được về cách thức xử lý dữ liệu cơ bản nhất giúp các bên liên quan hiểu được mình tham gia như thế nào vào hệ thống (có sử dụng AI)”, TS. Nguyễn Anh Đức, thành viên khác của nhóm nghiên cứu cho biết. Nhưng thực ra, “có đến 61% các nhà nghiên cứu phát triển AI và các nhà triển khai AI không công khai minh bạch hệ thống, theo Báo cáo của hãng IBM về Chỉ số áp dụng AI toàn cầu năm 2022”, TS. Anh Đức nói thêm.

Khi không được giải thích về cách vận hành, ra quyết định và tác động của hệ thống, AI có thể được coi là một “hộp đen”, khiến người dùng không hiểu các quyết định đang được thực hiện như thế nào hoặc dữ liệu đang được sử dụng ra sao. Báo cáo của IBM nêu rõ rằng phần lớn các doanh nghiệp chưa thực hiện các bước quan trọng để giảm thiểu sai lệch AI, đánh giá các biến thể hiệu suất và độ lệch mô hình của AI hay giải thích các quyết định do AI cung cấp.

Đây chính là những nội dung mà nhóm nghiên cứu đề xuất “Dự thảo bộ nguyên tắc và hướng dẫn về trí tuệ nhân tạo có trách nhiệm ở Việt Nam đã tiến hành”.

Bảy nguyên tắc về trí tuệ nhân tạo có trách nhiệm

Tại Hội thảo, nhóm nghiên cứu trường Đại học Luật, Đại học Quốc gia Hà Nội đã trình bày báo cáo sơ bộ về quá trình nghiên cứu và đưa ra đề xuất dự thảo Bộ nguyên tắc và một số hướng dẫn về AI có trách nhiệm ở Việt Nam.

Nhóm nghiên cứu, do PGS.TS Nguyễn Thị Quế Anh, nguyên Hiệu trưởng trường Đại học Luật đứng đầu, không chỉ tham chiếu các khung lý thuyết, kinh nghiệm của các nước tiên tiến về các quy định nghiên cứu, ứng xử với AI có trách nhiệm mà còn tiến hành khảo sát, đánh giá việc ứng dụng AI trong thực tiễn (nhóm đã tổ chức nghiên cứu, với 721 phiếu, ở 10 nhóm đối tượng thuộc các vùng miền khác nhau, chưa kể phỏng vấn sâu các nhà quản lý, chuyên gia trong các lĩnh vực và nghiên cứu trường hợp).

PGS.TS Nguyễn Thị Quế Anh cho biết, Dự thảo Bộ nguyên tắc và Hướng dẫn được xây dựng thành một bộ quy tắc ứng xử - như một “bộ luật mềm” về AI, thường xuyên được cập nhật. Năm giá trị cốt lõi của phát triển AI có trách nhiệm tại Việt Nam là lấy con người làm trung tâm; thúc đẩy mục tiêu phát triển bền vững; thúc đẩy phát triển bao trùm; tôn trọng, bảo tồn và phát huy các giá trị văn hóa, đạo đức, xã hội, truyền thống của Việt Nam; thúc đẩy đổi mới sáng tạo có trách nhiệm trên cơ sở hài hòa, cân bằng lợi ích và rủi ro của các hệ thống AI.

Năm giá trị cốt lõi này được chi tiết hóa vào trong bảy nguyên tắc, bao gồm: bền vững, an toàn, bảo mật; bảo vệ quyền riêng tư và dữ liệu cá nhân; minh bạch và giải thích được; công bằng (bình đẳng, bao trùm và không phân biệt đối xử); tôn trọng quyền tự chủ và tự quyết định; trách nhiệm giải trình; cơ chế xử lý phản hồi, khiếu nại và khắc phục thỏa đáng.

Với từng nguyên tắc, nhóm nghiên cứu đều đưa ra những yêu cầu cơ bản và hướng dẫn thực hiện. Có hướng dẫn chung và hướng dẫn chi tiết cho cả nhà phát triển AI (trong việc thiết lập, triển khai, công bố quy trình giải trình về tổ chức, về chiến lược, nhu cầu huấn luyện AI, minh bạch với các bên tham gia vào chuỗi AI; thiết lập và đưa ra quy trình quản lý rủi ro, có lựa chọn thay thế cho hệ thống tự động bằng các thao tác do con người thực hiện), với nhà triển khai (trong việc tạo ra, ghi lại và lưu trữ các bằng chứng, dữ liệu phục vụ cho rà soát, đánh giá), với người dùng các hệ thống này (để hiểu, cập nhật các thông tin của nhà phát triển, nhà triển khai, nhất là các thông tin về sự cố).

Phát biểu tại Hội thảo, Thứ trưởng Bộ KH&CN Bùi Thế Duy đánh giá, “về mặt công nghệ, chúng ta có thể đi sau thế giới rất nhiều, về quản trị công nghệ thì chúng ta đi song song”. Bộ KH&CN là một trong những đối tác chính, tham gia góp ý và đánh giá các sản phẩm của Dự án.

Thứ trưởng Bùi Thế Duy cũng tự hào và vui mừng khi ba mục tiêu lớn của dự án đã nhanh chóng trở thành hiện thực, dù một năm trước đây mới chỉ là những ý tưởng manh nha. Mục tiêu thứ nhất là xây dựng được bộ nguyên tắc phù hợp với bối cảnh Việt Nam, có thể ứng dụng ngay và Bộ KH&CN sẽ xem xét để cập nhật. Thứ hai, Dự án đã thành lập nhóm nghiên cứu đầu tiên tại Việt Nam đánh giá trách nhiệm và tác động của công nghệ mới. Thứ ba, Dự án nhen nhóm hình thành một nhóm chuyên gia người Việt về vấn đề công nghệ mới có khả năng tham gia các nhóm nghiên cứu quốc tế.

Ông cũng hy vọng Bộ nguyên tắc về AI có trách nhiệm ở Việt Nam sẽ được hoàn thiện và sớm ban hành, đồng thời mong muốn nhóm nghiên cứu tiếp tục đánh giá thử nghiệm, xây dựng hướng dẫn cách sử dụng và áp dụng bộ nguyên tắc này trong một số lĩnh vực cụ thể.

Từ phía cơ quan lập pháp, ông Nguyễn Phương Tuấn, Phó Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội cho biết, “tôi đang suy nghĩ nhất về trách nhiệm của nhà phát triển AI. Nếu AI gây bất ổn cho xã hội thì đi truy trách nhiệm như thế nào? Luật của ta đang quy định chung chung và còn chưa rõ. Nên tôi hy vọng là bộ nguyên tắc này càng xây dựng chi tiết, cho các ngành thì càng tốt”.

Ông đánh giá cao kết quả nghiên cứu, nhất là việc đưa ra được dự thảo Bộ nguyên tắc, nếu làm kỹ, chi tiết từng lĩnh vực, có thể áp dụng vào thực tiễn ngay khi Luật Công nghiệp công nghệ số được ban hành.

Đối với các nhà nghiên cứu khoa học xã hội, việc bắt đầu có các nhóm nghiên cứu về những công nghệ mới nổi có tác động rộng rãi đến xã hội là điều rất cần thiết. GS.TS Hoàng Bá Thịnh, Giám đốc Trung tâm nghiên cứu giới, dân số, môi trường và các vấn đề xã hội rất quan tâm đến kết quả nghiên cứu này và đánh giá, trong nghiên cứu về con người, như trong ngành xã hội học của ông “muốn thực hành thì phải tuân theo chuẩn quy tắc nghề nghiệp. Còn với AI thì sao? Những nhà phát triển AI có thực hành bộ quy tắc này không? Khi chúng ta có được bộ nguyên tắc như vậy thì mới có lợi cho an ninh xã hội”.

Thời gian tới AI phát triển bùng nổ, AI ngày càng được “nhúng” sâu vào các quyết định ảnh hưởng tới mỗi cá nhân và cả ở quy mô toàn xã hội, các tổ chức, công ty ngày càng nghiên cứu và phát triển, “nhúng” nhiều công cụ AI vào sản phẩm, quy trình của mình. Bối cảnh đó càng cần các bộ công cụ ràng buộc để đảm bảo rằng những AI được phát triển không đem lại hệ lụy không mong muốn cho xã hội, mà giờ đây có thể chưa ai nhìn thấy hết hậu quả.

Bài đăng KH&PT số 1323 (số 51/2024)