Theo bộ nguyên tắc này, các nhà phát triển - bao gồm các cơ quan, tổ chức KH&CN, tổ chức, doanh nghiệp, cá nhân - cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống AI.

h
Việc nghiên cứu, phát triển các hệ thống AI ở Việt Nam cần hướng đến một xã hội lấy con người làm trung tâm, mọi người được hưởng những lợi ích từ cuộc sống cũng như từ các hệ thống AI. Ảnh: ITCVietnam

Mới đây, Bộ KH&CN đã ban hành Quyết định số 1290 về việc hướng dẫn một số nguyên tắc đối với việc nghiên cứu, phát triển các hệ thống Trí tuệ nhân tạo (AI) có trách nhiệm.

Đây là những nguyên tắc sẽ góp phần kiểm soát các rủi ro có thể xảy đến trong quá trình phát triển và sử dụng AI. Các nguyên tắc được đề cập trong tài liệu hướng này dẫn gồm:

1. Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo

Nhà phát triển cần chú ý khả năng kết nối và tương tác của các hệ thống AI. Điều này sẽ giúp tăng cường lợi ích của hệ thống AI thông qua quá trình kết nối với các hệ thống AI khác, cũng như tăng cường sự phối hợp để kiểm soát rủi ro.

2. Tính minh bạch

Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống AI và khả năng giải thích các phân tích có liên quan.

Theo đó, các hệ thống AI tuân theo nguyên tắc này thường là các hệ thống có thể ảnh hưởng đến tính mạng, thân thể, quyền riêng tư hoặc tài sản của người dùng hoặc bên thứ ba liên quan. Khi đó, các nhà phát triển cần chú ý đến khả năng xác định rõ các đầu vào và đầu ra của hệ thống AI cũng như khả năng giải thích liên quan dựa trên các đặc điểm của công nghệ được áp dụng và cách sử dụng chúng để đảm bảo có sự tin tưởng của xã hội, bao gồm cả người dùng.

3. Khả năng kiểm soát

Nhà phát triển cần chú ý đến khả năng kiểm soát hệ thống AI. Để đánh giá các rủi ro liên quan đến khả năng kiểm soát của hệ thống AI, các nhà phát triển cần thực hiện đánh giá trước (là quá trình đánh giá liệu hệ thống có đáp ứng với các yêu cầu kỹ thuật và tiêu chuẩn tương ứng).

Ngoài ra, để đảm bảo khả năng kiểm soát hệ thống AI, các nhà phát triển nên chú ý đến việc giám sát hệ thống (có công cụ đánh giá/giám sát hoặc hiệu chỉnh/cập nhật dựa trên các phản hồi của người dùng) và các biện pháp ứng phó (như ngắt hệ thống, ngắt mạng…) được thực hiện bởi con người hay các hệ thống AI đáng tin cậy khác.

4. An toàn

Nhà phát triển cần đảm bảo rằng hệ thống AI sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba kể cả thông qua trung gian.

5. Bảo mật

Các nhà phát triển cần chú ý đến tính bảo mật của hệ thống AI. Bên cạnh việc tuân thủ các văn bản, hướng dẫn và thực hiện các biện pháp bảo mật thông tin theo quy định (của các cơ quan chuyên môn, có thẩm quyền), các nhà phát triển cần chú ý đến độ tin cậy và khả năng chống chịu các dạng tấn công hoặc tai nạn vật lý của hệ thống AI; cần đảm bảo tính bảo mật, sự toàn vẹn và tính khả dụng của các thông tin cần thiết liên quan đến sự an toàn thông tin của hệ thống AI.

Ngoài ra, cần thực hiện đánh giá trước nhằm xác định và kiểm soát các rủi ro liên quan đến an toàn của hệ thống AI; thực hiện các biện pháp cần thiết để duy trì tính bảo mật theo thiết kế.

6. Quyền riêng tư

Các nhà phát triển cần đảm bảo rằng hệ thống AI không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba.

Quyền riêng tư được đề cập trong nguyên tắc này bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc.

7. Tôn trọng quyền và phẩm giá con người

Khi phát triển các hệ thống AI có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan.

Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống AI.

Ngoài ra, các nhà phát triển cần thực hiện các biện pháp phòng ngừa để đảm bảo rằng hệ thống AI không vi phạm các giá trị của con người, đạo đức xã hội theo các nguyên tắc cơ bản của Việt Nam.

8. Hỗ trợ người dùng

Các nhà phát triển cần đảm bảo rằng hệ thống AI sẽ hỗ trợ người dùng và tạo điều kiện cho họ cơ hội lựa chọn theo cách phù hợp, chẳng hạn như các cài đặt mặc định, các tùy chọn dễ hiểu, phản hồi, cảnh báo khẩn cấp, xử lý lỗi.

Bên cạnh đó, cần có những biện pháp giúp những người dễ bị tổn thương trong xã hội (người già, người khuyết tật) có thể sử dụng hệ thống một cách dễ dàng.


9. Trách nhiệm giải trình

Các nhà phát triển cần thực hiện trách nhiệm giải trình của mình đối với các bên liên quan bao gồm cả người dùng hệ thống AI.

Cụ thể, các nhà phát triển cần cung cấp cho người dùng thông tin để giúp họ lựa chọn và sử dụng hệ thống AI.

Ngoài ra, để tăng sự chấp nhận của xã hội đối với các hệ thống AI, các nhà phát triển nên cung cấp cho người dùng thông tin và mô tả về đặc tính kỹ thuật của hệ thống AI mà họ phát triển, các thuật toán, các cơ chế đảm bảo an toàn; và lắng nghe các quan điểm và đối thoại với các bên liên quan.

Mô hình lái mô phỏng giải pháp DMS trong lĩnh vực Smart Mobility
Mô hình lái mô phỏng giải pháp DMS trong lĩnh vực Smart Mobility doCTCP Nghiên cứu và Ứng dụng AI (VinAI) phát triển. Ảnh: Vietnamnet

Đi cùng với chín nguyên tắc, Bộ KH&CN cũng cho biết việc nghiên cứu, phát triển các hệ thống AI ở Việt Nam cần hướng đến một xã hội lấy con người làm trung tâm, mọi người được hưởng những lợi ích từ cuộc sống cũng như từ các hệ thống AI. Với hướng phát triển đó, các bên cần đảm bảo sự cân bằng hợp lý giữa lợi ích và rủi ro của các hệ thống AI. Nói cách khác, cần phát huy lợi ích của AI thông qua các hoạt động nghiên cứu, phát triển và đổi mới sáng tạo song song với giảm thiểu nguy cơ xâm phạm quyền hoặc lợi ích hợp pháp của các tổ chức, cá nhân từ các hệ thống AI.

Nhìn chung, việc ban hành quy định liên quan đến AI là xu hướng chung của các nước quan tâm đến lĩnh vực này. Thế giới hiện đã có một số bộ nguyên tắc hướng dẫn tương tự. Giữa tháng 12 năm ngoái, Liên minh châu Âu (EU) đã đạt được thỏa thuận lịch sử giữa các quốc gia thành viên để tạo điều kiện thông qua Đạo luật AI. Mô hình quản lý AI của EU sẽ dựa trên nguyên tắc chung là tôn trọng quyền con người và dự phòng rủi ro. Luật của EU đưa ra bốn cấp độ rủi ro, liên quan chặt chẽ đến các quyền con người mà họ coi trọng.

Gần hơn, vào ngày 19/4 năm nay, Nhật Bản đã giới thiệu một bộ hướng dẫn về phát triển và triển khai AI có trách nhiệm trên nhiều lĩnh vực kinh doanh khác nhau. Những hướng dẫn này thể hiện nỗ lực cân bằng các tiến bộ công nghệ với những cân nhắc về đạo đức, lợi ích xã hội và quản lý rủi ro. Theo đó, bộ hướng dẫn của Nhật Bản nhấn mạnh cam kết “AI cho mọi người”, thúc đẩy cách tiếp cận toàn diện nhằm đảm bảo công nghệ AI đóng góp tích cực cho mọi tầng lớp xã hội.

Tương tự như Việt Nam, các quốc gia Đông Nam Á khác đang tự thiết lập các khung và bộ công cụ quản trị theo mô hình tự nguyện và hướng dẫn tự đánh giá. Reuters dẫn lời các giám đốc điều hành công nghệ cho biết cách tiếp cận tương đối không can thiệp của ASEAN thân thiện hơn với doanh nghiệp vì nó hạn chế gánh nặng tuân thủ trong một khu vực mà luật pháp hiện hành đã khá phức tạp, và điều này cũng cho phép doanh nghiệp đổi mới sáng tạo nhiều hơn.