Facebook cho biết đang thành lập các nhóm nội bộ để rà soát sự phân biệt chủng tộc trong các thuật toán điều khiển hai mạng xã hội Facebook và Instagram của mình, theo Wall Street Journal.

Trong vài năm gần đây, ngày càng nhiều nhà nghiên cứu và nhà hoạt động xã hội nhấn mạnh vấn đề thiên kiến của AI và tác động của nó đối với các nhóm thiểu số. Đã đến lúc Facebook - doanh nghiệp sử dụng học máy để quản lý trải nghiệm hàng ngày của 2,5 tỷ người dùng - đánh giá nội bộ các hạn chế này. Chẳng hạn, đã có bằng chứng cho thấy các thuật toán phục vụ quảng cáo của Facebook phân biệt đối xử theo chủng tộc và cho phép các nhà quảng cáo ngăn một số nhóm chủng tộc cụ thể xem quảng cáo của trên mạng xã hội này.

Facebook luôn né tránh các cáo buộc liên quan đến sai lệch trong các hệ thống của mình. Phải mất nhiều năm báo chí phản ánh và áp lực từ các nhóm dân quyền để họ đi đến quyết định lần này. Facebook đã thành lập các nhóm đánh giá nội bộ sau một cuộc tẩy chay quảng cáo kéo dài một tháng được tổ chức bởi các nhóm dân quyền.

Động thái này là đúng lúc và cần thiết. Nhưng khởi động một cuộc điều tra vẫn khác xa với việc thực sự khắc phục vấn đề thiên kiến chủng tộc, đặc biệt là khi đến nay chưa ai thực sự biết cách khắc phục. Trong hầu hết các trường hợp, sự thiên vị tồn tại trong dữ liệu đào tạo và chưa có cách nào hiệu quả để loại bỏ nó và thiên kiến của học máy cũng chỉ là một trong những vấn đề của các nền tảng truyền thông xã hội xung quanh vấn đề chủng tộc.

Nguồn:

https://www.wsj.com/articles/facebook-creates-teams-to-study-racial-bias-on-its-platforms-11595362939

https://www.technologyreview.com/