Cuộc thi sắc đẹp quốc tế đầu tiên được chấm điểm bằng thuật toán đã gây ra nhiều tranh cãi sau khi kết quả chứng minh máy tính đã “thiên vị” màu da một cách rõ ràng.

Máy tính cũng kỳ thị màu da

6.000 thí sinh từ hơn 100 quốc gia đã gửi ảnh tham dự Beauty.AI - cuộc thi sắc đẹp quốc tế đầu tiên được chấm điểm bằng máy tính. Beauty.AI được tạo ra bởi nhóm phát triển thuật toán “học hỏi chuyên sâu” có tên là “Các phòng thí nghiệm trẻ” - được Microsoft tài trợ.

Cuộc thi sử dụng bộ dữ liệu ảnh lớn để xây dựng một thuật toán đánh giá sắc đẹp, xác định thí sinh hấp dẫn nhất dựa trên các yếu tố như tính đối xứng của khuôn mặt hay nếp nhăn trên da. Kết quả khiến các nhà tổ chức thất vọng khi phát hiện một yếu tố ảnh hưởng đến tính khách quan của cuộc thi: Robot chấm điểm không thích các thí sinh có da màu tối.

Chiếm phần lớn trong số 44 cô gái chiến thắng là người da trắng, một số là người châu Á và chỉ có một thí sinh da tối màu, trong khi rất nhiều thí sinh da màu gửi ảnh tham gia.

Các nhà khoa học xác định, nguyên nhân chính khiến thuật toán “thiên vị “màu da trắng nằm ở nguồn dữ liệu mà dự án sử dụng để thiết lập các chuẩn mực về mức độ hấp dẫn. Theo Alex Zhavoronkow - người phụ trách về khoa học của Beauty.AI, cơ sở dữ liệu này không chứa đủ thông tin cần thiết về các nhóm thiểu số. Tuy nhóm phát triển không chủ ý xây dựng thuật toán coi màu da sáng là chỉ dấu sắc đẹp, các dữ liệu đầu vào đã khiến máy tính tự phán xét và đi đến kết luận này.

Trong cuộc thi sắc đẹp đầu tiên do AI làm giám khảo, kết quả đã có tính thiên vị. Ảnh: Rynkl

“Nếu cơ sở dữ liệu không có đủ số người với các màu da khác nhau, kết quả sẽ có tính thiên vị”- Zhavoronkov phân tích. “Nếu dạy máy tính một thuật toán để nhận ra các mẫu hình nào đó, bạn sẽ có thể thiếu dữ liệu hoặc dữ liệu có tính thiên vị”.

Sự cố Beauty.AI đã trở thành chủ đề châm biếm sâu cay. Các chuyên gia khoa học máy tính và bình đẳng xã hội cảnh báo, trong nhiều lĩnh vực khác của đời sống, việc sử dụng ngày càng nhiều hệ thống AI mang định kiến như vậy hoàn toàn không phải chuyện đùa. Beauty.AI đã làm nóng các tranh luận về khả năng thuật toán máy tính bị ảnh hưởng và duy trì các đánh giá thiên vị, cho kết quả không khách quan và thậm chí có tính xúc phạm.

Cách giải thích đơn giản nhất cho sự thiên vị là những người tạo ra chúng cũng có đánh giá thiên vị sâu trong tiềm thức. Thuật toán có thể thường xuyên lặp lại và phóng đại các định kiến hằng ngày chứ không trung lập và hoàn toàn khách quan như mọi người vẫn tưởng.

Vụ Beauty.AI là một lời nhắc nhở rằng “con người vẫn là thực thể điều khiển tư duy, ngay cả khi tư duy đó được biểu đạt dưới dạng thuật toán mà chúng ta cho là trung lập và khoa học” - Bernard Harcourt - Đại học Columbia, Mỹ - nói. Theo ông, kết quả của cuộc thi Beauty.AI là minh họa hoàn hảo cho câu chuyện tư duy bất bình đẳng. “Ý tưởng tạo ra một chuẩn mực sắc đẹp hoàn toàn trung lập và không phụ thuộc vào chủng tộc cũng không khác gì việc tự đánh giá theo kiểu nước đôi” - Bernard nói.

Zharoronkov tuyên bố, thuật toán của Beauty.AI sẽ được sửa lại trong cuộc thi sau để loại bỏ tính thiên vị. Ông cũng cho rằng máy tính có lẽ không phải là giám khảo tốt trong việc đánh giá vẻ đẹp cơ thể: “Tôi thậm chí ngạc nhiên hơn người khác khi nhìn kết quả chọn hoa hậu theo thuật toán. Máy tính chọn những người mà nếu là tôi, tôi sẽ không tính đến”.

Nguy cơ trong hành pháp

Các nhóm hoạt động dân sự gần đây quan ngại rằng các công cụ dự đoán và thực thi luật pháp dựa trên máy tính (sử dụng dữ liệu thu thập được để dự đoán hành vi phạm tội trong tương lai) rất có thể đang dựa trên các thống kê thiên vị, làm trầm trọng hơn các hoạt động hành pháp không công bằng và thiên vị chủng tộc.

Một điều tra đầu năm 2016 của ProPublica - tổ chức độc lập về báo chí điều tra - cho thấy, trong lĩnh vực “hành pháp có dự báo”, các phần mềm dự đoán tội phạm tương lai đang phân tích theo hướng không công bằng cho người da trắng và điều này có thể dẫn đến hình phạt nặng hơn cho họ.

“Đó thật sự là vấn đề liên quan đến cuộc sống con người” - GS Sorelle Friedler tại Đại học Haverford, Mỹ - kết luận. Ông cho rằng có thể điều chỉnh các thuật toán để loại bỏ tính thiên vị bằng cách cải thiện dữ liệu đầu vào, hoặc đưa vào các bộ lọc để đảm bảo các nhóm người khác nhau được đối xử bình đẳng.

Các chương trình AI mang sẵn nội dung định kiến không chỉ bó hẹp trong hệ thống pháp lý về tội phạm. Một nghiên cứu khác cho thấy các quảng cáo tuyển dụng có lương cao được hiển thị cho nam nhiều hơn nữ. Năm 2015, chính ứng dụng ảnh của Google cũng từng nhận định nhầm người da đen là Gorilla.

Malkia Cyril - Giám đốc điều hành Trung tâm Truyền thông tư pháp Mỹ - khẳng định, thực tế các thuật toán bị hạn chế rất lớn về khả năng đấu tranh giảm bất bình đẳng xã hội: “Chúng ta đang dựa quá nhiều vào công nghệ, các thuật toán và máy tính tự học, trong khi đúng ra phải tập trung nhiều hơn vào các cải cách thể chế”.