Phim tài liệu “Coded Bias” (2020) khám phá cách sự thiên vị xâm nhập vào các thuật toán và những hệ thống đứng sau tình trạng này.

Nhà nghiên cứu sau đại học Joy Buolamwini đã phải đeo mặt nạ trắng lên để công nghệ nhận dạng khuôn mặt có thể phát hiện ra cô. Ảnh: Coded Bias Trailer
Nhà nghiên cứu sau đại học Joy Buolamwini đã phải đeo mặt nạ trắng lên để công nghệ nhận dạng khuôn mặt có thể phát hiện ra cô. Ảnh: Coded Bias Trailer, 2020

Trong khi thực hiện một dự án marketing liên quan đến phần mềm nhận dạng mặt, nhà nghiên cứu Joy Buolamwini tại phòng thí nghiệm M.I.T. Media Lab phát hiện ra rằng thuật toán không thể phát hiện khuôn mặt của cô - cho đến khi cô đeo một chiếc mặt nạ trắng vào. Buolamwini là một người Mỹ da màu gốc Ghana.

Như cô kể lại trong bộ phim tài liệu "Coded Bias" (Sự thiên kiến được mã hóa), cô sớm nhận ra, hầu hết các chương trình trí tuệ nhân tạo (AI) hiện nay đều được đào tạo để nhận dạng mặt dựa trên các bộ dữ liệu của người da trắng và đa số là nam giới. Điều này dẫn đến một sai lệch khủng khiếp khi người ta dùng nó để cố gắng nhận biết gương mặt của những người phụ nữ da màu.

Một cách vô tình hay cố ý, hầu như tất cả những người tham dự bộ phim tài liệu - từ đạo diễn, nhà nghiên cứu, đến nhà hoạt động - đều là phụ nữ. Điều này tạo ra một bức tranh tương phản mạnh mẽ trong một thế giới công nghệ mà cấu trúc quyền lực thuộc về phía bên kia.

Bộ phim chỉ ra sự thiên vị đã xâm nhập vào các thuật toán như thế nào. Nói một cách đơn giản, thuật toán là một tập hợp các hướng dẫn được sử dụng để thực hiện một nhiệm vụ tính toán hoặc giải quyết vấn đề. Trước khi có AI, con người đưa ra các hướng dẫn đó thông qua việc lập trình và máy móc phải làm theo. Ngày nay, khi AI phát triển rực rỡ, người ta chỉ cần cung cấp cho nó một lượng lớn dữ liệu và máy sẽ tự động tìm ra cách phân loại dữ liệu nhờ việc xử lý thông tin có sẵn.

Phương pháp 'học' này của máy tỏ ra ưu việt và nhanh hơn, nhưng các lập trình viên phải thận trọng. Zeynep Tufeki, một chuyên gia công nghệ xã hội được phỏng vấn trong phim nói rằng "nó có những lỗi mà chúng tôi không thể hiểu nổi ... Và phần đáng sợ là bởi vì nó là học máy, nó là một hộp đen đối với ngay cả người lập trình."

Thật không may, phát hiện về phân biệt màu da của Buolamwini hóa ra chỉ là phần nổi của tảng băng. Xuyên suốt bộ phim, các nhà nghiên cứu chỉ ra cách các thuật toán học máy - hiện có mặt khắp nơi từ quảng cáo, tuyển dụng, nhà ở, chăm sóc sức khỏe, giáo dục, tín dụng và pháp lý v.v - có thể duy trì sự bất bình đẳng về chủng tộc, giai cấp và giới tính hiện có của xã hội.

Bộ phim di chuyển khéo léo giữa các phê bình chính trị và vấn đề xã hội lớn hơn, lập luận rằng không chỉ là công nghệ bị lỗi, mà “ngay cả khi nó hoàn hảo, nó cũng sẽ xâm phạm nguy hiểm đến quyền tự do của người dân", theo The New York Times.

Trong phim, đạo diễn Shalini Kantayya đã đan xen hàng loạt câu chuyện tại nước Mỹ và trên thế giới để tìm kiếm các chi tiết gây rúng động. Một giáo viên lớp sáu ở Houston kể lại việc hồi năm 2014, ông bị một thuật toán đánh giá các nhà giáo cho là “kém cỏi” mặc dù ông đã có nhiều năm kinh nghiệm và nhận không ít giải thưởng. Một nhóm ở London thách thức cảnh sát thủ đô khi họ cố tình cúi đầu, từ chối lộ mặt để camera công cộng (CCTV) không thể phán đoán xem liệu họ có nằm trong nhóm tội phạm truy nã không, lấy lý do điều này vi phạm quyền riêng tư. Những người này tự động được đánh dấu là rất đáng ngờ và bị phạt tiền vì những lý do không rõ ràng.

Một phân đoạn chi tiết khác đề cập các nỗ lực của Trung Quốc trong việc tạo ra một chương trình “tín dụng xã hội” - sử dụng quét khuôn mặt để nhận diện danh tính (eKYC) cho các dịch vụ như vay vốn ngân hàng, bảo hiểm y tế, đi tàu điện, v.v và tạo ra điểm số để kiểm soát quyền truy cập của họ vào các dịch vụ khác nhau. Nước Mỹ cũng không khác gì khi các các công ty truyền thông xã hội, tập đoàn và các cơ quan thực thi pháp luật giám sát mọi người và gây ảnh hưởng đến thông tin, cơ hội của công dân theo những cách tương tự. Họ chỉ không thẳng thắn về điều đó như Trung Quốc mà thôi.

Poster chính thức của phim tài liệu. Ảnh: Coded Bias
Poster chính thức của bộ phim tài liệu. Ảnh: Coded Bias

Có lẽ kỳ tích lớn nhất của bộ phim là liên kết tất cả những câu chuyện này để làm nổi bật một vấn đề mang tính hệ thống: không chỉ là các thuật toán "không hiệu quả" mà là chúng được xây dựng bởi đội ngũ kỹ sư chủ yếu là nam giới, chủ yếu là người da trắng - những người đã vận dụng các mô hình áp bức bất công của quá khứ và triển khai chúng ở quy mô lớn.

Như nhà toán học Cathy O'Neil và là tác giả của cuốn sách The weapon of math destruction (tạm dịch: Vũ khí hủy diệt toán học) đã chỉ ra trong phim, chúng ta không thể hiểu các thuật toán - hoặc công nghệ nói chung - mà không hiểu cấu trúc quyền lực bất đối xứng giữa những người viết mã với những người bị áp đặt hậu quả của mã lập trình đó.

Trong các cuộc thảo luận về AI, người ta có xu hướng nghĩ về sự thiên kiến của thuật toán giống như một một sai lầm ngẫu nhiên, có thể dễ dàng sửa chữa thông qua các cải tiến lặp đi lặp lại. Tuy nhiên, thực tế phức tạp hơn nhiều. Đó là vấn đề của hệ thống, của nhận thức đạo đức và hành động có chủ ý.

“AI dựa trên dữ liệu và dữ liệu là sự phản ánh lịch sử của chúng ta. Vì vậy, quá khứ luôn nằm trong các thuật toán", Buolamwini nói trong phim. Những dữ liệu được dùng cho học máy chỉ đơn giản là phơi bày và làm sinh sôi nảy nở sự bất bình đẳng vốn luôn tồn tại.

Là một bộ phim tài liệu về công nghệ, "Coded Bias" không bị quá khô khan và kỹ thuật. Thay vào đó, nó tập trung vững chắc vào con người: những thất bại của họ, những lỗ hổng và sức mạnh mà con người có thể tạo ra thông qua AI.

Nếu có hy vọng được tìm thấy ở phần kết của bộ phim, nó nằm ở những đề cập ngắn gọn về các nhà hoạt động đã vận động thành công để cấm nhận dạng mặt ở các thành phố. Nhưng cuối cùng, những bài học ta nên rút ra từ những bộ phim như "Coded Bias" không phải là về nhận dạng mặt, hoặc bất kỳ thuật toán hoặc công nghệ nào nói riêng. Đó là về cách "hệ điều hành" cơ bản của xã hội chúng ta sẽ tiếp tục sản xuất ra các công nghệ mới, có hại hơn - trừ khi chúng ta tháo dỡ hệ điều hành đó và tạo ra thứ gì tốt hơn để thay thế.


Thông tin bộ phim

Tên gốc: Coded Bias (Tạm dịch “Thiên kiến được mã hóa”)
Thời lượng: 1 giờ 30 phút.
Thể loại: Phim tài liệu
Ngôn ngữ: Tiếng Anh
Năm sản xuất: 2020
Đạo diễn: Shalini Kantayya
Nhân vật: Joy Buolamwini, Deborah Raji, Meredith Broussard, Cathy O'Neil, Zeynep Tufekci, Safiya Noble, Timnit Gebru, Virginia Eubanks, Silkie Carlo, v.v
Phim cùng chủ đề: The Great Hack (2019), The Social Dilemma (2020)
Sách cùng chủ đề: The weapon of math destruction (2016)