Năm 2014, Amazon từng phát triển công nghệ trí tuệ nhân tạo (AI) giúp sàng lọc hồ sơ của người xin việc nhằm chọn ra những ứng viên tốt nhất. Tuy nhiên đến năm 2015, họ phát hiện thấy hệ thống này đã mắc một lỗi lớn: có vẻ như nó không thích phụ nữ.
Mặc dù phải mất nhiều năm để nghiên cứu thuật toán, nhưng Amazon đã từ bỏ sau khi nhận ra không thể chấm dứt tình trạng phân biệt đối xử liên quan đến giới tính. “Các nhà tuyển dụng của chúng tôi không bao giờ sử dụng chính sách này trong việc đánh giá ứng viên”, đại diện của hãng tuyên bố.
Theo lý giải của Amazon, vấn đề ở đây có lẽ là do dữ liệu. Nếu dữ liệu được sử dụng cho máy học mắc lỗi thiên vị thì cũng sẽ khiến máy trở nên thiên vị. Trên thực tế, các kỹ sư của Amazon đã dạy máy học bằng dữ liệu từ các hồ sơ xin việc gửi cho hãng trong khoảng 10 năm trở lại – tức đang cố đào tạo hệ thống đánh giá và sàng lọc hồ sơ tương tự như cách mà các chuyên gia tuyển dụng của họ vẫn làm trong quá khứ. Nhưng vì phần lớn nhân viên của Amazon là nam giới (tính đến cuối năm 2017, có tới 17 trên tổng số 18 vị trí quản lý cấp cao của công ty đều là đàn ông), cho nên dường như máy đã quyết định theo hướng, rằng các hồ sơ của nam giới sẽ phù hợp hơn với vị trí công việc.
Trong một cuộc điều tra khác, tổ chức phi lợi nhuận ProPublica (New York, hoạt động trong lĩnh vực báo chí) cũng phát hiện thấy một thuật toán – với khả năng dự đoán tội phạm – lại có xu hướng phân biệt đối xử với người da đen. Đó là còn chưa kể tới Tay – ứng dụng chatbot thông minh trên Twitter do hãng Microsoft phát triển – có thể nhanh chóng học từ những người hay đùa cợt trên mạng để phun ra những lời lẽ mang tính đả kích và phân biệt chủng tộc.
Có thể nói, các công ty công nghệ đang phải đối mặt với một thách thức không nhỏ: làm sao để tạo ra các sản phẩm trí tuệ nhân tạo không thiên vị, trong khi hầu hết dữ liệu được sử dụng cho máy học lại tới từ một thế giới vốn luôn thiên vị.
Ngọc Anh (Futurism)