Một bài báo mới xuất bản trên arXiv cho biết ChatGPT và Gemini phân biệt đối xử với những người nói tiếng Anh theo kiểu người gốc Phi.


Hình minh họa. Nguồn: Getty Images

Theo Valentin Hoffman - nhà nghiên cứu tại Viện Trí tuệ nhân tạo Allen và đồng tác giả của bài báo, các nhà nghiên cứu trước đây “chỉ mới xem xét những thành kiến công khai, bề nổi của phân biệt chủng tộc” và chưa bao giờ “kiểm tra cách các hệ thống AI này phản ứng với các dấu hiệu ít công khai hơn về chủng tộc, chẳng hạn như sự khác biệt về phương ngữ”.

“Chúng tôi biết rằng những công nghệ này thực sự được các công ty sử dụng phổ biến để thực hiện các nhiệm vụ như sàng lọc hồ sơ ứng viên xin việc,” Hoffman nói.

Bài báo còn cung cấp thêm thông tin rằng những người da đen sử dụng tiếng Anh bản địa của những người Mỹ gốc Phi, hay còn gọi là AAVE, một phương ngữ tiếng Anh do người Mỹ da đen sử dụng trong giao tiếp, bị phân biệt đối xử trong nhiều bối cảnh ứng dụng AI, bao gồm giáo dục, việc làm, nhà ở và các phán quyết pháp lý.

Hoffman và các đồng nghiệp của ông đã yêu cầu các mô hình AI đánh giá trí thông minh và khả năng làm việc của những người nói phương ngữ AAVE so với những người nói “tiếng Anh Mỹ chuẩn”.

Các mô hình có nhiều khả năng mô tả những người nói AAVE là “ngu ngốc” và “lười biếng”, giao họ làm những công việc nặng nhọc nhưng chỉ được trả lương thấp.

Trong các trường hợp giả định, các mô hình AI cũng có nhiều khả năng đề xuất hình phạt tử hình hơn đối với các bị cáo hình sự sử dụng AAVE.

Gemini, mô hình AI của Google, gần đây gặp rắc rối khi một loạt bài đăng trên mạng xã hội cho thấy công cụ tạo hình ảnh của nó mô tả nhiều nhân vật lịch sử đều là người da màu - bao gồm các giáo hoàng, những người sáng lập nước Mỹ và đặc biệt nhất là những người lính Đức trong Thế chiến thứ hai.

Các mô hình ngôn ngữ lớn sẽ phát triển khi chúng được cung cấp nhiều dữ liệu hơn, học cách bắt chước con người bằng cách nghiên cứu văn bản từ hàng tỷ trang web trên internet. Các định kiến ​​có hại nào mà mô hình gặp phải trên internet sẽ khiến chúng trở nên phân biệt chủng tộc, phân biệt giới tính. Đầu vào phân biệt chủng tộc dẫn đến đầu ra phân biệt chủng tộc.

Trong nhiều năm, các chuyên gia AI hàng đầu như Timnit Gebru, cựu đồng lãnh đạo nhóm trí tuệ nhân tạo có đạo đức của Google, đã kêu gọi chính phủ liên bang hạn chế việc sử dụng các mô hình ngôn ngữ lớn mà không có sự kiểm soát.

Để đáp lại, các nhóm như OpenAI đã phát triển các biện pháp bảo vệ, một bộ nguyên tắc đạo đức quy định nội dung mà các mô hình ngôn ngữ như ChatGPT có thể giao tiếp với người dùng.

Nhưng Hoffman và các đồng nghiệp của ông nhận thấy rằng, khi các mô hình ngôn ngữ phát triển, chúng có xu hướng ít phân biệt chủng tộc một cách công khai hơn, chúng phân biệt chủng tộc một cách lặng lẽ. Các nhà nghiên cứu nhận ra rằng các rào cản đạo đức chỉ đơn giản là dạy các mô hình ngôn ngữ thận trọng hơn về thành kiến ​​chủng tộc mà chúng có.

Avijit Ghosh - nhà nghiên cứu đạo đức AI tại Hugging Face, cho biết: “Một người có trình độ học vấn nhất định, họ sẽ không nói xấu trước mặt bạn, nhưng sự phân biệt chủng tộc vẫn còn đó. Điều tương tự xảy ra trong các mô hình ngôn ngữ. Những mô hình này không loại bỏ được những vấn đề mà chỉ giỏi che giấu hơn mà thôi”.

Ghosh, giống như Gebru và Hoffman, lo lắng về tác hại mà các mô hình học ngôn ngữ có thể gây ra nếu những tiến bộ công nghệ tiếp tục vượt xa quy định. Họ kêu gọi các nhà phát triển lưu ý đến những cảnh báo về phân biệt chủng tộc đang dần hiện hữu trong các mô hình ngôn ngữ trí tuệ nhân tạo.

Nguồn: