AI nhận dạng cảm xúc, công nghệ được thiết kế để xác định cảm xúc của con người bằng cách sử dụng các thuật toán học máy, là một ngành công nghiệp khổng lồ. Công nghệ này hứa hẹn mang lại giá trị trong vô số tình huống, từ an toàn đường bộ đến nghiên cứu thị trường. Tuy nhiên, nó bị chỉ trích mạnh mẽ vì không chỉ gây ra những lo ngại về quyền riêng tư, mà trên thực tế còn không chính xác và mang nhiều thành kiến về chủng tộc.
Một nhóm các nhà nghiên cứu đã tạo ra một trang web - emojify.info - nơi công chúng có thể dùng thử các hệ thống nhận dạng cảm xúc thông qua camera máy tính. Một trong các trò chơi trên trang cho phép người dùng "diễn" các cảm xúc khuôn mặt xem có đánh lừa được công nghệ nhận dạng không. Các nhà nghiên cứu cho biết, họ hy vọng nâng cao nhận thức về công nghệ và thúc đẩy các thảo luận về việc có nên sử dụng nó trong thực tế.
Tiến sĩ Alexa Hagerty, trưởng dự án và nhà nghiên cứu tại Trung tâm Leverhulme về trí tuệ nhân tạo, Đại học Cambridge, cho biết: “Công nghệ này là một dạng nhận dạng khuôn mặt, nhưng thay vì chỉ nhận dạng con người, nó được cho là có thể đọc cảm xúc bên trong của con người chỉ từ khuôn mặt".
Theo Hagerty, nhiều người hiện không biết các hệ thống "nhận dạng cảm xúc" như vậy được sử dụng phổ biến trong nhiều tình huống khác nhau - tuyển dụng việc làm, phân tích khách hàng, an ninh sân bay, và thậm chí trong ngành giáo dục để xem liệu sinh viên có đang tập trung vào giờ học hay không.
Taigusys, một công ty chuyên về hệ thống nhận dạng cảm xúc có văn phòng chính ở Thâm Quyến, cho biết, họ đã sử dụng công nghệ này trong các môi trường từ nhà chăm sóc đến nhà tù. Đầu năm nay, thành phố Lucknow của Ấn Độ có kế hoạch sử dụng công nghệ nhận dạng cảm xúc để phát hiện tình trạng đau khổ ở phụ nữ do bị quấy rối - một động thái đã vấp phải sự chỉ trích, bao gồm cả từ các tổ chức quyền kỹ thuật số.
Trong khi công nghệ nhận dạng cảm xúc có thể có một số lợi ích tiềm năng, những lợi ích này phải được cân nhắc bên cạnh những
lo ngại về độ chính xác, thành kiến chủng tộc. “Chúng ta cần thảo luận và cân nhắc công khai rộng rãi hơn về những công nghệ này", Hagerty nói. “Những người phát triển công nghệ tuyên bố rằng nó đang đọc cảm xúc", tuy nhiên, theo bà, trên thực tế, nó chỉ đang đọc chuyển động trên khuôn mặt và sau đó suy diễn từ giả định rằng những chuyển động đó liên quan đến một cảm xúc nhất định - ví dụ mặt cười có nghĩa là ai đó đang hạnh phúc.
Hagerty cho biết, “có rất nhiều bằng chứng khoa học cho thấy cách hiểu đó quá đơn giản, cảm xúc không hoạt động hoàn toàn như vậy”. Bà nhấn mạnh, bất kỳ ai cũng có thể cười giả vờ. “Trò chơi này cho thấy bạn không thay đổi trạng thái nội tâm của mình vài lần chỉ trong một phút, bạn chỉ thay đổi biểu cảm khuôn mặt".
Hagerty hy vọng dự án sẽ giúp nâng cao nhận thức và thúc đẩy thảo luận xung quanh việc sử dụng công nghệ nhận dạng cảm xúc. “Chúng ta đang bắt đầu nhận ra rằng chúng ta không thực sự là 'người dùng' công nghệ, chúng ta là những công dân trong một thế giới được định hình sâu sắc bởi công nghệ, vì vậy chúng ta cần có những thảo luận dân chủ về công nghệ như về những điều quan trọng khác trong xã hội”, Hagerty nói.