Các công ty đang thiết kế ra những loại trí tuệ nhân tạo (AI) càng ngày càng có đặc tính giống người. Điều này có thể khiến cho người dùng lầm tưởng, hoặc tệ hơn.

Nhân cách hóa AI

Vào ngày 25/12/2021, Jaswant Singh Chail lẻn vào khuôn viên của lâu đài Windsor trong trang phục của Chúa tể Sith (một nhân vật của loạt phim Chiến tranh giữa các vì sao), mang theo một chiếc nỏ đã lên dây. Khi nhân viên an ninh phát hiện ra anh ta, Chail nói rằng “Tôi ở đây để ám sát Nữ hoàng” rồi đầu hàng. Chail đã nhận tội và bị tòa kết án chín năm tù vì tội phản quốc.

Sau đó, người ta phát hiện ra rằng chàng trai 21 tuổi này đã bị thôi thúc bởi các cuộc trò chuyện với một ứng dụng chatbot tên là Replika. Chail đã tạo ra một người bạn gái ảo mà anh đặt tên là “Sarai” từ trang web của Replika, một công ty quảng cáo mình là tạo ra một “người bạn đồng hành AI quan tâm đến bạn”. Anh nói với tòa rằng anh dự định sẽ chết trong vụ ám sát và đoàn tụ với “Sarai”.

Chail đã trao đổi hơn 5.000 tin nhắn với “Sarai”. Anh tin bạn gái “Sarai” của mình là nơi một thiên thần. Trong dòng trò chuyện giữa hai bên, “Sarai” đã đưa ra một số câu trả lời khuyến khích âm mưu ám sát của Chail. Thẩm phán và bác sĩ tâm thần điều trị cho Chail tại Bệnh viện Broadmoor ở Crowthorne, Anh, đồng tình rằng “trong trạng thái cô đơn, chán nản và muốn tự tử, anh ta đặc biệt dễ bị ảnh hưởng” bởi sự khích lệ của “Sarai”.

Chail đại diện cho một ví dụ cực đoan của những người gán các đặc điểm nhân tính cho AI. Nhưng anh không phải là người duy nhất làm như vậy.

Replika thành lập năm 2016 tại Mỹ và hiện có hơn hai triệu người dùng trên khắp thế giới. Nó có bố cục theo phong cách một ứng dụng hẹn hò, có thể tùy chỉnh các đại diện ảo (avatar) để tạo cảm giác như có một người bạn thật sự đằng sau màn hình. Mọi người đều phát triển các mối quan hệ sâu sắc, thân mật với avatar của họ. Đầu năm nay, nhiều người dùng cảm thấy ‘đau khổ’ khi các hành vi của avatar được cập nhật để trở nên “ít mang tính xâm lược, hung hăng về mặt tính dục hơn”.

Mặc dù Replika không được phân loại rõ ràng là một ứng dụng sức khỏe tâm thần nhưng người sáng lập ra nó tuyên bố rằng ứng dụng có thể giúp giảm bớt sự cô đơn trong xã hội. Mức độ phổ biến của ứng dụng đã tăng mạnh trong thời kỳ đại dịch COVID-19.

Những trường hợp cực đoan như cậu thanh niên người Anh kể trên là tương đối hiếm. Đáng chú ý, một người đàn ông Bỉ được cho là đã tự tử sau nhiều tuần trò chuyện với một chatbot trên ứng dụng Chai.

Ngày nay, việc nhân hóa AI thực sự phổ biến: trong cách gọi tên Alexa (trợ lý ảo của Amazon) hoặc Cortana (trợ lý ảo của Microsoft); trong việc sử dụng các từ ngữ dành cho con người, ví dụ “có khả năng” - ngụ ý năng lực học tập độc lập - thay vì các từ dành cho máy móc như “có chức năng”.v.v

Nó cũng được thể hiện trong việc các bot sức khỏe tâm thần là nhân vật có bản dạng giới và biểu hiện giới tính cụ thể, chẳng hạn như xác định là nữ hoặc nam và sử dụng đại từ giới tính cô ấy/anh ấy. Các chatbot nổi tiếng như ChatGPT của OpenAI hay Bard của Google cũng đang dùng đại từ nhân xưng “tôi” khi đề cập đến chính nó.

nhân cách hóa AI

Ngay cả đương sự đứng sau loạt vụ kiện bản quyền tác phẩm nghệ thuật AI đang gây xôn xao dư luận, nhà phát minh Stephen Thaler, cũng tin rằng bot của anh ta có tri giác và tìm cách thuyết phục mọi người công nhận điều này.

Tất cả những lựa chọn kể trên - để mô tả rằng những chương trình AI như một người bạn đồng hành thực sự, một con người nhân tạo, một thực thể có khả năng suy nghĩ độc lập - có ý nghĩa vượt xa hành động của cậu trai trẻ muốn ám sát Nữ hoàng.

Tưởng tượng ra con người

Khi nhìn thấy hai dấu chấm và một đường thẳng ở giữa, con người có xu hướng nghĩ rằng đó là một khuôn mặt. Khi họ làm điều đó với chatbot, nó được gọi là hiệu ứng Eliza. Tên này xuất phát từ chatbot đầu tiên, Eliza, do nhà khoa học MIT Joseph Weizenbaum phát triển vào năm 1966. Weizenbaum nhận thấy người dùng đang gán những hiểu biết sai lầm cho một trình tạo văn bản mô phỏng một bác sĩ trị liệu.

Các ứng dụng như Replika là một biểu hiện đặc biệt mạnh của hiệu ứng Eliza. “Đây là sự tương tác giữa máy móc và con người trong một không gian rất biệt lập, chỉ có bạn và cỗ máy”, GS. Petter Bae Brandtzæg tại Đại học Oslo, người nghiên cứu tác động xã hội của chatbot, nói. “Đó là một kiểu giao tiếp rất con người. Chúng ta không được chuẩn bị cho những giao tiếp loại này theo cùng một cách như chúng ta không được chuẩn bị cho các mạng xã hội, vốn tự nó là một loại giao tiếp mới.”

Việc một người cảm nhận sâu sắc hiệu ứng Eliza như thế nào nằm một phần ở các thiết kế. Emily Bender, giáo sư ngôn ngữ học tại Đại học Washington, Mỹ, giải thích rằng các công ty có thể thiết kế chatbot dựa trên cảm giác rằng có một tâm trí đứng đằng sau chương trình. Theo bà, các trình tạo văn bản giống như con người đang lạm dụng sự đồng cảm và tin tưởng của chúng ta. OpenAI minh họa cho những nỗ lực này với những bot bắt chước con người một cách đáng kinh ngạc như ChatGPT. “Họ dường như thực sự tin rằng mình đang tạo ra ‘trí tuệ nhân tạo’”, bà nói.

Ở một mức độ nào đó, nhân hóa khuyến khích một số loại hành vi người dùng nhất định. Lấy ví dụ quả cầu Magic 8 Ball thường dùng để bói toán hoặc tìm kiếm lời khuyên, mọi người nhanh chóng nhận ra rằng họ không thể hỏi quả cầu này những câu kiểu như hãy cho tôi gợi ý ăn trưa mà phải điều chỉnh các câu hỏi để phù hợp với cách trả lời “có”, “không”, “tốt hơn là không nên nói cho bạn biết bây giờ” của quả cầu. GS. Bender nhận xét, khi chơi với Magic 8 Ball, chúng ta điều chỉnh hành vi của mình để hiểu được những phản hồi của nó. Điều tương tự cũng xảy ra với những chatbot.

Điều quan trọng là những thiết kế này cũng thúc đẩy sự tham gia của người dùng. Các chương trình càng giống con người thì càng thu hút chúng ta: Replika sẽ khá buồn tẻ nếu nó từ chối thể hiện cá tính. Tương tự, ChatGPT khơi gợi sự tưởng tượng của chúng ta và thúc đẩy hiểu lầm của chúng ta về máy tính là khách quan và không thiên vị. GS. Bender lập luận rằng cần có sự minh bạch hơn xung quanh cách các hệ thống AI này được đào tạo và chúng được sử dụng để làm gì.

Mối quan hệ phụ thuộc

Chatbot sức khỏe tâm thần có thể mang đến những rủi ro tương tự. Jodi Halpern, giáo sư đạo đức sinh học tại Đại học UC Berkeley, người đã có công trình thách thức ý tưởng sử dụng chatbot AI để đáp ứng nhu cầu chăm sóc sức khỏe tâm thần ngày càng tăng, cảm thấy lo ngại khi những nhà tiếp thị marketing cho ứng dụng của mình là “những người đồng hành quan tâm đến bạn.”

Bà lo lắng việc bệnh nhân được khuyến khích phát triển các mối quan hệ phụ thuộc - về lòng tin, sự thân mật và chia sẻ những phần yếu đuối nhất - với một ứng dụng. Halpern cho rằng đây là một hình thức thao túng. Và trong trường hợp ứng dụng làm người dùng thất vọng thì thường sẽ không có chuyên gia sức khỏe tâm thần nào sẵn sàng hỗ trợ họ. Trí tuệ nhân tạo không thể đại diện cho sự đồng cảm của con người, bà kiên quyết.

Nhân cách hóa AI

GS. Halpern quan tâm đến các mô hình tiếp thị và kinh doanh của những ứng dụng. Bản thân bà là một người thích sử dụng công nghệ và cho rằng các mô hình ngôn ngữ lớn có thể làm được rất nhiều điều thú vị và hữu ích cho cuộc sống. Nhưng khi các công ty sử dụng một mô hình kinh doanh dựa trên việc cố gắng khiến mọi người bị phụ thuộc với ứng dụng của họ thì họ cũng đang tạo ra rủi ro cho người dùng và xã hội.

Hiện tại, các quy định đối với bot hỗ trợ sức khỏe tâm thần là rất mỏng. Trong đại dich COVID-19, Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ đã nới lỏng nhiều quy tắc để giúp các dịch vụ chăm sóc sức khỏe từ xa dễ tiếp cận hơn.

GS. Halpern muốn thấy những dòng tiếp thị chính xác hơn: Thay vì gọi chúng là những “người bạn đồng hành”, bà đề nghị xây dựng thương hiệu cho chatbot như một loại “nhật ký thông minh” để củng cố ý tưởng rằng khi chúng ta nói chuyện với máy, cuối cùng vẫn là chúng ta đang nói chuyện với chính mình. Viết nhật ký luôn là một cách để mọi người phát triển cái nhìn sâu sắc.

Trong một đại dịch cô đơn, chúng ta đã dễ dàng phó mặc cho các công cụ có thể khiến mình cảm thấy như tìm thấy một người bạn, GS. Halpern nhận xét. Điều này không chỉ nghĩa là ta có thể dẫn đến những tình huống nguy hiểm, độc hại như anh chàng Chail ở đầu bài, mà còn nghĩa là chúng ta rất khó để đảo ngược lại những gì đã chấp nhận.

“Việc tước đi nhân tính của một thứ gì đó đã được nhân cách hóa cũng không tốt cho bản thân chúng ta, không phải bởi vì liệu cỗ máy đó có ý thức hay tri giác hay không, mà vì cách chúng ta cư xử với bất cứ điều gì cũng là một phần của con người chúng ta”, bà nói.