Hiện nay, rất ít nhà phát triển AI có chính sách rõ ràng về việc đảm bảo an toàn cho trẻ em khi sử dụng công nghệ mới mẻ này.


Trẻ em ngày nay tiếp xúc nhiều với các thiết bị điện tử và phần mềm tự động. Ảnh: Getty
Trẻ em ngày nay tiếp xúc nhiều với các thiết bị điện tử và phần mềm tự động. Ảnh: Getty

Một sự cố đã xảy ra vào năm 2021, khi Alexa, trợ lý giọng nói AI của Amazon đề xuất cho một đứa trẻ 10 tuổi chạm đồng xu trực tiếp vào phích cắm điện. Đứa trẻ này đã yêu cầu Alexa cho mình một "thử thách để thực hiện" và Alexa phản hồi là "Hãy cắm sạc điện thoại một nửa vào ổ cắm, sau đó dùng đồng xu chạm vào phần ngạnh lộ ra." May mắn thay, mẹ của đứa bé đã kịp thời bảo Alexa ngừng lại và đứa bé cũng đủ thông minh để không làm theo thử thách đó.

Đó không phải là trường hợp duy nhất. Năm ngoái, My AI của Snapchat cũng cung cấp cho một bé gái 13 tuổi (do một nhà nghiên cứu trưởng thành đóng giả) lời khuyên về cách quan hệ "lần đầu" với một người 31 tuổi.

Trên thực tế, sau mỗi sự cố được báo cáo, các công ty chịu trách nhiệm đều phản ứng bằng cách sửa lỗi và đưa ra những biện pháp an toàn hơn. Nhưng theo giới nghiên cứu, trong dài hạn, các công ty này cần chủ động để đảm bảo rằng AI sẽ an toàn cho trẻ em.

TS. Nomisha Kurian - hiện đang làm việc tại Khoa Xã hội học, Đại học Cambridge - nhận xét: “Trẻ em có thể là nhóm đối tượng bị bỏ qua nhiều nhất khi phát triển AI. Hiện nay, rất ít nhà phát triển và công ty có chính sách rõ ràng về việc đảm bảo an toàn cho trẻ em khi sử dụng AI. Điều này cũng dễ hiểu vì công nghệ AI mới được sử dụng rộng rãi miễn phí trong thời gian gần đây. Tuy nhiên, thay vì để các công ty tự khắc phục vấn đề sau khi trẻ em gặp nguy hiểm, thì việc đảm bảo an toàn cho trẻ nên được đưa vào toàn bộ quy trình thiết kế AI ngay từ đầu để giảm thiểu rủi ro xảy ra các sự cố nguy hiểm."

Nghiên cứu của TS. Kurian đã xem xét các trường hợp tương tác giữa AI với trẻ em, hoặc với người lớn đóng giả trẻ em, để phát hiện những rủi ro tiềm ẩn. Dựa trên cả hai yếu tố - kiến thức về khoa học máy tính, cụ thể là các mô hình ngôn ngữ lớn (LLM) tạo ra chatbot, và kiến thức về sự phát triển nhận thức, xã hội và cảm xúc của trẻ em, TS. Kurian đánh giá những rủi ro mà trẻ em có thể gặp phải khi tương tác với AI.

Các mô hình LLM được ví như những "con vẹt thống kê" bởi chúng sử dụng xác suất thống kê để bắt chước các mẫu ngôn ngữ mà không nhất thiết hiểu ý nghĩa của chúng. Phương pháp tương tự cũng được áp dụng khi chúng phản hồi với cảm xúc. Điều này nghĩa là mặc dù chatbot có khả năng ngôn ngữ đáng chú ý, chúng có thể xử lý kém các khía cạnh trừu tượng, cảm xúc và khó đoán định trong cuộc trò chuyện.

Đây là vấn đề mà TS. Kurian gọi là "khoảng trống thấu cảm" (empathy gap) của chúng. Chatbot có thể gặp khó khăn khi trả lời trẻ em, những người vẫn đang phát triển ngôn ngữ và thường sử dụng các khuôn mẫu nói khác thường hoặc cụm từ mơ hồ. Ngoài ra, trẻ em cũng thường có xu hướng tiết lộ thông tin cá nhân nhạy cảm nhiều hơn người lớn.

Mặc dù vậy, trẻ em lại có xu hướng coi chatbot là “người” nhiều hơn người lớn. Một nghiên cứu khác gần đây cho thấy trẻ em sẽ tiết lộ nhiều hơn về sức khỏe tâm lý của mình với một robot thân thiện hơn là với người lớn. Nghiên cứu của TS. Kurian cho thấy thiết kế thân thiện và giống như người thật của nhiều chatbot khuyến khích trẻ em tin tưởng chúng, ngay cả khi AI không thể hiểu được cảm xúc hoặc nhu cầu của trẻ.

Đối với một đứa trẻ, rất khó để phân biệt rõ ràng một thứ gì đó nghe có vẻ giống người trong khi trên thực tế, nó không thể hình thành mối liên kết cảm xúc thực sự -TS. Kurian nói.

Bà lập luận rằng, điều này có khả năng gây nhầm lẫn và đau khổ cho trẻ em, những người có thể coi chatbot như một người bạn thực sự. Việc trẻ em sử dụng chatbot thường không theo khuôn khổ và ít được kiểm soát. Nghiên cứu của tổ chức phi lợi nhuận Common Sense Media cho thấy 50% học sinh từ 12 đến 18 tuổi đã sử dụng ChatGPT cho việc học, nhưng chỉ có 26% phụ huynh biết điều này.

Theo bà, vấn đề không phải là cấm AI mà là làm thế nào để nó trở nên an toàn. Bà đề xuất một khuôn khổ gồm 28 câu hỏi giúp các công ty, giáo viên, lãnh đạo nhà trường, phụ huynh, nhà phát triển AI và nhà hoạch định chính sách suy nghĩ một cách hệ thống về cách giữ an toàn cho người dùng trẻ tuổi khi họ "nói chuyện" với các chatbot AI.

Các câu hỏi này giải quyết những vấn đề như: khả năng chatbot hiểu và giải thích các mẫu lời nói trẻ em ra sao; liệu chúng có bộ lọc nội dung và giám sát tích hợp hay không, và liệu chúng có khuyến khích trẻ em tìm kiếm sự giúp đỡ từ người lớn về các vấn đề nhạy cảm hay không.

Xem chi tiết các câu hỏi trong bài báo xuất bản trên tạp chí Learning, Media and Technology vào tháng 7/2024.

Nguồn: