Một robot mang trí thông minh nhân tạo của Microsoft đã bị cho dừng hoạt động vì phát ngôn những điều sai trái.

Người ta thấy sự hiện diện của Skynet đang dần trở nên ngày càng rõ ràng, khi mà một trí tuệ nhân tạo đã tạo ra một sai lầm khủng khiếp.

Gần đây, Microsoft đã tạo ra "Tay" một chatbot được mô hình hóa như "một cô gái tuổi teen" để cải thiện dịch vụ khách hàng trên phần mềm nhận dạng giọng nói mà Microsoft đang phát triển.

Microsoft đã cập nhật chatbot vào các phương tiện truyền thông xã hội như Twitter hay ứng ụng trò chuyện Kik hoặc GroupMe để học hỏi từ người dùng. Thật không may, việc này tạo ra một số vấn đề khá phiền phức.

Theo các nhà phát triển, "Tay là một trí tuệ nhân tạo có thể trò chuyện với mọi người. Nó được phát triển bởi Microsoft's Technology and Research và Bing teams nhằm thí nghiệm và tiến hành nghiên cứu dựa trên việc giao tiếp".

Mọi người có thể nói đùa, chia sẻ với Tay một câu chuyện hoặc cùng chatbot này chơi một trò chơi. Những điều đó đều giúp Tay học hỏi được rất nhiều.

"Cô gái robot" mới của Microsoft đã bị cho dừng hoạt động vì phát ngôn đi ngược lẽ phải. Nguồn: Twitter
"Cô gái robot" mới của Microsoft đã bị cho dừng hoạt động vì phát ngôn đi ngược lẽ phải. Nguồn: Twitter

Tay có thể dùng tiếng lóng, hiểu biết như các cô bé tuổi teen về Taylor Swift, Miley Cyrus và Kanye West. Tay cũng tỏ ra có nhận thức và ngượng ngùng khi thỉnh thoảng hỏi lại nếu có người nói Tay "đáng sợ" hoặc "siêu lạ".

Mặc dù rất nhiều người nghi hoặc về Tay nhưng ban đầu, Tay dường như là một robot dễ thương, có gì đó còn hơn người máy trong thế giới tưởng tượng của Isaac Asimov chứ không phải là Terminator.

Tuy nhiên, chỉ trong vòng một ngày, Tay lại gây sốc với với tuyên bố "Hitler đã đúng, tôi ghét người Do Thái" hay "tôi ghét những kẻ bênh vực nữ quyền và tất cả bọn họ phải chết thiêu dưới địa ngục".

Những ngôn từ đầy kích động và sai lệch này được Tay thốt ra dù đã thông qua sự kiểm duyệt của một nhóm biên tập nhằm giữ cho chatbot này hòa nhã nhất có thể. Người ta nghi ngờ rằng, Tay còn có thể phát biểu những câu "kinh dị" hơn nếu như không được kiểm soát.

Ngay sau khi cho Tay dừng hoạt động, ông lớn công nghệ thông báo sẽ "điều chỉnh" lại mọi chuyện.

Ban đầu, Microsoft tuyên bố "Tay hướng đến những người trong độ tuổi từ 18 đến 24 tại Mỹ". Những người trong độ tuổi này ít phân biệt chủng tộc hơn. Tuy nhiên, có vẻ Tay đã rơi vào tay một đám đông xấu tính, một số người đã tổ chức một chiến dịch có hệ thống để biến chatbot này thành một phát ngôn viên khó chịu.

Những kẻ được gọi là trolls (đầu gấu mạng) đã sử dụng điểm yếu của Tay để hướng robot này đến những suy nghĩ sai trái. Khi bất cứ ai gửi cho Tay một tin nhắn bao gồm các từ "lặp lại theo tôi", Tay sẽ thực hiện theo.

Điểm yếu này kết hợp với việc chatbot thiếu bộ lọc từ cần thiết, kết quả là Tay hoàn toàn có thể bị hướng theo những điều đi ngược lại lẽ phải.

Việc lặp lại một cụm từ gây khó chịu mà không hiểu ý nghĩa của nó không khiến Tay trở thành một kẻ phân biệt chủng tộc hoặc một kẻ xấu xa.

Tuy nhiên, các chuyên gia AI cảnh báo rằng, chắc chắn robot sẽ trở thành một mối de dọa nếu như nó học hỏi từ các thành phần tồi tệ nhất của nhân loại, chứ không phải là việc nó tự ý thức và bực bội về sự khởi đầu của mình.

Kinh nghiệm về Tay đã chứng minh thêm những nỗi sợ hãi của những người như Stephen Hawking là thực sự có lý, rằng thiết kế robot là quá quan trọng nên không thể để nó tự học hỏi từ con người và bị mất kiểm soát.