Việc Microsoft tuyên bố hủy dự án robot Chatbot Tay sau khi nó tuyên bố ủng hộ phátxít càng làm nổi rõ khó khăn của việc chế tạo robot “có đạo đức”.

Chatbot Tay -  bằng chứng cho thấy tạo ra robot có đạo đức không hề dễ. Ảnh: Winbeta.org
Chatbot Tay - bằng chứng cho thấy tạo ra robot có đạo đức không hề dễ. Ảnh: Winbeta.org


Có 2 cách tiếp cận trong việc tạo robot đạo đức. Cách đầu tiên là dựa vào một luật định đạo đức (có thể tối ưu việc tạo ra hạnh phúc), viết code cho nó và chế tạo robot tuân thủ code này.


Điều khó khăn là không biết nên dựa vào luật định đạo đức nào bởi ở đâu cũng có ngoại lệ. Cách thứ hai là tạo ra robot luôn học hỏi để dạy nó cách ứng phó với các tình huống. Nó sẽ đúc kết được các bài học về đạo đức. Vấn đề đặt ra là liệu con người có luôn là thầy dạy đạo đức lý tưởng?


Về nguyên tắc, chúng ta có thể tạo ra robot đạo đức, nhưng có nên theo đuổi việc này? GS Susan Anderson thuộc Đại học Connecticut (Mỹ) cho rằng ở vài khía cạnh, robot có thể đưa ra các quyết định đạo đức chính xác hơn con người: “Con người là sản phẩm của quá trình chọn lọc tự nhiên, vì vậy chúng ta phải đưa ra ý tưởng có lợi cho bản thân hoặc ít nhất là có ích cho nhóm mà mình là thành viên. Con người có xu hướng mắc sai lầm và cũng không phải là trọng tài hoàn hảo của công lý”.


Tuy vậy, Anderson và nhiều giáo sư khác cho rằng không nên để máy móc tham gia những khu vực còn tranh cãi về đạo đức. Thậm chí, Patrick Lin - Giám đốc chương trình Khoa học mới nổi và đạo đức thuộc Đại học Bách khoa California (Mỹ) - còn đặt câu hỏi: Liệu có đạo đức không khi giao những phần việc khó khăn như đưa ra quyết định có tính đạo đức cho máy tính?


Tuy nhiên, như trong cuốn sách “Máy móc có đạo đức: Dạy robot phân biệt đúng - sai”, Wallach biện luận rằng khi máy tính tiến xa hơn sự hiểu biết triết học của con người thì robot cũng có thể hiểu về đạo đức hơn con người trong tương lai không xa.