Cam kết được công bố tại Hội nghị quốc tế về trí tuệ nhân tạo 2018 diễn ra tuần qua ở Stockholm (Thụy Điển) – do Viện Tương lai & Cuộc sống, một think–tank chuyên hoạt động theo hướng đi tìm giải pháp nhằm “giảm thiểu những nguy cơ đe dọa sự tồn vong của nhân loại”.
Rất nhiều gương mặt đình đám của làng công nghệ đã tham gia ký kết, trong đó có ông chủ Elon Musk của Tesla và Space X; Shane Legg, Mustafa Suleyman và Demis Hassabis – ba nhà đồng sáng lập DeepMind (công ty con chuyên về AI của Google); hay Jaan Tallinn – người sáng lập Skype; và một số chuyên gia AI tiếng tăm nhất thế giới như Stuart Russell, Yoshua Bengio và Jürgen Schmidhuber. Đây được xem như động thái mới nhất của một liên minh không chính thức toàn cầu nhằm chống lại sự phổ biến vũ khí sát thương tự động.
“Nhiều hệ thống AI quân sự hoàn toàn có khả năng lựa chọn mục tiêu để đưa vào tầm ngắm mà không cần đến sự can thiệp của con người; Đó thực sự là một mối đe dọa, cả về mặt đạo đức lẫn thực tiễn” - Cam kết đưa ra cảnh báo. Xét trên phương diện đạo đức, theo lập luận của những người ký kết, “việc tước đi mạng sống của ai đó, không nên được đặt vào tay các cỗ máy”. Trong khi liên quan đến khía cạnh thực tiễn, nếu những thứ như vậy trở nên phổ biến, chúng sẽ “đe dọa và gây bất ổn nghiêm trọng đến các quốc gia lẫn từng cá nhân.”
Giáo sư vật lý Max Tegmark của MIT, một trong những người đóng góp chữ ký, cho biết cam kết trên đã thể hiện quyết tâm “hành động thay cho lời nói” của giới AI – điều mà các chính trị gia vẫn chưa làm nổi, đó phải tự đặt ra những giới hạn cứng (tức luật pháp) để quản lý sự phát triển của AI trong lĩnh vực quân sự. “Loại vũ khí giết người tự động này thật đáng ghê tởm và cũng nguy hiểm chẳng khác gì vũ khí sinh học, vì vậy nên xử lý chúng theo những cách thức tương tự” - Tegmark nhận định.
Cho đến nay, các nỗ lực quốc tế nhằm kêu gọi ban hành những quy định (chẳng hạn công ước) để kiểm soát vũ khí sát thương tự động vẫn chưa mang lại nhiều hiệu quả, mặc dù các nhà vận động từng gợi ý rằng Liên hiệp quốc có thể tham khảo những điều khoản liên quan đến vũ khí hóa học hay bom mìn. Tuy nhiên, thực sự rất khó để xác định ranh giới giữa những thứ cấu thành nên một hệ thống vũ khí tự động với cái gì không phải. Chẳng hạn, một tháp pháo tự hành có thể nhắm bắn các mục tiêu cá nhân, nhưng quyết định lại do người điều khiển. Ngoài ra, việc thực thi các quy định như trên chắc chắn sẽ gặp phải nhiều thách thức lớn, bởi công nghệ AI đang ngày càng được ứng dụng rộng rãi trong quân sự. Chưa kể, những quốc gia giàu tham vọng như Mỹ hay Trung Quốc cũng chẳng có động cơ gì để không làm như vậy.
Chuyên gia phân tích quân sự Paul Scharre – người từng viết một cuốn sách về tương lai của chiến tranh và AI – nhận định cam kết trên sẽ không ảnh hưởng nhiều đến chính sách của các quốc gia, vì đó chỉ là một văn bản không đủ quyền lực để tháo bỏ nút thắt của những tranh cãi. “Có vẻ giới AI vẫn chưa đủ bền chí để đưa ra một lý giải thuyết phục hơn đối với các nhà hoạch định chính sách, về sự quan ngại liên quan đến các hệ thống vũ khí tự động.” Chưa kể phần đông những chính phủ cũng tỏ ra đồng tình với lời hứa hẹn cốt lõi của cam kết, rằng “các cá nhân không nên phát triển vũ khí AI để nhắm vào cá nhân khác”, bên cạnh việc những thông tin về các hệ thống AI quân sự được phát triển cho mục đích phòng thủ thực ra cũng không còn là bí mật nữa. “Có ít nhất 30 nước đã triển khai các hệ thống như vậy để chống tên lửa đạn đạo” - Scharre cho biết. Ngoài ra còn có vũ khí không gian – một chủ đề tranh luận mà báo chí bấy lâu nay vẫn đề cập một cách khá mơ hồ.
Có lẽ phải rất lâu nữa mới đến viễn cảnh ban hành các quy định quốc tế, song những động thái gần đây cũng cho thấy, các phong trào vận động tập thể như cam kết Stockhom sẽ vẫn tạo nên sự khác biệt. Như gần đây, các nhân viên của Google đã phản đối kịch liệt khi biết Tập đoàn đang giúp Lầu Năm Góc (Pentagon) phát triển AI trên các thiết bị bay do thám không người lái (mục đích phi sát thương), khiến các lãnh đạo phải điều chỉnh phương châm hoạt động sau đó một vài tuần, hứa hẹn sẽ không phát triển vũ khí AI. Hay trong tháng Tư, một phong trào đe dọa tẩy chay Viện Khoa học & Công nghệ tiên tiến Hàn Quốc (KAIST) cũng đem đến kết quả tương tự, buộc Chủ tịch Viện phải tuyên bố sẽ không phát triển các hệ thống AI quân sự để “chống lại nhân phẩm”, bao gồm những vũ khí tự động thiếu vắng sự kiểm soát [của con người]”
Tuy nhiên, trong cả hai ví dụ trên, có thể thấy rằng các tổ chức vẫn không muốn hoàn toàn chấm dứt việc nghiên cứu, phát triển những thiết bị AI quân sự, ngay cả cho mục đích phi sát thương. Nhưng dù sao, một cam kết không đặt quyền sinh sát vào trong tay các hệ thống máy tính xem ra vẫn tốt hơn là không ai hứa hẹn gì cả.