Công nghệ AI đang tạo ra những rủi ro tiềm ẩn mà để ngăn ngừa, chúng ta không thể chỉ trông vào sự tự điều chỉnh của những gã khổng lồ công nghệ.

Một thư ngỏ kêu gọi tạm dừng phát triển các hệ thống trí tuệ nhân tạo (AI) tiên tiến đã gây chia rẽ các nhà nghiên cứu. Lá thư này thu hút chữ ký từ những người như Giám đốc điều hành Tesla Elon Musk và đồng sáng lập Apple Steve Wozniak. Những người ký ủng hộ một thỏa thuận tạm dừng phát triển AI trong 6 tháng để các công ty và cơ quan quản lý có thời gian xây dựng các biện pháp bảo vệ xã hội khỏi những rủi ro tiềm ẩn.

Ngành AI liên tục công bố những bước đột phá mới, kể từ khi mô hình tạo sinh hình ảnh DALL-E 2, do OpenAI phát triển, ra mắt vào năm ngoái. Trong một năm, công ty này tiếp tục ra mắt ChatGPT và GPT-4, hai mô hình có khả năng tạo ra văn bản giống với ngôn ngữ con người. Hiện các công ty công nghệ lớn đang chạy đua để tích hợp trí tuệ nhân tạo sáng tạo vào các sản phẩm trình duyệt web, hệ điều hành.

"Nhận thức của nhiều người về tác động của công nghệ AI không phù hợp với tốc độ phát triển và quy mô của những mô hình AI", Michael Osborne, nhà nghiên cứu máy học và đồng sáng lập công ty AI Mind Foundry, nói. Osborne lo ngại về tác động xã hội của các công cụ mới, bao gồm khả năng lấy mất việc làm của con người và phổ biến tin giả. “Tôi thấy việc tạm dừng phát triển AI trong 6 tháng sẽ giúp các cơ quan quản lý có đủ thời gian để bắt kịp tốc độ phát triển", Osborne nói.

Ảnh minh họa

Những mối lo

Thư ngỏ do tổ chức phi lợi nhuận Sáng kiến Tương lai sự sống phát hành. “Chúng ta có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn và thay thế chúng ta? Chúng ta có nên mạo hiểm mất kiểm soát nền văn minh của mình không?”, Sandra Wachter, chuyên gia về quản lý công nghệ tại Đại học Oxford, tóm tắt lại các câu hỏi mà lá thư này đặt ra.

Wachter, người không ký vào bức thư, nói rằng nên tập trung vào cách các hệ thống AI có thể trở thành công cụ phát tán tin giả và duy trì các thiên kiến sẵn có. Về quy trình xây dựng AI, Wachter cho rằng cần quan tâm cách các công ty sử dụng lao động vào những công việc cực nhọc trong điều kiện tồi tệ để dán nhãn dữ liệu và đào tạo hệ thống.

Quyền riêng tư là một mối quan tâm khác. Cuối tháng 3, cơ quan bảo vệ dữ liệu của Ý đã cấm ChatGPT vì lo ngại rằng dữ liệu cá nhân của người Ý đang được sử dụng để đào tạo mô hình.

Một số chuyên gia công nghệ cảnh báo về các mối đe dọa bảo mật sâu hơn. Florian Tramèr, nhà khoa học máy tính tại ETH Zürich, cho biết các trợ lý kỹ thuật số dựa trên ChatGPT có thể giao tiếp với web, đọc và viết email, và đây là cơ hội khai thác mới cho tin tặc.

Ngay bây giờ, các tin tặc đang sử dụng chiến thuật đào tạo AI để chúng tuân theo những hướng dẫn độc hại, gọi là prompt injection. Ví dụ, chatbot có thể được yêu cầu nhập vai một người bạn xấu hoặc làm người phiên dịch, những lệnh này có thể khiến mô hình nhầm lẫn và bỏ qua các giới hạn an toàn.

ChatGPT đã bị cấm ở Ý do lo ngại về quyền riêng tư.

Tramèr lo ngại tin tặc có thể sử dụng prompt injection để tấn công người dùng, ví dụ như lừa trợ lý AI xuất toàn bộ dữ liệu của người dùng và gửi cho tin tặc. “Những mô hình này sẽ bị khai thác bằng mọi cách, sao cho chúng rò rỉ thông tin cá nhân của người dùng", ông nói, lưu ý thêm rằng các công ty AI cần cảnh báo người dùng về các rủi ro bảo mật và quyền riêng tư.

Đến nay, việc tạm dừng có vẻ như sẽ không xảy ra. Giám đốc điều hành OpenAI, Sam Altman, người không ký vào bức thư, nói rằng công ty luôn coi trọng vấn đề an toàn và thường xuyên hợp tác với các chuyên gia trong ngành về các tiêu chuẩn an toàn. Người đồng sáng lập Microsoft, Bill Gates, thì nói việc tạm dừng không giải quyết được những thách thức phía trước.

Osborne tin rằng các chính phủ cần vào cuộc. “Chúng ta không thể để những gã khổng lồ công nghệ tự điều chỉnh”, ông nói. Chính quyền Mỹ đã đề xuất một Tuyên ngôn nhân quyền trong thời đại AI, nhằm bảo vệ quyền của công dân Mỹ, nhưng các nguyên tắc là tự nguyện và không ràng buộc. Đạo luật AI của Liên minh châu Âu, dự kiến có hiệu lực trong năm nay, sẽ áp dụng các cấp độ quy định khác nhau, tùy thuộc vào mức độ rủi ro của các AI. Ví dụ, các hệ thống dự đoán tội phạm được coi là rủi ro quá cao và do đó bị cấm.

Theo Wachter việc tạm dừng 6 tháng có vẻ tùy tiện và không nên cấm nghiên cứu: "Thay vào đó, chúng ta cần suy nghĩ về nghiên cứu có trách nhiệm”. Wachterlưu ý những người trong ngành công nghệ AI cần thảo luận với các luật sư, nhà đạo đức học cũng như chuyên gia kinh tế và chính trị. Những câu hỏi xung quanh AI không thể được trả lời bởi riêng những người làm công nghệ, Wachter nói.

Nguồn: