EU phải tập hợp được các nhà khoa học máy tính xuất sắc nhất và trao cho họ hàng tỉ tỉ Euro để xây dựng hệ AI của EU để tránh cho châu lục này bị phụ thuộc vào những công ty công nghệ khổng lồ của Mỹ hoặc Trung Quốc.

Sidney Manuel Wolfe (1937-2023). Nguồn: Jamie Rose
Sidney Manuel Wolfe (1937-2023). Nguồn: Jamie Rose

Teo Holger Hoos, một người sáng lập của Hiệp hội các phòng thí nghiệm nghiên cứu AI của Europe (CLAIRE), EU cần tạo ra một dự án tầm cỡ Manhattan để xây dựng một mô hình AI minh bạch, có đạo đức và độc lập, không buộc phải sử dụng sản phẩm của Microsoft hay Google. “Tôi nghĩ chúng ta muốn sử dụng thứ của chúng ta tạo ra”, ông nói.

Hoos, giáo sư AI tại ĐH Aachen RWTH và là tiếng nói quan trọng về chính sách AI của EU, nghi ngờ các công ty như Mistral AI (Pháp) hay Aleph Alpha (Đức) sẽ có đủ nguồn lực để cạnh tranh với các gã khổng lồ công nghệ Mỹ. Vì vậy EU cần một mô hình từ nguồn tài trợ công để các công ty có thể từ đó tạo ra những sản phẩm mới.

Những chuyên gia AI của EU khác nói rằng cũng cần cân nhắc liệu một mô hình AI do nguồn lực công tài trợ có khả thi hay không. Một số đã từng thực hiện tính toán việc hỗ trợ phát triển như vậy tốn bao nhiêu tiền. Tuy nhiên, qua các cuộc đối thoại như vậy thì việc đi đến thống nhất ai sẽ dảm trách một dự án như thế này không hề dễ dàng.

Cơ sở hạ tầng tính toán

Hoos ước tính chi phí vào khoảng vài tỉ để tạo ra một hệ AI công, bao gồm các khoản lương và cơ sở hạ tầng tính toán Eumowsi để huấn luyện mô hình này.

Hoos và các đồng nghiêp ở CLAIRE đã đồng ý kêu gọi cho cái mà họ cho là bản đúp của “CERN cho AI” – một cơ sở hạ tầng tính toán ước tính thúc đẩy nhanh công nghệ này.

Hoos dự tính là các nhà khoa học từ khắp EU sẽ tạm ngưng công việc hằng ngày của họ để làm việc trong một địa chỉ nhất định – một Los Alamos của EU – và quan trọng là được miễn trừ mọi trách nhiệm giảng dạy và nghiên cứu trong khoảng thời gian này. “Anh cần những người có thể toàn tâm toàn ý cho nó, ít nhất trong vài năm”, ông nói. “Đó chính xác là việc cần làm nếu như bạn muốn có một công ty khởi nghiệp thành công, bạn cần những người chỉ làm việc này”.
Tuy nhiên ngay cả được phân bổ hàng tỉ tỉ Euro thì một dự án công về AI của EU có thể sẽ vẫn phải vật lộn để mức lương của người tham gia tương đương với mức thu nhập của những người làm trong các công ty công nghệ Mỹ hàng đầu. Giải pháp này gieo hy vọng về một số lượng những người không vì đồng tiền của Mỹ để đến với dự án, ông nói.

EU có thể cần tài trợ cho dự án này khác với cách tài trợ cho các dự án Horizon Europe, vốn có xu hướng cấp kinh phí cho những đề xuất từ dưới lên. Cần tạo ra một tổ chức mới do một nhóm các nhà khoa học dẫn dắt, bao gồm cả nhà khoa học xã hội.

Những rào cản

Hoos không muốn làm theo những gì Mỹ đã làm. Thay vào đó, EU phải hướng đến việc vượt qua họ, theo nghĩa minh bạch, đáng tin cậy và hơn thế nữa. ‘Tham vọng của chúng ta là cần tạo được các mô hình thỏa mãn các tiêu chí đó”, ông nói. “Có thể là không đạt được các tiêu chí cùng một lúc nhưng chúng ta phải khởi động để đạt được nó”. Ví dụ, ChatGPT của OpenAI đã tận dụng những nhân công Kenya được trả lương thấp để cung cấp cho hệ thống này những phản hồi phục vụ kỹ năng học tăng cường, qua đó AI có được một số đánh giá đạo đức con người.

Một rào cản nghiêm trọng khác là một dự án AI có đạo đức là quyền truy cập vào dữ liệu. Các công ty AI như OpenAI đã làm các nghệ sĩ, nhà văn và báo chí nổi giận vì đã bị khai thác hàng núi văn bản, tranh online cho các mô hình một cách bất hợp pháp, và giờ phải đối mặt với rất nhiều thách thức bản quyền.

Một dự án AI của EU có thể không là kẻ săn mồi, Hoos nói, và phải tập trung vào chất lượng hơn số lượng. “Tôi biết là một số bộ dữ liệu nhỏ được thu thập cẩn thận hơn và có chất lượng cao cũng có thể đưa chúng ta đi xa”, ông nói.

DeepL, một công ty dịch tự động của Đức, đã có thể đối đầu với Google Translate một cách tự tin bởi vì đã được sử dụng một bộ dữ liệu chất lượng cao, Hoos lấy ví dụ.

Bị cản trở bởi sai sót

Không chỉ đạo đức hơn của EU cần tin cậy hơn những mô hình đang có trên thị trường. Một mô hình AI mới của EU cần được đưa thêm nhiều yếu tố suy luận logic để khiến nó tin cậy hơn. Với dự án này, nó cần được xây dựng thành nền tảng “đa văn hóa”, và được huấn luyện bằng cả các nội dung của các ngôn ngữ ngoài tiếng Anh để có thể ‘phản chiếu tốt hơn và tôn trọng hơn những khác biệt văn hóa”.

Và cuối cùng, nó phải là mô hình không chỉ xử lý và tạo ra văn bản như ChatGPT. Thay vào đó là mô hình AI có thể đa phương thức, có thể tích hợp ngôn ngữ, tranh ảnh và video.

Trong quá khứ, EU đã có nhiều thất bại, ví dụ như Quaero, một dự án Pháp – Đức do EU tài trợ để xây dựng công cụ thay thế công cụ tìm kiếm của Google Search trong những năm 2000 hay Gaia-X, một nỗ lực bị trì hoãn dài hạn để xây dựng cơ sở hạ tầng EU cạnh tranh với Amazon Web Services. Tuy nhiên EU cần phải chấp nhận rủi ro và tự tin vào khía cạnh tích cực của các dự án công thành công như Airbus, CERN…

AI an toàn hơn?


Với một số người thì trong thế giới của AI, một hệ mới hiệu quả hơn chỉ là điều chót mà thiên hạ cần bởi những rủi ro của các mô hình đó chực chờ khi ngày một trở nên thông minh hơn, chúng sẽ vượt thoát khỏi sự kiểm soát của người tạo ra mình.

Tuy nhiên Hoos tin tưởng là một sáng kiến công của EU sẽ an toàn hơn những mô hình hiện hành bởi sẽ được phát triển có trách nhiệm hơn chứ không thuần túy vì tiền bạc hoặc thu hút nhà đầu tư. Bất cứ mô hình AI nguồn mở nào cũng có thể được quản lý và thúc đẩy sự phát triển những ứng dụng có ích. Dẫu vậy thì các mô hình nguồn mở AI cũng khiến nhiều nhà khoa học lo ngại vì có thể vượt qua các ràng buộc an toàn, nếu những người xấu lợi dụng để tạo ra vũ khí sinh học chẳng hạn.

Nguy cơ là một dự án AI của EU sẽ bị quá tải bởi những yêu cầu – phải đáng tin cậy, có đạo đức, hữu dụng cho SME, có thể ứng dụng cho robotics… – nên khó có thể xây dựng được mô hình nào làm hài lòng tất cả mọi người.

Nguồn: sciencebusiness.net