Với hy vọng tránh được nguy cơ lạm dụng AI và công nghệ sinh học cho mục đích xấu, các nhà quản lý cho biết sẽ đưa ra các tiêu chuẩn mới khắt khe hơn đối với việc sử dụng trí tuệ nhân tạo (AI) trong các ngành khoa học sự sống.
Các tiêu chuẩn sàng lọc mới này, sẽ được nhiều ban ngành của Mỹ soạn thảo trong sáu tháng tới, sẽ giúp giải đáp lo ngại của các nhà khoa học và các tổ chức tư vấn vốn lo ngại rằng ngành tổng hợp sinh học vốn không được kiểm soát chặt chẽ và có thể bị lạm dụng cho các mục đích xấu.
Ví dụ, vào năm 2017, các nhà nghiên cứu ở Mỹ và Canada cho biết họ đã tái tạo lại virus đậu mùa ở ngựa đã tuyệt chủng từ DNA đặt hàng qua thư, làm dấy lên câu hỏi liệu họ có thể làm điều tương tự đối với bệnh có liên quan như đậu mùa hay không.
Jaime Yassif, Phó chủ tịch Sáng kiến cảnh báo về các mối Đe dọa Hạt nhân (NTI), mới ra mắt báo cáo về cách thức người ta có thể kết hợp AI và công nghệ sinh học để tạo ra các tác nhân sinh học có hại, cho biết cảm thấy “được động viên khi Nhà Trắng tuyên bố mới về giám sát AI”. Các quy định mới có ý nghĩa lớn đối với các nhà nghiên cứu làm việc không chỉ ở Mỹ mà còn quan trọng đối với bất kỳ dự án khoa học sự sống nào liên quan đến tổng hợp sinh học từ DNA nhận được tài trợ của Mỹ.
Các cơ quan quản lý và ngành công nghiệp Mỹ vẫn chưa đưa ra các thông tin rõ ràng về quá trình sàng lọc sẽ chặt chẽ hơn như thế nào. Nhưng cơ quan chịu trách nhiệm xây dựng các quy định mới là Văn phòng Chính sách Khoa học và Công nghệ, sẽ xem xét “các phương pháp sàng lọc khách hàng” – tức là sàng lọc ai là người đặt mua các đoạn DNA chứ không chỉ nội dung cụ thể của các đơn đặt hàng, kiểm tra nghiêm ngặt hơn đối với các nhà khoa học trên toàn cầu muốn đặt hàng DNA.
Bịt các lỗ hổng
Cho đến nay, hầu hết các công ty tổng hợp DNA đều sàng lọc các đơn đặt hàng của họ để đảm bảo không cung cấp các thành phần có mầm bệnh truyền nhiễm và cho biết họ đã kiểm tra khách hàng của mình. Nhưng hệ thống này là tự nguyện và Hiệp hội tổng hợp gene quốc tế, gồm các công ty Mỹ, châu Âu và Trung Quốc có cơ sở dữ liệu sàng lọc chung, được cho là chỉ đại diện cho 80% ngành công nghiệp tổng hợp. Có nghĩa là có khả năng một số công ty không kiểm tra đơn đặt hàng.
Câu hỏi bây giờ là liệu các quy định mới của Mỹ có lấp được lỗ hổng này và khiến toàn bộ ngành tiến hành sàng lọc chặt chẽ hay không.
Bình luận trên tờ Science Business, Yassif cho rằng trước hết, Mỹ cần nêu gương trên toàn cầu về an toàn sinh học. Ngoài ra, với tư cách là một trong những nhà tài trợ lớn nhất cho nghiên cứu khoa học sự sống trên toàn cầu, “các tiêu chuẩn mà Chính phủ Mỹ đặt ra có thể sẽ có tác động đến các nhà cung cấp DNA trên toàn thế giới”.
AI và công nghệ sinh học
Với những bước đột phá của công nghệ trí tuệ nhân tạo, các nhà khoa học sự sống đã sử dụng trí tuệ nhân tạo để hỗ trợ phát triển thuốc với hiệu suất và tỉ lệ thành công cao hơn một cách bất ngờ cho đến nghiên cứu cấu trúc protein. Điều đó càng làm dấy lên lo ngại con dao quá sắc này có thể bị lạm dụng cho các mục đích xấu.
Báo cáo của NTI, về “Sự hội tụ của trí tuệ nhân tạo và khoa học sự sống”, là báo cáo mới nhất gióng lên hồi chuông cảnh báo rằng công nghệ sinh học và AI có thể giúp những kẻ xấu thiếu chuyên môn sâu về sinh học nhưng có thể tiếp cận với mầm bệnh và gây ra tác hại thảm khốc... và kêu gọi sàng lọc chặt chẽ hơn.
Ví dụ: các mô hình ngôn ngữ lớn, như ChatGPT, có thể giúp hướng dẫn cộng đồng thực hiện các bước để phát tán các tác nhân gây bệnh, chẳng hạn như thông tin về cách lấy các tác nhân đó và xác định vị trí các thiết bị và cơ sở vật chất có liên quan. Các công cụ thiết kế sinh học có thể giúp tạo ra các mầm bệnh nguy hiểm hơn các tác nhân gây bệnh đã được tìm thấy trong tự nhiên.
Hơn 30 chuyên gia, cả trong giới học thuật và khối công nghiệp được NTI phỏng vấn đã có những ý kiến khác nhau về mức độ nguy hiểm và đâu là rủi ro cao nhất.
Nicole Wheeler, nhà nghiên cứu vi sinh tại Đại học Birmingham, đồng thời là một trong những tác giả của báo cáo NTI, cho biết, nếu chỉ "xem xét các công cụ AI riêng lẻ, bạn có thể đánh giá thấp rủi ro mà chúng gây ra”. Báo cáo cho biết, các công cụ AI giúp thiết kế protein có thể thiết kế các protein “có rất ít điểm tương đồng với các chuỗi mầm bệnh hoặc độc tố đã biết nhưng có cùng chức năng và gây ra những rủi ro giống nhau”.
Một công bố khác gần đây đã làm tăng thêm mối lo ngại rằng các mô hình ngôn ngữ lớn nguồn mở dễ bị một số người có hiểu biết về công nghệ sinh học lạm dụng, tạo ra mầm bệnh nguy hiểm.
Các nhà nghiên cứu tại Cambridge, Massachusetts, đã cung cấp cho những người tham gia thử nghiệm một phiên bản bẻ khóa của mô hình ngôn ngữ lớn Llama của Meta, và yêu cầu họ vạch ra kế hoạch khám phá cách hồi sinh Dịch cúm Tây Ban Nha năm 1918. Nó cho thấy: “Chỉ trong vòng một đến ba giờ truy vấn mô hình, một số người tham gia đã biết rằng việc thu thập cúm năm 1918 là khả thi đối với những người có hiểu biết về phòng thí nghiệm”. Một người đã tiến “rất gần” đến việc tìm hiểu tất cả các bước cần thiết để thực sự có được một mẫu bệnh phẩm lây nhiễm.
EU đang chậm trễ
Trong khi các nhà quản lý Mỹ lo lắng về nguy cơ lạm dụng và kết hợp AI với công nghệ sinh học thì EU cho đến nay, chưa có động thái gì. Có thể là EU đang xem xét các quy định riêng của mình để thắt chặt giám sát, giống như Mỹ.
Nhóm cố vấn khoa học trưởng của EU dự kiến sẽ đưa ra đánh giá về việc sử dụng AI trong khoa học trong quý đầu tiên của năm tới. Nhưng trọng tâm là đẩy nhanh sự phát triển của AI trong khoa học để tăng tốc độ khám phá, thay vì những rủi ro khi kết hợp với công nghệ sinh học.
Trong khi đó, Anh sẽ tổ chức một hội nghị thượng đỉnh tập trung vào an toàn AI trong tuần này, mời các chính phủ trên toàn thế giới và các công ty AI hàng đầu thảo luận về những rủi ro và khả năng của các mô hình tiên tiến nhất. Tất nhiên, đã có ý kiến lo ngại của các nhà khoa học, đã có nhà khoa học cảnh báo trước thềm hội nghị về việc AI tiên phong có thể bị lạm dụng để “thiết kế vũ khí sinh học hoặc hóa học”.
Nguồn: sciencebusiness.net
Bảo Như lược thuật