Nhiều nhà xuất bản học thuật chưa thể đưa ra chính sách rõ ràng do thiếu các công cụ có khả năng phát hiện văn bản do AI tạo ra.

ChatGPT và những chatbot tương tự là các mô hình ngôn ngữ lớn (LLM), được đào tạo dựa trên lượng lớn văn bản được lấy từ Internet để tạo ra các văn bản trôi chảy. Trong một số trường hợp, không thể phân biệt văn bản do AI tạo ra với văn bản do người viết.

Đa số các nhà xuất bản hiện tránh đưa ra lệnh cấm hoàn toàn đối với văn bản do AI tạo ra, nhưng yêu cầu tác giả tiết lộ việc sử dụng các công cụ AI. Thực tế, đây gần như là lựa chọn chính sách duy nhất, vì các biên tập viên và người bình duyệt thiếu các công cụ thực thi chính sách cấm các văn bản do AI tạo ra. Cho đến nay, chưa có phần mềm nào có thể phát hiện văn bản do AI tạo ra một cách chính xác và ổn định.

Ảnh minh họa

Công cụ phát hiện văn bản AI của chính OpenAI, vẫn đang được tiếp tục phát triển, chỉ phân biệt chính xác 26% số văn bản. Ngoài ra, công cụ phát hiện cũng có thể bị đánh lừa bởi những văn bản do AI tạo ra đã được chỉnh sửa.

Vì vậy, các chuyên gia xuất bản lo ngại việc sử dụng AI trong học thuật sẽ ngày càng phổ biến hơn, đe dọa tính chính xác của văn bản học thuật, vì AI thường tạo ra câu trả lời bịa đặt hoặc sai sự thật.

Vào tháng 11/2022, Meta đã phải đã gỡ Galactica, mô hình ngôn ngữ lớn dành riêng cho nhà khoa học, chỉ vài ngày sau khi ra mắt. Nguyên nhân là người dùng đã xác định được nhiều lỗi trong văn bản AI tạo ra. Và một nghiên cứu năm 2022 về Sparrow, chatbot tìm kiếm thông tin do một công ty con của Google phát triển, đã phát hiện có tới 20% phản hồi của chatbot có lỗi. Văn bản AI cũng thiên về các ý tưởng và giả thuyết khoa học phổ biến hoặc chiếm đa số trong dữ liệu đào tạo.

Phản ứng với làn sóng AI, nhiều tạp chí yêu cầu các tác giả tiết lộ việc sử dụng các công cụ AI tạo sinh văn bản, và cấm liệt kê các AI như ChatGPT là đồng tác giả, để nhấn mạnh trách nhiệm của tác giả trong việc đảm bảo tính chính xác của văn bản học thuật. Đây hiện là chính sách của tất cả các tạp chí thuộc Springer Nature, JAMA, và được đồng thuận bởi các nhóm tư vấn về các phương pháp quản lý xuất bản, như Ủy ban Đạo đức Xuất bản và Hiệp hội Biên tập viên Y tế Thế giới. Science thì có quan điểm cứng rắn hơn, cấm sử dụng văn bản do AI tạo ra.

Thực tế, đa số nhà xuất bản học thuật vẫn đang tìm cách quản lý việc sử dụng AI, chẳng hạn như yêu cầu biên tập viên hoặc người bình duyệt kiểm tra tính xác thực của văn bản do AI tạo ra. Tuy nhiên nhiệm vụ này sẽ làm tăng khối lượng công việc tình nguyện vốn đã nặng nề. Một chính sách khả thi trong tương lai là yêu cầu tác giả chỉ rõ phần nào trong bản thảo là do AI tạo ra, thay vì chỉ nói chung chung đã sử dụng AI trong soạn thảo. Nhưng ngay cả như vậy, thì vấn đề lại trở về với công cụ thực thi để có thể phát hiện văn bản AI.

Các nhà quản lý tạp chí cho biết họ hy vọng trong tương lai sẽ có nhiều công nghệ rà soát văn bản hơn. Dù vậy, Domenic Rosati, nhà khoa học tại scite.ai, công ty phát triển phần mềm hỗ trợ xuất bản khoa học, cho biết, phát triển công nghệ này không hề dễ dàng. “Chúng ta đã qua cái thời có thể xác định rõ ràng văn bản do máy tạo ra vì tính lưu loát hoặc sự thiếu trung thực của nó", Rosati nói.

Một số biên tập viên nhìn thấy tiềm năng cũng như nguy cơ của ChatGPT và những công cụ tương tự. “Tôi có thể thấy các kịch bản sẽ gây lo ngại, nhưng sau đó tôi cũng thấy rất nhiều cơ hội với các loại công cụ này", Magdalena Skipper, tổng biên tập của Nature, cho biết. “Như với mọi công cụ, chúng ta phải hiểu những hạn chế của công cụ cũng như cách thức và bối cảnh sử dụng chúng".

"Chính sách quản lý có thể sẽ phát triển khi ngành xuất bản có nhiều kinh nghiệm hơn với những bản thảo có liên quan đến AI", Alam nói. "Chúng tôi coi đây là một quá trình tiếp cận theo từng giai đoạn, và bây giờ mới là những ngày đầu."

Nguồn: