Các nhà khoa học chỉ phát hiện gần 70% số bản tóm tắt nghiên cứu do ChatGPT tạo ra.

Theo một bản thảo tiền xuất bản được đăng trên máy chủ bioRxiv vào tháng 12/2022, ChatGPT - một chatbot trí tuệ nhân tạo (AI)do công ty OpenAI phát triển, có thể viết các bản tóm tắt bài báo nghiên cứu giả thuyết phục đến mức các nhà khoa học khó phân biệt chúng với bản do người viết.

Các nhà khoa học và chuyên gia xuất bản lo ngại rằng khả năng "sáng tác" ngày càng thuyết phục của chatbot có thể làm suy yếu tính toàn vẹn và chính xác của lĩnh vực khoa học.

Kể từ khi ChatGPT được phát hành vào cuối tháng 11/2022, các nhà nghiên cứu đã tranh cãi về các vấn đề đạo đức xung quanh việc sử dụng AI này, bởi vì khó phân biệt phần lớn văn bản mà nó tạo ra với văn bản do con người viết. Tuy nhiên đó chỉ là với các chủ đề đời sống thông thường như trò chuyện, giải đáp câu hỏi hay kể chuyện, và chưa rõ khả năng "giả mạo" của AI thuyết phục đến mức nào trong khoa học.

Mới đây, một nhóm nghiên cứu - do Catherine Gao tại Đại học Tây Bắc, Chicago, Illinois, đứng đầu - đã yêu cầu ChatGPT viết 50 bản tóm tắt nghiên cứu trong lĩnh vực y tế, dựa trên các bài báo được công bố trên JAMA, The New England Journal of Medicine, BMJ, The Lancet và Nature Medicine.

Sau đó, nhóm nghiên cứu so sánh các bản tóm tắt do ChatGPT tạo ra với các bản tóm tắt gốc bằng cách cho tất cả đi qua phần mềm phát hiện đạo văn và phần mềm phát hiện ngôn ngữ AI. Đồng thời, họ nhờ một nhóm các nhà nghiên cứu y khoa đọc và chọn "thủ công" các bản tóm tắt mà họ cho rằng do AI tạo ra.

Kết quả, các bản tóm tắt do ChatGPT tạo đã vượt qua phần mềm kiểm tra đạo văn, điểm độc đáo hay không trùng lặp trung bình là 100%. Có nghĩa là hành vi đạo văn của AI đã không hề bị phát hiện.

Phần mềm phát hiện ngôn ngữ AI đã phát hiện 66% trong tổng số các bản tóm tắt do ChatGPT tạo ra. Các nhà khoa học đánh giá thủ công cũng không phát hiện được nhiều hơn. Họ xác định chính xác 68% trong tổng số các tóm tắt do ChatGPT tạo ra.

“ChatGPT viết ra những tóm tắt khoa học có vẻ rất đáng tin cậy”, Gao và các đồng nghiệp cho biết trong bản thảo.

Sandra Wachter, người nghiên cứu chính sách công nghệ tại Đại học Oxford, Vương quốc Anh, và không tham gia vào nghiên cứu trên bioRxiv, nói rằng, khi các nhà khoa học không thể xác định liệu nghiên cứu là thật hay do AI tạo ra, thì có thể có “hậu quả thảm khốc”. Đầu tiên là rắc rối cho các nhà nghiên cứu, vì các bài báo do AI tạo ra không bị "lật tẩy" và nhiều người có thể sẽ xây dựng nghiên cứu của mình dựa trên những nghiên cứu bịa đặt. Ngoài ra, còn có “những tác động đối với xã hội nói chung”. Ví dụ, các quyết định chính sách dựa trên thông tin nghiên cứu có thể bị sai lệch, theo Wachter.

Irene Solaiman, người nghiên cứu tác động xã hội của AI tại Hugging Face, công ty AI có trụ sở ở New York và Paris, cho rằng các tạp chí trong các lĩnh vực mà thông tin giả mạo có thể gây nguy hiểm như y học, phải có quy trình xác minh thông tin nghiêm ngặt hơn để phòng ngừa AI.

Nhóm nghiên cứu đề xuất những người làm công việc biên tập trong lĩnh vực khoa học nên đưa ra các chính sách để ngăn chặn việc sử dụng các văn bản do AI tạo ra.

Trong khi đó, Arvind Narayanan, nhà khoa học máy tính tại Đại học Princeton, New Jersey, tin rằng, giải pháp cho những vấn đề như thế này không nên tập trung vào AI và chatbot, “mà nên tập trung vào những động lực đằng sau hành vi dùng AI để sản xuất bài báo, chẳng hạn như các trường đại học tiến hành tuyển dụng và đánh giá thăng chức bằng cách đếm các bài báo mà không quan tâm đến chất lượng hoặc tác động của chúng”.

Nguồn: