Các nhà nghiên cứu rất hào hứng nhưng cũng có phần e ngại trước những tiến bộ mới nhất của trí tuệ nhân tạo.
Tháng 12/2022, các nhà sinh học tính toán Casey Greene và Milton Pividori bắt tay vào một thí nghiệm khác thường. Họ nhờ một trợ lý giúp họ cải thiện 3 bài báo nghiên cứu của nhóm. Chỉ mất 5 phút cho mỗi bài báo, trợ lý này chỉ ra các phần cần sửa. Đối với một bản thảo bài báo về sinh học, trợ lý thậm chí còn phát hiện ra lỗi liên quan đến một phương trình.
Nhìn chung, các bản thảo sau khi qua tay trợ lý trở nên dễ đọc hơn, và mức phí không đắt, dưới 0,5 USD cho mỗi bản thảo.
Trợ lý này, theo Greene và Pividori cho biết trong thảo đăng ngày 23/1, không phải là con người mà là một thuật toán trí tuệ nhân tạo (AI) có tên là GPT-3, được phát hành lần đầu vào năm 2020. GPT-3 là một mô hình ngôn ngữ lớn (LLM) do công ty nghiên cứu OpenAI phát triển, và là nền tảng đằng sau của ChatGPT đang gây sốt nhờ khả năng tạo văn bản lưu loát, cho dù được yêu cầu viết văn xuôi, thơ, hay code. AI này thuộc vào nhóm generative AI, hay AI tạo sinh, tạo ra hình ảnh, âm thanh hoặc văn bản dựa trên đầu vào cho trước.
“Tôi thực sự ấn tượng. Công cụ này giúp chúng tôi làm việc hiệu quả hơn với tư cách là nhà nghiên cứu", Pividori, người làm việc tại Đại học Pennsylvania, Philadelphia, nói. Các nhà khoa học khác cho biết giờ đây họ thường xuyên sử dụng các LLM - có nhiều LLM khác ngoài GPT-3 - không chỉ để chỉnh sửa bản thảo mà còn để viết, biên tập hoặc lên ý tưởng.
“Tôi sử dụng LLM hằng ngày", Hafsteinn Einarsson, nhà khoa học máy tính tại Đại học Iceland, Reykjavik, cho biết. Einarsson dùng ChatGPT để viết thuyết trình, soạn bài kiểm tra cho sinh viên và các bài tập trong khóa học. “Nhiều người đang sử dụng nó như một thư ký hoặc trợ lý kỹ thuật số", Einarsson nói.
Nhưng các LLM cũng gây lo ngại vì chúng có xu hướng đưa ra thông tin sai sự thật. Khi được hỏi về tiềm năng sử dụng của các chatbot như ChatGPT, đặc biệt là trong khoa học, sự phấn khích của các học giả đã giảm bớt bởi sự e ngại. “Nếu công nghệ này thực sự là một bước đột phá thì cũng có những điều đáng lo ngại”, Greene, tại Trường Y thuộc Đại học Colorado, Aurora, nói.
Lưu loát nhưng không đáng tin
Một số người cho rằng LLM rất phù hợp để tăng tốc các tác vụ soạn văn bản thủ tục, miễn là có sự giám sát của con người. “Các nhà khoa học sẽ không ngồi viết những đơn xin tài trợ dài dòng nữa. Họ sẽ yêu cầu các LLM làm việc đó", Almira Osmanovic Thunström, nhà sinh học thần kinh tại Bệnh viện Đại học Sahlgrenska, Gothenburg, Thụy Điển, nói.
Tom Tumiel, kỹ sư nghiên cứu tại công ty tư vấn phần mềm InstaDeep, London, cho biết sử dụng LLM hằng ngày làm trợ lý để giúp viết code. “Nó giống như một phiên bản tốt hơn của kho code Stack Overflow", Tumiel nói.
Nhưng các nhà nghiên cứu nhấn mạnh rằng nội dung mà các LLM đưa ra về bản chất không đáng tin cậy. ChatGPT và các AI tương tự được đào tạo dựa trên cơ sở dữ liệu văn bản trực tuyến khổng lồ, bao gồm những thông tin sai sự thật, thành kiến hoặc kiến thức lỗi thời. Khi được hỏi, chúng tạo ra văn bản bằng cách chọn ra các từ có khả năng đi liền với nhau cao nhất, dựa trên xác suất thống kê từ cơ sở dữ liệu.
Kết quả là các LLM chỉ đưa ra các câu và đoạn sao cho trông giống nhất có thể với văn bản của con người, nhưng nội dung thường xuyên sai sự thật. LLM cũng không thể chỉ ra nguồn gốc thông tin mà chúng cung cấp. Nếu được yêu cầu, AI sẽ bịa ra những trích dẫn hư cấu. “Không thể tin cậy công cụ này trong việc tìm hiểu sự thật hoặc trích dẫn các tài liệu tham khảo đáng tin cậy”, một bài xã luận về ChatGPT trên tạp chí Nature Machine Intelligence lưu ý.
ChatGPT và các LLM khác có thể là trợ thủ đắc lực cho nhà nghiên cứu đủ trình độ để phát hiện lỗi nhưng lại có thể đánh lừa người dùng không chuyên. Tháng 12 năm ngoái, Stack Overflow đã tạm thời cấm sử dụng ChatGPT, sau khi người dùng gửi về những câu trả lời do LLM tạo ra, không chính xác nhưng có hình thức thuyết phục. Nếu sử dụng sai cách, thông tin từ AI có thể làm nhiễu các công cụ tìm kiếm thông tin.
Điểm yếu khó giải quyết
Các công ty xây dựng LLM cũng nhận thức rõ vấn đề này. Tháng 9 năm ngoái, DeepMind, công ty con của Google, đã xuất bản một bài báo về AI có tên Sparrow, tập trung vào khả năng trích dẫn nguồn. Mira Murati, Giám đốc kỹ thuật của OpenAI, thừa nhận thông tin sai là "thách thức cốt lõi" đối với AI tạo sinh. Ông cho biết, công ty lựa chọn đối thoại làm hình thức giao tiếp giữa người dùng và AI một phần để khắc phục điểm yếu này. "Người dùng có thể phản hồi rằng câu trả lời của AI là không chính xác."
Theo một số nhà khoa học, ChatGPT hiện chưa được đào tạo về nội dung đủ chuyên biệt để trở nên hữu ích trong các chủ đề kỹ thuật. Kareem Carr, nghiên cứu sinh tiến sĩ về thống kê sinh học tại Đại học Harvard, Cambridge, Massachusetts, đã rất thất vọng khi thử sử dụng AI này vào công việc. "ChatGPT chưa đạt được mức độ thông tin cụ thể mà tôi cần", Carr nói.
Một số công ty công nghệ đang đào tạo chatbot về tài liệu khoa học chuyên ngành cũng gặp vấn đề AI "dối trá" tương tự. Vào tháng 11 năm ngoái, Meta, gã khổng lồ công nghệ sở hữu Facebook, đã phát hành một LLM có tên là Galactica, được đào tạo về tóm tắt khoa học, hứa hẹn trở thành trợ lý sản xuất nội dung học thuật và trả lời các câu hỏi nghiên cứu. Nhưng người dùng nhận thấy AI này đưa ra các nội dung không chính xác và phân biệt chủng tộc.
Bên cạnh việc trực tiếp tạo ra nội dung độc hại, còn có những lo ngại rằng các chatbot AI sẽ lan truyền những thành kiến từ dữ liệu đào tạo của chúng.
Một số nhà nghiên cứu nói rằng các học giả nên quay lưng lại với việc thương mại hóa LLM. Bên cạnh các vấn đề như sai lệch, thiên kiến, các thuật toán này còn sử dụng một lượng năng lượng khổng lồ trong quá trình đào tạo, gây lo ngại về phát thải. “Tại sao chúng ta, với tư cách là những học giả, lại háo hức sử dụng và quảng cáo loại sản phẩm này?”, Iris van Rooij, nhà thần kinh học tính toán tại Đại học Radboud, Nijmegen, Hà Lan, viết trong một bài đăng trên blog kêu gọi các học giả tránh xa các LLM.
Minh bạch trong sử dụng AI
Một số nhà nghiên cứu cho biết điều quan trọng là cách sử dụng, chẳng hạn như minh bạch về việc sử dụng hỗ trợ từ AI. Nhiều nhà xuất bản học thuật đã tuyên bố rằng các nhà khoa học cần công khaiviệc sử dụng LLM trong các tài liệu nghiên cứu, và các giáo viên cho biết họ cũng mong đợi hành vi tương tự từ học sinh. Science thậm chí đã đi xa hơn, không chấp nhận các văn bản được tạo bởi ChatGPT hoặc bất kỳ công cụ AI nào khác trong bài báo.
Nhưng để thực thi ý tưởng này, một câu hỏi quan trọng là có thể phát hiện nội dung do AI tạo ra hay không. Vấn đề này đang được nghiên cứu, với ý tưởng cốt lõi là sử dụng chính các LLM để phát hiện văn bản do AI tạo ra.
Ví dụ, tháng 12 năm ngoái, Edward Tian, nhà khoa học máy tính tại Đại học Princeton, New Jersey, đã công bố GPTZero. Công cụ này phân tích văn bản theo hai tiêu chí. Thứ nhất là "độ phức tạp", một phép đo mức độ quen thuộc của văn bản đối với một LLM. GPTZero dùng phiên bản GPT-2, nếu LLM này dự đoán được các từ trong văn bản, thì có khả năng văn bản đó đã được tạo bởi AI. Thứ hai là "độ bất ngờ", văn bản do AI tạo ra có xu hướng nhất quán về giọng điệu, nhịp điệu và độ phức tạp hơn so với văn bản do con người viết.
Tương tự, nhiều sản phẩm khác nhằm mục đích phát hiện nội dung do AI viết. Turnitin, nhà phát triển phần mềm chống đạo văn, cho biết đang làm việc trên phần mềm phát hiện AI kể từ khi GPT-3 ra mắt và dự kiến sẽ ra mắt phần mềm này vào nửa đầu năm nay.
Tuy nhiên, không có công cụ nào trong số này tuyên bố là chính xác tuyệt đối, đặc biệt nếu văn bản do AI tạo ra sau đó được chỉnh sửa bởi con người. Ngoài ra, các công cụ cũng có thể gợi ý sai rằng một số văn bản do con người viết là do AI tạo ra, Scott Aaronson, nhà khoa học máy tính tại Đại học Texas ở Austin và là nhà nghiên cứu tham gia OpenAI, cho biết.
Khoa học máy tính đằng sau trí tuệ nhân tạo AI đang phát triển nhanh đến mức những đổi mới xuất hiện hằng tháng. Cách các nhà nghiên cứu chọn sử dụng chúng sẽ quyết định tương lai của khoa học. "Những gì chúng ta thấy ngày nay mới chỉ là khởi đầu”, Eric Topol, Giám đốc Viện nghiên cứu hệ gen Scripps, California, nói.
Nguồn: