Độ chân thực của những hình ảnh do AI tạo ra khiến các biên tập viên và người phản biện của tạp chí khoa học gặp khó khăn trong việc phân biệt thật giả.
Những năm gần đây, số lượng bài báo bị các tạp chí khoa học rút lại cứ tăng đều, cả về con số tuyệt đối lẫn tỷ lệ so với tổng số bài báo được xuất bản. Chỉ riêng năm ngoái đã ghi nhận kỷ lục hơn 10.000 bài báo bị rút lại, phần lớn liên quan đến hành vi sai phạm trong nghiên cứu khoa học, mà phổ biến là sử dụng hình ảnh bị chỉnh sửa (image manipulation) để minh họa hoặc đại diện cho các kết quả thí nghiệm. Đã có một số nghiên cứu vấn đề này, kết quả cho thấy vi phạm hình ảnh xuất hiện ở 0,6% đến 8,6% số bài báo, tùy từng nghiên cứu.
Không giống các phương pháp chỉnh sửa hình ảnh truyền thống, các phương pháp hiện đại dựa trên trí tuệ nhân tạo (AI) như Mạng Đối kháng tạo sinh (GANs) và Mô hình Khuếch tán (Diffusion Models) có khả năng tạo ra hình ảnh giả hoàn toàn, và được cho rằng sẽ khó phát hiện hơn nhiều so với các dạng chỉnh sửa trước đây. Khả năng này bao gồm cả việc tạo ra những hình ảnh phức tạp như mô bệnh học (histological images), vốn có cấu trúc tinh vi và khó chỉnh sửa thủ công.
Một nghiên cứu trên tạp chí
Scientific Reports được thực hiện với sự tham gia của 816 sinh viên Đức cho thấy nhiều người không thể phân biệt ảnh thật với ảnh giả trong số 8 hình ảnh mô bệnh học thật và 8 hình ảnh giả do AI tạo ra mà họ được xem.
Trong số 290 người tham gia chưa từng nhìn thấy những hình ảnh như vậy trước đây, chỉ 55% có thể phân loại chúng một cách chính xác. Trong số 526 người còn lại đã quen thuộc với những hình ảnh tương tự, 70% có thể phân loại chúng một cách chính xác. Đồng tác giả nghiên cứu, bác sĩ chuyên khoa thận Ralf Mrowka tại Bệnh viện Đại học Jena (Đức), bày tỏ, ông thực sự ngạc nhiên trước việc AI có thể dễ dàng tạo ra những hình ảnh trông chân thực đến vậy.
Ông cho biết, các nhà nghiên cứu và nhà xuất bản hiện sử dụng nhiều công cụ và kỹ thuật khác nhau để phát hiện hình ảnh giả. Một số hệ thống AI trên thị trường có thể nhận diện các dấu hiệu chỉnh sửa phổ biến như sao chép, xóa hoặc ghép nối một phần hình ảnh. Tuy nhiên, những phương pháp này vẫn chưa đủ tin cậy để phát hiện hình ảnh được tạo ra bằng AI. Hơn nữa, tốc độ phát triển của những công cụ phát hiện ảnh AI khó mà theo kịp các công nghệ tạo hình ảnh.
Mrowka cảnh báo, ảnh giả đã đạt đến trình "gây khó cho biên tập viên, người phản biện và người đọc" và một khi mô hình AI được huấn luyện để tạo ra dữ liệu ảnh, người dùng có thể sử dụng nó để tạo ra vô số ảnh giả mới và dễ dàng tùy biến chúng.
Trong khi đó, Jan Hartung tại Đại học Freiburg (Đức), đồng tác giả nghiên cứu, cho rằng áp lực công bố khoa học khiến một số nhà nghiên cứu có thể tìm đến giải pháp gian lận sử dụng ảnh giả.
Ảnh giả do AI tạo ra có thể trở thành vấn đề với những nhà phản biện khoa học. TS. Chhavi Chauhan thuộc Hiệp hội Nghiên cứu Bệnh học Mỹ nhận định rằng các sinh viên trong thí nghiệm được cảnh báo trước về sự hiện diện của ảnh giả, nên có lợi thế rõ rệt trong việc phát hiện chúng – điều mà các nhà phản biện khoa học thường không có. Bà cho biết, khi đánh giá bản thảo, nhiều người phản biện sẽ không kiểm tra kỹ các hình ảnh mô học nếu không có lý do nghi ngờ từ đầu.
Các tác giả của nghiên cứu trên Scientific Reports đề xuất cho giới xuất bản một số giải pháp phát hiện hình ảnh do AI tạo ra, như yêu cầu các tác giả cung cấp dữ liệu thô của ảnh. Họ cũng cho rằng sổ ghi chép điện tử có thể là một công cụ hữu ích để theo dõi dữ liệu và thí nghiệm, vì chúng lưu vết thời gian bằng kỹ thuật số, khiến cho việc gian lận trở nên khó khăn hơn.
Enrico Bucci, nhà sinh học tại Đại học Temple (Mỹ), người đã phát triển phần mềm phát hiện hình ảnh chỉnh sửa, tin rằng có thể ứng dụng các tiến bộ trong công nghệ blockchain để xác thực nguồn gốc của mọi hình ảnh và dữ liệu khoa học. Tuy nhiên, việc áp dụng các công nghệ như vậy còn phụ thuộc vào ý muốn của các nhà xuất bản.
Nguồn: