Siêu âm đàn hồi vú là một kỹ thuật hình ảnh mới nổi cung cấp thông tin về tổn thương vú tiềm ẩn và các nhà nghiên cứu đã xác định được vai trò quan trọng của trí tuệ nhân tạo AI trong việc giúp cho kỹ thuật này hiệu quả và chính xác hơn.

Sử dụng thông tin chính xác hơn về các đặc điểm của tổn thương vú ung thư và không ung thư, phương pháp sử dụng trí tuệ nhân tạo đã chứng minh độ chính xác cao hơn so với các phương pháp sử dụng hình ảnh truyền thống.


Trong nghiên cứu được công bố trên tạp chí Computer Methods in Applied Mechanics and Engineering, các nhà nghiên cứu gốc Ấn Độ Dhruv Patel và Assad Oberai từ Đại học Nam California đã chỉ ra rằng có thể đào tạo một cỗ máy để phiên giải các hình ảnh trong thế giới thực bằng cách sử dụng dữ liệu tổng hợp và hợp lý hóa các bước chẩn đoán.

Trong trường hợp siêu âm đàn hồi vú, sau khi hình ảnh của khu vực bị ảnh hưởng được chụp, nó được phân tích để xác định chuyển vị bên trong mô. Sử dụng dữ liệu này và các định luật vật lý cơ học, sự phân bố không gian của các thuộc tính cơ học, như độ cứng, được xác định.

Trong nghiên cứu này, các nhà nghiên cứu đã tìm cách xác định xem họ có thể bỏ qua các bước phức tạp nhất của quy trình này hay không.

Để làm được điều đó, các nhà nghiên cứu đã sử dụng khoảng 12.000 hình ảnh tổng hợp để đào tạo thuật toán học máy. Quá trình này tương tự như cách phần mềm nhận dạng ảnh hoạt động, tức là học thông qua các đầu vào lặp đi lặp lại về cách nhận biết một người cụ thể trong ảnh hoặc cách não của chúng ta học cách phân loại mèo so với chó.

Thông qua số lượng mẫu vừa đủ, thuật toán có thể thu thập các đặc điểm khác nhau vốn có của một khối u lành tính so với một khối u ác tính và đưa ra quyết định chính xác.

Các nhà nghiên cứu đã đạt được độ chính xác lên tới gần 100% trong phân loại trên hình ảnh tổng hợp. Sau khi thuật toán được đào tạo, họ đã thử nghiệm nó trên các hình ảnh trong thế giới thực để xác định mức độ chính xác của nó trong việc đưa ra chẩn đoán, so sánh các kết quả này với kết quả chẩn đoán dựa trên sinh thiết liên quan đến các hình ảnh này. Kết quả là thuật toán đạt đến độ chính xác khoảng 80%.

Các nhà nghiên cứu cho biết họ sẽ tiếp tục tinh chỉnh thuật toán bằng cách sử dụng đầu vào là các hình ảnh thế giới thực.