Giải Nobel Vật lý năm 2024 được trao cho hai nhà khoa học John J. Hopfield và Geoffrey E. Hinton vì đã đặt nền móng cho học máy ngày nay.

John Hopfield (trái) và Geoffrey Hinton là các nhà khoa học được trao giải Nobel Vật lý năm nay. Ảnh: AP
John Hopfield (trái) và Geoffrey Hinton là các nhà khoa học được trao giải Nobel Vật lý năm nay. Ảnh: AP

Ứng dụng vật lý để tìm mẫu trong thông tin

Người dùng sản phẩm công nghệ ngày nay chẳng xa lạ gì với việc máy tính có thể dịch các ngôn ngữ, diễn giải hình ảnh, đối thoại như người. Sự phát triển học máy đã bùng nổ trong độ 15-20 năm qua, nhờ vào các nghiên cứu cấu trúc mạng thần kinh nhân tạo, giúp máy phân loại và phân tích lượng dữ liệu khổng lồ. Ngày nay, khi nhắc tới trí tuệ nhân tạo, thì đây thường là loại công nghệ mà ta muốn nói tới.

Máy tính không biết tư duy, song các cỗ máy ngày nay có thể bắt chước chức năng như trí nhớ và học tập. Những cá nhân xuất sắc nhận giải Nobel Vật lý năm nay đã giúp điều này thành hiện thực. Sử dụng khái niệm và phương pháp cơ bản từ vật lý, họ đã phát triển công nghệ dùng cấu trúc trong mạng thần kinh để xử lý thông tin.

Bắt chước bộ não


Mạng thần kinh nhân tạo xử lý thông tin bằng cách sử dụng toàn bộ cấu trúc mạng. Nguồn cảm hứng ban đầu xuất phát từ mong muốn hiểu cách bộ não hoạt động. Trong những năm 1940, các nhà nghiên cứu bắt đầu thảo luận về toán học làm nền tảng cho mạng nơ-ron và si-nap (tạm hiểu là các mối nối thần kinh nối các nơ-ron) trong não. Một mảnh ghép khác liên quan tới tâm lý học, nhờ giả thuyết của nhà khoa học thần kinh Donald Hebb về cách học tập diễn ra nhờ các kết nối giữa nơ-ron được củng cố khi chúng hoạt động cùng nhau.

Sau này, các nhà khoa học tiếp nối ý tưởng ấy khi tái tạo cách thức hoạt động của mạng lưới não bộ bằng cách xây dựng mạng thần kinh nhân tạo dưới dạng giả lập máy tính. Trong giả lập, các nút được gán giá trị khác nhau mô phỏng nơ-ron của não bộ, kết nối giữa các nút tương ứng với si-nap và có thể tùy chỉnh độ mạnh-yếu. Giả thuyết của Donald Hebb vẫn là một trong các quy tắc cơ bản để cập nhật mạng thần kinh thông qua quá trình đào tạo.

Vào cuối những năm 1960, một số kết quả bất lợi đã khiến nhiều nhà nghiên cứu nghi ngờ mạng thần kinh sẽ không bao giờ có bất kỳ công dụng thực tế nào. Tuy nhiên, trong những năm 1980, một số ý tưởng quan trọng, gồm cả công trình của những người đoạt giải Nobel năm nay, đã khơi lại mối quan tâm này.

Bộ nhớ liên kết


Hãy hình dung bạn cố nhớ một từ khá lạ, hiếm khi dùng, như từ chỉ một thứ đặt tại nơi giao nhau của nhiều con đường. Bạn vò đầu bứt tai để bật ra từ đó. Cái gì đó lùng bùng, hình như là bùng gì đó. Cái gì nhỉ? Bùng binh, đúng là nó rồi!

Các nơ-ron tự nhiên và nhân tạo.
Các nơ-ron tự nhiên và nhân tạo.

Quá trình tìm kiếm thông qua những từ tương tự để tìm ra từ đúng giống với bộ nhớ liên kết mà nhà vật lý John Hopfield khám phá vào năm 1982. Mạng Hopfield lưu trữ các mẫu và có phương pháp để tái tạo chúng. Khi đưa vào mạng một mẫu không hoàn chỉnh hoặc hơi sai lệch, phương pháp có thể tìm mẫu được lưu trữ có điểm tương đồng cao nhất.

Hopfield từng dùng vật lý để khám phá các vấn đề lý thuyết trong sinh học phân tử. Trong một cuộc họp về khoa học thần kinh, ông đã bắt gặp một nghiên cứu về cấu trúc não bộ gây ấn tượng tới nỗi ông bắt đầu suy nghĩ về động lực của các mạng thần kinh đơn giản. Khi các nơ-ron hoạt động cùng nhau, chúng góp phần tạo ra những đặc điểm mạnh mẽ mới, mà người chỉ nhìn vào các thành phần tách biệt của mạng sẽ không nhận thấy.

Vào năm 1980, Hopfieldrời Đại học Princeton, về làm giáo sư hóa học-sinh học tại Viện Công nghệ California. Tại đây, ông được tiếp cận với các tài nguyên máy tính, cho phép ông tự do thử nghiệm và phát triển ý tưởng về mạng nơ-ron.

Tuy nhiên, nền tảng vật lý đã đem lại cho ông cảm hứng để hiểu về cách các hệ thống với nhiều thành phần nhỏ hoạt động cùng nhau có thể làm nảy sinh những hiện tượng mới và thú vị thế nào. Cụ thể, ông thu được lợi ích từ việc tìm hiểu các vật liệu từ tính có đặc điểm đặc biệt nhờ spin (mô men động lượng nội tại của hạt) nguyên tử của chúng - đặc tính khiến mỗi nguyên tử trở thành một nam châm nhỏ. Spin của các nguyên tử lân cận ảnh hưởng lẫn nhau; điều này cho phép các miền hình thành với spin theo cùng một hướng. Nhờ sử dụng vật lý mô tả cách các vật liệu phát triển khi spin ảnh hưởng lẫn nhau, Hopfieldđã tạo ra một mạng mô hình với các nút và kết nối.

Mạng lưu trữ hình ảnh theo chiều ngang

Các nút trong mạng Hopfield đều tham gia cùng nhau qua những kết nối với độ mạnh-yếu khác nhau. Mỗi nút lưu trữ một giá trị riêng – trong mạng đầu tiên của Hopfield giá trị này là 0 hoặc 1, giống như các pixel trong một bức ảnh đen trắng.

Hopfield mô tả trạng thái tổng thể của mạng có đặc tính tương ứng với năng lượng trong hệ thống spin ở vật lý, năng lượng được tính bằng công thức sử dụng mọi giá trị của nút và cường độ của kết nối giữa chúng. Mạng Hopfiel được lập trình bằng cách đưa hình ảnh vào nút và gán giá trị đen (0) hoặc trắng (1). Sau đó, các kết nối của mạng được điều chỉnh bằng công thức năng lượng, sao cho hình ảnh đã lưu có năng lượng thấp. Khi đưa thêm mẫu khác vào mạng, có quy tắc đi qua từng nút một và kiểm tra xem mạng có năng lượng thấp hơn không nếu giá trị nút thay đổi. Nếu năng lượng giảm khi một điểm ảnh đen thay thành trắng, thì nó đổi màu. Quy trình này tiếp tục cho tới khi không tìm thấy chỗ cải thiện nữa. Tới điểm này, mạng sẽ tái tạo hình ảnh gốc mà nó được đào tạo. Phương pháp của Hopfield đặc biệt ở chỗ nhiều hình ảnh có thể lưu cùng một lúc và mạng có thể phân biệt được chúng. Ngoài ra, mạng Hopfield có thể dùng để tạo lại dữ liệu chứa nhiễu hoặc đã bị xóa một phần.

Hopfield và những người khác tiếp tục phát triển các chi tiết về cách thức hoạt động của mạng này, bao gồm các nút có thể lưu trữ bất kỳ giá trị nào, không chỉ 0 hoặc 1. Các nút như pixel trong một bức ảnh, chúng có thể có các màu khác nhau, không chỉ là màu đen hay trắng. Phương pháp được cải thiện khiến nó có thể lưu thêm hình ảnh và phân biệt chúng ngay cả khi vô cùng tương đồng. Mạng có thể xác định hoặc xây dựng lại bất kỳ thông tin nào, miễn là nó được xây dựng từ nhiều điểm dữ liệu.

Phân loại nhờ dùng vật lý thế kỷ 19


Ghi nhớ bức ảnh là một chuyện, nhưng giải thích bức ảnh mô tả cái gì thì cần nhiều hơn thế.

Ngay cả trẻ nhỏ cũng có thể nhìn con vật và biết đó là chó hay mèo. Đôi lúc chúng nói sai, nhưng có thể sửa sai rất nhanh. Chẳng cần xem sơ đồ hay giải thích khái niệm, chỉ cần gặp vài ví dụ về từng loại động vật là trẻ sẽ nhớ được. Mọi người học cách nhận ra động vật, hoặc vào phòng và nhận ra có điều thay đổi nhờ trải nghiệm môi trường xung quanh chúng.

Khi Hopfiel đăng bài về bộ nhớ liên kết, Geoffrey Hinton làm việc ở Đại học Carnegie Mellon. Ông từng nghiên cứu tâm lý học thực nghiệm tại Anh, tự hỏi liệu máy có thể học xử lý mẫu theo cách tương tự con người hay không, tìm ra kiểu riêng để phân loại và diễn giải thông tin. Cùng người đồng nghiệp Terrence Sejnowski, Hinton bắt đầu từ mạng Hopfield và mở rộng nó để xây dựng thứ gì đó mới, dùng ý tưởng từ vật lý thống kê.

Vật lý thống kê mô tả các hệ thống bao gồm nhiều yếu tố tương tự, như phân tử trong chất khí. Ta không thể theo dõi mọi phân tử riêng biệt trong đó, nhưng có thể xem xét chúng một cách tổng thể để xác định các đặc tính chung của khí như áp suất hoặc nhiệt độ. Có nhiều cách tiềm năng để các phân tử khí lan truyền qua khối lượng của nó ở tốc độ riêng nhưng vẫn dẫn đến cùng tính chất chung.

Ta có thể dùng vật lý thống kê phân tích các trạng thái mà các thành phần riêng có thể cùng tồn tại, cũng tính được xác suất xảy ra của chúng. Một số trạng thái có thể xảy ra hơn cái khác; tùy vào lượng năng lượng có sẵn, được mô tả trong phương trình của nhà vật lý thế kỷ 19 Ludwig Boltzmann. Mạng Hinton sử dụng phương trình ấy, và phương pháp này được xuất bản năm 1985 dưới tên máy Boltzmann.

Nhận ra các ví dụ mới cùng loại

Máy Boltzmann thường được dùng với hai loại nút khác nhau. Thông tin được đưa vào một nhóm, gọi là các nút hiển thị. Các nút khác tạo thành lớp ẩn. Giá trị của các nút ẩn và kết nối cũng góp phần vào toàn bộ năng lượng của mạng.

Máy hoạt động nhờ áp dụng quy tắc cập nhật đồng thời giá trị của các nút. Cuối cùng, máy sẽ vào trạng thái mà mẫu của nút có thể thay đổi, nhưng toàn bộ thuộc tính của mạng vẫn giữ nguyên. Mỗi mẫu sẽ có một xác suất cụ thể, xác định bằng năng lượng mạng theo phương trình Boltzmann. Khi máy dừng, nó tạo ra một mẫu mới, điều này khiến máy Boltzmann trở thành ví dụ ban đầu về mô hình tạo sinh.

Máy Boltzmann có thể học - không nhờ hướng dẫn, mà từ các ví dụ được cho. Để đào tạo nó, ta cập nhật các giá trị trong kết nối của mạng, để mẫu ví dụ đưa vào các nút hiển thị lúc đào tạo có xác suất xảy ra cao nhất khi máy chạy. Nếu một mẫu được lặp lại nhiều lần khi đào tạo, xác suất cho mẫu này còn cao hơn. Đào tạo cũng ảnh hưởng đến xác suất xuất ra các mẫu mới giống với ví dụ mà máy được đào tạo.

Một máy Boltzmann được đào tạo có thể nhận ra những đặc điểm quen thuộc trong thông tin mà nó chưa từng thấy. Như khi bạn gặp chị của người bạn và nhận ra họ nhất định cùng huyết thống. Tương tự, máy Boltzmann có thể nhận ra một ví dụ hoàn toàn mới nếu nó thuộc về một thể loại trong tài liệu đào tạo và phân biệt nó với tài liệu bất đồng.

Ở dạng ban đầu, máy Boltzmann không hiệu quả lắm và mất nhiều thời gian để tìm giải pháp. Mọi thứ trở nên thú vị hơn khi nó được phát triển theo nhiều cách khác nhau, như Hinton đã làm. Các phiên bản sau đó thưa thớt hơn, vì kết nối giữa một số đơn vị đã bị xóa. Hóa ra làm vậy khiến máy hiệu quả hơn.

Trong những năm 1990, nhiều nhà nghiên cứu không còn quan tâm tới mạng thần kinh nhân tạo, nhưng Hinton là một trong những người không chùn bước. Ông cũng góp phần khởi động sự bùng nổ các kết quả thú vị mới: vào năm 2006, ông và các đồng nghiệp Simon Osindero, Yee Whye Teh, Ruslan Salakhutdinov đã phát triển phương pháp đào tạo trước mạng lưới với một loạt máy Boltzmann theo từng lớp xếp chồng lên nhau. Việc đào tạo trước đã cho các kết nối trong mạng điểm khởi đầu tốt hơn, giúp tối ưu hóa việc đào tạo để nó nhận biết các yếu tố trong hình ảnh. Máy Boltzmann thường được dùng như một phần của mạng lớn hơn. Ví dụ, nó dùng để gợi ý phim dựa trên sở thích của người xem.

Đề xuất từ Cha đẻ của AI

Tuy được vinh danh là Cha đẻ của AI, song Hinton ngày càng thận trọng hơn về tương lai của công nghệ này. Năm 2023, ông dừng công tác tại DeepMind của Google để nói nhiều hơn về các mối nguy tiềm tàng khi việc phát triển không được kiểm soát. Hinton cảnh báo những tiến bộ thần tốc của AI có thể dẫn tới những hậu quả gây hại như thông tin sai lệch, thay thế việc làm, thậm chí đe dọa cả sự tồn vong của loài người.

Gần đây, ông đề xuất một chiến lược công nghệ giúp đảm bảo tương lai an toàn của AI: chuyển sang dùng máy tính analog. Lĩnh vực kỹ thuật số, nơi hầu hết các mô hình AI tồn tại, cho phép truyền và sao chép thông tin dễ dàng. Ngược lại, các hệ thống analog có tính biến đổi cố hữu, mỗi phần cứng analog mang sắc thái riêng. Hinton cho rằng tính biến đổi cố hữu này trong các hệ thống analog có thể làm cơ chế bảo vệ chống lại sự gia tăng không kiểm soát các khả năng của AI.

Ngoài ra, tính khác biệt cố hữu giữa các hệ thống analog và kỹ thuật số về bản chất có thể bắt chước cách duy trì mức độ riêng tư và bảo mật của tự nhiên. Tự nhiên đảm bảo rằng tính phức tạp của bộ não, trí nhớ và kỹ năng của chúng ta an toàn trước ý định xấu, tương tự vậy, AI analog sẽ bảo vệ thông tin chống lại sự sao chép dễ dàng và sử dụng sai mục đích.

Nguồn:


Đăng số 1313 (số 41/2024) KH&PT