Google, Microsoft và Baidu đang sử dụng các công cụ tương tự như ChatGPT để biến việc tìm kiếm trên Internet thành một cuộc trò chuyện giữa người dùng và chatbot.
Bằng cách này, người dùng sẽ nhận được câu trả lời trực tiếp thông qua một cuộc trò chuyện, thay vì chỉ nhận được danh sách các liên kết gợi ý, sau khi nhập một từ hoặc câu hỏi. Điều này sẽ thay đổi cách con người sử dụng các công cụ tìm kiếm như thế nào? Có rủi ro gì trong hình thức tương tác giữa người và máy này không?
Cả 3 công ty đều đang sử dụng các mô hình ngôn ngữ lớn (LLM), mô hình làm nhiệm vụ tạo sinh văn bản bằng cách dự đoán từ tiếp theo dựa trên một số từ đứng trước. Bard - AI tìm kiếm của Google, ra mắt vào ngày 6/2, hiện đang được thử nghiệm bởi một nhóm nhỏ người dùng. AI của Microsoft thì đã được tích hợp trên Bing. ERNIE Bot, AI của Baidu, sẽ ra mắt vào tháng 3.
Một số công ty nhỏ hơn cũng đã phát hành các công cụ AI tìm kiếm. Aravind Srinivas, nhà khoa học máy tính ở San Francisco, người đồng sáng lập Perplexity vào tháng 8 năm ngoái, cho biết: “Các công cụ tìm kiếm đang chuyển sang một trạng thái mới - trò chuyện với người dùng”. Perplexity là một công cụ tìm kiếm dựa trên LLM, trả lời bằng tiếng Anh.
Các công cụ tìm kiếm tích hợp chatbot AI này có thể làm thay đổi nhận thức về kết quả tìm kiếm. Con người có xu hướng tin tưởng vào câu trả lời từ một chatbot trò chuyện hơn là câu trả lời từ một công cụ tìm kiếm thông thường, Aleksandra Urman, theo nhà khoa học xã hội máy tính tại Đại học Zurich ở Thụy Sĩ.
Nghiên cứu năm 20221 do các nhà nghiên cứu tại Đại học Florida thực hiện, cho thấy, những người mua hàng tương tác với chatbot do các công ty như Amazon và Best Buy sử dụng càng cảm thấy cuộc trò chuyện giống con người bao nhiêu thì càng tin tưởng công ty bán hàng bấy nhiêu.
Cảm giác tin cậy có thể tiềm ẩn nguy cơ, vì các chatbot AI thường xuyên mắc lỗi. Ngay trong video giới thiệu sản phẩm, Bard của Google đã đưa ra thông tin sai khi trả lời một câu hỏi về Kính viễn vọng Không gian James Webb. ChatGPT cũng có xu hướng tạo ra các câu trả lời hư cấu cho những câu hỏi mà nó không biết câu trả lời. Các chuyên gia trong lĩnh vực AI gọi đó là "ảo giác".
Người phát ngôn của Google cho biết lỗi mà Bard gặp phải “làm nổi bật tầm quan trọng của quy trình kiểm tra nghiêm ngặt”.
Những lỗi như vậy có thể khiến người dùng mất niềm tin vào tìm kiếm dựa trên trò chuyện. “Cảm nhận ban đầu có tác động rất lớn", Sridhar Ramaswamy - nhà khoa học máy tính, giám đốc điều hành của công cụ tìm kiếm hỗ trợ LLM Neeva đã ra mắt vào tháng 1 - cho biết. Sai lầm của Google ngay tại sự kiện giới thiệu Bard đã làm "biến mất" 100 tỷ USD giá cổ phiếu Google do các nhà đầu tư lo ngại về sản phẩm.
Chatbot cũng không minh bạch nguồn tin, làm trầm trọng thêm tình trạng đưa thông tin sai. Các công cụ cổ điển cho thấy rõ nguồn thông tin, dưới dạng các đường dẫn, và người dùng tự quyết định sẽ sử dụng và tin tưởng nguồn nào. Ngược lại, không thể biết một LLM đã đưa ra câu trả lời của nó dựa trên dữ liệu nào, đáng tin như Encyclopaedia Britannica hay chỉ là chuyện phiếm do một ai đó đăng tải lên blog.
Nếu các AI tìm kiếm mắc nhiều lỗi, thì thay vì tăng cường sự tin tưởng, chúng sẽ làm mất niềm tin của người dùng vào các công cụ tìm kiếm, Urman nói.
Nghiên cứu chưa được công bố của nhóm Urman chỉ ra người dùng hiện nay có niềm tin cao vào các công cụ tìm kiếm. Không tiết lộ chi tiết kết quả, nhưng theo nhà nghiên cứu này, gần 80% số người được khảo sát cho rằng các tính năng trích xuất thông tin nhanh của Google là chính xác. Khoảng 70% cho rằng các thông tin này là khách quan.
Giada Pistilli, nhà đạo đức học tại Hugging Face, một nền tảng khoa học dữ liệu ở Paris nhằm thúc đẩy việc sử dụng AI có trách nhiệm, cho biết bà lo lắng về việc tốc độ triển khai công nghệ của các công ty. “Họ đưa ra những công nghệ này mà không có bất kỳ sự kiểm soát hoặc khuôn khổ giáo dục nào để mọi người biết cách sử dụng", Pistilli nói.
Nguồn: