[ad_1]
Trong trường hợp Tổng quan về AI đề xuất một công thức làm bánh pizza có chứa keo—được lấy từ một bài đăng đùa trên Reddit—có thể bài đăng đó có vẻ liên quan đến truy vấn ban đầu của người dùng về việc phô mai không dính vào bánh pizza, nhưng đã xảy ra lỗi trong quá trình truy xuất , Shah nói. Ông nói: “Chỉ vì nó phù hợp không có nghĩa là nó đúng và phần tạo ra của quá trình không đặt câu hỏi về điều đó”.
Tương tự, nếu hệ thống RAG gặp phải thông tin xung đột, chẳng hạn như sổ tay chính sách và phiên bản cập nhật của cùng một sổ tay, thì hệ thống đó không thể tìm ra phiên bản nào để lấy phản hồi. Thay vào đó, nó có thể kết hợp thông tin từ cả hai để tạo ra một câu trả lời có khả năng gây hiểu lầm.
Suzan Verberne, giáo sư chuyên về xử lý ngôn ngữ tự nhiên tại Đại học Leiden, cho biết: “Mô hình ngôn ngữ lớn tạo ra ngôn ngữ trôi chảy dựa trên các nguồn được cung cấp, nhưng ngôn ngữ trôi chảy không giống như thông tin chính xác”.
Cô nói: “Chủ đề càng cụ thể thì khả năng xảy ra thông tin sai lệch trong đầu ra của mô hình ngôn ngữ lớn càng cao và nói thêm: “Đây là một vấn đề trong lĩnh vực y tế, cũng như giáo dục và khoa học.”
Theo người phát ngôn của Google, trong nhiều trường hợp, Tổng quan về AI trả về các câu trả lời không chính xác là do không có nhiều thông tin chất lượng cao có sẵn trên internet để hiển thị cho truy vấn—hoặc truy vấn đó khớp với các trang internet châm biếm hoặc bài đăng đùa giỡn nhất.
Họ nói rằng phần lớn Tổng quan về AI cung cấp thông tin chất lượng cao và nhiều ví dụ về các câu trả lời tồi của Tổng quan về AI là để đáp lại các truy vấn không phổ biến, đồng thời cho biết thêm rằng số lượng Tổng quan về AI có chứa nội dung có thể gây hại, tục tĩu hoặc vi phạm. chiếm ít hơn một trong mỗi 7 triệu truy vấn độc đáo. Google đang tiếp tục xóa Tổng quan về AI đối với một số truy vấn nhất định theo chính sách nội dung của mình.
Nó không chỉ là về dữ liệu đào tạo xấu
Mặc dù sai lầm về keo dán bánh pizza là một ví dụ điển hình về việc Tổng quan về AI trỏ đến một nguồn không đáng tin cậy, nhưng Tổng quan về AI vẫn có thể tạo ra thông tin sai lệch từ các nguồn chính xác về mặt thực tế. Melanie Mitchell, một nhà nghiên cứu trí tuệ nhân tạo tại Viện Santa Fe ở New Mexico, đã googled ‘Có bao nhiêu Tổng thống Hồi giáo Hoa Kỳ đã có chưa?’, mà Tổng quan về AI đã trả lời: ‘Hoa Kỳ đã có một tổng thống Hồi giáo, Barack Hussein Obama.’
Mặc dù bản thân Barack Obama không phải là người Hồi giáo, nên phản hồi của Tổng quan về AI là sai, nhưng nó đã lấy thông tin từ một chương trong cuốn sách học thuật có tựa đề Barack Hussein Obama: Tổng thống Hồi giáo đầu tiên của nước Mỹ? Vì vậy, hệ thống AI không chỉ bỏ sót toàn bộ quan điểm của bài luận mà còn diễn giải nó theo cách hoàn toàn ngược lại, Mitchell nói. “Có một số vấn đề ở đây đối với AI; một người đang tìm kiếm một nguồn tốt không phải là một trò đùa, nhưng một người khác đang diễn giải những gì nguồn đó đang nói một cách chính xác,” cô nói thêm. “Đây là điều mà các hệ thống AI gặp khó khăn khi thực hiện và điều quan trọng cần lưu ý là ngay cả khi có được nguồn tốt, nó vẫn có thể mắc lỗi.”
[ad_2]
Source link