[ad_1]
Để đoán một từ, mô hình chỉ cần chạy các con số của từ đó. Nó tính điểm cho mỗi từ trong từ vựng của nó để phản ánh khả năng từ đó xuất hiện tiếp theo trong chuỗi đang chơi. Từ có số điểm cao nhất sẽ thắng. Tóm lại, các mô hình ngôn ngữ lớn là những máy đánh bạc thống kê. Xoay tay cầm và bật ra một từ.
Tất cả chỉ là ảo giác
Món ăn mang đi ở đây? Tất cả chỉ là ảo giác, nhưng chúng ta chỉ gọi như vậy khi nhận thấy nó sai. Vấn đề là, các mô hình ngôn ngữ lớn làm rất tốt những gì họ làm nên hầu hết những gì họ tạo ra đều có vẻ đúng. Và điều đó khiến việc tin tưởng họ trở nên khó khăn.
Chúng ta có thể kiểm soát những gì các mô hình ngôn ngữ lớn tạo ra để chúng tạo ra văn bản được đảm bảo chính xác không? Những mô hình này quá phức tạp để có thể chỉnh sửa số liệu bằng tay. Nhưng một số nhà nghiên cứu tin rằng việc đào tạo họ bằng nhiều văn bản hơn nữa sẽ tiếp tục giảm tỷ lệ lỗi của họ. Đây là xu hướng mà chúng tôi nhận thấy khi các mô hình ngôn ngữ lớn ngày càng lớn hơn và tốt hơn.
Một cách tiếp cận khác bao gồm việc yêu cầu người mẫu kiểm tra công việc của họ trong quá trình thực hiện, chia nhỏ các câu trả lời ra từng bước. Được gọi là nhắc nhở theo chuỗi suy nghĩ, điều này đã được chứng minh là giúp tăng độ chính xác cho kết quả đầu ra của chatbot. Điều đó vẫn chưa thể thực hiện được, nhưng các mô hình ngôn ngữ lớn trong tương lai có thể kiểm tra tính xác thực của văn bản mà chúng đang tạo ra và thậm chí tua lại khi chúng bắt đầu đi chệch hướng.
Nhưng không có kỹ thuật nào trong số này có thể ngăn chặn hoàn toàn ảo giác. Miễn là các mô hình ngôn ngữ lớn mang tính xác suất thì sẽ có yếu tố could rủi trong những gì chúng tạo ra. Tung 100 viên xúc xắc và bạn sẽ có được một mẫu. Cuộn chúng lại và bạn sẽ nhận được một cái khác. Ngay cả khi xúc xắc, giống như các mô hình ngôn ngữ lớn, được tính trọng số để tạo ra một số mẫu thường xuyên hơn các mẫu khác, kết quả vẫn không phải lúc nào cũng giống nhau. Ngay cả một lỗi trong 1.000—hoặc 100.000—cũng tạo ra rất nhiều lỗi khi bạn xem xét số lần công nghệ này được sử dụng mỗi ngày.
Những mô hình này càng chính xác thì chúng ta càng mất cảnh giác. Các nghiên cứu cho thấy chatbot càng tốt thì mọi người càng có nhiều khả năng bỏ lỡ một lỗi khi nó xảy ra.
Có lẽ cách khắc phục tốt nhất cho ảo giác là quản lý những kỳ vọng của chúng ta về mục đích sử dụng của những công cụ này. Khi luật sư sử dụng ChatGPT để tạo tài liệu giả được yêu cầu tự giải thích, anh ta có vẻ ngạc nhiên như bất kỳ ai về những gì đã xảy ra. “Tôi đã nghe nói về trang internet mới này và tôi đã nhầm tưởng rằng nó giống như một siêu công cụ tìm kiếm,” anh ta nói với thẩm phán. “Tôi không hiểu rằng ChatGPT có thể bịa đặt các trường hợp.”
[ad_2]
Source link