[ad_1]
Trong bối cảnh của Language Fashions và Agentic AI, bộ nhớ và nền tảng đều là những lĩnh vực nghiên cứu mới nổi và hấp dẫn. Mặc dù chúng thường được đặt gần nhau trong một câu và thường có liên quan, nhưng chúng có chức năng khác nhau trong thực tế. Trong bài viết này, tôi hy vọng sẽ làm sáng tỏ sự nhầm lẫn xung quanh hai thuật ngữ này và chứng minh cách bộ nhớ có thể đóng vai trò trong nền tảng chung của một mô hình.
Trong bài viết trước, chúng ta đã thảo luận về vai trò quan trọng của bộ nhớ trong AI Agentic. Bộ nhớ trong mô hình ngôn ngữ đề cập đến khả năng của hệ thống AI trong việc lưu giữ và nhớ lại thông tin có liên quan, góp phần vào khả năng suy luận và liên tục học hỏi từ kinh nghiệm của hệ thống. Trí nhớ có thể được chia thành 4 loại: trí nhớ ngắn hạn, trí nhớ ngắn hạn dài hạn, trí nhớ dài hạn và trí nhớ làm việc.
Nghe có vẻ phức tạp, nhưng chúng ta hãy phân tích chúng một cách đơn giản:
Bộ nhớ ngắn hạn (STM):
STM lưu giữ thông tin trong một khoảng thời gian rất ngắn, có thể là vài giây đến vài phút. Nếu bạn hỏi một mô hình ngôn ngữ một câu hỏi, nó cần lưu giữ thông điệp của bạn đủ lâu để tạo ra câu trả lời cho câu hỏi của bạn. Giống như con người, các mô hình ngôn ngữ phải vật lộn để nhớ quá nhiều thứ cùng một lúc.
Luật của Millernêu rằng “Bộ nhớ ngắn hạn là một thành phần của bộ nhớ lưu giữ một lượng nhỏ thông tin ở trạng thái hoạt động, sẵn sàng sử dụng trong một thời gian ngắn, thường là vài giây đến một phút. Thời gian của STM dường như nằm trong khoảng từ 15 đến 30 giây và khả năng của STM bị hạn chế, thường được cho là khoảng 7±2 mục.”
Vì vậy, nếu bạn hỏi một mô hình ngôn ngữ “cuốn sách mà tôi đã đề cập trong tin nhắn trước thuộc thể loại gì?” thì mô hình này cần sử dụng bộ nhớ ngắn hạn để tham chiếu đến các tin nhắn gần đây và tạo ra phản hồi có liên quan.
Thực hiện:
Ngữ cảnh được lưu trữ trong các hệ thống bên ngoài, chẳng hạn như các biến phiên hoặc cơ sở dữ liệu, lưu giữ một phần lịch sử hội thoại. Mỗi đầu vào mới của người dùng và phản hồi của trợ lý được thêm vào ngữ cảnh hiện có để tạo lịch sử hội thoại. Trong quá trình suy luận, ngữ cảnh được gửi cùng với truy vấn mới của người dùng đến mô hình ngôn ngữ để tạo phản hồi xem xét toàn bộ cuộc hội thoại. Điều này bài nghiên cứu cung cấp cái nhìn sâu sắc hơn về các cơ chế tạo nên trí nhớ ngắn hạn.
Bộ nhớ ngắn hạn (SLTM):
SLTM lưu giữ thông tin trong một khoảng thời gian vừa phải, có thể là vài phút đến vài giờ. Ví dụ, trong cùng một phiên, bạn có thể tiếp tục từ nơi bạn dừng lại trong một cuộc trò chuyện mà không cần phải lặp lại ngữ cảnh vì nó đã được lưu trữ dưới dạng SLTM. Quá trình này cũng là một quá trình bên ngoài chứ không phải là một phần của chính mô hình ngôn ngữ.
Thực hiện:
Các phiên có thể được quản lý bằng cách sử dụng các mã định danh liên kết các tương tác của người dùng theo thời gian. Dữ liệu ngữ cảnh được lưu trữ theo cách có thể tồn tại trong các tương tác của người dùng trong một khoảng thời gian xác định, chẳng hạn như cơ sở dữ liệu. Khi người dùng tiếp tục cuộc trò chuyện, hệ thống có thể truy xuất lịch sử cuộc trò chuyện từ các phiên trước và chuyển thông tin đó cho mô hình ngôn ngữ trong quá trình suy luận. Giống như trong bộ nhớ ngắn hạn, mỗi đầu vào mới của người dùng và phản hồi của trợ lý được thêm vào ngữ cảnh hiện tại để giữ cho lịch sử cuộc trò chuyện luôn cập nhật.
Bộ nhớ dài hạn (LTM):
LTM lưu giữ thông tin trong một khoảng thời gian do quản trị viên xác định có thể là vô thời hạn. Ví dụ, nếu chúng ta xây dựng một gia sư AI, mô hình ngôn ngữ sẽ cần phải hiểu được học sinh học tốt môn nào, học sinh vẫn còn gặp khó khăn ở đâu, phong cách học nào hiệu quả nhất với học sinh, v.v. Theo cách này, mô hình có thể nhớ lại thông tin có liên quan để cung cấp thông tin cho các kế hoạch giảng dạy trong tương lai. AI sóc là một ví dụ về nền tảng sử dụng trí nhớ dài hạn để “tạo ra lộ trình học tập cá nhân hóa, tham gia giảng dạy có mục tiêu và can thiệp về mặt cảm xúc khi cần thiết”.
Thực hiện:
Thông tin có thể được lưu trữ trong cơ sở dữ liệu có cấu trúc, biểu đồ kiến thức hoặc kho lưu trữ tài liệu được truy vấn khi cần. Thông tin có liên quan được truy xuất dựa trên tương tác hiện tại và lịch sử trước đây của người dùng. Điều này cung cấp ngữ cảnh cho mô hình ngôn ngữ được truyền lại với phản hồi của người dùng hoặc lời nhắc hệ thống.
Bộ nhớ làm việc:
Bộ nhớ làm việc là một thành phần của chính mô hình ngôn ngữ (không giống như các loại bộ nhớ khác là các quy trình bên ngoài). Nó cho phép mô hình ngôn ngữ lưu giữ thông tin, thao tác và tinh chỉnh thông tin — cải thiện khả năng lý luận của mô hình. Điều này rất quan trọng vì khi mô hình xử lý yêu cầu của người dùng, khả năng hiểu nhiệm vụ và các bước cần thực hiện để thực hiện nhiệm vụ có thể thay đổi. Bạn có thể coi bộ nhớ làm việc như sổ ghi chép riêng của mô hình cho các suy nghĩ của nó. Ví dụ, khi được cung cấp một bài toán nhiều bước như (5 + 3) * 2, mô hình ngôn ngữ cần có khả năng tính toán (5+3) trong dấu ngoặc đơn và lưu trữ thông tin đó trước khi lấy tổng của hai số và nhân với 2. Nếu bạn muốn tìm hiểu sâu hơn về chủ đề này, giấy “TransformerFAM: Sự chú ý phản hồi chính là bộ nhớ làm việc” đưa ra một cách tiếp cận mới để mở rộng bộ nhớ làm việc và cho phép mô hình ngôn ngữ xử lý cửa sổ đầu vào/bối cảnh có độ dài không giới hạn.
Thực hiện:
Các cơ chế như lớp chú ý trong bộ biến đổi hoặc trạng thái ẩn trong mạng nơ-ron hồi quy (RNN) chịu trách nhiệm duy trì các phép tính trung gian và cung cấp khả năng thao tác các kết quả trung gian trong cùng một phiên suy luận. Khi mô hình xử lý đầu vào, nó sẽ cập nhật trạng thái bên trong, cho phép khả năng suy luận mạnh mẽ hơn.
Cả 4 loại bộ nhớ đều là thành phần quan trọng để tạo nên hệ thống AI có khả năng quản lý và sử dụng thông tin hiệu quả trong nhiều khung thời gian và bối cảnh khác nhau.
Phản hồi từ mô hình ngôn ngữ phải luôn có ý nghĩa trong bối cảnh của cuộc trò chuyện — chúng không chỉ là một loạt các tuyên bố thực tế. Grounding đo lường khả năng của một mô hình để tạo ra một đầu ra có liên quan và có ý nghĩa theo ngữ cảnh. Quá trình grounding một mô hình ngôn ngữ có thể là sự kết hợp của đào tạo mô hình ngôn ngữ, tinh chỉnh và các quy trình bên ngoài (bao gồm cả bộ nhớ!).
Đào tạo và tinh chỉnh mô hình ngôn ngữ
Dữ liệu mà mô hình được đào tạo ban đầu sẽ tạo ra sự khác biệt đáng kể về mức độ cơ sở của mô hình. Đào tạo một mô hình trên một tập hợp lớn dữ liệu đa dạng cho phép nó học các mẫu ngôn ngữ, ngữ pháp và ngữ nghĩa, để dự đoán từ có liên quan nhất tiếp theo. Mô hình được đào tạo trước sau đó được tinh chỉnh trên dữ liệu cụ thể theo miền, giúp nó tạo ra các đầu ra có liên quan và chính xác hơn cho các ứng dụng cụ thể đòi hỏi kiến thức chuyên sâu hơn về miền. Điều này đặc biệt quan trọng nếu bạn yêu cầu mô hình hoạt động tốt trên các văn bản cụ thể mà nó có thể không được tiếp xúc trong quá trình đào tạo ban đầu. Mặc dù kỳ vọng của chúng tôi về khả năng của một mô hình ngôn ngữ là cao, nhưng chúng tôi không thể mong đợi nó hoạt động tốt trên thứ mà nó chưa từng thấy trước đây. Giống như chúng tôi sẽ không mong đợi một học sinh làm tốt trong kỳ thi nếu họ chưa học tài liệu.
Bối cảnh bên ngoài
Cung cấp cho mô hình thông tin theo ngữ cảnh cụ thể theo thời gian thực hoặc cập nhật cũng giúp mô hình luôn bám sát thực tế. Có nhiều phương pháp để thực hiện việc này, chẳng hạn như tích hợp mô hình với các cơ sở kiến thức bên ngoài, API và dữ liệu thời gian thực. Phương pháp này còn được gọi là Retrieval Augmented Era (RAG).
Hệ thống bộ nhớ
Hệ thống bộ nhớ trong AI đóng vai trò quan trọng trong việc đảm bảo hệ thống vẫn được căn cứ dựa trên các hành động đã thực hiện trước đó, các bài học kinh nghiệm, hiệu suất theo thời gian và kinh nghiệm với người dùng và các hệ thống khác. Bốn loại bộ nhớ được nêu trước đó trong bài viết đóng vai trò quan trọng trong việc căn cứ vào khả năng nhận thức ngữ cảnh và tạo ra các đầu ra có liên quan của mô hình ngôn ngữ. Hệ thống bộ nhớ hoạt động music music với các kỹ thuật căn cứ như đào tạo, tinh chỉnh và tích hợp ngữ cảnh bên ngoài để nâng cao hiệu suất và tính liên quan tổng thể của mô hình.
Bộ nhớ và nối đất là các yếu tố liên kết với nhau giúp tăng cường hiệu suất và độ tin cậy của các hệ thống AI. Trong khi bộ nhớ cho phép AI lưu giữ và xử lý thông tin trong các khung thời gian khác nhau, nối đất đảm bảo rằng đầu ra của AI có liên quan và có ý nghĩa theo ngữ cảnh. Bằng cách tích hợp các hệ thống bộ nhớ và kỹ thuật nối đất, các hệ thống AI có thể đạt được mức độ hiểu biết và hiệu quả cao hơn trong các tương tác và nhiệm vụ của chúng.
[ad_2]
Source link