[ad_1]
Trong bài viết này, chúng tôi tập trung vào các rủi ro về quyền riêng tư của các mô hình ngôn ngữ lớn (LLM) liên quan đến việc triển khai rộng rãi trong các doanh nghiệp.
Chúng tôi cũng thấy một xu hướng đang phát triển (và đáng lo ngại) khi các doanh nghiệp đang áp dụng các khuôn khổ và biện pháp kiểm soát quyền riêng tư mà họ đã thiết kế cho các quy trình phân tích dự đoán/khoa học dữ liệu của mình — nguyên trạng đến các trường hợp sử dụng AI/LLM thông thường.
Điều này rõ ràng là không hiệu quả (và rủi ro) và chúng ta cần phải điều chỉnh khuôn khổ, danh sách kiểm tra và công cụ bảo mật doanh nghiệp — để tính đến các khía cạnh riêng tư mới lạ và khác biệt của LLM.
Trước tiên, chúng ta hãy xem xét các kịch bản tấn công quyền riêng tư trong bối cảnh ML có giám sát truyền thống (1, 2). Điều này bao gồm phần lớn thế giới AI/ML ngày nay với chủ yếu là các mô hình học máy (ML) / học sâu (DL) được phát triển với mục tiêu giải quyết nhiệm vụ dự đoán hoặc phân loại.
Có chủ yếu hai loại tấn công suy luận chính: suy luận thành viên và suy luận thuộc tính…
[ad_2]
Source link