[ad_1]
Những cái bẫy bản quyền AI này khai thác một trong những cuộc chiến lớn nhất trong AI. Một số nhà xuất bản và nhà văn đang trong quá trình kiện tụng chống lại các công ty công nghệ, tuyên bố rằng sở hữu trí tuệ của họ đã bị đưa vào các tập dữ liệu đào tạo AI mà không có sự cho phép của họ. Thời báo New York‘vụ kiện đang diễn ra chống lại OpenAI có lẽ là vụ việc nổi cộm nhất trong số này.
Mã để tạo và phát hiện bẫy hiện tại là có sẵn trên GitHubnhưng nhóm cũng có ý định xây dựng một công cụ cho phép mọi người tự tạo và chèn bẫy bản quyền.
Yves-Alexandre de Montjoye, phó giáo sư toán ứng dụng và khoa học máy tính tại Imperial School London, người đứng đầu nghiên cứu, cho biết: “Hoàn toàn thiếu minh bạch về nội dung nào được sử dụng để đào tạo các mô hình và chúng tôi cho rằng điều này đang ngăn cản việc tìm ra sự cân bằng phù hợp (giữa các công ty AI và người sáng tạo nội dung)”. Nghiên cứu đã được trình bày tại Hội nghị quốc tế về học máy, một hội nghị AI hàng đầu được tổ chức tại Vienna vào tuần này.
Để tạo ra những cái bẫy, nhóm đã sử dụng một trình tạo từ để tạo ra hàng nghìn câu tổng hợp. Những câu này dài và đầy tiếng lóng, và có thể trông giống như thế này: “Khi đến thời điểm hỗn loạn… những gì đang được bán và quan trọng hơn là khi nào, là tốt nhất, danh sách này cho bạn biết ai đang mở cửa vào Thrs. vào ban đêm với thời gian bán hàng thông thường của họ và thời gian mở cửa khác từ những người hàng xóm của bạn. Bạn vẫn vậy.”
Nhóm đã tạo ra 100 câu bẫy và sau đó chọn ngẫu nhiên một câu để đưa vào văn bản nhiều lần, de Montjoy giải thích. Câu bẫy có thể được đưa vào văn bản theo nhiều cách—ví dụ, dưới dạng văn bản màu trắng trên nền trắng hoặc nhúng vào mã nguồn của bài viết. Câu này phải được lặp lại trong văn bản từ 100 đến 1.000 lần.
Để phát hiện ra các bẫy, họ đã đưa vào một mô hình ngôn ngữ lớn 100 câu tổng hợp mà họ đã tạo ra và xem liệu nó có đánh dấu chúng là mới hay không. Nếu mô hình đã nhìn thấy một câu bẫy trong dữ liệu đào tạo của nó, nó sẽ chỉ ra điểm “bất ngờ” (còn được gọi là “bối rối”) thấp hơn. Nhưng nếu mô hình đã từng là “ngạc nhiên” về các câu, điều này có nghĩa là lần đầu tiên nó gặp chúng, và do đó chúng không phải là bẫy.
Trước đây, các nhà nghiên cứu đã đề xuất khai thác thực tế là các mô hình ngôn ngữ ghi nhớ dữ liệu đào tạo của chúng để xác định xem có điều gì đó xuất hiện trong dữ liệu đó hay không. Kỹ thuật này, được gọi là “tấn công suy luận thành viên”, hoạt động hiệu quả trong các mô hình hiện đại lớn, có xu hướng ghi nhớ rất nhiều dữ liệu trong quá trình đào tạo.
Ngược lại, các mô hình nhỏ hơn, đang ngày càng phổ biến và có thể chạy trên thiết bị di động, ghi nhớ ít hơn và do đó ít bị tấn công suy luận thành viên hơn, điều này khiến việc xác định liệu chúng có được đào tạo trên một tài liệu có bản quyền cụ thể hay không trở nên khó khăn hơn, Gautam Kamath, trợ lý giáo sư khoa học máy tính tại Đại học Waterloo, người không tham gia vào nghiên cứu, cho biết.
[ad_2]
Source link