[ad_1]
Báo cáo về mối đe dọa đối nghịch của OpenAI sẽ là khúc dạo đầu cho mạnh mẽ hơn chia sẻ dữ liệu tiến về phía trước. Khi quan tâm đến AI, các nhà nghiên cứu độc lập đã bắt đầu tập hợp các cơ sở dữ liệu về việc sử dụng sai mục đích—như Cơ sở dữ liệu sự cố AI và Cơ sở dữ liệu sự cố Deepfake chính trị—để cho phép các nhà nghiên cứu so sánh các kiểu sử dụng sai khác nhau và theo dõi mức độ thay đổi của việc sử dụng sai theo thời gian. Nhưng nó thường xuyên cứng để phát hiện việc lạm dụng từ bên ngoài. Khi các công cụ AI trở nên có khả năng và phổ biến hơn, điều quan trọng là các nhà hoạch định chính sách đang xem xét quy định phải hiểu cách chúng được sử dụng và lạm dụng. Mặc dù báo cáo đầu tiên của OpenAI đưa ra các bản tóm tắt cấp cao và các ví dụ chọn lọc, việc mở rộng mối quan hệ chia sẻ dữ liệu với các nhà nghiên cứu để cung cấp nhiều thông tin chi tiết hơn về nội dung hoặc hành vi đối nghịch là bước quan trọng tiếp theo.
Khi nói đến việc chống lại các hoạt động gây ảnh hưởng và lạm dụng AI, người dùng trực tuyến cũng có vai trò. Suy cho cùng, nội dung này chỉ có tác động nếu mọi người nhìn thấy, tin tưởng và tham gia chia sẻ thêm. Trong một trong những trường hợp OpenAI tiết lộ, người dùng trực tuyến đã chỉ ra các tài khoản giả sử dụng văn bản do AI tạo ra.
Trong nghiên cứu của chúng tôi, chúng tôi đã đã xem Cộng đồng người dùng Fb chủ động chỉ ra nội dung hình ảnh do AI tạo ra do những kẻ gửi thư rác và kẻ lừa đảo tạo ra, giúp những người ít hiểu biết về công nghệ tránh rơi vào bẫy lừa đảo. Một liều lượng hoài nghi lành mạnh ngày càng hữu ích: tạm dừng để kiểm tra xem nội dung có thật hay không và mọi người có phải là người mà họ tuyên bố hay không, đồng thời giúp bạn bè và các thành viên trong gia đình nhận thức rõ hơn về mức độ phổ biến ngày càng tăng của nội dung được tạo ra, có thể giúp người dùng mạng xã hội chống lại sự lừa dối từ những người tuyên truyền cũng như những kẻ lừa đảo.
OpenAI bài viết trên blog công bố báo cáo gỡ bỏ nói một cách ngắn gọn: “Các tác nhân đe dọa hoạt động trên web.” Chúng ta cũng phải như vậy. Khi chúng ta chuyển sang kỷ nguyên mới của các hoạt động gây ảnh hưởng do AI điều khiển, chúng ta phải giải quyết các thách thức chung thông qua tính minh bạch, chia sẻ dữ liệu và cảnh giác hợp tác nếu chúng ta hy vọng phát triển một hệ sinh thái kỹ thuật số linh hoạt hơn.
Josh A. Goldstein là nhà nghiên cứu tại Trung tâm An ninh và Công nghệ mới nổi (CSET) của Đại học Georgetown, nơi ông làm việc trong Dự án CyberAI. Renée DiResta là giám đốc nghiên cứu của Đài quan sát Web Stanford và là tác giả của cuốn sách Những kẻ thống trị vô hình: Những người biến lời nói dối thành hiện thực.
[ad_2]
Source link