[ad_1]
Dưới đây là tóm tắt bài viết gần đây của tôi về cách chống lừa đảo deepfake.
Trí tuệ nhân tạo deepfake đang nổi lên như một mối đe dọa tinh vi và nguy hiểm, thậm chí lừa đảo cả các giám đốc điều hành cấp cao. Gần đây, một giám đốc điều hành của Ferrari đã thoát khỏi một vụ lừa đảo deepfake trong gang tấc bằng cách đặt ra một câu hỏi chỉ có người thật CEOBenedetto Vigna, có thể trả lời. Kẻ lừa đảo, sử dụng Trí tuệ nhân tạo để bắt chước giọng nói của Vigna, bắt chước phong cách của anh ấy một cách thuyết phục nhưng lại ngập ngừng khi được hỏi về một cuốn sách cụ thể được đề xuất. Sự cố này làm nổi bật những điểm khác biệt tinh tế nhưng rõ ràng – như số điện thoại lạ và ảnh đại diện khác – có thể vạch trần những trò lừa đảo như vậy.
Arup, một công ty thiết kế và kỹ thuật đa quốc gia của Anh, thì không might mắn như vậy. Đầu năm nay, một nhân viên tài chính tại văn phòng Arup ở Hồng Kông đã ủy quyền 15 giao dịch với tổng giá trị 25,6 triệu đô la sau một cuộc gọi video thực tế với những người có vẻ là giám đốc tài chính và các đồng nghiệp. Các bản dựng lại deepfake, sử dụng Trí tuệ nhân tạo– tạo ra tiếng nói và hình ảnh, dập tắt những nghi ngờ ban đầu, nhấn mạnh sự tinh vi của các vụ lừa đảo hiện đại.
Vào tháng 5 năm 2024, WPP CEO Mark Learn đã ngăn chặn một vụ lừa đảo deepfake tinh vi khác nhằm lừa đảo công ty quảng cáo lớn nhất thế giới. Những kẻ lừa đảo đã thiết lập một Microsoft Các nhóm họp bằng giọng nói được sao chép và video được chỉnh sửa, cố gắng lừa một giám đốc điều hành cấp cao chia sẻ thông tin nhạy cảm. Mặc dù trò lừa đảo này rất tinh vi, nhưng đội ngũ nhân viên cảnh giác của WPP đã ngăn chặn được âm mưu này.
Những sự cố này nhấn mạnh mối đe dọa ngày càng tăng của Trí tuệ nhân tạo– tạo ra các vụ lừa đảo và sự cần thiết của các phương pháp xác minh tinh vi. Một cuộc khảo sát gần đây cho thấy gần một nửa người Mỹ (48%) cảm thấy ít có khả năng xác định các vụ lừa đảo do Trí tuệ nhân tạo tiến bộ. Chỉ có 18% cảm thấy rất tự tin trong việc nhận ra các vụ lừa đảo, với nhiều người phải vật lộn để phân biệt giữa thực tế và Trí tuệ nhân tạo– tạo ra sự lừa dối.
Chìa khóa để chống lại những mối đe dọa này nằm ở giáo dục, phát triển kỹ năng và xác minh mạnh mẽ. Các giám đốc điều hành phải trở nên thành thạo trong việc xác thực danh tính thông qua các câu hỏi cá nhân độc đáo. Ví dụ, các kỹ thuật đơn giản như sử dụng từ an toàn với các thành viên gia đình thân thiết có thể là phương pháp nhanh chóng và đáng tin cậy để xác minh danh tính của người mà bạn đang giao tiếp.
Trong một thời đại mà siêu thực tế điện tử deepfakes có thể dễ dàng lừa dối, nguyên tắc “tin tưởng nhưng xác minh” là rất quan trọng. Các doanh nghiệp phải áp dụng các công cụ phát hiện tiên tiến, xác thực đa yếu tố và điện tử đóng dấu bằng nước để bảo vệ chống lại những mối đe dọa này. Bằng cách nuôi dưỡng sự hiểu biết sâu sắc về Trí tuệ nhân tạo và những hàm ý của nó, chúng ta có thể bảo vệ điện tử môi trường và duy trì sự tin cậy vào thông tin chúng ta tiêu thụ và chia sẻ.
Để đọc toàn bộ bài viết, vui lòng tiến hành TheDigitalSpeaker.com
Bài Deepfakes: Trò lừa đảo AI mà bạn không ngờ tới xuất hiện đầu tiên trên Dữ liệu.
[ad_2]
Source link