[ad_1]
Nhưng những người đam mê AI có thể nhớ rằng đúng một năm trước, vào ngày 21 tháng 7 năm 2023, Biden đã tạo dáng với bảy giám đốc điều hành công nghệ hàng đầu tại Nhà Trắng. Ông vừa đàm phán một thỏa thuận mà họ đồng ý với tám quy tắc mang tính chỉ định nhất nhắm vào lĩnh vực AI tại thời điểm đó. Rất nhiều thứ có thể thay đổi trong một năm!
Những cam kết tự nguyện này được ca ngợi là sự hướng dẫn rất cần thiết cho ngành AI, vốn đang xây dựng công nghệ mạnh mẽ với ít rào cản. Kể từ đó, tám công ty nữa đã ký cam kết và Nhà Trắng đã ban hành một lệnh hành pháp mở rộng thêm—ví dụ, với yêu cầu các nhà phát triển phải chia sẻ kết quả thử nghiệm an toàn cho các mô hình AI mới với chính phủ Hoa Kỳ nếu các thử nghiệm cho thấy công nghệ này có thể gây rủi ro cho an ninh quốc gia.
Chính trị Hoa Kỳ cực kỳ phân cực, và đất nước này khó có thể thông qua quy định về AI trong thời gian tới. Vì vậy, những cam kết này, cùng với một số luật hiện hành như luật chống độc quyền và luật bảo vệ người tiêu dùng, là những cam kết tốt nhất mà Hoa Kỳ có được về mặt bảo vệ mọi người khỏi tác hại của AI. Để đánh dấu kỷ niệm một năm của các cam kết tự nguyện, tôi quyết định xem xét những gì đã xảy ra kể từ đó. Tôi đã yêu cầu bảy công ty ban đầu đã ký các cam kết tự nguyện chia sẻ càng nhiều càng tốt về những gì họ đã làm để tuân thủ chúng, kiểm tra chéo phản hồi của họ với một số ít chuyên gia bên ngoài và cố gắng hết sức để cung cấp cảm nhận về mức độ tiến bộ đã đạt được. Bạn có thể đọc câu chuyện của tôi ở đây.
Thung lũng Silicon ghét bị quản lý và cho rằng điều đó cản trở sự đổi mới. Hiện tại, Hoa Kỳ đang dựa vào thiện chí của ngành công nghệ để bảo vệ người tiêu dùng khỏi bị tổn hại, nhưng các công ty này có thể quyết định thay đổi chính sách bất cứ lúc nào phù hợp với họ và không phải đối mặt với hậu quả thực sự nào. Và đó là vấn đề với các cam kết không ràng buộc: Chúng dễ ký kết và cũng dễ quên.
Điều đó không có nghĩa là chúng không có giá trị. Chúng có thể hữu ích trong việc tạo ra các chuẩn mực xung quanh quá trình phát triển AI và gây áp lực công khai lên các công ty để làm tốt hơn. Chỉ trong một năm, các công ty công nghệ đã thực hiện một số thay đổi tích cực, chẳng hạn như AI red-teaming, watermarking và đầu tư vào nghiên cứu về cách làm cho các hệ thống AI an toàn. Tuy nhiên, những loại cam kết này chỉ là lựa chọn tham gia và điều đó có nghĩa là các công ty luôn có thể lựa chọn không tham gia nữa. Điều này đưa tôi đến câu hỏi lớn tiếp theo cho lĩnh vực này: Người kế nhiệm Biden sẽ đưa chính sách AI của Hoa Kỳ đi về đâu?
Cuộc tranh luận xung quanh quy định về AI khó có thể kết thúc nếu Donald Trump thắng cử tổng thống vào tháng 11, Brandie Nonnecke, giám đốc Phòng thí nghiệm chính sách CITRIS tại UC Berkeley, cho biết.
“Đôi khi các bên có những mối quan tâm khác nhau về việc sử dụng AI. Một bên có thể quan tâm nhiều hơn đến tác động của lực lượng lao động, và bên kia có thể quan tâm nhiều hơn đến sự thiên vị và phân biệt đối xử”, Nonnecke nói. “Rõ ràng đây là vấn đề lưỡng đảng cần có một số rào cản và giám sát đối với sự phát triển AI tại Hoa Kỳ”, bà nói thêm.
Trump không xa lạ gì với AI. Khi còn tại nhiệm, ông đã ký một lệnh hành pháp kêu gọi đầu tư nhiều hơn vào nghiên cứu AI và yêu cầu chính phủ liên bang sử dụng nhiều AI hơn, được điều phối bởi Văn phòng Sáng kiến AI Quốc gia mới. Ông cũng đã ban hành sớm hướng dẫn về AI có trách nhiệm. Nếu ông trở lại văn phòng, ông được cho là đang có kế hoạch xóa bỏ lệnh hành pháp của Biden và thực hiện lệnh của riêng mình Sắc lệnh hành pháp AI điều đó làm giảm quy định về AI và thiết lập “Dự án Manhattan” để thúc đẩy AI quân sự. Trong khi đó, Biden vẫn kêu gọi Quốc hội thông qua các quy định ràng buộc về AI. Không có gì ngạc nhiên khi các tỷ phú ở Thung lũng Silicon lại ủng hộ Trump.
[ad_2]
Source link