[ad_1]
Khả năng giải thích không có định nghĩa chuẩn, nhưng thường được chấp nhận để chỉ “phong trào, sáng kiến và nỗ lực được thực hiện để ứng phó với mối lo ngại về tính minh bạch và lòng tin của AI” (Adadi và Berrada, 2018). Bibal và cộng sự (2021) nhằm mục đích đưa ra hướng dẫn về các yêu cầu pháp lý, kết luận rằng một mô hình có thể giải thích được phải có khả năng “(i) (cung cấp) các tính năng chính được sử dụng để đưa ra quyết định, (ii) (cung cấp) tất cả các tính năng đã xử lý, (iii) (cung cấp) một lời giải thích toàn diện về quyết định và (iv) (cung cấp) một biểu diễn dễ hiểu về toàn bộ mô hình”. Họ định nghĩa khả năng giải thích được là cung cấp “những hiểu biết có ý nghĩa về cách đưa ra một quyết định cụ thể” đòi hỏi “một chuỗi suy nghĩ có thể khiến quyết định đó có ý nghĩa đối với người dùng (tức là để quyết định đó có ý nghĩa với người dùng)”. Do đó, khả năng giải thích được đề cập đến hiểu biết về logic và cơ chế nội tại của một mô hình hỗ trợ cho một quyết định.
Một ví dụ lịch sử về khả năng giải thích là trận đấu cờ vây giữa AlphaGo, một thuật toán, và Lee Sedol, được coi là một trong những kỳ thủ cờ vây giỏi nhất mọi thời đại. Trong ván 2, nước đi thứ 19 của AlphaGo được các chuyên gia và những người sáng tạo coi là “thật bất ngờ, (làm đảo lộn) hàng trăm năm trí tuệ được thừa nhận” (Coppey, 2018). Động thái này cực kỳ ‘không phải con người‘, nhưng lại là nước đi quyết định cho phép thuật toán cuối cùng giành chiến thắng trong trò chơi. Trong khi con người có thể xác định động cơ đằng sau nước đi sau đó, họ không thể giải thích tại sao mô hình lại chọn nước đi đó so với các nước đi khác, do thiếu sự hiểu biết nội tại về logic của mô hình. Điều này chứng minh khả năng phi thường của máy học trong việc tính toán vượt xa khả năng của con người, nhưng lại đặt ra câu hỏi: liệu điều này có đủ để chúng ta tin tưởng mù quáng vào quyết định của họ không?
Trong khi độ chính xác là yếu tố quan trọng thúc đẩy việc áp dụng máy học, trong nhiều trường hợp, khả năng giải thích được coi trọng hơn cả độ chính xác.
Các bác sĩ không muốn, và đúng như vậy, chấp nhận một mô hình đưa ra kết quả là họ không nên cắt bỏ khối u ung thư nếu mô hình không thể đưa ra logic nội tại đằng sau quyết định, ngay cả khi về lâu dài, điều đó tốt hơn cho bệnh nhân. Đây là một trong những yếu tố hạn chế chính khiến máy học, mặc dù có tiềm năng to lớn, vẫn chưa được tận dụng hết trong nhiều lĩnh vực.
[ad_2]
Source link