[ad_1]
“Vào rác, ra rác”. Trong lĩnh vực trí tuệ nhân tạo (AI) đang phát triển nhanh chóng, câu châm ngôn này chưa bao giờ phù hợp hơn thế. Khi các tổ chức khám phá AI để thúc đẩy đổi mới, hỗ trợ quy trình kinh doanh và cải thiện việc ra quyết định, bản chất của công nghệ cơ bản của AI và chất lượng dữ liệu cung cấp cho thuật toán sẽ quyết định hiệu quả và độ tin cậy của nó. Bài viết này xem xét mối quan hệ quan trọng giữa chất lượng dữ liệu và hiệu suất AI, nêu bật lý do tại sao AI đặc biệt không thể tồn tại nếu không có dữ liệu tuyệt vời và cung cấp thông tin chi tiết về cách các doanh nghiệp ưu tiên và xử lý dữ liệu để triển khai AI tối ưu.
AI đang buộc nhiều công ty phải phát triển và suy nghĩ lại về cách quản lý và phân tích dữ liệu. Một Khảo sát của Gartner trong số 479 giám đốc điều hành hàng đầu trong các vai trò dữ liệu và phân tích cho thấy 61% các tổ chức đang đánh giá lại khuôn khổ dữ liệu và phân tích (D&A) của họ do các công nghệ AI mang tính đột phá. 38% trong số những nhà lãnh đạo này dự đoán sẽ có một cuộc đại tu hoàn toàn đối với kiến trúc D&A của họ trong vòng 12 đến 18 tháng tới để duy trì sự phù hợp và hiệu quả trong bối cảnh đang thay đổi.
Đảm bảo chất lượng dữ liệu tốt là điều tối quan trọng trong bất kỳ hành trình áp dụng AI nào và khi xây dựng các sản phẩm được hỗ trợ bởi công nghệ AI, đặc biệt là khi tạo ra những hiểu biết có thể hành động từ dữ liệu. Dữ liệu tốt là dữ liệu chính xác, đầy đủ và có cấu trúc tốt; đến từ một nguồn đáng tin cậy; và được cập nhật thường xuyên để duy trì tính phù hợp. Trong môi trường thay đổi nhanh chóng, việc thiếu chất lượng hoặc tính nhất quán này có thể dẫn đến kết quả đầu ra kém và do đó, các quyết định bị thỏa hiệp.
Chất lượng dữ liệu trong quá trình đào tạo mô hình ban đầu quyết định khả năng phát hiện các mẫu và tạo ra các khuyến nghị có liên quan, có thể giải thích được của mô hình. Bằng cách lựa chọn và chuẩn hóa cẩn thận các nguồn dữ liệu, các tổ chức có thể tăng cường các trường hợp sử dụng AI. Ví dụ: khi AI được áp dụng để quản lý hiệu suất của cơ sở hạ tầng CNTT hoặc cải thiện trải nghiệm kỹ thuật số của nhân viên, việc cung cấp cho mô hình dữ liệu cụ thể – chẳng hạn như mức sử dụng CPU, thời gian hoạt động, lưu lượng mạng và độ trễ – đảm bảo dự đoán chính xác về việc liệu các công nghệ có đang hoạt động ở trạng thái suy giảm hay trải nghiệm của người dùng đang bị ảnh hưởng hay không. Trong trường hợp này, AI phân tích dữ liệu ở chế độ nền và áp dụng các bản sửa lỗi phòng ngừa mà không ảnh hưởng tiêu cực đến người dùng cuối, dẫn đến mối quan hệ tốt hơn với công nghệ làm việc và một ngày làm việc hiệu quả hơn.
Ví dụ về bảo trì dự đoán này sử dụng Machine Studying (ML), một loại AI tạo ra các mô hình để học từ dữ liệu và đưa ra dự đoán, do đó cho phép các nhóm hỗ trợ kỹ thuật có được những hiểu biết sớm. Phương pháp dự đoán này cho phép giải quyết vấn đề chủ động, giảm thiểu thời gian chết và nâng cao hiệu quả hoạt động.
Thật không might, không phải tất cả các tổ chức đều có quyền truy cập vào dữ liệu đáng tin cậy để xây dựng các mô hình AI chính xác và có trách nhiệm. Thách thức về chất lượng dữ liệu kém ảnh hưởng đến 31% các công ty theo báo cáo ESG gần đây về đào tạo mô hình AI liên quan đến CNTT, nhấn mạnh nhu cầu quan trọng đối với các quy trình xác minh dữ liệu mạnh mẽ. Để giải quyết thách thức này và xây dựng lòng tin vào dữ liệu và triển khai AI, các tổ chức phải ưu tiên cập nhật dữ liệu thường xuyên.
Dữ liệu chất lượng cao phải không có lỗi, được lấy từ các nguồn đáng tin cậy và được xác thực về độ chính xác. Trong khi dữ liệu không đầy đủ và/hoặc phương pháp nhập không nhất quán có thể dẫn đến các khuyến nghị gây hiểu lầm, tác động của dữ liệu kém cũng có thể được cảm nhận trong các thách thức triển khai AI tiếp theo như chi phí hoạt động cao (30%) và khó khăn trong việc đo lường ROI hoặc tác động kinh doanh (28%).
Điều đáng lo ngại là AI xử lý mọi dữ liệu được cung cấp nhưng không thể phân biệt được chất lượng. Ở đây, các hoạt động cấu trúc dữ liệu tinh vi và sự giám sát chặt chẽ của con người (còn được gọi là “con người trong vòng lặp”) có thể lấp đầy khoảng trống và đảm bảo rằng chỉ có dữ liệu chất lượng cao nhất được sử dụng và hành động. Sự giám sát như vậy trở nên quan trọng hơn trong bối cảnh quản lý CNTT chủ động. Trong khi ML, được hỗ trợ bởi bộ sưu tập dữ liệu mở rộng, có thể thúc đẩy khả năng phát hiện bất thường và khả năng dự đoán trong, ví dụ, tình huống hỗ trợ kỹ thuật, thì chính đầu vào của con người mới đảm bảo những hiểu biết có thể hành động và có liên quan.
Hầu hết các nhà cung cấp CNTT doanh nghiệp đang đưa một số cấp độ AI vào các giải pháp của họ, nhưng chất lượng và phạm vi dữ liệu được sử dụng có thể khác nhau đáng kể. AI tuyệt vời không chỉ đến từ việc thu thập dữ liệu từ nhiều điểm cuối thường xuyên hơn mà còn từ cách dữ liệu đó được cấu trúc.
Một AI được thiết kế riêng cho hoạt động CNTT chứng minh điều này một cách hiệu quả. Ví dụ, một sản phẩm như vậy có thể phân tích và phân loại dữ liệu hiệu suất, được thu thập từ hơn 10.000 điểm cuối bằng cách sử dụng hơn 1.000 cảm biến cứ sau 15 giây. Với quy mô dữ liệu này, ML có thể phát hiện hiệu quả các bất thường. Nó dự đoán các sự cố mất điện hoặc sự cố CNTT trong tương lai một cách chủ động, đồng thời nâng cao năng suất và sự hài lòng của nhân viên.
Bằng cách đưa tập dữ liệu khổng lồ này vào ML, cụ thể là mô hình ngôn ngữ lớn, các nhóm CNTT cũng có thể quản lý hiệu quả các truy vấn quy mô lớn bằng ngôn ngữ tự nhiên. Ví dụ bao gồm phân tích mức sử dụng Microsoft Outlook trung bình hoặc xác định những nhân viên không sử dụng giấy phép phần mềm đắt tiền được triển khai trên toàn bộ tổ chức mà không quan tâm đến việc từng nhân viên có thực sự cần phần mềm hay không. Trên thực tế, AI trở thành một phi công phụ đáng tin cậy cho các nhóm công nghệ, từ cấp C và các nhân viên hỗ trợ CNTT đến các kỹ sư hệ thống.
Người mua cần ưu tiên phần mềm chạy bằng AI không chỉ thu thập dữ liệu từ nhiều nguồn khác nhau mà còn tích hợp dữ liệu một cách nhất quán, đảm bảo xử lý dữ liệu mạnh mẽ và tính toàn vẹn về mặt cấu trúc. Độ sâu, độ rộng, lịch sử và chất lượng của dữ liệu đều quan trọng trong quá trình lựa chọn nhà cung cấp.
Khi AI tiếp tục phát triển, nền tảng dữ liệu chất lượng cao vẫn đóng vai trò quan trọng đối với sự thành công của AI. Các tổ chức thu thập và quản lý dữ liệu hiệu quả sẽ trao quyền cho AI để nâng cao khả năng ra quyết định, hiệu quả hoạt động và thúc đẩy đổi mới. Ngược lại, việc bỏ qua chất lượng dữ liệu có thể làm tổn hại nghiêm trọng đến tính toàn vẹn của các sáng kiến AI. Tiến về phía trước, các tổ chức phải siêng năng thu thập và cấu trúc lượng lớn dữ liệu để giải phóng toàn bộ tiềm năng của các triển khai AI của họ.
Giới thiệu về tác giả
Chris Spherical là Trưởng phòng sản phẩm tại Phần mềm Lakesidelà nền tảng quản lý trải nghiệm kỹ thuật số (DEX) duy nhất do AI điều khiển. Với nền tảng kỹ thuật tuyệt vời trong không gian điện toán người dùng cuối, từ các vai trò trước đây tại BAE Programs Utilized Intelligence và Sony Cellular Communications, cộng với khả năng quản lý mối quan hệ kinh doanh bẩm sinh, ông chịu trách nhiệm hiểu các vấn đề của khách hàng và đưa ra giải pháp phù hợp.
Đăng ký nhận tin tức insideAI miễn phí bản tin.
Tham gia cùng chúng tôi trên Twitter: https://twitter.com/InsideBigData1
Tham gia cùng chúng tôi trên LinkedIn: https://www.linkedin.com/company/insideainews/
Tham gia cùng chúng tôi trên Fb: https://www.facebook.com/insideAINEWSNOW
[ad_2]
Source link