Trong khi trí tuệ nhân tạo (AI) thâm nhập ngày càng sâu rộng vào mọi lĩnh vực của đời sống (từ nhận dạng khuôn mặt, ứng dụng đàm thoại, đến xe tự hành hay hệ thống siêu cá nhân hóa,…), thì việc xây dựng và củng cố niềm tin ở AI càng trở nên quan trọng. Tuy nhiên, hầu hết người dùng đều không thể quan sát trực quan hay nhận biết cách thức AI đưa ra quyết định. Phần lớn các thuật toán đang được sử dụng cho học máy cũng gặp hạn chế trong việc thiết lập các lý giải cụ thể, làm ảnh hưởng tiêu cực đến sự tin tưởng của con người đối với các hệ thống trí tuệ nhân tạo. Nhu cầu hiện nay là AI phải vừa có khả năng hoạt động hiệu quả, vừa có thể đưa ra các giải thích minh bạch cho các quyết định của mình. Đây được gọi là Explainable AI (XAI).
Explainable AI (XAI) là gì?
XAI là một lĩnh vực mới nổi trong học máy nhằm mục đích lý giải các quyết định của hệ thống AI. XAI kiểm tra và cố gắng hiểu các bước, cũng như mô hình liên quan đến việc đưa ra quyết định. Do đó, XAI được kỳ vọng sẽ giúp trả lời các câu hỏi như: Tại sao hệ thống AI lại đưa ra dự đoán hoặc quyết định như vậy? Tại sao AI lại không làm khác? Hệ thống AI thành công và thất bại khi nào? Khi nào bạn có thể tin tưởng vào AI và làm thế nào hệ thống AI có thể sửa chữa các lỗi phát sinh?
Một số thuật toán có khả năng lý giải quyết định
Hiện nay, các nhà khoa học và chuyên gia công nghệ trên thế giới vẫn đang tiếp tục nghiên cứu cách thức xây dựng mô hình XAI. Tuy nhiên, thực tế, đã có thể gợi mở một số thuật toán học máy vốn cho phép lý giải và đưa ra bằng chứng cho các quyết định. Ví dụ: cây quyết định (decision trees), bộ phân loại Bayes (Bayesian classifiers) và các thuật toán khác có khả năng truy xuất nguồn gốc sẽ giúp nâng cao tính minh bạch cần thiết cho các hệ thống AI mà không tác động tiêu cực đến hiệu suất hoặc độ chính xác.
Trong khi đó, các thuật toán phức tạp hơn như mạng nơ-ron, các phương pháp tổng hợp bao gồm random forests và các thuật toán tương tự thường đánh đổi tính minh bạch và khả năng giải thích để cải thiện sức mạnh, hiệu suất và độ chính xác.
Dù còn nằm ở tương lai, nhưng một khi đạt được XAI, khả năng truy xuất nguồn gốc sẽ cho phép con người tham gia vào các vòng quyết định của AI và có thể dừng hoặc kiểm soát các nhiệm vụ của nó bất cứ khi nào cần thiết. Một hệ thống AI không chỉ được mong đợi là thực hiện tốt một số tác vụ nhất định mà còn phải có khả năng đưa ra một báo cáo minh bạch về lý do và cách thức thực hiện tác vụ đó. Kỳ vọng, những tiến bộ tới đây sẽ giúp trang bị cho AI cả sức mạnh tính toán, độ chính xác lẫn tính minh bạch và khả năng lý giải.
Cấp độ minh bạch và khả năng diễn giải của AI
Các hành động của AI phải được theo dõi ở một mức độ nhất định. Không phải tất cả các hệ thống đều cần mức độ minh bạch như nhau. Mặc dù không thể chuẩn hóa các thuật toán hoặc các phương pháp tiếp cận XAI, nhưng các nhà nghiên cứu đang cố gắng chuẩn hóa các mức độ minh bạch, mức độ diễn giải theo yêu cầu. Ví dụ, hệ thống khuyến nghị sản phẩm có thể yêu cầu tính minh bạch thấp hơn, nhưng các hệ thống chẩn đoán y tế hoặc xe tự hành phải được yêu cầu mức độ minh bạch và khả năng giải thích cao hơn. Tiêu chuẩn về các mức độ minh bạch này nhằm tạo điều kiện giao tiếp giữa người dùng cuối và nhà cung cấp công nghệ.
Như vậy, tuy chưa thể đạt tới XAI, nhưng với việc xây dựng tiêu chuẩn về mức độ minh bạch, cũng như đẩy mạnh các nghiên cứu về khả năng diễn giải của thuật toán, cộng đồng khoa học – công nghệ thế giới đang từng bước đặt nền móng cho sự hình thành của XAI trong tương lai không xa.
(Nguồn tham khảo: forbes.com)