Trang chủ Thế giới nói gì Khái quát về Explainable AI

Khái quát về Explainable AI

Trong khi trí tuệ nhân tạo (AI) thâm nhập ngày càng sâu rộng vào mọi lĩnh vực của đời sống (từ nhận dạng khuôn mặt, ứng dụng đàm thoại, đến xe tự hành hay hệ thống siêu cá nhân hóa,…), thì việc xây dựng và củng cố niềm tin ở AI càng trở nên quan trọng. Tuy nhiên, hầu hết người dùng đều không thể quan sát trực quan hay nhận biết cách thức AI đưa ra quyết định. Phần lớn các thuật toán đang được sử dụng cho học máy cũng gặp hạn chế trong việc thiết lập các lý giải cụ thể, làm ảnh hưởng tiêu cực đến sự tin tưởng của con người đối với các hệ thống trí tuệ nhân tạo. Nhu cầu hiện nay là AI phải vừa có khả năng hoạt động hiệu quả, vừa có thể đưa ra các giải thích minh bạch cho các quyết định của mình. Đây được gọi là Explainable AI (XAI).

Explainable AI (XAI) là gì?

XAI là một lĩnh vực mới nổi trong học máy nhằm mục đích lý giải các quyết định của hệ thống AI. XAI kiểm tra và cố gắng hiểu các bước, cũng như mô hình liên quan đến việc đưa ra quyết định. Do đó, XAI được kỳ vọng sẽ giúp trả lời các câu hỏi như: Tại sao hệ thống AI lại đưa ra dự đoán hoặc quyết định như vậy? Tại sao AI lại không làm khác? Hệ thống AI thành công và thất bại khi nào? Khi nào bạn có thể tin tưởng vào AI và làm thế nào hệ thống AI có thể sửa chữa các lỗi phát sinh?

Một số thuật toán có khả năng lý giải quyết định

Hiện nay, các nhà khoa học và chuyên gia công nghệ trên thế giới vẫn đang tiếp tục nghiên cứu cách thức xây dựng mô hình XAI. Tuy nhiên, thực tế, đã có thể gợi mở một số thuật toán học máy vốn cho phép lý giải và đưa ra bằng chứng cho các quyết định. Ví dụ: cây quyết định (decision trees), bộ phân loại Bayes (Bayesian classifiers) và các thuật toán khác có khả năng truy xuất nguồn gốc sẽ giúp nâng cao tính minh bạch cần thiết cho các hệ thống AI mà không tác động tiêu cực đến hiệu suất hoặc độ chính xác.

Không chỉ đưa ra quyết định, Explainable AI còn có khả năng lý giải cho quyết định đó. (Nguồn ảnh: DARPA/I2O)
Không chỉ đưa ra quyết định, Explainable AI còn có khả năng lý giải cho quyết định đó. (Nguồn ảnh: DARPA/I2O)

Trong khi đó, các thuật toán phức tạp hơn như mạng nơ-ron, các phương pháp tổng hợp bao gồm random forests và các thuật toán tương tự thường đánh đổi tính minh bạch và khả năng giải thích để cải thiện sức mạnh, hiệu suất và độ chính xác.

Dù còn nằm ở tương lai, nhưng một khi đạt được XAI, khả năng truy xuất nguồn gốc sẽ cho phép con người tham gia vào các vòng quyết định của AI và có thể dừng hoặc kiểm soát các nhiệm vụ của nó bất cứ khi nào cần thiết. Một hệ thống AI không chỉ được mong đợi là thực hiện tốt một số tác vụ nhất định mà còn phải có khả năng đưa ra một báo cáo minh bạch về lý do và cách thức thực hiện tác vụ đó. Kỳ vọng, những tiến bộ tới đây sẽ giúp trang bị cho AI cả sức mạnh tính toán, độ chính xác lẫn tính minh bạch và khả năng lý giải.

Cấp độ minh bạch và khả năng diễn giải của AI

Các hành động của AI phải được theo dõi ở một mức độ nhất định. Không phải tất cả các hệ thống đều cần mức độ minh bạch như nhau. Mặc dù không thể chuẩn hóa các thuật toán hoặc các phương pháp tiếp cận XAI, nhưng các nhà nghiên cứu đang cố gắng chuẩn hóa các mức độ minh bạch, mức độ diễn giải theo yêu cầu. Ví dụ, hệ thống khuyến nghị sản phẩm có thể yêu cầu tính minh bạch thấp hơn, nhưng các hệ thống chẩn đoán y tế hoặc xe tự hành phải được yêu cầu mức độ minh bạch và khả năng giải thích cao hơn. Tiêu chuẩn về các mức độ minh bạch này nhằm tạo điều kiện giao tiếp giữa người dùng cuối và nhà cung cấp công nghệ.

Như vậy, tuy chưa thể đạt tới XAI, nhưng với việc xây dựng tiêu chuẩn về mức độ minh bạch, cũng như đẩy mạnh các nghiên cứu về khả năng diễn giải của thuật toán, cộng đồng khoa học – công nghệ thế giới đang từng bước đặt nền móng cho sự hình thành của XAI trong tương lai không xa.

(Nguồn tham khảo: forbes.com)

BÀI MỚI NHẤT

Newsletter nổi bật về khoa học dữ liệu và AI (2021)

Newsletter về khoa học dữ liệu và AI là giải pháp tuyệt vời cho việc quá tải thông tin khi nghiên cứu. Newsletter đã...

10 kho dữ liệu mở dành cho cộng đồng Xử lý ảnh y tế

Một trong những thử thách lớn nhất hiện nay đối với cộng đồng AI nói chung, Xử lý ảnh y tế nói riêng chính...

04 cấp độ phát triển của Trí tuệ nhân tạo

Trí tuệ nhân tạo (AI) là một khái niệm quen mà lạ. Dù được nhắc đến, cũng như ứng dụng rất phổ biến trong...

VinBigdata “ươm mầm” để không bỏ phí tài năng toán học

Từ khi còn là sinh viên Đại học, các thực tập sinh VinBigdata đã đứng tên những công bố quốc tế về ứng dụng...

BÀI ĐỌC NHIỀU

Chiến thuật chinh phục các cuộc thi trên Kaggle

Với hơn 5 triệu tài khoản đăng ký, các cuộc thi trên Kaggle là sân chơi quốc tế dành cho cộng đồng trí tuệ...

Giáo sư Vũ Hà Văn được Hiệp hội Toán thống kê thế giới bầu chọn là Hội viên danh dự năm 2020

Với những cống hiến trong lý thuyết xác suất, đặc biệt là lý thuyết ma trận ngẫu nhiên, Giáo sư Vũ Hà Văn –...

Trí tuệ nhân tạo trong ngành thương mại điện tử

Dữ liệu đang trở thành một mặt hàng theo đúng nghĩa đen. Theo Diễn đàn kinh tế Thế giới, 44 zettabyte dữ liệu sẽ...

Supervised Learning và Unsupervised Learning: Khác biệt là gì?

Supervised learning (Học có giám sát) và Unsupervised learning (Học không giám sát) là hai trong số những phương pháp kỹ thuật cơ bản...