Trang chủ Thế giới nói gì Khái quát về Explainable AI

Khái quát về Explainable AI

Trong khi trí tuệ nhân tạo (AI) thâm nhập ngày càng sâu rộng vào mọi lĩnh vực của đời sống (từ nhận dạng khuôn mặt, ứng dụng đàm thoại, đến xe tự hành hay hệ thống siêu cá nhân hóa,…), thì việc xây dựng và củng cố niềm tin ở AI càng trở nên quan trọng. Tuy nhiên, hầu hết người dùng đều không thể quan sát trực quan hay nhận biết cách thức AI đưa ra quyết định. Phần lớn các thuật toán đang được sử dụng cho học máy cũng gặp hạn chế trong việc thiết lập các lý giải cụ thể, làm ảnh hưởng tiêu cực đến sự tin tưởng của con người đối với các hệ thống trí tuệ nhân tạo. Nhu cầu hiện nay là AI phải vừa có khả năng hoạt động hiệu quả, vừa có thể đưa ra các giải thích minh bạch cho các quyết định của mình. Đây được gọi là Explainable AI (XAI).

Explainable AI (XAI) là gì?

XAI là một lĩnh vực mới nổi trong học máy nhằm mục đích lý giải các quyết định của hệ thống AI. XAI kiểm tra và cố gắng hiểu các bước, cũng như mô hình liên quan đến việc đưa ra quyết định. Do đó, XAI được kỳ vọng sẽ giúp trả lời các câu hỏi như: Tại sao hệ thống AI lại đưa ra dự đoán hoặc quyết định như vậy? Tại sao AI lại không làm khác? Hệ thống AI thành công và thất bại khi nào? Khi nào bạn có thể tin tưởng vào AI và làm thế nào hệ thống AI có thể sửa chữa các lỗi phát sinh?

Một số thuật toán có khả năng lý giải quyết định

Hiện nay, các nhà khoa học và chuyên gia công nghệ trên thế giới vẫn đang tiếp tục nghiên cứu cách thức xây dựng mô hình XAI. Tuy nhiên, thực tế, đã có thể gợi mở một số thuật toán học máy vốn cho phép lý giải và đưa ra bằng chứng cho các quyết định. Ví dụ: cây quyết định (decision trees), bộ phân loại Bayes (Bayesian classifiers) và các thuật toán khác có khả năng truy xuất nguồn gốc sẽ giúp nâng cao tính minh bạch cần thiết cho các hệ thống AI mà không tác động tiêu cực đến hiệu suất hoặc độ chính xác.

Không chỉ đưa ra quyết định, Explainable AI còn có khả năng lý giải cho quyết định đó. (Nguồn ảnh: DARPA/I2O)
Không chỉ đưa ra quyết định, Explainable AI còn có khả năng lý giải cho quyết định đó. (Nguồn ảnh: DARPA/I2O)

Trong khi đó, các thuật toán phức tạp hơn như mạng nơ-ron, các phương pháp tổng hợp bao gồm random forests và các thuật toán tương tự thường đánh đổi tính minh bạch và khả năng giải thích để cải thiện sức mạnh, hiệu suất và độ chính xác.

Dù còn nằm ở tương lai, nhưng một khi đạt được XAI, khả năng truy xuất nguồn gốc sẽ cho phép con người tham gia vào các vòng quyết định của AI và có thể dừng hoặc kiểm soát các nhiệm vụ của nó bất cứ khi nào cần thiết. Một hệ thống AI không chỉ được mong đợi là thực hiện tốt một số tác vụ nhất định mà còn phải có khả năng đưa ra một báo cáo minh bạch về lý do và cách thức thực hiện tác vụ đó. Kỳ vọng, những tiến bộ tới đây sẽ giúp trang bị cho AI cả sức mạnh tính toán, độ chính xác lẫn tính minh bạch và khả năng lý giải.

Cấp độ minh bạch và khả năng diễn giải của AI

Các hành động của AI phải được theo dõi ở một mức độ nhất định. Không phải tất cả các hệ thống đều cần mức độ minh bạch như nhau. Mặc dù không thể chuẩn hóa các thuật toán hoặc các phương pháp tiếp cận XAI, nhưng các nhà nghiên cứu đang cố gắng chuẩn hóa các mức độ minh bạch, mức độ diễn giải theo yêu cầu. Ví dụ, hệ thống khuyến nghị sản phẩm có thể yêu cầu tính minh bạch thấp hơn, nhưng các hệ thống chẩn đoán y tế hoặc xe tự hành phải được yêu cầu mức độ minh bạch và khả năng giải thích cao hơn. Tiêu chuẩn về các mức độ minh bạch này nhằm tạo điều kiện giao tiếp giữa người dùng cuối và nhà cung cấp công nghệ.

Như vậy, tuy chưa thể đạt tới XAI, nhưng với việc xây dựng tiêu chuẩn về mức độ minh bạch, cũng như đẩy mạnh các nghiên cứu về khả năng diễn giải của thuật toán, cộng đồng khoa học – công nghệ thế giới đang từng bước đặt nền móng cho sự hình thành của XAI trong tương lai không xa.

(Nguồn tham khảo: forbes.com)

BÀI MỚI NHẤT

Transformer Neural Network – Mô hình học máy biến đổi thế giới NLP

Năm 2017, Google công bố bài báo “Attention Is All You Need” thông tin về Transformer như tạo ra bước ngoặt mới trong lĩnh...

Các biểu thức chính quy cần thiết (Regex) trong NLP

Khi xử lý văn bản, chúng ta thường mong muốn chuẩn hóa và trích xuất một số thông tin (như số, ngày tháng, v.v.)...

Giảm chiều dữ liệu để tăng hiệu quả của mô hình AI

Các tập dữ liệu đa chiều (high-dimensionality datasets) hiện là tài nguyên quý giúp tổ chức nghiên cứu giải quyết những vấn đề phức...

Newsletter nổi bật về khoa học dữ liệu và AI (2021)

Newsletter về khoa học dữ liệu và AI là giải pháp tuyệt vời cho việc quá tải thông tin khi nghiên cứu. Newsletter đã...

BÀI ĐỌC NHIỀU

Supervised Learning và Unsupervised Learning: Khác biệt là gì?

Supervised learning (Học có giám sát) và Unsupervised learning (Học không giám sát) là hai trong số những phương pháp kỹ thuật cơ bản...

Transformer Neural Network – Mô hình học máy biến đổi thế giới NLP

Năm 2017, Google công bố bài báo “Attention Is All You Need” thông tin về Transformer như tạo ra bước ngoặt mới trong lĩnh...

Phần mềm mã nguồn mở là gì? Tất cả những điều bạn nên biết

Mã nguồn mở thường được lưu trữ trong kho lưu trữ công cộng và được chia sẻ công khai. Bất kỳ ai cũng có...

03 bài toán kinh điển trong Xử lý ngôn ngữ tự nhiên

Các bài toán trong Xử lý ngôn ngữ tự nhiên (NLP) từ cơ bản đến nâng cao bao gồm part-of-speech tagging, chunking, dependency parsing,...