Thứ Sáu, 10 tháng 2, 2023

XAI - Explainable AI

 

1.    Explainable AI (XAI) là gì?

XAI là một hướng nghiên cứu mới trong lĩnh vực Trí tuệ nhân tạo. Mục tiêu của XAI là giải thích cách AI thu được kết quả cụ thể mà thuật toán AI kết xuất ra với các câu hỏi dạng "wh". AI truyền thống chỉ xuất ra kết quả mà không hề giải thích những kết quả này từ đâu mà có, cơ chế hoạt động của AI như một hộp đen, và người dùng cũng không thể giải thích được.

XAI sử dụng một tập hợp các quy trình và phương pháp để giải thích kết quả tính toán, từ đó cho phép người dùng con người hiểu và tin tưởng vào kết quả mà các thuật toán máy học tạo ra. Từ đó, XAI cũng giúp mô tả tính chính xác, trung thực, minh bạch về kết quả do AI cung cấp. AI có thể giải thích là rất quan trọng đối với một tổ chức trong việc xây dựng lòng tin và sự tự tin khi đưa các mô hình AI vào sản xuất.

(Nguồn hình: https://medium.com/analytics-vidhya/explainable-ai-what-is-it-why-is-it-important-41f062207235)

Có nhiều lợi thế để hiểu cách một hệ thống hỗ trợ AI đã dẫn đến một đầu ra cụ thể. Khả năng giải thích có thể giúp các nhà phát triển đảm bảo rằng hệ thống đang hoạt động như mong đợi. Có thể xem XAI là:

Một tập hợp các mô hình thực nghiệm tốt nhất: Nó sử dụng một số quy trình và quy tắc tốt nhất mà các nhà khoa học dữ liệu đã sử dụng trong nhiều năm để giúp những người khác hiểu cách một mô hình được đào tạo. Nếu biết được cách thức thiết lập mô hình và kết quả được kết xuất dựa trên dữ liệu nào, người dùng có thể hiểu khi nào nên sử dụng và không nên sử dụng mô hình mà AI đề nghị đó. XAI cũng giúp làm sáng tỏ những nguồn sai lệch mà mô hình có thể đã tiếp xúc.

Tập hợp các nguyên tắc thiết kế: Các nhà nghiên cứu đang ngày càng tập trung vào việc đơn giản hóa cách xây dựng các hệ thống AI để làm cho chúng trở nên dễ hiểu hơn.

Một bộ công cụ: Khi các hệ thống trở nên dễ hiểu hơn, các mô hình huấn luyện có thể được tinh chỉnh thêm bằng cách kết hợp thêm vào kết quả xuất ra những cách huấn luyện mô hình — và bằng cách cung cấp những kiến thức đó cho những người dùng khác để tích hợp vào mô hình của chính họ.

 

2.    Vì sao cần đến Explainable AI?

Khi sử dụng kết quả dự báo của AI, điều quan trọng đối với người dùng là cần phải hiểu rõ về các quy trình ra xử lý của AI chứ  không tin tưởng chúng một cách mù quáng. Các mô hình ML thường được coi là những hộp đen rất khó diễn giải, nhất là mạnh Mạng nơ-ron được sử dụng trong học sâu. Người dùng, đặc biệt là các người dùng doanh nghiệp, muốn theo dõi và quản lý được các mô hình để thúc đẩy khả năng giải thích của AI trong khi đo lường tác động kinh doanh. XAI có thể giải thích cơ chế hoạt động của AI sẽ giúp thúc đẩy lòng tin của người dùng cuối, giúp tăng khả năng kiểm tra mô hình và giúp sử dụng trí tuệ nhân tạo một cách hiệu quả. Đồng thời XAI cũng giảm thiểu rủi ro, rủi ro bảo mật và tăng cường uy tín của AI.


Nguồn hình: https://www.ibm.com/blogs/research/2019/08/ai-explainability-360/

AI có thể giải thích được là một trong những yêu cầu chính để triển khai AI có trách nhiệm, một phương pháp để triển khai các phương pháp AI trên quy mô lớn trong các tổ chức thực với sự công bằng, khả năng giải thích mô hình và trách nhiệm giải trình.³ Để giúp áp dụng AI một cách có trách nhiệm, các tổ chức cần đưa các nguyên tắc đạo đức vào AI các ứng dụng và quy trình bằng cách xây dựng các hệ thống AI dựa trên sự tin cậy và minh bạch.

Khi AI đã trưởng thành như hiện nay, các mô hình mờ ngày được dùng nhiều để xử lý những vấn đề phức tạp; và những mô hình này lại còn khó hiểu và khó giám sát hơn những mô hình truyền thống, Vì vậy, khi những dạng mô hình như vậy bị lỗi hoặc không hoạt động như mong đợi, các nhà phát triển và người dùng cuối có thể khó xác định nguyên nhân tại sao và cũng khó xác định cách thức giải quyết vấn đề. Đây  cũng là lý do người ta cần đến XAI vì XAI cung cấp cái nhìn sâu sắc về hoạt động bên trong của các mô hình mời này. Việc giám sát thành công có thể dẫn đến cải thiện hiệu suất đáng kể.

XAI cũng giúp cải thiện tính minh bạch của kết quả kết xuất ra. Tính minh bạch hiện đang rất được xem trọng do sự gia tăng những lo ngại về đạo đức xung quanh AI. Đặc biệt, các hệ thống AI đang trở nên phổ biến hơn trong cuộc sống của chúng ta và các quyết định của chúng có thể gây ra những hậu quả đáng kể. Về mặt lý thuyết, các hệ thống này có thể giúp loại bỏ sự thiên vị của con người khỏi các quy trình ra quyết định vốn chứa đầy thành kiến trong lịch sử, chẳng hạn như xác định tiền bảo lãnh hoặc đánh giá khả năng đủ điều kiện vay mua nhà. Bất chấp những nỗ lực loại bỏ phân biệt chủng tộc khỏi các quy trình này thông qua AI, các hệ thống được triển khai đã vô tình ủng hộ các hành vi phân biệt đối xử do tính chất sai lệch của dữ liệu mà chúng được đào tạo.

Để mở rộng ý tưởng về những gì cấu thành XAI, tổ chức NIST (National Institute of Standards) của Mỹ xác định bốn nguyên tắc của trí tuệ nhân tạo có thể giải thích được:

·      Một hệ thống AI phải cung cấp bằng chứng, hỗ trợ hoặc lập luận cho từng kết quả đầu ra.

·      Một hệ thống AI nên cung cấp những lời giải thích mà người dùng của nó có thể hiểu được.

·      Giải thích chính xác (Explanation accuracy): Phần giải thích đưa ra phải phản ánh chính xác quy trình mà hệ thống AI đã sử dụng để tạo ra đầu ra.

·      Biến được giới hạn kiến thức (Knowledge limits): Một hệ thống AI chỉ nên hoạt động trong các điều kiện mà nó được thiết kế và không cung cấp lời giải thích khi nó không đủ tự tin vào kết quả.

3.    Explainable AI giải thích được những gì?

Mặc dù vẫn còn nhiều tranh luận về việc tiêu chuẩn hóa các quy trình XAI, nhưng một số điểm chính đã có thể trả lời được như:

·      Chúng ta phải giải thích mô hình với ai?

·      Lời giải thích chính xác hay chính xác như thế nào?

·      Chúng ta cần giải thích mô hình tổng thể hay giải thích một quyết định cụ thể?

·      Mô hình được huấn luyện như thế nào?

·      Dữ liệu nào đã được sử dụng?

·      Mức chệch trong bước huấn luyện mô hình được đo lường và giảm thiểu như thế nào?

Những câu hỏi này tương đương với khoa học dữ liệu để giải thích bác sĩ phẫu thuật của bạn đã theo học trường nào — cùng với giáo viên của họ là ai, họ đã học gì và đạt điểm gì. Những câu hỏi này giúp niềm tin vào một mô hình nếu nó được giải quyết thỏa đáng.

(Nguồn hình: https://www.darpa.mil/program/explainable-artificial-intelligence )


4.     Những khó khăn hiện tại của XAI

·      Một trở ngại mà nghiên cứu XAI phải đối mặt là thiếu sự đồng thuận về định nghĩa của một số thuật ngữ chính. Các định nghĩa chính xác về AI có thể giải thích khác nhau giữa các bài báo và ngữ cảnh. Một số nhà nghiên cứu sử dụng thuật ngữ khả năng giải thích (explainability) và khả năng diễn giải (interpretability) thay thế cho nhau để chỉ khái niệm làm cho các mô hình và kết quả đầu ra của chúng có thể hiểu được. Nhưng cũng có những quan điểm bất đồng về cách sử dụng những từ này. Chẳng hạn, có người cho rằng rằng explainability đề cập đến những giải thích tiên nghiệm, trong khi interpretability đề cập đến những giải thích hậu nghiệm khi kết quả đã kết xuất ra. Vậy đâu sẽ là tiêu chí đánh giá XAI phù hợp: đánh giá explainability hay đánh giá interpretability?

·      Theo cách tương tự, trong khi các bài báo đề xuất các kỹ thuật XAI mới rất phong phú, hướng dẫn trong thế giới thực về cách lựa chọn, triển khai và kiểm tra những giải thích này để hỗ trợ nhu cầu của dự án lại khan hiếm. Các giải thích đã được chứng minh là cải thiện hiểu biết về các hệ thống ML, vẫn chưa xây dựng được lòng tin của các chuyên gia. Một số nghiên cứu đang được tiến hành về cách tận dụng tốt nhất khả năng giải thích để xây dựng niềm tin giữa các chuyên gia không phải là AI; giải thích tương tác, bao gồm giải thích dựa trên câu hỏi và câu trả lời, đã cho thấy những tiềm năng nhất định.

·      Một chủ đề tranh luận khác là giá trị của explainability so với giá trị của việc cung cấp tính minh bạch (transparency). Mặc dù hiện tại nhu cầu giải thích cho các mô hình mờ rất nhiều, nhưng thực tế các nhà thực hành XAI vẫn gặp khó khăn do đơn giản hóa quá mức và/hoặc trình bày sai các hệ thống phức tạp. Do đó, nhiều người lập luận rằng nên bỏ hẳn những mô hình mờ khó hiểu này bằng những mô hình các dễ hiểu và giải thích hơn, nghĩa là tích hợp sẵn tính minh bạch

Tài liệu tham khảo

[1].         https://www.ibm.com/watson/explainable-ai

[2].         https://www.ibm.com/blogs/research/2019/08/ai-explainability-360/

[3].         https://www.pwc.co.uk/services/risk/insights/explainable-ai.html

[4].         https://www.pwc.co.uk/audit-assurance/assets/pdf/explainable-artificial-intelligence-xai.pdf

[5].         https://blogs.nvidia.com/blog/2021/05/24/what-is-explainable-ai/

[6].         https://insights.sei.cmu.edu/blog/what-is-explainable-ai/

[7].          

Không có nhận xét nào:

Đăng nhận xét

Fraud Triangle

 Tam giác gian lận, tiếng Anh là fraud triangle , là một mô hình lý thuyết được sử dụng để giải thích hành vi gian lận trong các tổ chức. Mô...