Page 337 - SDMD CNKT va CNTT trong tien trinh CNH_HDH DBSCL
P. 337
các tình trạng nguy hiểm và tối ưu hóa tốt hơn việc điều trị bệnh tiểu đường.
Giải pháp của các tác giả được so sánh bằng thực nghiệm với hai phương
pháp tiếp cận là mạng nơ-ron truyền thẳng (feed forward neural network -
FNN) và RNN. Bộ dữ liệu được dùng để đánh giá hiệu suất các mô hình là
OhioT1DM (Marling & Bunescu, 2018), bộ dữ liệu này bao gồm mức đường
huyết được lấy mẫu bằng một hệ thống cảm biến sau mỗi 5 phút, trong khoảng
hai tháng. Dữ liệu xem xét sáu bệnh nhân tiểu đường loại I (2 nam, 4 nữ) từ
40 đến 60 tuổi. Dữ liệu được chia theo tỷ lệ 80:20, tuy nhiên, sau khi kiểm tra
sơ bộ, các tác giả nhận thấy tập dữ liệu có những khoảng giá trị trống do trục
trặc tạm thời hoặc các hoạt động bảo trì của cảm biến. Để đảm bảo tính chính
xác của mô hình dự đoán, dữ liệu được tiền xử lý bằng cách nội suy và lấy
mẫu lại một cách tuyến tính. Kết quả thử nghiệm cho thấy giải pháp được đề
xuất đạt hiệu quả tốt về cả suy luận mức glucose ngắn hạn và dài hạn (60
phút), vượt qua các phương pháp khác cả về mối tương quan giữa tín hiệu
glucose đo được và dự đoán cũng như về kết quả lâm sàng.
16.2.5 Các nhóm thuật toán giải thích kết quả
Sự phổ biến của các hệ thống ra quyết định dựa trên học máy cũng dẫn
đến nhiều sự hoài nghi về độ tin cậy của nó, người ta sẽ đặt ra nhiều nghi vấn
rằng tại sao nó lại cho ra kết quả dự đoán này mà không phải dự đoán khác,
làm thế nào để nó đưa ra quyết định như thế. Đúng là việc ép buộc con người
phải tin vào quyết định của một cái máy mà không dựa trên cơ sở nào là rất
khó chấp nhận. Để các hệ thống này trở nên thân thiện và đáng tin cậy hơn,
các quyết định của mô hình học máy mà nó sử dụng cần được giải thích rõ
ràng hơn. Điều đó đã thúc đẩy một lĩnh vực mới gọi là Trí tuệ nhân tạo có thể
giải thích (explainable artificial intelligence - XAI) được ra đời.
XAI là một tập hợp các quy trình và phương pháp cho phép người dùng
hiểu và tin tưởng vào kết quả do thuật toán học máy tạo ra. LIME (local
interpretable model-agnostic explanations), SHAP (SHapley Additive
exPlanations) và Grad-CAM (Gradient-weighted Class Activation Mapping -
Ánh xạ kích hoạt lớp theo độ dốc) là các thuật toán XAI được dùng phổ biến.
SHAP (Lundberg & Lee, 2017) sử dụng kiến thức từ lý thuyết trò chơi và
Thống kê để đưa ra mức độ ảnh hưởng của các đặc trưng, còn LIME (Ribeiro
et al., 2016) sẽ đưa ra lời giải thích cục bộ và biểu thị ra những phần nào ảnh
hưởng nhiều nhất đến mô hình, LIME được chứng minh là rất linh hoạt khi
thử nghiệm giải thích các mô hình khác nhau cho văn bản (như thuật toán
Rừng ngẫu nhiên) và phân loại hình ảnh (như các mạng nơ-ron). Grad-CAM
(Selvaraju et al., 2020) thường được dùng trong thị giác máy tính, giúp hình
323