Page 337 - SDMD CNKT va CNTT trong tien trinh CNH_HDH DBSCL
P. 337

các tình trạng nguy hiểm và tối ưu hóa tốt hơn việc điều trị bệnh tiểu đường.
          Giải pháp của các tác giả được so sánh bằng thực nghiệm với hai phương
          pháp tiếp cận là mạng nơ-ron truyền thẳng (feed forward neural network -
          FNN) và RNN. Bộ dữ liệu được dùng để đánh giá hiệu suất các mô hình là
          OhioT1DM (Marling & Bunescu, 2018), bộ dữ liệu này bao gồm mức đường
          huyết được lấy mẫu bằng một hệ thống cảm biến sau mỗi 5 phút, trong khoảng
          hai tháng. Dữ liệu xem xét sáu bệnh nhân tiểu đường loại I (2 nam, 4 nữ) từ
          40 đến 60 tuổi. Dữ liệu được chia theo tỷ lệ 80:20, tuy nhiên, sau khi kiểm tra
          sơ bộ, các tác giả nhận thấy tập dữ liệu có những khoảng giá trị trống do trục
          trặc tạm thời hoặc các hoạt động bảo trì của cảm biến. Để đảm bảo tính chính
          xác của mô hình dự đoán, dữ liệu được tiền xử lý bằng cách nội suy và lấy
          mẫu lại một cách tuyến tính. Kết quả thử nghiệm cho thấy giải pháp được đề
          xuất đạt hiệu quả tốt về cả suy luận mức glucose ngắn hạn và dài hạn (60
          phút), vượt qua các phương pháp khác cả về mối tương quan giữa tín hiệu
          glucose đo được và dự đoán cũng như về kết quả lâm sàng.
               16.2.5  Các nhóm thuật toán giải thích kết quả

               Sự phổ biến của các hệ thống ra quyết định dựa trên học máy cũng dẫn
          đến nhiều sự hoài nghi về độ tin cậy của nó, người ta sẽ đặt ra nhiều nghi vấn
          rằng tại sao nó lại cho ra kết quả dự đoán này mà không phải dự đoán khác,
          làm thế nào để nó đưa ra quyết định như thế. Đúng là việc ép buộc con người
          phải tin vào quyết định của một cái máy mà không dựa trên cơ sở nào là rất
          khó chấp nhận. Để các hệ thống này trở nên thân thiện và đáng tin cậy hơn,
          các quyết định của mô hình học máy mà nó sử dụng cần được giải thích rõ
          ràng hơn. Điều đó đã thúc đẩy một lĩnh vực mới gọi là Trí tuệ nhân tạo có thể
          giải thích (explainable artificial intelligence - XAI) được ra đời.

               XAI là một tập hợp các quy trình và phương pháp cho phép người dùng
          hiểu và tin tưởng vào kết quả do thuật toán học máy tạo ra. LIME (local
          interpretable  model-agnostic  explanations),  SHAP  (SHapley  Additive
          exPlanations) và Grad-CAM (Gradient-weighted Class Activation Mapping -
          Ánh xạ kích hoạt lớp theo độ dốc) là các thuật toán XAI được dùng phổ biến.
          SHAP (Lundberg & Lee, 2017) sử dụng kiến thức từ lý thuyết trò chơi và
          Thống kê để đưa ra mức độ ảnh hưởng của các đặc trưng, còn LIME (Ribeiro
          et al., 2016) sẽ đưa ra lời giải thích cục bộ và biểu thị ra những phần nào ảnh
          hưởng nhiều nhất đến mô hình, LIME được chứng minh là rất linh hoạt khi
          thử nghiệm giải thích các mô hình khác nhau cho văn bản (như thuật toán
          Rừng ngẫu nhiên) và phân loại hình ảnh (như các mạng nơ-ron). Grad-CAM
          (Selvaraju et al., 2020) thường được dùng trong thị giác máy tính, giúp hình

                                                                                323
   332   333   334   335   336   337   338   339   340   341   342