본문 바로가기

분류 전체보기49

설명가능한 인공지능(XAI) 관련 설명(3) XAI 관련 설명(1) XAI 관련 설명(2) XAI 관련 설명(4) XAI 관련 설명(5) 4.3. Explainability in deep learning 사후 지역의 설명 및 기능 관련성 기술은 DNN을 설명하기위한 가장 채택 된 방법으로 점점 더 채택 된 방법입니다. 이 섹션에서는 가장 많이 사용되는 DL 모델, 즉 다층 신경 네트워크, CNN (Convolutional Neural Networks) 및 RNN (Reburrent Neural Networks)에 대해 제안 된 설명 연구를 검토합니다. 4.3.1. Multi-layer neural networks 그들의 창립에서 멀티 층 신경망 (다층 퍼셉트론이라고도 함)은 변수들 사이의 복잡한 관계를 유추 할 수있는 큰 능력으로 인해 학계에 의해.. 2023. 1. 16.
설명가능한 인공지능(XAI) 관련 설명(2) XAI 관련 설명(1) XAI 관련 설명(3) XAI 관련 설명(4) XAI 관련 설명(5) 3. Transparent machine learning models 이전 섹션에서는 투명 모델의 개념을 소개했습니다. 모델은 그 자체로 이해할 수있는 경우 투명한 것으로 간주됩니다. 이 섹션에서 조사 된 모델은 이전에 설명한 모델 투명성 수준 (즉, 시뮬레이션 성, 분해 성 및 알고리즘 투명성)의 한 수준에 속할 수있는 투명 모델의 소송입니다. 다음에 우리는이 진술에 대한 이유를 제공하며, 그림 5에 주어진 그래픽 지원이 있습니다. 3.1. Linear/logistic regression 로지스틱 회귀 (LR)는 이분법 (이진) 인 종속 변수 (범주)를 예측하는 분류 모델입니다. 그러나 종속 변수가 연속적 일 .. 2023. 1. 16.
설명가능한 인공지능(XAI) 관련 설명(1) 최근 설명가능한 인공지능에 대한 관심이 크다. 아래 논문은 이를 정리한 논문으로 설명가능한 인공지능이 필요한 이유에서 종류와 특징까지 집대성하여 정리하였다. Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., ... & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115. 페이퍼의 길이가 너무 길어 다섯 번으로 나누어 연재하였다. XAI 관련 설명(2) XA.. 2023. 1. 15.
[ML] SHAP Plots 샘플 Shap 라이브러리에는 SHAP 값을 시각화하는 멋진 도구가 있습니다. 폭포 플롯은 개별 특징 벡터에 대한 SHAP 값을 표시할 수 있습니다. 예를 들어 Boston 데이터 세트에서 XGBoost 모델을 학습하고 X의 한 인스턴스에 대한 폭포 플롯을 표시합니다. d = load_boston() df = pd.DataFrame(d['data'], columns=d['feature_names']) X = df y = pd.Series(d['target'])xgb_model = xgboost.XGBRegressor(random_state=1).fit(X, y)explainer = shap.Explainer(xgb_model, X) explanation_object = explainer(X) shap_value.. 2023. 1. 15.
[ML] SHAP의 수학적 설명 SHAP 값을 논의하기 전에 SHAP와 같은 설명자 모델에 대한 수학적 설명이 필요합니다. f를 설명할 원래 모델로 정의하고 다음과 같이 정의합니다. 따라서 모델은 특징 벡터 x를 취하고 f(x)는 해당 특징 벡터에 대한 모델 예측입니다. 이 특징 벡터는 훈련 데이터 세트(x⁽ʲ⁾)의 인스턴스 중 하나이거나 훈련 데이터 세트에 존재하지 않는 테스트 특징 벡터일 수 있습니다. 이제 기능 벡터의 기능이 있는지 여부를 표시하기 위해 단순화된 입력 기능 세트를 만듭니다. 벡터 x'를 단순화된 특징 벡터라고 합니다. 각 x'ᵢ은 해당 기능 Xᵢ이 기능 벡터에서 관찰되는지(x'ᵢ =1) 또는 알 수 없는지(x'ᵢ = 0)를 나타내는 이진 변수입니다. 예를 들어, 특징 벡터가 x'를 x에 매핑하는 매핑 함수가 있다고.. 2023. 1. 14.
[ML] Shapley Value의 머신러닝 적용 플레이어의 Shapley 값을 기계 학습 모델의 기능과 어떻게 연관시킬 수 있습니까? 그림 5와 같이 N개의 행과 M개의 기능이 있는 데이터 세트가 있다고 가정합니다. 여기서 Xᵢ는 데이터 세트의 i번째 특징이고 xᵢ⁽ʲ⁾는 j번째 예에서 i번째 특징의 값이며 y⁽ʲ⁾는 j번째 행의 대상입니다. 기능 값은 M 요소가 있는 행 벡터로 표시되는 기능 벡터를 형성할 수 있습니다. 여기에 X₁=x₁, X₂=x₂, ... X_M=x_M이 있습니다(선형 대수학에서 벡터는 일반적으로 열 벡터로 간주되지만 이 문서에서는 행 벡터라고 가정합니다). 특징 벡터는 데이터 세트의 j번째 행이 될 수도 있습니다. 이 경우 다음과 같이 작성할 수 있습니다. 또는 데이터 세트에 없는 테스트 데이터 포인트일 수 있습니다(이 문서에서.. 2023. 1. 13.