본문 바로가기

전체 글50

설명가능한 인공지능(XAI) 관련 설명(4) XAI 관련 설명(1) XAI 관련 설명(2) XAI 관련 설명(3) XAI 관련 설명(5) 5. XAI: Opportunities, challenges and future research needs 우리는 이제 수행 된 문헌 검토를 활용하여 ML 및 데이터 융합 모델의 설명 분야에서 여전히 해결해야 할 업적, 동향 및 도전에 대한 비판을 제시합니다. 실제로이 분야에서 지금까지 취한 발전에 대한 우리의 논의는 이미 이러한 과제 중 일부를 예상했습니다. 이 섹션에서 우리는 그들을 다시 방문하고 XAI를위한 새로운 연구 기회를 탐색하여 앞으로 몇 년 안에 효과적으로 해결하기 위해 다음과 같은 연구 경로를 식별합니다. • 섹션 1에서 개요를 도입 할 때 우리는 이미 ML 모델을 더 이해하기 쉽게 만드는 것이 .. 2023. 1. 17.
설명가능한 인공지능(XAI) 관련 설명(3) XAI 관련 설명(1) XAI 관련 설명(2) XAI 관련 설명(4) XAI 관련 설명(5) 4.3. Explainability in deep learning 사후 지역의 설명 및 기능 관련성 기술은 DNN을 설명하기위한 가장 채택 된 방법으로 점점 더 채택 된 방법입니다. 이 섹션에서는 가장 많이 사용되는 DL 모델, 즉 다층 신경 네트워크, CNN (Convolutional Neural Networks) 및 RNN (Reburrent Neural Networks)에 대해 제안 된 설명 연구를 검토합니다. 4.3.1. Multi-layer neural networks 그들의 창립에서 멀티 층 신경망 (다층 퍼셉트론이라고도 함)은 변수들 사이의 복잡한 관계를 유추 할 수있는 큰 능력으로 인해 학계에 의해.. 2023. 1. 16.
설명가능한 인공지능(XAI) 관련 설명(2) XAI 관련 설명(1) XAI 관련 설명(3) XAI 관련 설명(4) XAI 관련 설명(5) 3. Transparent machine learning models 이전 섹션에서는 투명 모델의 개념을 소개했습니다. 모델은 그 자체로 이해할 수있는 경우 투명한 것으로 간주됩니다. 이 섹션에서 조사 된 모델은 이전에 설명한 모델 투명성 수준 (즉, 시뮬레이션 성, 분해 성 및 알고리즘 투명성)의 한 수준에 속할 수있는 투명 모델의 소송입니다. 다음에 우리는이 진술에 대한 이유를 제공하며, 그림 5에 주어진 그래픽 지원이 있습니다. 3.1. Linear/logistic regression 로지스틱 회귀 (LR)는 이분법 (이진) 인 종속 변수 (범주)를 예측하는 분류 모델입니다. 그러나 종속 변수가 연속적 일 .. 2023. 1. 16.
설명가능한 인공지능(XAI) 관련 설명(1) 최근 설명가능한 인공지능에 대한 관심이 크다. 아래 논문은 이를 정리한 논문으로 설명가능한 인공지능이 필요한 이유에서 종류와 특징까지 집대성하여 정리하였다. Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., ... & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115. 페이퍼의 길이가 너무 길어 다섯 번으로 나누어 연재하였다. XAI 관련 설명(2) XA.. 2023. 1. 15.
[ML] SHAP Plots 샘플 Shap 라이브러리에는 SHAP 값을 시각화하는 멋진 도구가 있습니다. 폭포 플롯은 개별 특징 벡터에 대한 SHAP 값을 표시할 수 있습니다. 예를 들어 Boston 데이터 세트에서 XGBoost 모델을 학습하고 X의 한 인스턴스에 대한 폭포 플롯을 표시합니다. d = load_boston() df = pd.DataFrame(d['data'], columns=d['feature_names']) X = df y = pd.Series(d['target'])xgb_model = xgboost.XGBRegressor(random_state=1).fit(X, y)explainer = shap.Explainer(xgb_model, X) explanation_object = explainer(X) shap_value.. 2023. 1. 15.
[ML] SHAP의 수학적 설명 SHAP 값을 논의하기 전에 SHAP와 같은 설명자 모델에 대한 수학적 설명이 필요합니다. f를 설명할 원래 모델로 정의하고 다음과 같이 정의합니다. 따라서 모델은 특징 벡터 x를 취하고 f(x)는 해당 특징 벡터에 대한 모델 예측입니다. 이 특징 벡터는 훈련 데이터 세트(x⁽ʲ⁾)의 인스턴스 중 하나이거나 훈련 데이터 세트에 존재하지 않는 테스트 특징 벡터일 수 있습니다. 이제 기능 벡터의 기능이 있는지 여부를 표시하기 위해 단순화된 입력 기능 세트를 만듭니다. 벡터 x'를 단순화된 특징 벡터라고 합니다. 각 x'ᵢ은 해당 기능 Xᵢ이 기능 벡터에서 관찰되는지(x'ᵢ =1) 또는 알 수 없는지(x'ᵢ = 0)를 나타내는 이진 변수입니다. 예를 들어, 특징 벡터가 x'를 x에 매핑하는 매핑 함수가 있다고.. 2023. 1. 14.