Hello world!

XAI 3

[eXplainableAI (XAI)] XAI를 위한 유용한 툴들

Explainer Dashboard Regression, Binary Classification, Multiclass에 사용 가능 사용 가능 모델: Catboost, Xgboost, LightGBM, Sklearn Ensemble, Linear models, SVM 각 class에 따른 결과값을 볼 수 있다. Feature importance SHAP Permutation Importances Classification stats Confusion Matrix Precision Plot Classification Plot ROC AUC Plot PR AUC Plot Lift Curve Cumulative Precision Cutoff prediction probability, percentile of s..

[eXplainableAI (XAI)] LIME, Shapely, PDP, Permutation Feature Importance 간략한 설명 및 장단점

LIME Surrogate model ? global surrogate analysis: 학습 데이터(일부 혹은 전체)를 사용해 surrogate 모델을 구축하는 것 local surrogate analysis: 학습 데이터 하나하나를 해석하는 과정 Surrogate 분석이란, 본래 기능을 흉내내는 대체재를 만들어 프로토타입이 동작하는지 판단하는 분석 방법이다. XAI에서도 원본 AI 모델이 너무 복잡하여, 연산적인 제약으로 분석이 불가할 때 유사한 기능을 흉내내는 AI 모델 여러 개를 만들어 분석하는 것을 의미한다. local surrogate model을 구체적으로 구현한 방법이다. 원본 데이터셋은 잊어버리고 왜 모델이 특정한 결과값을 반환했는지 살펴보는 것이다. 전체 데이터를 보는 것 보다는 일부 ..

[eXplainableAI (XAI)] 기초적인 설명 - Complexity: Intrinsic vs Post-hoc / Scope: Global vs Local / Dependency: Model-specific vs Model-agnostic

eXplainableAI 사람이 AI의 동작과 최종결과를 이해하고 올바르게 해석할 수 있고, 결과물이 생성되는 과정을 설명 가능하도록 해주는 기술 eXplainableAI 란 현재 XAI 기술을 분류하는 관점은 3가지가 있음. Complexity 분류: Intrinsic vs Post-hoc Scope 분류: Global vs Local Dependency 분류: Model-specific vs Model-agnostic Complexity 모델의 복잡성은 설명력과 깊은 연관이 있다. 모델이 복잡할수록, 사람이 해석하기가 더 어려워진다. 반대로 모델이 단순할수록 사람이 해석하기에 더 용이하다. 어려운 문제를 해결하기 위해서는 복잡한 구조가 유리하기 때문에 모델의 복잡성과 해석력은 서로 trade-off ..