論文の概要: BSED: Baseline Shapley-Based Explainable Detector
- arxiv url: http://arxiv.org/abs/2308.07490v2
- Date: Wed, 31 Jan 2024 03:07:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 17:54:47.440686
- Title: BSED: Baseline Shapley-Based Explainable Detector
- Title(参考訳): BSED: ベースラインシェープ型説明可能な検出器
- Authors: Michihiro Kuroki, Toshihiko Yamasaki
- Abstract要約: ベースラインシェープ型説明可能検出器(BSED)を提案する。
BSEDはShapley値をオブジェクト検出に拡張し、解釈の妥当性を高める。
BSEDの処理コストは妥当範囲内であり、元のShapley値は計算コストが禁じられている。
- 参考スコア(独自算出の注目度): 30.93533517524986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) has witnessed significant advances
in the field of object recognition, with saliency maps being used to highlight
image features relevant to the predictions of learned models. Although these
advances have made AI-based technology more interpretable to humans, several
issues have come to light. Some approaches present explanations irrelevant to
predictions, and cannot guarantee the validity of XAI (axioms). In this study,
we propose the Baseline Shapley-based Explainable Detector (BSED), which
extends the Shapley value to object detection, thereby enhancing the validity
of interpretation. The Shapley value can attribute the prediction of a learned
model to a baseline feature while satisfying the explainability axioms. The
processing cost for the BSED is within the reasonable range, while the original
Shapley value is prohibitively computationally expensive. Furthermore, BSED is
a generalizable method that can be applied to various detectors in a
model-agnostic manner, and interpret various detection targets without
fine-grained parameter tuning. These strengths can enable the practical
applicability of XAI. We present quantitative and qualitative comparisons with
existing methods to demonstrate the superior performance of our method in terms
of explanation validity. Moreover, we present some applications, such as
correcting detection based on explanations from our method.
- Abstract(参考訳): 説明可能な人工知能(xai)は、学習モデルの予測に関連する画像の特徴を強調するためにサリエンシーマップが使用されるなど、オブジェクト認識の分野で大きな進歩を遂げている。
これらの進歩により、AIベースのテクノロジーは人間にとってより解釈可能になったが、いくつかの問題が明らかになった。
いくつかのアプローチは予測とは無関係な説明を示し、xai (axioms) の有効性を保証することができない。
本研究では,shapley値から物体検出まで拡張し,解釈の有効性を高めるためのベースラインであるshapley-based explanationable detector (bsed)を提案する。
Shapley値は、学習したモデルの予測を、説明可能性公理を満足しながらベースライン特徴とみなすことができる。
BSEDの処理コストは妥当範囲内であり、元のShapley値は計算コストが禁じられている。
さらに、BSEDはモデルに依存しない方法で様々な検出器に適用できる一般化可能な手法であり、パラメータの微粒化を伴わずに様々な検出対象を解釈できる。
これらの強みは、XAIの実践的適用を可能にする。
本稿では,既存手法と定量的,定性的な比較を行い,提案手法の優れた性能を説明妥当性の観点から示す。
さらに,本手法の解説に基づいて検出を補正するなど,いくつかの応用を提案する。
関連論文リスト
- Explainability of Machine Learning Models under Missing Data [2.880748930766428]
データ不足は、モデルの性能と解釈可能性を著しく損なうおそれのある問題である。
本稿では, 欠落データ分野の展開を要約し, 種々の計算法がシェープリー値の計算に与える影響について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - XAI-TRIS: Non-linear image benchmarks to quantify false positive
post-hoc attribution of feature importance [1.3958169829527285]
形式的な基盤の欠如は、与えられた XAI 法の結果からどの結論を安全に導き出すことができるのかがはっきりしない。
これは、一般的にディープニューラルネットワークによって解決される非線形問題に挑戦するが、現在は適切な治療法が欠如していることを意味する。
我々は,一般的なXAI手法が,ランダムな性能基準やエッジ検出方法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T11:31:11Z) - Explaining Predictive Uncertainty with Information Theoretic Shapley
Values [6.49838460559032]
我々は、様々な種類の予測の不確実性を説明するために、人気のShapley値フレームワークを適用します。
我々は,実データおよびシミュレーションデータに対して,様々な実験でよく動作する効率的なアルゴリズムを実装した。
論文 参考訳(メタデータ) (2023-06-09T07:43:46Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Scrutinizing XAI using linear ground-truth data with suppressor
variables [0.8602553195689513]
重要度」の指標による入力特徴のランク付け方法
予測対象(圧力変数)と統計的に無関係な特徴を強調できるサリエンシ法が存在することが実証されている。
論文 参考訳(メタデータ) (2021-11-14T23:02:02Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。