論文の概要: Sanity Checks for Saliency Methods Explaining Object Detectors
- arxiv url: http://arxiv.org/abs/2306.02424v1
- Date: Sun, 4 Jun 2023 17:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:59:05.343858
- Title: Sanity Checks for Saliency Methods Explaining Object Detectors
- Title(参考訳): 物体検出器を記述した衛生手法の正当性チェック
- Authors: Deepan Chakravarthi Padmanabhan, Paul G. Pl\"oger, Octavio Arriaga,
Matias Valdenegro-Toro
- Abstract要約: ディープニューラルネットワークベースのモデルを説明するために、サリエンシ法が頻繁に使用される。
対象物検出のための正当性チェックを行い,正当性説明を評価するための新しい質的基準を定義した。
EfficientDet-D0はSaliency法とは無関係に最も解釈可能な手法である。
- 参考スコア(独自算出の注目度): 5.735035463793008
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Saliency methods are frequently used to explain Deep Neural Network-based
models. Adebayo et al.'s work on evaluating saliency methods for classification
models illustrate certain explanation methods fail the model and data
randomization tests. However, on extending the tests for various state of the
art object detectors we illustrate that the ability to explain a model is more
dependent on the model itself than the explanation method. We perform sanity
checks for object detection and define new qualitative criteria to evaluate the
saliency explanations, both for object classification and bounding box
decisions, using Guided Backpropagation, Integrated Gradients, and their
Smoothgrad versions, together with Faster R-CNN, SSD, and EfficientDet-D0,
trained on COCO. In addition, the sensitivity of the explanation method to
model parameters and data labels varies class-wise motivating to perform the
sanity checks for each class. We find that EfficientDet-D0 is the most
interpretable method independent of the saliency method, which passes the
sanity checks with little problems.
- Abstract(参考訳): 塩分法はしばしばディープニューラルネットワークベースのモデルを説明するために用いられる。
adebayoらによる分類モデルの給与評価に関する研究は、ある説明方法がモデルとデータランダム化テストに失敗することを示している。
しかし, 対象物検出装置の様々な状態に対するテストの拡張において, モデルの説明能力は, 説明法よりもモデル自体に依存していることを示す。
我々は、オブジェクト検出のための正当性チェックを行い、COCOで訓練された高速R-CNN、SSD、EfficientDet-D0とともに、ガイドバックプロパゲーション、統合グラディエントおよびそれらのスムースグレートバージョンを用いて、オブジェクト分類とバウンディングボックス決定の両方について、サラリティ説明を評価するための新しい定性基準を定義する。
さらに, モデルパラメータやデータラベルに対する説明法の感度は, クラスごとの健全性チェックを行うために, クラスごとに異なる。
EfficientDet-D0はサリエンシ法とは無関係に最も解釈可能な手法であり, 健全性チェックをほとんど問題なく通過する。
関連論文リスト
- DISCO: DISCovering Overfittings as Causal Rules for Text Classification Models [6.369258625916601]
ポストホックの解釈可能性法は、モデルの意思決定プロセスを完全に捉えるのに失敗する。
本稿では,グローバルなルールベースの説明を見つけるための新しい手法であるdisCOを紹介する。
DISCOは対話的な説明をサポートし、人間の検査者がルールベースの出力で突発的な原因を区別できるようにする。
論文 参考訳(メタデータ) (2024-11-07T12:12:44Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Evaluating the overall sensitivity of saliency-based explanation methods [1.8655840060559168]
我々は「ブラックボックス」ディープラーニングモデルの忠実な説明を作成する必要性に対処する。
モデル非依存の既存のテストを選択し、形式的なスレッシュオールドと構築基準を指定して拡張する。
感度と忠実度の関係を議論し、他の領域における異なる説明方法を評価するためにテストをどのように適用できるかを検討する。
論文 参考訳(メタデータ) (2023-06-21T21:57:58Z) - Zero-shot Model Diagnosis [80.36063332820568]
ディープラーニングモデルを評価するための一般的なアプローチは、興味のある属性を持つラベル付きテストセットを構築し、そのパフォーマンスを評価することである。
本稿では,ゼロショットモデル診断(ZOOM)がテストセットやラベル付けを必要とせずに可能であることを論じる。
論文 参考訳(メタデータ) (2023-03-27T17:59:33Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Debugging Tests for Model Explanations [18.073554618753395]
テストされたメソッドは、急激なバックグラウンドバグを診断することができるが、誤ってラベル付けされたトレーニング例を決定的に識別することはできない。
被験者は属性を用いて欠陥モデルを特定するのに失敗するが、主にモデル予測に頼っている。
論文 参考訳(メタデータ) (2020-11-10T22:23:25Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。