論文の概要: Human Attention-Guided Explainable Artificial Intelligence for Computer
Vision Models
- arxiv url: http://arxiv.org/abs/2305.03601v1
- Date: Fri, 5 May 2023 15:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 13:33:13.361310
- Title: Human Attention-Guided Explainable Artificial Intelligence for Computer
Vision Models
- Title(参考訳): 人間の注意誘導型コンピュータビジョンモデルのための説明可能な人工知能
- Authors: Guoyang Liu, Jindi Zhang, Antoni B. Chan, Janet H. Hsiao
- Abstract要約: 我々は,人的注意力の知識を満足度に基づく説明可能なAI(XAI)手法に組み込むことで,その妥当性と忠実性を高めることができるかどうかを検討した。
我々はまず,オブジェクト検出モデルのための勾配に基づく新しいXAI手法を開発し,オブジェクト固有の説明を生成する。
そこで我々は,人間の注意を喚起したXAIを開発し,モデルからの説明情報を最大限に組み合わせて説明の妥当性を高める方法を学んだ。
- 参考スコア(独自算出の注目度): 38.50257023156464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examined whether embedding human attention knowledge into saliency-based
explainable AI (XAI) methods for computer vision models could enhance their
plausibility and faithfulness. We first developed new gradient-based XAI
methods for object detection models to generate object-specific explanations by
extending the current methods for image classification models. Interestingly,
while these gradient-based methods worked well for explaining image
classification models, when being used for explaining object detection models,
the resulting saliency maps generally had lower faithfulness than human
attention maps when performing the same task. We then developed Human
Attention-Guided XAI (HAG-XAI) to learn from human attention how to best
combine explanatory information from the models to enhance explanation
plausibility by using trainable activation functions and smoothing kernels to
maximize XAI saliency map's similarity to human attention maps. While for image
classification models, HAG-XAI enhanced explanation plausibility at the expense
of faithfulness, for object detection models it enhanced plausibility and
faithfulness simultaneously and outperformed existing methods. The learned
functions were model-specific, well generalizable to other databases.
- Abstract(参考訳): コンピュータビジョンモデルに人的注意力の知識を相性に基づく説明可能なAI(XAI)手法に組み込むことで、その妥当性と忠実性を高めることができるかどうかを検討した。
画像分類モデルに対する現在の手法を拡張して、オブジェクト固有の説明を生成するために、オブジェクト検出モデルのための勾配に基づく新しいXAI法を開発した。
興味深いことに、これらの勾配に基づく手法は画像分類モデルを説明するのにうまく機能したが、オブジェクト検出モデルを説明するのに使用される場合、結果として得られるサリエンシマップは、同じタスクを行う場合の人間の注意マップよりも信頼度が低い。
次に,人間注意誘導型xai (hag-xai) を開発し,モデルからの説明情報を最善に組み合わせ,学習可能なアクティベーション関数を用いて説明可能性を高めることにより,xaiサリエンシーマップと人間の注意マップとの類似性を最大化する。
画像分類モデルでは、HAG-XAIは忠実さを犠牲にして説明の妥当性を高め、オブジェクト検出モデルでは信頼性と忠実さを同時に向上し、既存の手法よりも優れていた。
学習された関数はモデル固有であり、他のデータベースによく一般化できる。
関連論文リスト
- Enhancing Counterfactual Image Generation Using Mahalanobis Distance with Distribution Preferences in Feature Space [7.00851481261778]
人工知能(AI)の領域では、説明可能な人工知能(XAI)の重要性がますます認識されている。
1つの注目すべきシングルインスタンスXAIアプローチは、モデルの決定を理解するのに役立つ、反ファクトな説明である。
本稿では,ブラックボックスモデルの特徴空間における特徴量の重要性を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:26:53Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explainable GeoAI: Can saliency maps help interpret artificial
intelligence's learning process? An empirical study on natural feature
detection [4.52308938611108]
本稿では,GeoAIと深層学習モデルの推論行動の解釈において,一般的なサリエンシマップ生成手法とその長所と短所を比較した。
実験では、2つのGeoAI対応データセットを使用して、研究結果の一般化性を実証した。
論文 参考訳(メタデータ) (2023-03-16T21:37:29Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers [3.8541104292281805]
説明可能なAI(XAI)の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を探索できる。
大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊からのジェットの解釈可能性について検討する。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
論文 参考訳(メタデータ) (2022-10-09T23:02:42Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Towards Visually Explaining Similarity Models [29.704524987493766]
本稿では,画像類似度予測のための勾配に基づく視覚的注意を生成する手法を提案する。
学習した機能の埋め込みにのみ依存することにより、我々のアプローチがCNNベースの類似性アーキテクチャのあらゆる種類に適用可能であることを示す。
得られたアテンションマップは、単に解釈可能性だけでなく、新たなトレーニング可能な制約でモデル学習プロセス自体に注入可能であることを示す。
論文 参考訳(メタデータ) (2020-08-13T17:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。