論文の概要: Attribution-based XAI Methods in Computer Vision: A Review
- arxiv url: http://arxiv.org/abs/2211.14736v1
- Date: Sun, 27 Nov 2022 05:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:30:17.764249
- Title: Attribution-based XAI Methods in Computer Vision: A Review
- Title(参考訳): コンピュータビジョンにおける属性に基づくXAI手法
- Authors: Kumar Abhishek, Deeksha Kamath
- Abstract要約: コンピュータビジョンにおける属性に基づくXAI手法の総合的な調査を行う。
我々は、XAIの勾配に基づく、摂動に基づく、および対照的な手法に関する既存の文献をレビューする。
- 参考スコア(独自算出の注目度): 5.076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancements in deep learning-based methods for visual perception tasks
have seen astounding growth in the last decade, with widespread adoption in a
plethora of application areas from autonomous driving to clinical decision
support systems. Despite their impressive performance, these deep
learning-based models remain fairly opaque in their decision-making process,
making their deployment in human-critical tasks a risky endeavor. This in turn
makes understanding the decisions made by these models crucial for their
reliable deployment. Explainable AI (XAI) methods attempt to address this by
offering explanations for such black-box deep learning methods. In this paper,
we provide a comprehensive survey of attribution-based XAI methods in computer
vision and review the existing literature for gradient-based,
perturbation-based, and contrastive methods for XAI, and provide insights on
the key challenges in developing and evaluating robust XAI methods.
- Abstract(参考訳): 視覚認知タスクのためのディープラーニングベースの手法の進歩は、自動運転から臨床意思決定支援システムまで、多くの応用分野で広く採用され、この10年で驚くべき成長を遂げている。
優れたパフォーマンスにもかかわらず、これらのディープラーニングベースのモデルは意思決定プロセスにおいてかなり不透明であり、人間クリティカルなタスクへの展開を危険にさらしている。
これにより、信頼性の高いデプロイメントに不可欠なこれらのモデルによる決定を理解することができます。
説明可能なai(xai)メソッドは、このようなブラックボックスディープラーニングメソッドの説明を提供することで、この問題に対処しようとする。
本稿では,コンピュータビジョンにおける帰属型xai手法の包括的調査を行い,xaiの勾配型,摂動型,コントラスト型に関する既存の文献を概観し,ロバストxai手法の開発と評価における重要な課題について考察する。
関連論文リスト
- Evolutionary Computation and Explainable AI: A Roadmap to Transparent Intelligent Systems [37.02462866600066]
本稿では、説明可能な人工知能(XAI)の紹介と、機械学習(ML)モデルの説明に現在使われている様々な技術についてレビューする。
次に、ECがXAIでどのように使用できるかに注目し、ECテクニックを取り入れたXAIアプローチについてレビューする。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - OpenHEXAI: An Open-Source Framework for Human-Centered Evaluation of Explainable Machine Learning [43.87507227859493]
本稿では,XAI 手法を人間中心で評価するオープンソースフレームワーク OpenHEXAI について述べる。
OpenHEAXIは、XAIメソッドの人間中心ベンチマークを促進するための、最初の大規模なインフラ構築である。
論文 参考訳(メタデータ) (2024-02-20T22:17:59Z) - Toward enriched Cognitive Learning with XAI [44.99833362998488]
本稿では,人工知能(AI)ツールによる認知学習のためのインテリジェントシステム(CL-XAI)を提案する。
CL-XAIの使用は、学習者が問題解決スキルを高めるために問題に取り組むゲームインスパイアされた仮想ユースケースで説明される。
論文 参考訳(メタデータ) (2023-12-19T16:13:47Z) - Overview of Class Activation Maps for Visualization Explainability [0.0]
クラスアクティベーションマップ(CAM)は、ディープラーニングモデルの意思決定プロセスにおける解釈可能性と洞察を高める。
本研究は,クラスアクティベーションマップの時間的進化の包括的概要を示す。
また、CAMの評価に使用されるメトリクスについても検討し、これらの手法の健全性を改善する補助的手法を導入している。
論文 参考訳(メタデータ) (2023-09-25T17:20:51Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。