論文の概要: Overview of Class Activation Maps for Visualization Explainability
- arxiv url: http://arxiv.org/abs/2309.14304v1
- Date: Mon, 25 Sep 2023 17:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 14:28:48.615439
- Title: Overview of Class Activation Maps for Visualization Explainability
- Title(参考訳): 視覚的説明可能性のためのクラス活性化マップの概要
- Authors: Anh Pham Thi Minh
- Abstract要約: クラスアクティベーションマップ(CAM)は、ディープラーニングモデルの意思決定プロセスにおける解釈可能性と洞察を高める。
本研究は,クラスアクティベーションマップの時間的進化の包括的概要を示す。
また、CAMの評価に使用されるメトリクスについても検討し、これらの手法の健全性を改善する補助的手法を導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research in deep learning methodology has led to a variety of complex
modelling techniques in computer vision (CV) that reach or even outperform
human performance. Although these black-box deep learning models have obtained
astounding results, they are limited in their interpretability and transparency
which are critical to take learning machines to the next step to include them
in sensitive decision-support systems involving human supervision. Hence, the
development of explainable techniques for computer vision (XCV) has recently
attracted increasing attention. In the realm of XCV, Class Activation Maps
(CAMs) have become widely recognized and utilized for enhancing
interpretability and insights into the decision-making process of deep learning
models. This work presents a comprehensive overview of the evolution of Class
Activation Map methods over time. It also explores the metrics used for
evaluating CAMs and introduces auxiliary techniques to improve the saliency of
these methods. The overview concludes by proposing potential avenues for future
research in this evolving field.
- Abstract(参考訳): 近年のディープラーニング手法の研究により、コンピュータビジョン(CV)における様々な複雑なモデリング技術が人間のパフォーマンスに到達または上回る結果となった。
これらのブラックボックス深層学習モデルは驚くべき結果を得たが、その解釈可能性と透明性は限られており、人間の監督を含む繊細な意思決定支援システムに学習マシンを組み込むのに必須である。
コンピュータビジョンのための説明可能な技術(XCV)の開発が近年注目されている。
XCVの領域では、クラスアクティベーションマップ(CAM)が広く認識され、深層学習モデルの意思決定プロセスにおける解釈可能性と洞察を高めるために利用されてきた。
本稿では,クラスアクティベーションマップメソッドの進化を時間とともに総合的に概観する。
また、カムの評価に使用されるメトリクスを探索し、これらの方法の塩分を改善するために補助技術を導入する。
概観は、この発展途上の分野における将来の研究への潜在的な道を提案することで締めくくられる。
関連論文リスト
- Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Attribution-based XAI Methods in Computer Vision: A Review [5.076419064097734]
コンピュータビジョンにおける属性に基づくXAI手法の総合的な調査を行う。
我々は、XAIの勾配に基づく、摂動に基づく、および対照的な手法に関する既存の文献をレビューする。
論文 参考訳(メタデータ) (2022-11-27T05:56:36Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。