論文の概要: Evaluating the performance of the LIME and Grad-CAM explanation methods
on a LEGO multi-label image classification task
- arxiv url: http://arxiv.org/abs/2008.01584v1
- Date: Tue, 4 Aug 2020 14:27:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:41:30.690935
- Title: Evaluating the performance of the LIME and Grad-CAM explanation methods
on a LEGO multi-label image classification task
- Title(参考訳): LEGO多ラベル画像分類タスクにおけるLIMEおよびGrad-CAM説明手法の性能評価
- Authors: David Cian, Jan van Gemert, Attila Lengyel
- Abstract要約: LIMEとGrad-CAMという2つの説明手法を、LEGOブロックで画像にラベル付けするように訓練された畳み込みニューラルネットワーク上で実行します。
本稿では,ネットワークのコア性能の向上と,システムのユーザに対する信頼度という2つの基準で評価する。
- 参考スコア(独自算出の注目度): 10.590129221143222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we run two methods of explanation, namely LIME and Grad-CAM,
on a convolutional neural network trained to label images with the LEGO bricks
that are visible in them. We evaluate them on two criteria, the improvement of
the network's core performance and the trust they are able to generate for
users of the system. We find that in general, Grad-CAM seems to outperform LIME
on this specific task: it yields more detailed insight from the point of view
of core performance and 80\% of respondents asked to choose between them when
it comes to the trust they inspire in the model choose Grad-CAM. However, we
also posit that it is more useful to employ these two methods together, as the
insights they yield are complementary.
- Abstract(参考訳): 本稿では,LIMEとGrad-CAMという2つの説明手法を,LEGOブロックで画像にラベルを付けるように訓練された畳み込みニューラルネットワーク上で実行した。
ネットワークのコア性能の向上と,システムのユーザに対して生成可能な信頼度という2つの基準で評価した。
Grad-CAMはコアパフォーマンスの観点からより詳細な洞察を得ることができ、回答者の80%がモデルでインスピレーションを受けた信頼について、どちらを選ぶかを尋ねています。
しかし,これらの知見が相補的であるため,これら2つの手法を併用することがより有用であることを示す。
関連論文リスト
- Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Importance Sampling CAMs for Weakly-Supervised Segmentation [16.86352815414646]
クラスアクティベーションマップ(CAM)は、クラスアクティベーションマップ(CAM)を用いて、画像内のオブジェクトのローカライズとセグメント化に使用できる。
本研究では,CAM学習の改善に2つの貢献によって両問題にアプローチする。
PASCAL VOC 2012ベンチマークデータセットを用いて,これらの修正によって輪郭精度が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-03-23T14:54:29Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Learning Gaussian Graphical Models with Latent Confounders [74.72998362041088]
我々は、グラフィカルモデルにおける推論のための2つの戦略を、潜伏した共同創設者と比較し、対比する。
これら2つのアプローチは、類似した目標を持っているが、それらは共起に関する異なる仮定によって動機付けられている。
これら2つのアプローチの強みを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T00:53:03Z) - MetaDistiller: Network Self-Boosting via Meta-Learned Top-Down
Distillation [153.56211546576978]
本研究では,ラベル生成器を用いて高い適合性を有するソフトターゲットを生成することを提案する。
このラベルジェネレータを最適化するためにメタ学習技術を用いることができる。
実験は CIFAR-100 と ILSVRC2012 の2つの標準分類ベンチマークで実施された。
論文 参考訳(メタデータ) (2020-08-27T13:04:27Z) - Adapting Grad-CAM for Embedding Networks [35.72501942570962]
組込みネットワークに対するGrad-CAM法の適応性を提案する。
まず、Grad-CAMの安定性を向上させるために、複数のトレーニング例からグラデートウェイトを集約する。
そこで我々は,バックプロパゲーションを伴わない任意の画像に対する決定を効率的に説明するための重み移動法を開発した。
論文 参考訳(メタデータ) (2020-01-17T21:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。