論文の概要: SCOUTER: Slot Attention-based Classifier for Explainable Image
Recognition
- arxiv url: http://arxiv.org/abs/2009.06138v4
- Date: Fri, 20 Aug 2021 07:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:26:37.154325
- Title: SCOUTER: Slot Attention-based Classifier for Explainable Image
Recognition
- Title(参考訳): SCOUTER:説明可能な画像認識のためのスロット注意に基づく分類器
- Authors: Liangzhi Li, Bowen Wang, Manisha Verma, Yuta Nakashima, Ryo Kawasaki,
Hajime Nagahara
- Abstract要約: 透明かつ正確な分類のためのスロットアテンションに基づく SCOUTER という分類器を提案する。
SCOUTERの説明は各カテゴリの最終的な信頼性に関係しており、より直感的な解釈を提供する。
SCOUTERに最適化された新たな損失を設計し,モデル動作を制御することにより,肯定的な説明と否定的な説明を切り替える。
- 参考スコア(独自算出の注目度): 27.867833878756553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence has been gaining attention in the past
few years. However, most existing methods are based on gradients or
intermediate features, which are not directly involved in the decision-making
process of the classifier. In this paper, we propose a slot attention-based
classifier called SCOUTER for transparent yet accurate classification. Two
major differences from other attention-based methods include: (a) SCOUTER's
explanation is involved in the final confidence for each category, offering
more intuitive interpretation, and (b) all the categories have their
corresponding positive or negative explanation, which tells "why the image is
of a certain category" or "why the image is not of a certain category." We
design a new loss tailored for SCOUTER that controls the model's behavior to
switch between positive and negative explanations, as well as the size of
explanatory regions. Experimental results show that SCOUTER can give better
visual explanations in terms of various metrics while keeping good accuracy on
small and medium-sized datasets.
- Abstract(参考訳): 説明可能な人工知能はここ数年注目を集めている。
しかし、既存の手法のほとんどは勾配や中間的特徴に基づいており、分類器の意思決定プロセスに直接は関与していない。
本稿では,透過的かつ正確な分類のためのスロットアテンションベース分類器SCOUTERを提案する。
他の注意に基づく方法との主な違いは次のとおりである。
(a)SCOUTERの説明は各カテゴリーの最終的な信頼に関係しており、より直感的な解釈を提供し、
b)全てのカテゴリは、対応する正または負の説明を持ち、「なぜ像があるカテゴリであるか」または「なぜ像があるカテゴリではないのか」を意味する。
SCOUTERに最適化された新たな損失を設計し、モデルが肯定的かつ否定的な説明と説明的領域のサイズを切り替える動作を制御する。
実験結果から,SCOUTERは,小・中規模のデータセットに対して精度を保ちながら,様々な指標でより良い視覚的説明を行うことができることがわかった。
関連論文リスト
- Explainable Image Recognition via Enhanced Slot-attention Based Classifier [28.259040737540797]
本稿では,修正スロットアテンション機構に基づく視覚的に説明可能な分類器であるESCOUTERを紹介する。
ESCOUTERは、高い分類精度を提供するだけでなく、意思決定の背後にある理由についてより透明な洞察を提供することによって、自分自身を区別している。
ESCOUTER専用の新しい損失関数は、モデルの振舞いを微調整し、肯定的な説明と否定的な説明の切り替えを可能にするように設計されている。
論文 参考訳(メタデータ) (2024-07-08T05:05:43Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot
Learning [85.2093650907943]
機械に新しいカテゴリーを認識させるためのセマンティックガイド注意(SEGA)を提案する。
SEGAは意味的知識を使用して、視覚的特徴に注意を払うべきものについて、トップダウンの方法で視覚的知覚を導く。
セマンティックガイドによる注意は期待された機能を実現し、最先端の結果より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T08:03:44Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。