論文の概要: Region Comparison Network for Interpretable Few-shot Image
Classification
- arxiv url: http://arxiv.org/abs/2009.03558v1
- Date: Tue, 8 Sep 2020 07:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:38:15.992895
- Title: Region Comparison Network for Interpretable Few-shot Image
Classification
- Title(参考訳): 解釈可能な少数ショット画像分類のための領域比較ネットワーク
- Authors: Zhiyu Xue, Lixin Duan, Wen Li, Lin Chen and Jiebo Luo
- Abstract要約: 新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
- 参考スコア(独自算出の注目度): 97.97902360117368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning has been successfully applied to many real-world computer
vision tasks, training robust classifiers usually requires a large amount of
well-labeled data. However, the annotation is often expensive and
time-consuming. Few-shot image classification has thus been proposed to
effectively use only a limited number of labeled examples to train models for
new classes. Recent works based on transferable metric learning methods have
achieved promising classification performance through learning the similarity
between the features of samples from the query and support sets. However, rare
of them explicitly considers the model interpretability, which can actually be
revealed during the training phase.
For that, in this work, we propose a metric learning based method named
Region Comparison Network (RCN), which is able to reveal how few-shot learning
works as in a neural network as well as to find out specific regions that are
related to each other in images coming from the query and support sets.
Moreover, we also present a visualization strategy named Region Activation
Mapping (RAM) to intuitively explain what our method has learned by visualizing
intermediate variables in our network. We also present a new way to generalize
the interpretability from the level of tasks to categories, which can also be
viewed as a method to find the prototypical parts for supporting the final
decision of our RCN. Extensive experiments on four benchmark datasets clearly
show the effectiveness of our method over existing baselines.
- Abstract(参考訳): ディープラーニングは多くの現実世界のコンピュータビジョンタスクにうまく適用されているが、堅牢な分類器のトレーニングは通常、大量のラベル付きデータを必要とする。
しかし、アノテーションはしばしば高価で時間がかかります。
これにより、ラベル付きサンプルの限られた数だけを有効活用して、新しいクラスのモデルを訓練するための画像分類が提案されている。
転送可能なメトリック学習法に基づく最近の研究は,クエリとサポートセットからのサンプルの特徴の類似性を学習することで,有望な分類性能を実現している。
しかし、これらの多くは、トレーニングフェーズ中に実際に明らかにできるモデル解釈可能性を明確に考慮している。
そこで本研究では,ニューラルネットワークと同様に,ショット学習がいかに少ないかを明らかにするとともに,クエリやサポートセットから得られる画像において,相互に関連のある特定の領域を探索することのできる,領域比較ネットワーク(rcn)と呼ばれるメトリック学習手法を提案する。
さらに,ネットワーク内の中間変数を可視化することによって,我々の手法が何を学んだのかを直感的に説明するための領域活性化マッピング (RAM) も提案する。
また、タスクのレベルからカテゴリまで、解釈可能性を一般化する新しい方法を提案し、rcnの最終決定を支持するための原型的な部分を見つける方法も見いだせる。
4つのベンチマークデータセットの大規模な実験により,既存のベースラインに対する提案手法の有効性が明らかとなった。
関連論文リスト
- Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Interpretable Time-series Classification on Few-shot Samples [27.05851877375113]
本稿では,少数の時系列分類のための解釈可能なニューラルネットワーク,すなわちtextitDual Prototypeal Shapelet Networks (DPSN)を提案する。
DPSNは, 二つの粒度からモデルを解釈する: 1) 代表時系列サンプルを用いた大域的概要, 2) 識別型シェープレットを用いた局所的ハイライト。
我々は、公開ベンチマークデータセットから18個のショットTSCデータセットを抽出し、ベースラインとの比較により提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-03T03:47:14Z) - Weakly-supervised Object Localization for Few-shot Learning and
Fine-grained Few-shot Learning [0.5156484100374058]
少数のサンプルから新しい視覚カテゴリーを学習することを目的としている。
本稿では,自己認識型補完モジュール(SACモジュール)を提案する。
また,数発の分類のために,識別的深層記述子を選択するためのアクティブマスクも生成する。
論文 参考訳(メタデータ) (2020-03-02T14:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。