論文の概要: Explanation-Guided Training for Cross-Domain Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2007.08790v2
- Date: Wed, 9 Dec 2020 09:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:21:30.738667
- Title: Explanation-Guided Training for Cross-Domain Few-Shot Classification
- Title(参考訳): クロスドメインFew-Shot分類のための説明誘導訓練
- Authors: Jiamei Sun, Sebastian Lapuschkin, Wojciech Samek, Yunqing Zhao,
Ngai-Man Cheung, Alexander Binder
- Abstract要約: クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
- 参考スコア(独自算出の注目度): 96.12873073444091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain few-shot classification task (CD-FSC) combines few-shot
classification with the requirement to generalize across domains represented by
datasets. This setup faces challenges originating from the limited labeled data
in each class and, additionally, from the domain shift between training and
test sets. In this paper, we introduce a novel training approach for existing
FSC models. It leverages on the explanation scores, obtained from existing
explanation methods when applied to the predictions of FSC models, computed for
intermediate feature maps of the models. Firstly, we tailor the layer-wise
relevance propagation (LRP) method to explain the predictions of FSC models.
Secondly, we develop a model-agnostic explanation-guided training strategy that
dynamically finds and emphasizes the features which are important for the
predictions. Our contribution does not target a novel explanation method but
lies in a novel application of explanations for the training phase. We show
that explanation-guided training effectively improves the model generalization.
We observe improved accuracy for three different FSC models: RelationNet, cross
attention network, and a graph neural network-based formulation, on five
few-shot learning datasets: miniImagenet, CUB, Cars, Places, and Plantae. The
source code is available at https://github.com/SunJiamei/few-shot-lrp-guided
- Abstract(参考訳): cross-domain few-shot classification task (cd-fsc)は、データセットで表現されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせる。
このセットアップは、各クラスに制限されたラベル付きデータから始まり、さらにトレーニングとテストセット間のドメインシフトから生じる課題に直面します。
本稿では,既存のFSCモデルに対する新しいトレーニング手法を提案する。
FSCモデルの予測に適用した場合に既存の説明手法から得られる説明スコアを利用して、モデルの中間特徴写像を計算する。
まず、FSCモデルの予測を説明するために、レイヤワイド関連伝搬法(LRP)を調整する。
第2に,予測に重要な特徴を動的に発見・強調するモデルに依存しない説明誘導型トレーニング戦略を開発する。
本研究の貢献は,新しい説明手法を対象とせず,新たな説明の訓練段階への応用にある。
説明指導訓練がモデルの一般化を効果的に改善することを示す。
3種類のfscモデル(relationnet、cross attention network、graph neural network-based formula)の精度向上を、miniimagenet、cub、cars、places、plantaeの5つのマイナショット学習データセットで観察した。
ソースコードはhttps://github.com/SunJiamei/few-shot-lrp-guidedで入手できる。
関連論文リスト
- High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Harnessing the Power of Explanations for Incremental Training: A
LIME-Based Approach [6.244905619201076]
この研究では、モデル説明がフィードフォワードトレーニングにフィードバックされ、モデルをより一般化するのに役立つ。
このフレームワークは、シーケンシャルなテストセットのパフォーマンスを維持するために、Elastic Weight Consolidation (EWC)によるカスタム重み付き損失を取り入れている。
提案したカスタムトレーニング手順は、インクリメンタルラーニングセットアップのすべてのフェーズにおいて、0.5%から1.5%までの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2022-11-02T18:16:17Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Interpretable Time-series Classification on Few-shot Samples [27.05851877375113]
本稿では,少数の時系列分類のための解釈可能なニューラルネットワーク,すなわちtextitDual Prototypeal Shapelet Networks (DPSN)を提案する。
DPSNは, 二つの粒度からモデルを解釈する: 1) 代表時系列サンプルを用いた大域的概要, 2) 識別型シェープレットを用いた局所的ハイライト。
我々は、公開ベンチマークデータセットから18個のショットTSCデータセットを抽出し、ベースラインとの比較により提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-03T03:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。