論文の概要: SB-MTL: Score-based Meta Transfer-Learning for Cross-Domain Few-Shot
Learning
- arxiv url: http://arxiv.org/abs/2012.01784v1
- Date: Thu, 3 Dec 2020 09:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:15:28.117398
- Title: SB-MTL: Score-based Meta Transfer-Learning for Cross-Domain Few-Shot
Learning
- Title(参考訳): sb-mtl:クロスドメイン・マイズショット学習のためのスコアベースメタトランスファー学習
- Authors: John Cai, Bill Cai, Sheng Mei Shen
- Abstract要約: 本稿では,クロスドメインなFew-Shot学習問題に対処する,フレキシブルで効果的な手法を提案する。
本手法は,MAML最適化機能エンコーダとスコアベースグラフニューラルネットワークを用いて,トランスファーラーニングとメタラーニングを組み合わせる。
5,20,50ショット,および4つの対象領域において,精度の大幅な向上が観察された。
- 参考スコア(独自算出の注目度): 3.6398662687367973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While many deep learning methods have seen significant success in tackling
the problem of domain adaptation and few-shot learning separately, far fewer
methods are able to jointly tackle both problems in Cross-Domain Few-Shot
Learning (CD-FSL). This problem is exacerbated under sharp domain shifts that
typify common computer vision applications. In this paper, we present a novel,
flexible and effective method to address the CD-FSL problem. Our method, called
Score-based Meta Transfer-Learning (SB-MTL), combines transfer-learning and
meta-learning by using a MAML-optimized feature encoder and a score-based Graph
Neural Network. First, we have a feature encoder with specific layers designed
to be fine-tuned. To do so, we apply a first-order MAML algorithm to find good
initializations. Second, instead of directly taking the classification scores
after fine-tuning, we interpret the scores as coordinates by mapping the
pre-softmax classification scores onto a metric space. Subsequently, we apply a
Graph Neural Network to propagate label information from the support set to the
query set in our score-based metric space. We test our model on the Broader
Study of Cross-Domain Few-Shot Learning (BSCD-FSL) benchmark, which includes a
range of target domains with highly varying dissimilarity to the miniImagenet
source domain. We observe significant improvements in accuracy across 5, 20 and
50 shot, and on the four target domains. In terms of average accuracy, our
model outperforms previous transfer-learning methods by 5.93% and previous
meta-learning methods by 14.28%.
- Abstract(参考訳): 多くのディープラーニング手法は、ドメイン適応と少数ショット学習の問題を個別に扱う上で大きな成功を収めてきたが、クロスドメインなFew-Shot Learning(CD-FSL)において、両方の問題に共同で取り組むことのできる方法は、はるかに少ない。
この問題は、一般的なコンピュータビジョンアプリケーションを典型化する鋭い領域シフトの下で悪化する。
本稿では,CD-FSL問題に対処する新しい,フレキシブルで効果的な手法を提案する。
我々の手法はScore-based Meta Transfer-Learning (SB-MTL) と呼ばれ、MAML最適化機能エンコーダとスコアベースグラフニューラルネットワークを用いてトランスファーラーニングとメタラーニングを組み合わせる。
まず、特定のレイヤを微調整するように設計された機能エンコーダがあります。
そこで我々は, 1次MAMLアルゴリズムを適用し, 優れた初期化を求める。
第二に、微調整後に直接分類スコアを取る代わりに、事前ソフトマックス分類スコアを計量空間にマッピングすることで、スコアを座標として解釈する。
その後、グラフニューラルネットワークを用いて、サポートセットからスコアベースのメトリック空間のクエリセットにラベル情報を伝達する。
我々は,miniimagenetソースドメインと非常に異なる異なるターゲットドメインを含む,クロスドメイン・マイズショット・ラーニング(bscd-fsl)ベンチマークの広範な研究に基づいて本モデルをテストする。
5,20,50ショット,および4つのターゲットドメインにおいて,精度の大幅な向上が観察された。
平均精度では,従来の移動学習手法を5.93%,従来のメタ学習手法を14.28%上回った。
関連論文リスト
- EMPL: A novel Efficient Meta Prompt Learning Framework for Few-shot Unsupervised Domain Adaptation [22.586094394391747]
本稿では,FS-UDAのためのメタプロンプト学習フレームワークを提案する。
このフレームワークでは、事前訓練されたCLIPモデルを機能学習ベースモデルとして使用しています。
5-way 1-shotでは少なくとも15.4%,5-way 5-shotでは8.7%の大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-07-04T17:13:06Z) - Cross-Level Distillation and Feature Denoising for Cross-Domain Few-Shot
Classification [49.36348058247138]
トレーニング段階において,対象領域内のラベルなし画像のごく一部をアクセス可能にすることで,ドメイン間数ショット分類の問題に対処する。
我々は,対象データセットのより識別的な特徴を抽出するモデルの能力を高めるため,クロスレベルな知識蒸留法を慎重に設計する。
提案手法は,従来の動的蒸留法を5.44%,1.37%,5ショット分類法を1.37%超えることができる。
論文 参考訳(メタデータ) (2023-11-04T12:28:04Z) - Cross-Domain Cross-Set Few-Shot Learning via Learning Compact and
Aligned Representations [74.90423071048458]
ほんの少しのサポートサンプルだけで、新しいクエリを認識できるようにすることを目的としている。
我々は、FSLにおけるドメインシフトの問題を検討し、サポートセットとクエリセットの間のドメインギャップに対処することを目的とする。
原型的コンパクト・クロスドメイン整列表現を学習するための新しいアプローチ,すなわちstabPAを提案する。
論文 参考訳(メタデータ) (2022-07-16T03:40:38Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Dynamic Distillation Network for Cross-Domain Few-Shot Recognition with
Unlabeled Data [21.348965677980104]
未ラベルのターゲットデータを用いたドメイン間数ショット認識の問題に対処する。
STARTUPは自己学習を用いてこの問題に対処する最初の方法である。
本稿では, 新規/ベースデータセットからのラベルなし画像を容易にするための, 簡易な動的蒸留に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-14T23:44:34Z) - DAMSL: Domain Agnostic Meta Score-based Learning [3.6398662687367973]
ドメインに依存しないメタスコアベースの学習は、クロスドメインの少数ショット学習のための、新しく、多目的で、非常に効果的なソリューションである。
我々は,従来のメタ学習手法がソースドメインに過度に適合する点と,サポートセットの構造を応用した過去のトランスファー学習手法の問題点を同定する。
提案手法は,従来のメタラーニングとトランスファーラーニングの限界を克服し,より小さな領域シフトと大規模な領域シフトの双方で精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-06-06T06:08:05Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - A Transductive Multi-Head Model for Cross-Domain Few-Shot Learning [72.30054522048553]
本稿では,クロスドメインなFew-Shot学習問題に対処するため,TMHFS(Transductive Multi-Head Few-Shot Learning)を提案する。
提案手法は, 4つの異なる対象領域において, 強いベースライン, 微調整を著しく上回っている。
論文 参考訳(メタデータ) (2020-06-08T02:39:59Z) - Cross-Domain Few-Shot Learning with Meta Fine-Tuning [8.062394790518297]
我々はCVPR 2020 Challengeで提案された新しいクロスドメインFew-Shot Learningベンチマークに取り組む。
ドメイン適応および数ショット学習における最先端の手法に基づいて、両方のタスクを実行するためにトレーニング可能なシステムを構築する。
論文 参考訳(メタデータ) (2020-05-21T09:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。