論文の概要: A Transductive Multi-Head Model for Cross-Domain Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2006.11384v1
- Date: Mon, 8 Jun 2020 02:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:18:24.322667
- Title: A Transductive Multi-Head Model for Cross-Domain Few-Shot Learning
- Title(参考訳): クロスドメインFew-Shot学習のためのトランスダクティブマルチヘッドモデル
- Authors: Jianan Jiang, Zhenpeng Li, Yuhong Guo, Jieping Ye
- Abstract要約: 本稿では,クロスドメインなFew-Shot学習問題に対処するため,TMHFS(Transductive Multi-Head Few-Shot Learning)を提案する。
提案手法は, 4つの異なる対象領域において, 強いベースライン, 微調整を著しく上回っている。
- 参考スコア(独自算出の注目度): 72.30054522048553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a new method, Transductive Multi-Head Few-Shot
learning (TMHFS), to address the Cross-Domain Few-Shot Learning (CD-FSL)
challenge. The TMHFS method extends the Meta-Confidence Transduction (MCT) and
Dense Feature-Matching Networks (DFMN) method [2] by introducing a new
prediction head, i.e, an instance-wise global classification network based on
semantic information, after the common feature embedding network. We train the
embedding network with the multiple heads, i.e,, the MCT loss, the DFMN loss
and the semantic classifier loss, simultaneously in the source domain. For the
few-shot learning in the target domain, we first perform fine-tuning on the
embedding network with only the semantic global classifier and the support
instances, and then use the MCT part to predict labels of the query set with
the fine-tuned embedding network. Moreover, we further exploit data
augmentation techniques during the fine-tuning and test stages to improve the
prediction performance. The experimental results demonstrate that the proposed
methods greatly outperform the strong baseline, fine-tuning, on four different
target domains.
- Abstract(参考訳): 本稿では,CD-FSL(Cross-Domain Few-Shot Learning)の課題に対処するため,Transductive Multi-Head Few-Shot Learning (TMHFS)を提案する。
tmhfs法は、共通特徴埋め込みネットワークの後に、新しい予測ヘッド、すなわち、意味情報に基づくインスタンス単位のグローバル分類ネットワークを導入することにより、メタ信頼変換(mct)および高密度特徴マッチングネットワーク(dfmn)法[2]を拡張する。
我々は、複数のヘッド、すなわちMCT損失、DFMN損失、意味分類器損失で埋め込みネットワークをソースドメイン内で同時にトレーニングする。
対象領域における数ショットの学習では,まずセマンティックグローバル分類器とサポートインスタンスのみを用いて埋め込みネットワーク上で微調整を行い,次にMDT部を用いてクエリセットのラベルを細調整した埋め込みネットワークで予測する。
さらに,微調整およびテスト段階におけるデータ拡張技術を利用して予測性能を向上させる。
実験の結果,提案手法は4つの異なる対象領域において,強いベースライン,微調整を大きく上回ることがわかった。
関連論文リスト
- Cross-head mutual Mean-Teaching for semi-supervised medical image
segmentation [6.738522094694818]
SSMIS(Semi-supervised Medical Image segmentation)は、限られたラベル付きデータと豊富なラベルなしデータを活用することで、大幅な進歩を目撃している。
既存のSOTA(State-of-the-art)手法は、ラベルなしデータのラベルを正確に予測する際の課題に直面する。
強弱データ拡張を組み込んだ新しいクロスヘッド相互学習ネットワーク(CMMT-Net)を提案する。
論文 参考訳(メタデータ) (2023-10-08T09:13:04Z) - Cross-Inferential Networks for Source-free Unsupervised Domain
Adaptation [17.718392065388503]
クロス推論ネットワーク (CIN) と呼ばれる新しい手法を提案する。
主な考え方は、符号化された特徴からサンプルラベルを予測するためにネットワークモデルを適用する際に、これらの予測結果を用いて、派生したラベルを用いた新しいトレーニングサンプルを構築することである。
ベンチマークデータを用いた実験の結果,提案手法により,ソースフリーなUDAの性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-29T14:04:24Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - SB-MTL: Score-based Meta Transfer-Learning for Cross-Domain Few-Shot
Learning [3.6398662687367973]
本稿では,クロスドメインなFew-Shot学習問題に対処する,フレキシブルで効果的な手法を提案する。
本手法は,MAML最適化機能エンコーダとスコアベースグラフニューラルネットワークを用いて,トランスファーラーニングとメタラーニングを組み合わせる。
5,20,50ショット,および4つの対象領域において,精度の大幅な向上が観察された。
論文 参考訳(メタデータ) (2020-12-03T09:29:35Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Transductive Information Maximization For Few-Shot Learning [41.461586994394565]
数ショット学習のためのTIM(Transductive Infomation Maximization)を提案する。
提案手法は,与えられた数発のタスクに対して,クエリ特徴とラベル予測との相互情報を最大化する。
相互情報損失に対する新たな交互方向解法を提案する。
論文 参考訳(メタデータ) (2020-08-25T22:38:41Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。