論文の概要: ReFine: Re-randomization before Fine-tuning for Cross-domain Few-shot
Learning
- arxiv url: http://arxiv.org/abs/2205.05282v1
- Date: Wed, 11 May 2022 05:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 19:35:41.085204
- Title: ReFine: Re-randomization before Fine-tuning for Cross-domain Few-shot
Learning
- Title(参考訳): refine: クロスドメインマイニングのための微調整前の再ランダム化
- Authors: Jaehoon Oh, Sungnyun Kim, Namgyu Ho, Jin-Hwa Kim, Hwanjun Song,
Se-Young Yun
- Abstract要約: ソースドメインとターゲットドメインの極端に異なるターゲットサンプルがほとんどないクロスドメインの少数ショット学習は、大きな注目を集めている。
最近の研究は一般的に、人気のあるラベル付きソースドメインデータセット上でニューラルネットワークを事前訓練するトランスファーラーニングベースのアプローチを開発している。
本稿では、ターゲットデータに適応する前に、ソースドメインに適合するパラメータを再ランダム化する、シンプルで強力な手法を提案する。
- 参考スコア(独自算出の注目度): 17.81177649496765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain few-shot learning (CD-FSL), where there are few target samples
under extreme differences between source and target domains, has recently
attracted huge attention. For CD-FSL, recent studies generally have developed
transfer learning based approaches that pre-train a neural network on popular
labeled source domain datasets and then transfer it to target domain data.
Although the labeled datasets may provide suitable initial parameters for the
target data, the domain difference between the source and target might hinder
the fine-tuning on the target domain. This paper proposes a simple yet powerful
method that re-randomizes the parameters fitted on the source domain before
adapting to the target data. The re-randomization resets source-specific
parameters of the source pre-trained model and thus facilitates fine-tuning on
the target domain, improving few-shot performance.
- Abstract(参考訳): ソースドメインとターゲットドメインの極端に異なるターゲットサンプルがほとんどないクロスドメイン少ショットラーニング(CD-FSL)が最近注目されている。
CD-FSLでは、一般的に、一般的なラベル付きソースドメインデータセット上でニューラルネットワークを事前訓練し、ターゲットドメインデータに転送するトランスファーラーニングベースのアプローチが開発されている。
ラベル付きデータセットはターゲットデータに適切な初期パラメータを提供することができるが、ソースとターゲットのドメイン差はターゲットドメインの微調整を妨げる可能性がある。
本稿では,ターゲットデータに適応する前に,ソース領域に適合するパラメータを再分散する簡易かつ強力な手法を提案する。
再ランダム化は、ソース事前訓練されたモデルのソース固有のパラメータをリセットし、ターゲットドメインの微調整を容易にする。
関連論文リスト
- Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
現実のシナリオでは、ラベル付きソースデータは、プライバシ規制、データ送信の制約、あるいはプロプライエタリなデータ関心事によって制限されることが多い。
本研究では、ソースデータなしで対象領域にソース学習対象検出器を適用するための新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - On-target Adaptation [82.77980951331854]
ドメイン適応は、Emphtargetドメインでのトレーニングとテストの間のシフトを軽減することを目指している。
ほとんどの適応法は、ソースデータとターゲットデータに対する共同最適化によるソースデータに依存している。
対象データから純粋に表現を学習するオン・ターゲット適応による大幅な改善を示す。
論文 参考訳(メタデータ) (2021-09-02T17:04:18Z) - Give Me Your Trained Model: Domain Adaptive Semantic Segmentation
without Source Data [63.60200857555127]
対象ドメインにトレーニングされたソースモデルのみを提供するクロスドメインセマンティックセマンティックセマンティクスタスクを提案する。
具体的には、DAS$3$は3つのスキーム、すなわち特徴アライメント、自己学習、情報伝達から構成される。
ドメイン間および都市間駆動データセットの大規模な結果により、ソースデータへのアクセスを必要とするメソッドと同等のDAS$3$が検証される。
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Few-shot Image Generation with Elastic Weight Consolidation [53.556446614013105]
少ないショット画像生成は、利用可能なトレーニング例がほとんどなく、与えられたドメインのより多くのデータを生成することを目指している。
対象ドメインのいくつかの例に、追加のパラメータを導入することなく、事前訓練されたモデルを適用する。
我々は,異なる対象領域の高品質な結果を生成することにより,アルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-04T18:57:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。