論文の概要: ReFine: Re-randomization before Fine-tuning for Cross-domain Few-shot
Learning
- arxiv url: http://arxiv.org/abs/2205.05282v1
- Date: Wed, 11 May 2022 05:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 19:35:41.085204
- Title: ReFine: Re-randomization before Fine-tuning for Cross-domain Few-shot
Learning
- Title(参考訳): refine: クロスドメインマイニングのための微調整前の再ランダム化
- Authors: Jaehoon Oh, Sungnyun Kim, Namgyu Ho, Jin-Hwa Kim, Hwanjun Song,
Se-Young Yun
- Abstract要約: ソースドメインとターゲットドメインの極端に異なるターゲットサンプルがほとんどないクロスドメインの少数ショット学習は、大きな注目を集めている。
最近の研究は一般的に、人気のあるラベル付きソースドメインデータセット上でニューラルネットワークを事前訓練するトランスファーラーニングベースのアプローチを開発している。
本稿では、ターゲットデータに適応する前に、ソースドメインに適合するパラメータを再ランダム化する、シンプルで強力な手法を提案する。
- 参考スコア(独自算出の注目度): 17.81177649496765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain few-shot learning (CD-FSL), where there are few target samples
under extreme differences between source and target domains, has recently
attracted huge attention. For CD-FSL, recent studies generally have developed
transfer learning based approaches that pre-train a neural network on popular
labeled source domain datasets and then transfer it to target domain data.
Although the labeled datasets may provide suitable initial parameters for the
target data, the domain difference between the source and target might hinder
the fine-tuning on the target domain. This paper proposes a simple yet powerful
method that re-randomizes the parameters fitted on the source domain before
adapting to the target data. The re-randomization resets source-specific
parameters of the source pre-trained model and thus facilitates fine-tuning on
the target domain, improving few-shot performance.
- Abstract(参考訳): ソースドメインとターゲットドメインの極端に異なるターゲットサンプルがほとんどないクロスドメイン少ショットラーニング(CD-FSL)が最近注目されている。
CD-FSLでは、一般的に、一般的なラベル付きソースドメインデータセット上でニューラルネットワークを事前訓練し、ターゲットドメインデータに転送するトランスファーラーニングベースのアプローチが開発されている。
ラベル付きデータセットはターゲットデータに適切な初期パラメータを提供することができるが、ソースとターゲットのドメイン差はターゲットドメインの微調整を妨げる可能性がある。
本稿では,ターゲットデータに適応する前に,ソース領域に適合するパラメータを再分散する簡易かつ強力な手法を提案する。
再ランダム化は、ソース事前訓練されたモデルのソース固有のパラメータをリセットし、ターゲットドメインの微調整を容易にする。
関連論文リスト
- SelectNAdapt: Support Set Selection for Few-Shot Domain Adaptation [16.94384366469512]
列車(ソース)とテスト(ターゲット)ドメインデータ間の分散シフトに遭遇すると、ディープニューラルネットワークの一般化が脆弱になる。
ソースドメイン上で事前トレーニングされたディープニューラルネットワークをターゲットドメインに適応させることで、この問題を緩和するドメイン適応は少ない。
論文 参考訳(メタデータ) (2023-08-09T13:24:55Z) - Adaptive Semantic Consistency for Cross-domain Few-shot Classification [27.176106714652327]
クロスドメイン・ショット分類(CD-FSC)は、いくつかのサンプルを用いて新規なターゲットクラスを特定することを目的としている。
本稿では,ドメイン間の堅牢性を向上する,シンプルなプラグアンドプレイ適応セマンティック一貫性フレームワークを提案する。
提案したASCは、ソースドメインの知識を明示的に伝達することで、モデルがターゲットドメインに過度に適合しないようにする。
論文 参考訳(メタデータ) (2023-08-01T15:37:19Z) - Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Few-shot Image Generation via Adaptation-Aware Kernel Modulation [33.191479192580275]
F SIG(Few-shot Image Generation)は、ドメインから非常に限られた数のサンプルが与えられた場合に、新しく多様なサンプルを生成することを目的としている。
最近の研究は、大規模なソースドメインデータセットで事前訓練されたGANを活用して、トランスファーラーニングアプローチを使用してこの問題に対処している。
本稿では、異なるソース・ターゲット領域近傍の一般F SIGに対処するためのAdaptation-Aware kernel Modulation (AdAM)を提案する。
論文 参考訳(メタデータ) (2022-10-29T10:26:40Z) - Variational Model Perturbation for Source-Free Domain Adaptation [64.98560348412518]
確率的枠組みにおける変分ベイズ推定によるモデルパラメータの摂動を導入する。
本研究では,ベイズニューラルネットワークの学習と理論的関連性を実証し,目的領域に対する摂動モデルの一般化可能性を示す。
論文 参考訳(メタデータ) (2022-10-19T08:41:19Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - On-target Adaptation [82.77980951331854]
ドメイン適応は、Emphtargetドメインでのトレーニングとテストの間のシフトを軽減することを目指している。
ほとんどの適応法は、ソースデータとターゲットデータに対する共同最適化によるソースデータに依存している。
対象データから純粋に表現を学習するオン・ターゲット適応による大幅な改善を示す。
論文 参考訳(メタデータ) (2021-09-02T17:04:18Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。