論文の概要: Stochastic Adversarial Gradient Embedding for Active Domain Adaptation
- arxiv url: http://arxiv.org/abs/2012.01843v1
- Date: Thu, 3 Dec 2020 11:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 22:33:21.676590
- Title: Stochastic Adversarial Gradient Embedding for Active Domain Adaptation
- Title(参考訳): アクティブドメイン適応のための確率的逆勾配埋め込み
- Authors: Victor Bouvier, Philippe Very, Cl\'ement Chastagnol, Myriam Tami,
C\'eline Hudelot
- Abstract要約: Unlabelled Domain Adaptation (UDA)は、ラベル付きデータが利用可能なソースドメインと、教師なしデータでのみ表現されるターゲットドメインの間のギャップを埋めることを目的としている。
本稿では、アクティブラーニングを用いて目標データの小さな予算をアノテートすることでこの問題に対処する。
ADAに3つの貢献をするフレームワークであるtextitStochastic Adversarial Gradient Embedding (SAGE)を紹介した。
- 参考スコア(独自算出の注目度): 4.514832807541817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to bridge the gap between a source
domain, where labelled data are available, and a target domain only represented
with unlabelled data. If domain invariant representations have dramatically
improved the adaptability of models, to guarantee their good transferability
remains a challenging problem. This paper addresses this problem by using
active learning to annotate a small budget of target data. Although this setup,
called Active Domain Adaptation (ADA), deviates from UDA's standard setup, a
wide range of practical applications are faced with this situation. To this
purpose, we introduce \textit{Stochastic Adversarial Gradient Embedding}
(SAGE), a framework that makes a triple contribution to ADA. First, we select
for annotation target samples that are likely to improve the representations'
transferability by measuring the variation, before and after annotation, of the
transferability loss gradient. Second, we increase sampling diversity by
promoting different gradient directions. Third, we introduce a novel training
procedure for actively incorporating target samples when learning invariant
representations. SAGE is based on solid theoretical ground and validated on
various UDA benchmarks against several baselines. Our empirical investigation
demonstrates that SAGE takes the best of uncertainty \textit{vs} diversity
samplings and improves representations transferability substantially.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用可能なソースドメインと、非ラベル付きデータでのみ表現されるターゲットドメインの間のギャップを埋めることを目的としている。
ドメイン不変表現がモデルの適応性を劇的に改善したならば、それらの優れた転送可能性を保証することは難しい問題である。
本稿では、アクティブラーニングを用いて目標データの小さな予算をアノテートすることでこの問題に対処する。
この設定は、ADA(Active Domain Adaptation)と呼ばれ、UDAの標準設定から逸脱するが、この状況には幅広い実用的な応用が直面している。
この目的のために、ADAに3つの貢献をするフレームワークであるtextit{Stochastic Adversarial Gradient Embedding} (SAGE)を紹介します。
まず, 伝達性損失勾配の変動前後の変動を計測することにより, 表現の伝達性が向上する可能性のあるアノテーション対象サンプルを選択した。
第2に、異なる勾配方向を推し進めることでサンプリングの多様性を高める。
第3に、不変表現を学習する際にターゲットサンプルを積極的に取り入れる新しい訓練手順を導入する。
SAGEは固体理論に基づいており、いくつかのベースラインに対して様々なUDAベンチマークで検証されている。
我々は,SAGEが不確実な<textit{vs} 多様性サンプリングを最大限に活用し,表現の伝達性を大幅に向上することを示す。
関連論文リスト
- Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Overcoming Negative Transfer by Online Selection: Distant Domain Adaptation for Fault Diagnosis [42.85741244467877]
遠距離領域適応問題」という用語は、ラベル付きソースドメインからラベル付き未ラベルのターゲットドメインへの適応の難しさを記述している。
この問題は、ソースドメインからの外部知識がターゲットドメインのパフォーマンスに悪影響を及ぼす、負の転送のリスクを示す。
この課題に対応するために、我々は、新しいオンライン選択適応(OSAA)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:17:47Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - Diffusion-based Target Sampler for Unsupervised Domain Adaptation [5.025971841729201]
大きなドメインシフトと対象ドメインのサンプル不足により、既存のUDAメソッドは最適以下のパフォーマンスを実現する。
そこで我々はDTS(Diffusion-based Target Sampler)を提案する。
生成されたサンプルは、ターゲットドメインのデータ分布を十分にシミュレートすることができ、既存のUDAメソッドがソースドメインからターゲットドメインへの転送をより容易にするのに役立つ。
論文 参考訳(メタデータ) (2023-03-17T02:07:43Z) - ADAS: A Simple Active-and-Adaptive Baseline for Cross-Domain 3D Semantic
Segmentation [38.66509154973051]
本研究では,よく訓練された3次元セグメンテーションモデルの弱いクロスドメイン一般化能力を高めるために,アクティブ・アンド・アダプティブ(ADAS)ベースラインを提案する。
ADASは、有効適応のために、ソースドメインとターゲットドメインの両方から最大不変サブセットを選択するアクティブサンプリング操作を実行する。
1) 対象ドメインからのすべてのサンプルがラベル付けされていないことを意味するUnsupervised Domain Adaptation (UDA)、2) Unsupervised Few-shot Domain Adaptation (UFDA)、つまり、ラベル付けされていないサンプルがラベル付けされていないターゲットドメインでのみ利用可能であることを意味する。
論文 参考訳(メタデータ) (2022-12-20T16:17:40Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。