論文の概要: Robust Domain Adaptation: Representations, Weights and Inductive Bias
- arxiv url: http://arxiv.org/abs/2006.13629v1
- Date: Wed, 24 Jun 2020 11:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:23:51.668391
- Title: Robust Domain Adaptation: Representations, Weights and Inductive Bias
- Title(参考訳): ロバストなドメイン適応:表現、重み、帰納バイアス
- Authors: Victor Bouvier, Philippe Very, Cl\'ement Chastagnol, Myriam Tami,
C\'eline Hudelot
- Abstract要約: 教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、過去10年間に多くの注目を集めてきた。
ドメイン不変表現(Domain Invariant Representations, IR)の出現は、ラベル付きソースドメインから新規で遅延のないターゲットドメインへの表現の転送可能性を大幅に改善した。
重みと不変表現の両方を組み込んだ対象リスクの境界を示す。
- 参考スコア(独自算出の注目度): 6.334765412132315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised Domain Adaptation (UDA) has attracted a lot of attention in the
last ten years. The emergence of Domain Invariant Representations (IR) has
improved drastically the transferability of representations from a labelled
source domain to a new and unlabelled target domain. However, a potential
pitfall of this approach, namely the presence of \textit{label shift}, has been
brought to light. Some works address this issue with a relaxed version of
domain invariance obtained by weighting samples, a strategy often referred to
as Importance Sampling. From our point of view, the theoretical aspects of how
Importance Sampling and Invariant Representations interact in UDA have not been
studied in depth. In the present work, we present a bound of the target risk
which incorporates both weights and invariant representations. Our theoretical
analysis highlights the role of inductive bias in aligning distributions across
domains. We illustrate it on standard benchmarks by proposing a new learning
procedure for UDA. We observed empirically that weak inductive bias makes
adaptation more robust. The elaboration of stronger inductive bias is a
promising direction for new UDA algorithms.
- Abstract(参考訳): 教師なしドメイン適応(UDA)は、過去10年間に多くの注目を集めてきた。
ドメイン不変表現(Domain Invariant Representations, IR)の出現は、ラベル付きソースドメインから新規で遅延のないターゲットドメインへの表現の転送可能性を大幅に改善した。
しかし、このアプローチの潜在的な落とし穴、すなわち \textit{label shift} の存在が明らかになってきた。
いくつかの研究は、サンプルの重み付けによって得られる領域不変性の緩やかなバージョンでこの問題に対処している。
我々の見解では、UDAにおける重要サンプリングと不変表現の相互作用に関する理論的側面は深く研究されていない。
本稿では,重みと不変表現の両方を組み込んだ対象リスクの有界性を示す。
理論解析では,領域間の分布の整合における帰納的バイアスの役割を強調する。
UDAの新しい学習手順を提案することで、標準ベンチマークでそれを説明する。
弱い帰納バイアスが適応性をより強固にすることを実証的に観察した。
より強い帰納バイアスの解明は、新しいUDAアルゴリズムにとって有望な方向である。
関連論文リスト
- Unsupervised Domain Adaptation Based on the Predictive Uncertainty of
Models [1.6498361958317636]
非教師付きドメイン適応(UDA)は、ソースドメインからの分散シフトの下で、ターゲットドメインの予測性能を改善することを目的としている。
ドメインの発散を最小限に抑えるドメイン不変の特徴を学習する新しいUDA法を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:23:32Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Mapping conditional distributions for domain adaptation under
generalized target shift [0.0]
我々は、条件シフトとラベルシフト(GeTarS)の下でのソースとターゲットドメイン間の教師なしドメイン適応(UDA)の問題を考える。
最近のアプローチでは、ドメイン不変表現を学習するが、実際的な制限があり、実際には成り立たない強い仮定に依存している。
本稿では,既存の欠点を回避した,事前訓練された表現の整合化のための,新規で汎用的なアプローチについて検討する。
論文 参考訳(メタデータ) (2021-10-26T14:25:07Z) - Instrumental Variable-Driven Domain Generalization with Unobserved
Confounders [53.735614014067394]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから、目に見えないターゲットドメインをうまく一般化できるモデルを学ぶことを目的としている。
観測不能な共同創設者のバイアスを2段階学習で除去し,インストゥルメンタル変数駆動型DG法(IV-DG)を提案する。
第1段階では、あるドメインの入力特徴の条件分布を他のドメインの入力特徴の条件分布として学習する。
第2段階では,ラベルと学習条件分布の関係を推定する。
論文 参考訳(メタデータ) (2021-10-04T13:32:57Z) - Regressive Domain Adaptation for Unsupervised Keypoint Detection [67.2950306888855]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的とする。
本稿では,教師なしキーポイント検出のためのレグレッシブドメイン適応(RegDA)法を提案する。
提案手法は,異なるデータセット上のPCKにおいて,8%から11%の大幅な改善をもたらす。
論文 参考訳(メタデータ) (2021-03-10T16:45:22Z) - Stochastic Adversarial Gradient Embedding for Active Domain Adaptation [4.514832807541817]
Unlabelled Domain Adaptation (UDA)は、ラベル付きデータが利用可能なソースドメインと、教師なしデータでのみ表現されるターゲットドメインの間のギャップを埋めることを目的としている。
本稿では、アクティブラーニングを用いて目標データの小さな予算をアノテートすることでこの問題に対処する。
ADAに3つの貢献をするフレームワークであるtextitStochastic Adversarial Gradient Embedding (SAGE)を紹介した。
論文 参考訳(メタデータ) (2020-12-03T11:28:32Z) - Heuristic Domain Adaptation [105.59792285047536]
Heuristic Domain Adaptation Network (HDAN)は、ドメイン不変およびドメイン固有表現を明示的に学習する。
Heuristic Domain Adaptation Network (HDAN)は、教師なしDA、マルチソースDA、半教師なしDAの最先端を超越している。
論文 参考訳(メタデータ) (2020-11-30T04:21:35Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。