論文の概要: Metric-Learning-Assisted Domain Adaptation
- arxiv url: http://arxiv.org/abs/2004.10963v3
- Date: Thu, 11 Jun 2020 09:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:21:33.374124
- Title: Metric-Learning-Assisted Domain Adaptation
- Title(参考訳): メトリック学習支援ドメイン適応
- Authors: Yueming Yin, Zhen Yang, Haifeng Hu and Xiaofu Wu
- Abstract要約: 多くの既存ドメインアライメント手法は、ソースとターゲットの分布のアライメントとともに、低いソースリスクが低いターゲットリスクを意味すると仮定している。
本稿では,特徴整合性向上を支援するために,新しい三重項損失を用いたメタラーニング支援ドメイン適応法(MLA-DA)を提案する。
- 参考スコア(独自算出の注目度): 18.62119154143642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain alignment (DA) has been widely used in unsupervised domain adaptation.
Many existing DA methods assume that a low source risk, together with the
alignment of distributions of source and target, means a low target risk. In
this paper, we show that this does not always hold. We thus propose a novel
metric-learning-assisted domain adaptation (MLA-DA) method, which employs a
novel triplet loss for helping better feature alignment. We explore the
relationship between the second largest probability of a target sample's
prediction and its distance to the decision boundary. Based on the
relationship, we propose a novel mechanism to adaptively adjust the margin in
the triplet loss according to target predictions. Experimental results show
that the use of proposed triplet loss can achieve clearly better results. We
also demonstrate the performance improvement of MLA-DA on all four standard
benchmarks compared with the state-of-the-art unsupervised domain adaptation
methods. Furthermore, MLA-DA shows stable performance in robust experiments.
- Abstract(参考訳): ドメインアライメント(da)は教師なしドメイン適応において広く使われている。
既存のDA手法の多くは、ソースとターゲットの分布のアライメントとともに、低いソースリスクが低いターゲットリスクを意味すると仮定している。
本稿では,これが常に成り立つとは限らないことを示す。
そこで本稿では,特徴整合性向上を支援するために,新しい三重項損失を用いたメタラーニング支援ドメイン適応(MLA-DA)手法を提案する。
対象サンプルの予測の2番目に大きい確率と決定境界までの距離の関係について検討する。
この関係に基づいて,目標予測に従って三重項損失のマージンを適応的に調整する新しいメカニズムを提案する。
実験結果から,提案した三重項損失を用いることで明らかに良好な結果が得られた。
また、4つの標準ベンチマークにおけるMLA-DAの性能改善を、最先端の教師なしドメイン適応法と比較した。
さらに、MLA-DAはロバストな実験において安定した性能を示す。
関連論文リスト
- Align, Minimize and Diversify: A Source-Free Unsupervised Domain Adaptation Method for Handwritten Text Recognition [11.080302144256164]
Align, Minimize and Diversify (AMD) は、手書き文字認識(HTR)のための非教師なし領域適応手法である。
本手法は,3つの異なる正規化項を組み込むことで,適応中のソースデータの再検討の必要性を明確に排除する。
いくつかのベンチマークによる実験の結果、AMDの有効性とロバスト性を示し、HTRにおけるDA法よりも競争力があり、しばしば優れていた。
論文 参考訳(メタデータ) (2024-04-28T17:50:58Z) - Adversarial Reweighting with $α$-Power Maximization for Domain Adaptation [56.859005008344276]
我々は、$alpha$-Power Maximization (ARPM) を用いたAdversarial Reweightingと呼ばれる新しいアプローチを提案する。
本稿では,ソースプライマリなクラスサンプルを特定するために,逆向きにソースドメインデータを再重み付けすることを学習する,新しい逆方向再重み付けモデルを提案する。
提案手法は最近のPDA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-26T09:29:55Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - Unsupervised Domain Adaptation Based on the Predictive Uncertainty of
Models [1.6498361958317636]
非教師付きドメイン適応(UDA)は、ソースドメインからの分散シフトの下で、ターゲットドメインの予測性能を改善することを目的としている。
ドメインの発散を最小限に抑えるドメイン不変の特徴を学習する新しいUDA法を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:23:32Z) - Distributionally Robust Domain Adaptation [12.02023514105999]
ドメイン適応(DA: Domain Adaptation)は、ソースドメインとターゲットドメインをまたいだ学習モデルに適合する可能性から、最近大きな注目を集めている。
本稿では,分散ロバストな領域適応手法DRDAを提案する。
論文 参考訳(メタデータ) (2022-10-30T17:29:22Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。