論文の概要: Domain-Specific Risk Minimization
- arxiv url: http://arxiv.org/abs/2208.08661v1
- Date: Thu, 18 Aug 2022 06:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:03:30.829619
- Title: Domain-Specific Risk Minimization
- Title(参考訳): ドメイン特化リスク最小化
- Authors: Yi-Fan Zhang, Hanlin Zhang, Jindong Wang, Zhang Zhang, Baosheng Yu,
Liang Wang, Dacheng Tao, Xing Xie
- Abstract要約: 不変表現は、ラベル付け関数のシフトを考慮した良い一般化を保証するのに十分でないかもしれないことを示す。
本稿では、異なるドメインの分散シフトを個別にモデル化し、ターゲットドメインに対して最も適切なドメインを選択することができる、ドメイン固有のリスク最小化(DRM)を提案する。
- 参考スコア(独自算出の注目度): 86.30541488970307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning a domain-invariant representation has become one of the most popular
approaches for domain adaptation/generalization. In this paper, we show that
the invariant representation may not be sufficient to guarantee a good
generalization, where the labeling function shift should be taken into
consideration. Inspired by this, we first derive a new generalization upper
bound on the empirical risk that explicitly considers the labeling function
shift. We then propose Domain-specific Risk Minimization (DRM), which can model
the distribution shifts of different domains separately and select the most
appropriate one for the target domain. Extensive experiments on four popular
domain generalization datasets, CMNIST, PACS, VLCS, and DomainNet, demonstrate
the effectiveness of the proposed DRM for domain generalization with the
following advantages: 1) it significantly outperforms competitive baselines; 2)
it enables either comparable or superior accuracies on all training domains
comparing to vanilla empirical risk minimization (ERM); 3) it remains very
simple and efficient during training, and 4) it is complementary to invariant
learning approaches.
- Abstract(参考訳): ドメイン不変表現の学習は、ドメイン適応/一般化の最も一般的なアプローチの1つである。
本稿では,この不変表現は,ラベル付け関数のシフトを考慮した優れた一般化を保証するには不十分であることを示す。
これはまず,ラベル付け関数のシフトを明示的に考慮した経験的リスクに基づく新しい一般化上限を導出する。
次に,異なる領域の分布シフトを別々にモデル化し,対象領域に対して最も適切な領域を選択するドメイン固有リスク最小化(drm)を提案する。
CMNIST、PACS、VLCS、DomainNetの4つの一般的なドメイン一般化データセットに関する大規模な実験は、提案されたDRMの有効性を以下の利点で示す。
1) 競争基準を大きく上回っている。
2)バニラ経験的リスク最小化(erm)と比較して,すべてのトレーニング領域において,同等かそれ以上の確率を許容する。
3)訓練中はとてもシンプルで効率が良いままで、
4)不変学習アプローチを補完する。
関連論文リスト
- Domain Agnostic Conditional Invariant Predictions for Domain Generalization [20.964740750976667]
本稿では,識別リスク最小化(DRM)理論とそれに対応するアルゴリズムを提案する。
DRM理論では、ソース領域全体とそのサブセット間の予測分布の相違が、不変な特徴の獲得に寄与することを証明する。
我々は,複数の実世界のデータセット上での領域一般化手法に対するアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2024-06-09T02:38:52Z) - Unsupervised Domain Adaptation Based on the Predictive Uncertainty of
Models [1.6498361958317636]
非教師付きドメイン適応(UDA)は、ソースドメインからの分散シフトの下で、ターゲットドメインの予測性能を改善することを目的としている。
ドメインの発散を最小限に抑えるドメイン不変の特徴を学習する新しいUDA法を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:23:32Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Distributionally Robust Domain Adaptation [12.02023514105999]
ドメイン適応(DA: Domain Adaptation)は、ソースドメインとターゲットドメインをまたいだ学習モデルに適合する可能性から、最近大きな注目を集めている。
本稿では,分散ロバストな領域適応手法DRDAを提案する。
論文 参考訳(メタデータ) (2022-10-30T17:29:22Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Regressive Domain Adaptation for Unsupervised Keypoint Detection [67.2950306888855]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的とする。
本稿では,教師なしキーポイント検出のためのレグレッシブドメイン適応(RegDA)法を提案する。
提案手法は,異なるデータセット上のPCKにおいて,8%から11%の大幅な改善をもたらす。
論文 参考訳(メタデータ) (2021-03-10T16:45:22Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。