論文の概要: Respecting Domain Relations: Hypothesis Invariance for Domain
Generalization
- arxiv url: http://arxiv.org/abs/2010.07591v1
- Date: Thu, 15 Oct 2020 08:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:24:41.492153
- Title: Respecting Domain Relations: Hypothesis Invariance for Domain
Generalization
- Title(参考訳): ドメイン関係の考察:ドメイン一般化のための仮説不変性
- Authors: Ziqi Wang, Marco Loog, Jan van Gemert
- Abstract要約: ドメインの一般化では、トレーニング中に複数のラベル付き非独立および非独立に分散されたソースドメインが利用可能である。
現在、いわゆるドメイン不変表現(DIR)を学ぶことは、ドメインの一般化に対する一般的なアプローチである。
- 参考スコア(独自算出の注目度): 30.14312814723027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In domain generalization, multiple labeled non-independent and
non-identically distributed source domains are available during training while
neither the data nor the labels of target domains are. Currently, learning
so-called domain invariant representations (DIRs) is the prevalent approach to
domain generalization. In this work, we define DIRs employed by existing works
in probabilistic terms and show that by learning DIRs, overly strict
requirements are imposed concerning the invariance. Particularly, DIRs aim to
perfectly align representations of different domains, i.e. their input
distributions. This is, however, not necessary for good generalization to a
target domain and may even dispose of valuable classification information. We
propose to learn so-called hypothesis invariant representations (HIRs), which
relax the invariance assumptions by merely aligning posteriors, instead of
aligning representations. We report experimental results on public domain
generalization datasets to show that learning HIRs is more effective than
learning DIRs. In fact, our approach can even compete with approaches using
prior knowledge about domains.
- Abstract(参考訳): ドメインの一般化では、トレーニング中に複数のラベル付き非独立および非識別的分散ソースドメインが利用可能であり、データも対象ドメインのラベルも利用可能ではない。
現在、いわゆるドメイン不変表現(dirs)の学習は、ドメイン一般化への一般的なアプローチである。
本研究では,既存の作品が採用するディルを確率論的に定義し,ディルを学習することで,不変性に関して過度に厳格な要件が課されることを示す。
特に、DIRは異なる領域の表現、すなわち入力分布を完璧に整列することを目的としている。
しかし、これは対象領域への適切な一般化には必要ないし、貴重な分類情報を処分することもある。
そこで我々は,表現の整列ではなく,単に後続を整列することによって不変な仮定を緩和するいわゆる仮説不変表現(hirs)を学習することを提案する。
本稿では,公共領域の一般化データセットに関する実験結果から,HIRの学習がDIRの学習よりも効果的であることを示す。
実際、私たちのアプローチはドメインに関する事前の知識を使ってアプローチと競合することもできます。
関連論文リスト
- Non-stationary Domain Generalization: Theory and Algorithm [11.781050299571692]
本稿では,非定常環境における領域一般化について検討する。
まず,環境非定常性がモデル性能に及ぼす影響について検討する。
そこで我々は適応不変表現学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T21:32:43Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Connect, Not Collapse: Explaining Contrastive Learning for Unsupervised
Domain Adaptation [88.5448806952394]
我々は、対象ドメインのラベル付きデータと対象ドメインのラベルなしデータを用いて、対象ドメインの分類器を学習する、教師なしドメイン適応(UDA)を考える。
ラベル付きソースとターゲットデータの特徴を学習し,ラベル付きソースデータに微調整を行うコントラスト事前学習は,強いUDA手法と競合することを示す。
論文 参考訳(メタデータ) (2022-04-01T16:56:26Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Learning Transferable Parameters for Unsupervised Domain Adaptation [29.962241958947306]
非自明なドメイン適応(UDA)は、学習機械が分散シフトの下でラベル付きソースドメインからラベルなしドメインに適応できるようにする。
本稿では,学習過程におけるドメイン固有情報による副作用を軽減するためにTransferable Learning(TransPar)を提案する。
論文 参考訳(メタデータ) (2021-08-13T09:09:15Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。