論文の概要: On Learning Domain-Invariant Representations for Transfer Learning with
Multiple Sources
- arxiv url: http://arxiv.org/abs/2111.13822v1
- Date: Sat, 27 Nov 2021 06:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 15:02:47.083244
- Title: On Learning Domain-Invariant Representations for Transfer Learning with
Multiple Sources
- Title(参考訳): 複数のソースを持つ転送学習のためのドメイン不変表現の学習について
- Authors: Trung Phung, Trung Le, Long Vuong, Toan Tran, Anh Tran, Hung Bui, Dinh
Phung
- Abstract要約: 対象の一般損失に対する新たな上限を開発し、2種類のドメイン不変表現を定義した。
我々は、各ドメイン不変表現の学習を強制することの利点と欠点、およびトレードオフについて研究する。
- 参考スコア(独自算出の注目度): 21.06231751703114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) benefits from the rigorous theoretical works that
study its insightful characteristics and various aspects, e.g., learning
domain-invariant representations and its trade-off. However, it seems not the
case for the multiple source DA and domain generalization (DG) settings which
are remarkably more complicated and sophisticated due to the involvement of
multiple source domains and potential unavailability of target domain during
training. In this paper, we develop novel upper-bounds for the target general
loss which appeal to us to define two kinds of domain-invariant
representations. We further study the pros and cons as well as the trade-offs
of enforcing learning each domain-invariant representation. Finally, we conduct
experiments to inspect the trade-off of these representations for offering
practical hints regarding how to use them in practice and explore other
interesting properties of our developed theory.
- Abstract(参考訳): ドメイン適応(da)は、その洞察力のある特徴と様々な側面、例えばドメイン不変表現の学習とそのトレードオフを研究する厳密な理論的研究から恩恵を受ける。
しかし、マルチソースDAとドメイン一般化(DG)設定は、複数のソースドメインが関与し、トレーニング中にターゲットドメインが利用できない可能性があるため、非常に複雑で洗練されているようには見えない。
本稿では,2種類のドメイン不変表現を定義することを望む,対象の一般損失に対する新たな上限を開発する。
さらに、各ドメイン不変表現を学習させることの利点と欠点、およびトレードオフについて研究する。
最後に,これらの表現のトレードオフを検証し,実際に使用する方法に関する実践的なヒントを提供し,開発理論の他の興味深い性質を探求する実験を行う。
関連論文リスト
- Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Learning to Learn Domain-invariant Parameters for Domain Generalization [29.821634033299855]
ドメイン一般化(DG)は、ソースドメインからドメイン不変表現をキャプチャすることでこの問題を克服することを目的としている。
DDC(Domain Decoupling and Combination)とDIGB(Domain-invariance-guided Backpropagation)の2つのモジュールを提案する。
提案手法は,高い一般化能力を有する最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-04T07:19:34Z) - Domain-invariant Feature Exploration for Domain Generalization [35.99082628524934]
ドメイン不変の機能は、内部と相互の双方から派生すべきである、と我々は主張する。
ドメイン不変な特徴展開のためのDIFEXを提案する。
時系列とビジュアルベンチマークの両方の実験は、提案したDIFEXが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-25T09:55:55Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Unsupervised Domain Generalization by Learning a Bridge Across Domains [78.855606355957]
Unsupervised Domain Generalization (UDG) のセットアップでは、ソースもターゲットドメインもトレーニングの監督は行わない。
本手法は,各トレーニング領域からBrADへの視覚的(イメージ間)マッピングを保存したセマンティクスのセットを伴って,補助的なブリッジドメインであるBrAD(Bridge Across Domains)の自己教師型学習に基づいている。
我々は,エッジレギュラー化したBrADを用いて,UDG,Few-shot UDA,マルチドメインデータセット間の教師なし一般化など,複数のベンチマークやタスクにまたがる大幅な向上を実現する方法を示す。
論文 参考訳(メタデータ) (2021-12-04T10:25:45Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Heuristic Domain Adaptation [105.59792285047536]
Heuristic Domain Adaptation Network (HDAN)は、ドメイン不変およびドメイン固有表現を明示的に学習する。
Heuristic Domain Adaptation Network (HDAN)は、教師なしDA、マルチソースDA、半教師なしDAの最先端を超越している。
論文 参考訳(メタデータ) (2020-11-30T04:21:35Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z) - Representation via Representations: Domain Generalization via
Adversarially Learned Invariant Representations [14.751829773340537]
複数の「研究」(または領域)から不変表現を学習するための敵対的検閲手法について検討する。
医学的な予測のような多くの文脈において、人口の多い地域での研究からの領域の一般化は、アルゴリズム的公正性に関する以前の研究では予想されていなかった、異なる風味の公平性を提供する。
論文 参考訳(メタデータ) (2020-06-20T02:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。