論文の概要: Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization
- arxiv url: http://arxiv.org/abs/2302.02350v1
- Date: Sun, 5 Feb 2023 09:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:45:20.152472
- Title: Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization
- Title(参考訳): 絡み合いの集約:ドメイン一般化におけるドメインのバリエーションを再考する
- Authors: Daoan Zhang, Mingkai Chen, Chenming Li, Lingyun Huang, Jianguo Zhang
- Abstract要約: ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
- 参考スコア(独自算出の注目度): 4.578559614289095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain Generalization (DG) is a fundamental challenge for machine learning
models, which aims to improve model generalization on various domains. Previous
methods focus on generating domain invariant features from various source
domains. However, we argue that the domain variantions also contain useful
information, ie, classification-aware information, for downstream tasks, which
has been largely ignored. Different from learning domain invariant features
from source domains, we decouple the input images into Domain Expert Features
and noise. The proposed domain expert features lie in a learned latent space
where the images in each domain can be classified independently, enabling the
implicit use of classification-aware domain variations. Based on the analysis,
we proposed a novel paradigm called Domain Disentanglement Network (DDN) to
disentangle the domain expert features from the source domain images and
aggregate the source domain expert features for representing the target test
domain. We also propound a new contrastive learning method to guide the domain
expert features to form a more balanced and separable feature space.
Experiments on the widely-used benchmarks of PACS, VLCS, OfficeHome, DomainNet,
and TerraIncognita demonstrate the competitive performance of our method
compared to the recently proposed alternatives.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)は、さまざまなドメインにおけるモデル一般化を改善することを目的とした機械学習モデルの基本課題である。
以前の手法では、様々なソースドメインからドメイン不変機能を生成することに重点を置いている。
しかし,このドメインの変種には下流タスクのための有用な情報,ie,分類認識情報が含まれており,ほとんど無視されている。
ソースドメインからドメイン不変の機能を学ぶのと異なり、入力イメージをドメインエキスパート機能とノイズに分離します。
提案したドメインエキスパート機能は、各ドメインのイメージを独立して分類できる学習潜在空間にあり、分類対応ドメインのバリエーションを暗黙的に使用することができる。
分析に基づいて、ドメインエキスパート機能をソースドメインイメージから切り離し、ターゲットのテストドメインを表現するためのソースドメインエキスパート機能を集約する、ドメインディスタングルメントネットワーク(ddn)と呼ばれる新しいパラダイムを提案しました。
また、よりバランスよく分離可能な機能空間を形成するために、ドメインエキスパートの機能をガイドする新しいコントラスト学習手法も提案する。
PACS、VLCS、OfficeHome、DomainNet、TerraIncognitaの広く使われているベンチマーク実験は、最近提案された代替手法と比較して、我々の手法の競合性能を実証している。
関連論文リスト
- Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Domain Generalization by Learning and Removing Domain-specific Features [15.061481139046952]
ドメインの一般化は、目に見えないドメインに一般化できるモデルを学ぶことでこの問題に対処することを目的としている。
ドメインの一般化のために、ドメイン固有の機能を明示的に削除することを目的とした、新しいアプローチを提案する。
学習領域固有の特徴を除去した新しい画像空間に各入力画像をマッピングするエンコーダデコーダネットワークを開発した。
論文 参考訳(メタデータ) (2022-12-14T08:46:46Z) - Adaptive Mixture of Experts Learning for Generalizable Face
Anti-Spoofing [37.75738807247752]
ドメイン一般化(DG)に基づく反偽造防止アプローチが注目されている。
既存のDGベースのFASアプローチは、様々な目に見えない領域を一般化するために、ドメイン不変の特徴を常に捉えている。
このフレームワークは、ドメイン固有の情報を利用して、目に見えないソースドメインと未知のターゲットドメイン間のリンクを適応的に確立する。
論文 参考訳(メタデータ) (2022-07-20T13:02:51Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - Exploiting Domain-Specific Features to Enhance Domain Generalization [10.774902700296249]
ドメイン一般化(Domain Generalization, DG)は、観測されていないターゲットドメインで正常に動作するために、複数の観測されたソースドメインからモデルをトレーニングすることを目的としている。
以前のDGアプローチでは、ターゲットドメインを一般化するために、ソース間でのドメイン不変情報を抽出することに重点を置いていた。
本稿ではメタドメイン固有ドメイン不変量(mD)を提案する。
論文 参考訳(メタデータ) (2021-10-18T15:42:39Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Unsupervised Domain Expansion from Multiple Sources [39.03086451203708]
本稿では、ソースドメインの事前学習モデルと未学習の新規ドメインデータのみを利用できる、教師なしマルチソースドメイン拡張(UMSDE)手法を提案する。
本稿では、異なるソースモデルが生成する新しいドメインにおける未ラベルデータの予測クラス確率を用いて、ドメイン間のバイアスを和らげ、新しいドメインにおける識別情報を活用し、ソースドメインのパフォーマンスを維持することを提案する。
論文 参考訳(メタデータ) (2020-05-26T07:02:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。