論文の概要: Domain Generalization for Domain-Linked Classes
- arxiv url: http://arxiv.org/abs/2306.00879v1
- Date: Thu, 1 Jun 2023 16:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:26:47.459951
- Title: Domain Generalization for Domain-Linked Classes
- Title(参考訳): ドメイン型クラスに対するドメイン一般化
- Authors: Kimathi Kaai, Saad Hossain, Sirisha Rambhatla
- Abstract要約: 実世界では、クラスはドメインリンクされ、すなわち特定のドメインでのみ表現される。
本稿では,ドメインリンクDG,FONDのためのFair and cONtrastive feature-space regularizationアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.738092015092207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) focuses on transferring domain-invariant knowledge
from multiple source domains (available at train time) to an, a priori, unseen
target domain(s). This requires a class to be expressed in multiple domains for
the learning algorithm to break the spurious correlations between domain and
class. However, in the real-world, classes may often be domain-linked, i.e.
expressed only in a specific domain, which leads to extremely poor
generalization performance for these classes. In this work, we aim to learn
generalizable representations for these domain-linked classes by transferring
domain-invariant knowledge from classes expressed in multiple source domains
(domain-shared classes). To this end, we introduce this task to the community
and propose a Fair and cONtrastive feature-space regularization algorithm for
Domain-linked DG, FOND. Rigorous and reproducible experiments with baselines
across popular DG tasks demonstrate our method and its variants' ability to
accomplish state-of-the-art DG results for domain-linked classes. We also
provide practical insights on data conditions that increase domain-linked class
generalizability to tackle real-world data scarcity.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)は、複数のソースドメイン(列車の時刻に利用可能な)から、未確認のターゲットドメイン(s)へのドメイン不変知識の転送に焦点を当てている。
これは、学習アルゴリズムがドメインとクラスの間の急激な相関を破るために、クラスを複数のドメインで表現する必要がある。
しかし、現実の世界では、クラスは、しばしばドメインリンクされ、すなわち特定のドメインでのみ表現される。
本研究では、複数のソースドメイン(ドメイン共有クラス)で表されるクラスからドメイン不変知識を転送することで、これらのドメイン関連クラスに対する一般化可能な表現を学習することを目的とする。
そこで本稿では,この課題をコミュニティに紹介し,ドメインリンクDG,FONDのためのFair and cONtrastive feature-space regularizationアルゴリズムを提案する。
一般的なDGタスクにまたがるベースラインを用いた厳密で再現可能な実験は、我々の手法とその変種がドメインリンククラスに対して最先端のDG結果を達成する能力を示す。
また,実世界のデータ不足に取り組むためのドメイン関連クラス一般化可能性を高めるデータ条件に関する実践的洞察を提供する。
関連論文リスト
- Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Unsupervised Domain Generalization by Learning a Bridge Across Domains [78.855606355957]
Unsupervised Domain Generalization (UDG) のセットアップでは、ソースもターゲットドメインもトレーニングの監督は行わない。
本手法は,各トレーニング領域からBrADへの視覚的(イメージ間)マッピングを保存したセマンティクスのセットを伴って,補助的なブリッジドメインであるBrAD(Bridge Across Domains)の自己教師型学習に基づいている。
我々は,エッジレギュラー化したBrADを用いて,UDG,Few-shot UDA,マルチドメインデータセット間の教師なし一般化など,複数のベンチマークやタスクにまたがる大幅な向上を実現する方法を示す。
論文 参考訳(メタデータ) (2021-12-04T10:25:45Z) - Exploiting Domain-Specific Features to Enhance Domain Generalization [10.774902700296249]
ドメイン一般化(Domain Generalization, DG)は、観測されていないターゲットドメインで正常に動作するために、複数の観測されたソースドメインからモデルをトレーニングすることを目的としている。
以前のDGアプローチでは、ターゲットドメインを一般化するために、ソース間でのドメイン不変情報を抽出することに重点を置いていた。
本稿ではメタドメイン固有ドメイン不変量(mD)を提案する。
論文 参考訳(メタデータ) (2021-10-18T15:42:39Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。