論文の概要: DomCLP: Domain-wise Contrastive Learning with Prototype Mixup for Unsupervised Domain Generalization
- arxiv url: http://arxiv.org/abs/2412.09074v1
- Date: Thu, 12 Dec 2024 08:59:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:32:36.473009
- Title: DomCLP: Domain-wise Contrastive Learning with Prototype Mixup for Unsupervised Domain Generalization
- Title(参考訳): DomCLP: 教師なしドメイン一般化のための原型混合を用いたドメインワイドコントラスト学習
- Authors: Jin-Seop Lee, Noo-ri Kim, Jee-Hyong Lee,
- Abstract要約: InfoNCEによるインスタンス識別タスクに基づく自己教師付き学習(SSL)手法は、目覚ましい成功を収めた。
UDGアプローチはInfoNCEと対照的な学習を利用して表現を生成する。
そこで我々は,DomCLP,ドメインワイドコントラスト学習とプロトタイプミックスアップを提案する。
- 参考スコア(独自算出の注目度): 10.343546104340962
- License:
- Abstract: Self-supervised learning (SSL) methods based on the instance discrimination tasks with InfoNCE have achieved remarkable success. Despite their success, SSL models often struggle to generate effective representations for unseen-domain data. To address this issue, research on unsupervised domain generalization (UDG), which aims to develop SSL models that can generate domain-irrelevant features, has been conducted. Most UDG approaches utilize contrastive learning with InfoNCE to generate representations, and perform feature alignment based on strong assumptions to generalize domain-irrelevant common features from multi-source domains. However, existing methods that rely on instance discrimination tasks are not effective at extracting domain-irrelevant common features. This leads to the suppression of domain-irrelevant common features and the amplification of domain-relevant features, thereby hindering domain generalization. Furthermore, strong assumptions underlying feature alignment can lead to biased feature learning, reducing the diversity of common features. In this paper, we propose a novel approach, DomCLP, Domain-wise Contrastive Learning with Prototype Mixup. We explore how InfoNCE suppresses domain-irrelevant common features and amplifies domain-relevant features. Based on this analysis, we propose Domain-wise Contrastive Learning (DCon) to enhance domain-irrelevant common features. We also propose Prototype Mixup Learning (PMix) to generalize domain-irrelevant common features across multiple domains without relying on strong assumptions. The proposed method consistently outperforms state-of-the-art methods on the PACS and DomainNet datasets across various label fractions, showing significant improvements. Our code will be released. Our project page is available at https://github.com/jinsuby/DomCLP.
- Abstract(参考訳): InfoNCEによるインスタンス識別タスクに基づく自己教師付き学習(SSL)手法は、目覚ましい成功を収めた。
その成功にもかかわらず、SSLモデルは、目に見えないドメインデータに対して効果的な表現を生成するのに苦労することが多い。
この問題に対処するため,ドメイン非関連機能を生成するSSLモデルの開発を目的とした,教師なしドメイン一般化(UDG)の研究が進められている。
ほとんどのUDGアプローチは、InfoNCEと対照的な学習を利用して表現を生成し、強い仮定に基づいて特徴アライメントを行い、マルチソースドメインからドメインに依存しない共通特徴を一般化する。
しかし、インスタンス識別タスクに依存する既存のメソッドは、ドメインに依存しない共通特徴の抽出には有効ではない。
これにより、ドメイン非関連共通特徴の抑制とドメイン関連特徴の増幅が達成され、ドメイン一般化が妨げられる。
さらに、機能アライメントの根底にある強い仮定は、バイアスのある機能学習をもたらし、共通の機能の多様性を低下させる。
本稿では,DomCLP(DomCLP,Domain-wise Contrastive Learning with Prototype Mixup)を提案する。
我々は、InfoNCEがドメイン非関連共通機能をどのように抑制し、ドメイン関連機能を増幅するかを考察する。
そこで本研究では,ドメインに依存しない共通機能を強化するために,ドメインワイドコントラスト学習(DCon)を提案する。
また,複数のドメインにまたがるドメイン非関連共通機能を,強い前提に頼らずに一般化するためのプロトタイプ混合学習(PMix)を提案する。
提案手法は,PACSおよびDomainNetデータセットの様々なラベル区分けにおいて,最先端の手法より一貫して優れており,大幅な改善が見られた。
私たちのコードは解放されます。
プロジェクトページはhttps://github.com/jinsuby/DomCLP.comで公開されている。
関連論文リスト
- Mitigating Domain Shift in Federated Learning via Intra- and Inter-Domain Prototypes [28.507105940018704]
本稿では,$textbfI$ntraドメインと$textbfI$nterドメインを組み込んだ新しいプロトタイプ学習手法を提案する。
局所領域の多様性を捉え,局所特徴の一般化を促進するために,MixUpベースの拡張プロトタイプの機能アライメントを提案する。
論文 参考訳(メタデータ) (2025-01-15T02:17:38Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Domain Generalization for Domain-Linked Classes [8.738092015092207]
実世界では、クラスはドメインリンクされ、すなわち特定のドメインでのみ表現される。
本稿では,ドメインリンクDG,FONDのためのFair and cONtrastive feature-space regularizationアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-01T16:39:50Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Learning to Balance Specificity and Invariance for In and Out of Domain
Generalization [27.338573739304604]
ドメイン内および外部の一般化性能を改善するモデルである一般化のためのドメイン固有マスクを紹介する。
ドメインの一般化のために、ゴールはソースドメインの集合から学び、見えないターゲットドメインに最もよく一般化する単一のモデルを作成することである。
本研究では,PACSとDomainNetの両面において,単純なベースラインと最先端の手法と比較して,競争力のある性能を示す。
論文 参考訳(メタデータ) (2020-08-28T20:39:51Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。