論文の概要: Minimal Semantic Sufficiency Meets Unsupervised Domain Generalization
- arxiv url: http://arxiv.org/abs/2509.15791v1
- Date: Fri, 19 Sep 2025 09:22:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.098369
- Title: Minimal Semantic Sufficiency Meets Unsupervised Domain Generalization
- Title(参考訳): 教師なし領域の一般化をめざす最小の意味的充足力
- Authors: Tan Pan, Kaiyu Guo, Dongli Xu, Zhaorui Tan, Chen Jiang, Deshu Chen, Xin Guo, Brian C. Lovell, Limei Han, Yuan Cheng, Mahsa Baktashmotlagh,
- Abstract要約: 教師なしドメイン一般化(UDG)タスクは、一般的な教師なし学習技術で訓練されたモデルの一般化を強化するために提案されている。
我々は、最小十分意味表現(MS-UDG)を学ぶタスクとしてUDGを定式化する。
MS-UDGは、一般的な教師なしのドメイン一般化ベンチマークに新しい最先端技術を設定し、既存のSSLとUDGメソッドを一貫して上回っている。
- 参考スコア(独自算出の注目度): 26.836715714223796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generalization ability of deep learning has been extensively studied in supervised settings, yet it remains less explored in unsupervised scenarios. Recently, the Unsupervised Domain Generalization (UDG) task has been proposed to enhance the generalization of models trained with prevalent unsupervised learning techniques, such as Self-Supervised Learning (SSL). UDG confronts the challenge of distinguishing semantics from variations without category labels. Although some recent methods have employed domain labels to tackle this issue, such domain labels are often unavailable in real-world contexts. In this paper, we address these limitations by formalizing UDG as the task of learning a Minimal Sufficient Semantic Representation: a representation that (i) preserves all semantic information shared across augmented views (sufficiency), and (ii) maximally removes information irrelevant to semantics (minimality). We theoretically ground these objectives from the perspective of information theory, demonstrating that optimizing representations to achieve sufficiency and minimality directly reduces out-of-distribution risk. Practically, we implement this optimization through Minimal-Sufficient UDG (MS-UDG), a learnable model by integrating (a) an InfoNCE-based objective to achieve sufficiency; (b) two complementary components to promote minimality: a novel semantic-variation disentanglement loss and a reconstruction-based mechanism for capturing adequate variation. Empirically, MS-UDG sets a new state-of-the-art on popular unsupervised domain-generalization benchmarks, consistently outperforming existing SSL and UDG methods, without category or domain labels during representation learning.
- Abstract(参考訳): ディープラーニングの一般化能力は、教師なしの環境で広く研究されているが、教師なしのシナリオでは研究されていない。
近年,Unsupervised Domain Generalization (UDG) タスクは,自己教師付き学習(SSL)など,一般的な教師なし学習技術で訓練されたモデルの一般化を促進するために提案されている。
UDGはカテゴリラベルなしで意味を変種と区別するという課題に直面している。
最近の手法ではこの問題に対処するためにドメインラベルを使用しているものもあるが、そのようなドメインラベルは現実の文脈では利用できないことが多い。
本稿では,UDG を最小十分意味表現学習のタスクとして定式化し,これらの制約に対処する。
(i)拡張ビュー(十分性)間で共有されるすべての意味情報を保存し、
(ii)意味論(最小性)に関係のない情報を極端に除去する。
我々はこれらの目的を情報理論の観点から理論的に根ざし、満足度と最小性を達成するために表現を最適化することで、アウト・オブ・ディストリビューションのリスクを直接的に低減することを示した。
実のところ、我々はこの最適化を、学習可能なモデルであるminimal-Sufficient UDG (MS-UDG) を通じて実現している。
a) 充足を達成するためのInfoNCEに基づく目的
b) 最小化を促進するための2つの相補的構成要素: 新規な意味変分脱アンタングルメント損失と、適切な変動を捉えるための再構成に基づくメカニズム。
経験的に、MS-UDGは、一般的な教師なしドメイン一般化ベンチマークに新しい最先端を設定しており、表現学習中にカテゴリやドメインラベルなしで、既存のSSLおよびUDGメソッドを一貫して上回っている。
関連論文リスト
- FixCLR: Negative-Class Contrastive Learning for Semi-Supervised Domain Generalization [6.683066713491661]
ラベルの不足のため、ドメインの一般化法の適用は性能が劣ることが多い。
FixCLRを紹介します。これは、すべてのドメインにわたるドメイン不変表現を明示的に学習するために、明確に正規化します。
我々の研究には、これまでSSDG研究で研究されていない広範な実験が含まれている。
論文 参考訳(メタデータ) (2025-06-25T21:25:05Z) - Generative Classifier for Domain Generalization [84.92088101715116]
ドメインの一般化は、分散シフトに対するコンピュータビジョンモデルの一般化性を目的としている。
生成駆動型ドメイン一般化(GCDG)を提案する。
GCDGは3つの重要なモジュールから構成される: 異種性学習(HLC)、純粋相関(SCB)、横成分バランス(DCB)。
論文 参考訳(メタデータ) (2025-04-03T04:38:33Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Rethinking Multi-domain Generalization with A General Learning Objective [17.155829981870045]
マルチドメイン一般化(mDG)は、トレーニングとテストディストリビューションの相違を最小限にすることを目的としている。
既存のmDG文献には、一般的な学習目標パラダイムが欠けている。
制約緩和に$Y$-mappingを活用することを提案する。
論文 参考訳(メタデータ) (2024-02-29T05:00:30Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Domain-Irrelevant Representation Learning for Unsupervised Domain
Generalization [22.980607134596077]
ドメインの一般化(Domain Generalization, DG)は、ソースドメインの集合で訓練されたモデルが、見えないターゲットドメインでより良く一般化することを支援することを目的としている。
ラベルのないデータははるかにアクセスしやすいが、教師なし学習がドメイン間の深いモデルの一般化にどのように役立つかを探究する。
本研究では,未ラベルデータ内の不均一性に対処するために,ドメイン関連無教師学習(DIUL)手法を提案する。
論文 参考訳(メタデータ) (2021-07-13T16:20:50Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。