論文の概要: Connecting Domains and Contrasting Samples: A Ladder for Domain Generalization
- arxiv url: http://arxiv.org/abs/2510.16704v1
- Date: Sun, 19 Oct 2025 04:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.102116
- Title: Connecting Domains and Contrasting Samples: A Ladder for Domain Generalization
- Title(参考訳): ドメインの接続とサンプルのコントラスト: ドメインの一般化のためのラダー
- Authors: Tianxin Wei, Yifan Chen, Xinrui He, Wenxuan Bao, Jingrui He,
- Abstract要約: 本稿では,ドメイン間の概念的接続性を高めるために,ドメイン接続型コントラスト学習(DCCL)を提案する。
データ側では、クラス内の接続性を改善するために、よりアグレッシブなデータ拡張とクロスドメインの陽性サンプルが導入されている。
その結果、DCCLはドメインの監督なしに最先端のベースラインを上回ることが確認された。
- 参考スコア(独自算出の注目度): 52.52838658375592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distribution shifts between training and testing samples frequently occur in practice and impede model generalization performance. This crucial challenge thereby motivates studies on domain generalization (DG), which aim to predict the label on unseen target domain data by solely using data from source domains. It is intuitive to conceive the class-separated representations learned in contrastive learning (CL) are able to improve DG, while the reality is quite the opposite: users observe directly applying CL deteriorates the performance. We analyze the phenomenon with the insights from CL theory and discover lack of intra-class connectivity in the DG setting causes the deficiency. We thus propose a new paradigm, domain-connecting contrastive learning (DCCL), to enhance the conceptual connectivity across domains and obtain generalizable representations for DG. On the data side, more aggressive data augmentation and cross-domain positive samples are introduced to improve intra-class connectivity. On the model side, to better embed the unseen test domains, we propose model anchoring to exploit the intra-class connectivity in pre-trained representations and complement the anchoring with generative transformation loss. Extensive experiments on five standard DG benchmarks are performed. The results verify that DCCL outperforms state-of-the-art baselines even without domain supervision. The detailed model implementation and the code are provided through https://github.com/weitianxin/DCCL
- Abstract(参考訳): トレーニングとテストサンプル間の分散シフトは,実際に頻繁に発生し,モデル一般化性能を阻害する。
この重要な課題はドメインの一般化(DG)の研究を動機付け、ソースドメインのデータのみを使用することで、目に見えない対象のドメインデータのラベルを予測することを目的としている。
対照的学習(CL)で学習したクラス分離表現がDGを改善することができると考えるのは直感的であり、現実は全く逆である。
我々は,この現象をCL理論の知見を用いて解析し,DG設定におけるクラス内接続の欠如が原因であることを示す。
そこで我々は,ドメイン間の概念的接続性を高め,DGの一般化可能な表現を得るための,新しいパラダイムであるドメイン接続型コントラスト学習(DCCL)を提案する。
データ側では、クラス内の接続性を改善するために、よりアグレッシブなデータ拡張とクロスドメインの陽性サンプルが導入されている。
モデル側では、未確認の試験領域をよりうまく埋め込むために、事前訓練された表現におけるクラス内接続を利用して、生成的変換損失でアンカーを補完するモデルアンカーを提案する。
5つの標準DGベンチマークに関する大規模な実験が行われた。
その結果、DCCLはドメインの監督なしに最先端のベースラインを上回ることが確認された。
詳細なモデルの実装とコードはhttps://github.com/weitianxin/DCCLを通じて提供される。
関連論文リスト
- Boosting Domain Generalized and Adaptive Detection with Diffusion Models: Fitness, Generalization, and Transferability [0.0]
ディテクタは、トレーニングとテストデータのドメインギャップによって、しばしばパフォーマンス低下に悩まされる。
近年,領域一般化(DG)や適応(DA)タスクに応用された拡散モデルが研究されている。
単一段階拡散過程から中間的特徴を抽出することにより,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2025-06-26T06:42:23Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Towards Full-scene Domain Generalization in Multi-agent Collaborative Bird's Eye View Segmentation for Connected and Autonomous Driving [49.03947018718156]
協調的な知覚の訓練と推論の段階で利用される統合されたドメイン一般化フレームワークを提案する。
また、システム内ドメインアライメント機構を導入し、コネクテッドおよび自律走行車間のドメインの差を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。