論文の概要: Negatives-Dominant Contrastive Learning for Generalization in Imbalanced Domains
- arxiv url: http://arxiv.org/abs/2601.21999v1
- Date: Thu, 29 Jan 2026 17:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.027986
- Title: Negatives-Dominant Contrastive Learning for Generalization in Imbalanced Domains
- Title(参考訳): 不均衡領域における一般化のための否定的支配的コントラスト学習
- Authors: Meng Cao, Jiexi Liu, Songcan Chen,
- Abstract要約: 不均衡ドメイン一般化(IDG)は、ドメインシフトとラベルシフトの緩和に焦点を当てている。
その実用的重要性にもかかわらず、IDGは、その絡み合いを扱う技術的複雑さのために、まだ探索されていない。
我々は,ドメイン間の後続一貫性を保ちながら識別性を高めるために,IDGのための新規なネガティブ・ドメイン・コントラスト学習(NDCL)を提案する。
- 参考スコア(独自算出の注目度): 38.869433924831156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced Domain Generalization (IDG) focuses on mitigating both domain and label shifts, both of which fundamentally shape the model's decision boundaries, particularly under heterogeneous long-tailed distributions across domains. Despite its practical significance, it remains underexplored, primarily due to the technical complexity of handling their entanglement and the paucity of theoretical foundations. In this paper, we begin by theoretically establishing the generalization bound for IDG, highlighting the role of posterior discrepancy and decision margin. This bound motivates us to focus on directly steering decision boundaries, marking a clear departure from existing methods. Subsequently, we technically propose a novel Negative-Dominant Contrastive Learning (NDCL) for IDG to enhance discriminability while enforce posterior consistency across domains. Specifically, inter-class decision-boundary separation is enhanced by placing greater emphasis on negatives as the primary signal in our contrastive learning, naturally amplifying gradient signals for minority classes to avoid the decision boundary being biased toward majority classes. Meanwhile, intra-class compactness is encouraged through a re-weighted cross-entropy strategy, and posterior consistency across domains is enforced through a prediction-central alignment strategy. Finally, rigorous yet challenging experiments on benchmarks validate the effectiveness of our NDCL. The code is available at https://github.com/Alrash/NDCL.
- Abstract(参考訳): 不均衡ドメイン一般化(IDG)は、ドメインとラベルのシフトを緩和することに重点を置いている。
その実用的重要性にもかかわらず、主にその絡み合いを扱う技術的な複雑さと理論の基礎の曖昧さのために、探索が過小評価されている。
本稿では、IDGの一般化を理論的に確立し、後続の相違と意思決定マージンの役割を明らかにすることから始める。
このバウンダリは、意思決定境界を直接管理することに集中する動機となり、既存のメソッドからの明確な離脱を意味します。
その後、ドメイン間の後続的な一貫性を保ちながら識別性を高めるために、IDGのためのNDCL(Negative-Dominant Contrastive Learning)を技術的に提案する。
具体的には, クラス間意思決定境界分離を, 比較学習の主信号として負に重きを置くことで強化し, マイノリティークラスにおける決定境界が多数派に偏っていることを避けるために, 自然な勾配信号の増幅を行う。
一方、クラス内コンパクト性は、再重み付きクロスエントロピー戦略によって促進され、ドメイン間の後続一貫性は、予測中央アライメント戦略によって実施される。
最後に、ベンチマークに関する厳密で挑戦的な実験は、我々のNDCLの有効性を検証する。
コードはhttps://github.com/Alrash/NDCLで公開されている。
関連論文リスト
- Group-wise Scaling and Orthogonal Decomposition for Domain-Invariant Feature Extraction in Face Anti-Spoofing [7.902884193437407]
特徴直交分解(FOD)とグループワイドスケーリングリスク最小化(GS-RM)を通じて重みとバイアスを協調的に調整する新しいDGFASフレームワークを提案する。
提案手法は,最先端性能を実現し,精度を継続的に向上し,バイアス補正を低減し,未確認対象領域の安定性を向上する。
論文 参考訳(メタデータ) (2025-07-05T11:20:19Z) - Moment Alignment: Unifying Gradient and Hessian Matching for Domain Generalization [13.021311628351423]
ドメイン一般化(DG)は、目に見えないターゲットドメインによく一般化するモデルの開発を目指している。
DGにおける研究の1行は、一般化を強化するためにドメインレベルの勾配とヘッセンの整合性に焦点を当てている。
textbfClosed-Form textbfMoment textbfAlignment (CMA)を導入する。
論文 参考訳(メタデータ) (2025-06-09T02:51:36Z) - On the Transferability and Discriminability of Repersentation Learning in Unsupervised Domain Adaptation [40.32838937328407]
標準的な逆数ベースのフレームワークは、ターゲットドメイン機能の識別性を無視し、最適以下のパフォーマンスをもたらす。
本稿では、ドメインアライメントの目的と識別可能性向上の制約を明確に統合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-28T08:24:43Z) - Guidance Not Obstruction: A Conjugate Consistent Enhanced Strategy for Domain Generalization [50.04665252665413]
ドメイン内のクラス間での差別的一般化の獲得が不可欠である。
分布の整合性を求めるのとは対照的に、ドメイン関係の階級間差別を保護しようと努力する。
我々は,新たな分布レベルのUniversum戦略を用いて,追加的なドメイン関係のクラス条件分布を生成する。
論文 参考訳(メタデータ) (2024-12-13T12:25:16Z) - Gradually Vanishing Gap in Prototypical Network for Unsupervised Domain Adaptation [32.58201185195226]
プロトタイプネットワーク(GVG-PN)におけるGradually Vanishing Gapという効率的なUDAフレームワークを提案する。
我々のモデルは,グローバルとローカルの両方の観点からの伝達学習を実現する。
いくつかのUDAベンチマークの実験では、提案されたGVG-PNがSOTAモデルより明らかに優れていることが検証された。
論文 参考訳(メタデータ) (2024-05-28T03:03:32Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Towards Principled Disentanglement for Domain Generalization [90.9891372499545]
機械学習モデルの根本的な課題は、アウト・オブ・ディストリビューション(OOD)データへの一般化である。
私たちはまず、DEC(Disentanglement-Constrained Domain Generalization)と呼ばれる制約付き最適化としてOOD一般化問題を定式化する。
この変換に基づいて、結合表現の不絡合と領域一般化のための原始双対アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:36:32Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Unsupervised Domain Adaptation via Discriminative Manifold Embedding and
Alignment [23.72562139715191]
教師なしドメイン適応は、ソースドメインから教師なしターゲットドメインへの豊富な情報を活用するのに効果的である。
対象領域のハードアサインされた擬似ラベルは、本質的なデータ構造に危険である。
一貫した多様体学習フレームワークは、一貫した伝達可能性と識別可能性を達成するために提案される。
論文 参考訳(メタデータ) (2020-02-20T11:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。