論文の概要: Addressing Imbalanced Domain-Incremental Learning through Dual-Balance Collaborative Experts
- arxiv url: http://arxiv.org/abs/2507.07100v1
- Date: Wed, 09 Jul 2025 17:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.718147
- Title: Addressing Imbalanced Domain-Incremental Learning through Dual-Balance Collaborative Experts
- Title(参考訳): デュアルバランス・ラボレーティブ・エキスパートによる非バランスなドメイン・インクリメンタル・ラーニングへの取り組み
- Authors: Lan Li, Da-Wei Zhou, Han-Jia Ye, De-Chuan Zhan,
- Abstract要約: ドメイン・インクリメンタル・ラーニング(Domain-Incremental Learning, DIL)は、非定常環境における連続的な学習に焦点を当てる。
DILは、ドメイン内のクラス不均衡とドメイン間のクラス分散シフトという、2つの重要な課題に直面している。
これらの課題を克服するために、Dual-Balance Collaborative Experts (DCE)フレームワークを紹介します。
- 参考スコア(独自算出の注目度): 59.615381619866284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain-Incremental Learning (DIL) focuses on continual learning in non-stationary environments, requiring models to adjust to evolving domains while preserving historical knowledge. DIL faces two critical challenges in the context of imbalanced data: intra-domain class imbalance and cross-domain class distribution shifts. These challenges significantly hinder model performance, as intra-domain imbalance leads to underfitting of few-shot classes, while cross-domain shifts require maintaining well-learned many-shot classes and transferring knowledge to improve few-shot class performance in old domains. To overcome these challenges, we introduce the Dual-Balance Collaborative Experts (DCE) framework. DCE employs a frequency-aware expert group, where each expert is guided by specialized loss functions to learn features for specific frequency groups, effectively addressing intra-domain class imbalance. Subsequently, a dynamic expert selector is learned by synthesizing pseudo-features through balanced Gaussian sampling from historical class statistics. This mechanism navigates the trade-off between preserving many-shot knowledge of previous domains and leveraging new data to improve few-shot class performance in earlier tasks. Extensive experimental results on four benchmark datasets demonstrate DCE's state-of-the-art performance.
- Abstract(参考訳): ドメイン・インクリメンタル・ラーニング(ドメイン・インクリメンタル・ラーニング、Domain-Incremental Learning、DIL)は、非定常環境における継続的な学習に焦点を当て、歴史的知識を維持しながら、進化するドメインに適応するモデルを必要とする。
DILは、ドメイン内のクラス不均衡とドメイン間のクラス分散シフトという、2つの重要な課題に直面している。
これらの課題は、ドメイン内不均衡が少数ショットクラスの不適合を招き、クロスドメインシフトは、十分に学習された多ショットクラスを維持し、古いドメインでの少数ショットクラスのパフォーマンスを改善するために知識を伝達する必要があるため、モデルのパフォーマンスを著しく損なう。
これらの課題を克服するために、Dual-Balance Collaborative Experts (DCE)フレームワークを紹介します。
DCEは周波数認識の専門家グループを採用しており、各専門家は特定の周波数グループの特徴を学習するために特別な損失関数によってガイドされ、ドメイン内のクラス不均衡に効果的に対処する。
その後、動的エキスパートセレクタは、歴史クラス統計からの平衡ガウスサンプリングを通じて擬似特徴を合成することによって学習される。
このメカニズムは、以前のドメインの多くのショット知識を保存することと、新しいデータを活用して、以前のタスクにおける少数ショットクラスのパフォーマンスを改善することの間のトレードオフをナビゲートする。
4つのベンチマークデータセットの大規模な実験結果は、DCEの最先端のパフォーマンスを示している。
関連論文リスト
- Fresh-CL: Feature Realignment through Experts on Hypersphere in Continual Learning [3.708456605408296]
連続学習(Fresh-CL)におけるハイパーSpHereのエキスパートによる特徴認識手法を提案する。
本研究では,ETFの動的拡張を専門家の混合により提案し,様々な部分空間への適応射影を可能とし,特徴表現を向上する。
11のデータセットの実験では、最強のベースラインに比べて精度が2%向上した。
論文 参考訳(メタデータ) (2025-01-04T05:20:53Z) - Generate to Discriminate: Expert Routing for Continual Learning [59.71853576559306]
Generate to Discriminate (G2D) は、合成データを利用してドメイン識別器を訓練する連続学習手法である。
我々は、G2Dが視覚と言語の両方におけるタスクにおいて、競争力のあるドメイン・インクリメンタル・ラーニング手法より優れていることを観察する。
論文 参考訳(メタデータ) (2024-12-22T13:16:28Z) - Overcoming Domain Drift in Online Continual Learning [24.86094018430407]
オンライン連続学習(OCL)は、機械学習モデルに一連のタスクで新しい知識をオンラインで取得する権限を与える。
OCLは、破滅的な忘れをし、以前のタスクで学んだモデルは、新しいタスクに遭遇したときに実質的に上書きされる、という大きな課題に直面します。
本稿では,古いタスクのドメインを固定し,負の転送効果を低減するための新しいリハーサル戦略であるDrift-Reducing Rehearsal(DRR)を提案する。
論文 参考訳(メタデータ) (2024-05-15T06:57:18Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - General Incremental Learning with Domain-aware Categorical
Representations [37.68376996568006]
本研究では,EMフレームワークに基づく新しいドメイン認識連続学習手法を提案する。
具体的には、von Mises-Fisher混合モデルに基づくフレキシブルなクラス表現を導入し、クラス内構造をキャプチャする。
本研究では, クラス内およびクラス間のデータ不均衡に対処するバイレベルバランスメモリを設計し, 蒸留損失と組み合わせて, クラス間およびクラス内安定性・塑性トレードオフを改善する。
論文 参考訳(メタデータ) (2022-04-08T13:57:33Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。