論文の概要: E-MLNet: Enhanced Mutual Learning for Universal Domain Adaptation with Sample-Specific Weighting
- arxiv url: http://arxiv.org/abs/2509.09006v1
- Date: Wed, 10 Sep 2025 21:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.153768
- Title: E-MLNet: Enhanced Mutual Learning for Universal Domain Adaptation with Sample-Specific Weighting
- Title(参考訳): E-MLNet: サンプル特異重み付きユニバーサルドメイン適応のための相互学習の強化
- Authors: Samuel Felipe dos Santos, Tiago Agostinho de Almeida, Jurandy Almeida,
- Abstract要約: Universal Domain Adaptation (UniDA)は、ラベル付きソースからラベル付きターゲットドメインへの知識の転送を試みる。
Mutual Learning Network (MLNet)のような先進的な手法では、オープンセットのエントロピー最小化によって適応された1-vs-all分類器のバンクを使用する。
本稿では,OEM に動的重み付け戦略を統合した Enhanced Mutual Learning Network (E-MLNet) を提案する。
- 参考スコア(独自算出の注目度): 1.5539424546888112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Domain Adaptation (UniDA) seeks to transfer knowledge from a labeled source to an unlabeled target domain without assuming any relationship between their label sets, requiring models to classify known samples while rejecting unknown ones. Advanced methods like Mutual Learning Network (MLNet) use a bank of one-vs-all classifiers adapted via Open-set Entropy Minimization (OEM). However, this strategy treats all classifiers equally, diluting the learning signal. We propose the Enhanced Mutual Learning Network (E-MLNet), which integrates a dynamic weighting strategy to OEM. By leveraging the closed-set classifier's predictions, E-MLNet focuses adaptation on the most relevant class boundaries for each target sample, sharpening the distinction between known and unknown classes. We conduct extensive experiments on four challenging benchmarks: Office-31, Office-Home, VisDA-2017, and ImageCLEF. The results demonstrate that E-MLNet achieves the highest average H-scores on VisDA and ImageCLEF and exhibits superior robustness over its predecessor. E-MLNet outperforms the strong MLNet baseline in the majority of individual adaptation tasks -- 22 out of 31 in the challenging Open-Partial DA setting and 19 out of 31 in the Open-Set DA setting -- confirming the benefits of our focused adaptation strategy.
- Abstract(参考訳): Universal Domain Adaptation (UniDA)は、ラベル付きソースからの知識をラベルセット間の関係を仮定することなく、ラベル付きターゲットドメインに転送し、未知のソースを拒絶しながら既知のサンプルを分類する必要がある。
Mutual Learning Network (MLNet)のような先進的な手法では、オープンセットのエントロピー最小化(OEM)によって適応された1vsオールの分類器のバンクを使用する。
しかし、この戦略は全ての分類器を等しく扱い、学習信号を希釈する。
本稿では,OEM に動的重み付け戦略を統合した Enhanced Mutual Learning Network (E-MLNet) を提案する。
クローズドセット分類器の予測を活用することで、E-MLNetは、各ターゲットサンプルの最も関連性の高いクラス境界への適応に焦点を当て、未知のクラスと未知のクラスを区別する。
われわれは、Office-31、Office-Home、VisDA-2017、ImageCLEFの4つの挑戦的なベンチマークで広範な実験を行っている。
その結果,E-MLNet は VisDA および ImageCLEF 上で平均 H-スコアを達成し,前者よりも高いロバスト性を示した。
E-MLNetは、個々の適応タスクの大部分 – 挑戦的なOpen-Partial DA設定では31点中22点、Open-Set DA設定では31点中19点 – において、強力なMLNetベースラインを上回っています。
関連論文リスト
- Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。