論文の概要: E-MLNet: Enhanced Mutual Learning for Universal Domain Adaptation with Sample-Specific Weighting
- arxiv url: http://arxiv.org/abs/2509.09006v1
- Date: Wed, 10 Sep 2025 21:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.153768
- Title: E-MLNet: Enhanced Mutual Learning for Universal Domain Adaptation with Sample-Specific Weighting
- Title(参考訳): E-MLNet: サンプル特異重み付きユニバーサルドメイン適応のための相互学習の強化
- Authors: Samuel Felipe dos Santos, Tiago Agostinho de Almeida, Jurandy Almeida,
- Abstract要約: Universal Domain Adaptation (UniDA)は、ラベル付きソースからラベル付きターゲットドメインへの知識の転送を試みる。
Mutual Learning Network (MLNet)のような先進的な手法では、オープンセットのエントロピー最小化によって適応された1-vs-all分類器のバンクを使用する。
本稿では,OEM に動的重み付け戦略を統合した Enhanced Mutual Learning Network (E-MLNet) を提案する。
- 参考スコア(独自算出の注目度): 1.5539424546888112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Domain Adaptation (UniDA) seeks to transfer knowledge from a labeled source to an unlabeled target domain without assuming any relationship between their label sets, requiring models to classify known samples while rejecting unknown ones. Advanced methods like Mutual Learning Network (MLNet) use a bank of one-vs-all classifiers adapted via Open-set Entropy Minimization (OEM). However, this strategy treats all classifiers equally, diluting the learning signal. We propose the Enhanced Mutual Learning Network (E-MLNet), which integrates a dynamic weighting strategy to OEM. By leveraging the closed-set classifier's predictions, E-MLNet focuses adaptation on the most relevant class boundaries for each target sample, sharpening the distinction between known and unknown classes. We conduct extensive experiments on four challenging benchmarks: Office-31, Office-Home, VisDA-2017, and ImageCLEF. The results demonstrate that E-MLNet achieves the highest average H-scores on VisDA and ImageCLEF and exhibits superior robustness over its predecessor. E-MLNet outperforms the strong MLNet baseline in the majority of individual adaptation tasks -- 22 out of 31 in the challenging Open-Partial DA setting and 19 out of 31 in the Open-Set DA setting -- confirming the benefits of our focused adaptation strategy.
- Abstract(参考訳): Universal Domain Adaptation (UniDA)は、ラベル付きソースからの知識をラベルセット間の関係を仮定することなく、ラベル付きターゲットドメインに転送し、未知のソースを拒絶しながら既知のサンプルを分類する必要がある。
Mutual Learning Network (MLNet)のような先進的な手法では、オープンセットのエントロピー最小化(OEM)によって適応された1vsオールの分類器のバンクを使用する。
しかし、この戦略は全ての分類器を等しく扱い、学習信号を希釈する。
本稿では,OEM に動的重み付け戦略を統合した Enhanced Mutual Learning Network (E-MLNet) を提案する。
クローズドセット分類器の予測を活用することで、E-MLNetは、各ターゲットサンプルの最も関連性の高いクラス境界への適応に焦点を当て、未知のクラスと未知のクラスを区別する。
われわれは、Office-31、Office-Home、VisDA-2017、ImageCLEFの4つの挑戦的なベンチマークで広範な実験を行っている。
その結果,E-MLNet は VisDA および ImageCLEF 上で平均 H-スコアを達成し,前者よりも高いロバスト性を示した。
E-MLNetは、個々の適応タスクの大部分 – 挑戦的なOpen-Partial DA設定では31点中22点、Open-Set DA設定では31点中19点 – において、強力なMLNetベースラインを上回っています。
関連論文リスト
- Adaptive Global and Fine-Grained Perceptual Fusion for MLLM Embeddings Compatible with Hard Negative Amplification [49.109117617514066]
マルチモーダル埋め込みは、視覚と言語を整合させるブリッジとして機能する。
MLLM埋め込みのための適応的グローバルおよび微粒な知覚融合法を提案する。
AGFF-Embedは、総合的および微粒な理解において、最先端のパフォーマンスを包括的に達成する。
論文 参考訳(メタデータ) (2026-02-05T14:52:35Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - Optimizing Value of Learning in Task-Oriented Federated Meta-Learning Systems [10.332182237773818]
デバイス間の個別のトレーニングニーズを評価するために、新しいメトリック、学習のメトリック値(VoL)が導入された。
タスクレベルの重み(TLW)は、FMLトレーニングのタスクレベルの考慮と公平性に基づいて定義される。
論文 参考訳(メタデータ) (2025-01-07T00:30:31Z) - YOLO-UniOW: Efficient Universal Open-World Object Detection [63.71512991320627]
オープン語彙とオープンワールドオブジェクト検出タスクを統合する新しいパラダイムであるUniversal Open-World Object Detection (Uni-OWD)を紹介する。
YOLO-UniOWはAdaptive Decision Learningを導入し、計算コストのかかるクロスモダリティ融合をCLIP潜伏空間の軽量アライメントに置き換える。
実験では、YOLO-UniOWが34.6 APと30.0 APr、推論速度は69.6 FPSを達成している。
論文 参考訳(メタデータ) (2024-12-30T01:34:14Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。