論文の概要: LFME: A Simple Framework for Learning from Multiple Experts in Domain Generalization
- arxiv url: http://arxiv.org/abs/2410.17020v1
- Date: Tue, 22 Oct 2024 13:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:29:48.426444
- Title: LFME: A Simple Framework for Learning from Multiple Experts in Domain Generalization
- Title(参考訳): LFME: ドメインの一般化における複数の専門家から学ぶためのシンプルなフレームワーク
- Authors: Liang Chen, Yong Zhang, Yibing Song, Zhiqiang Shen, Lingqiao Liu,
- Abstract要約: ドメイン一般化(Domain Generalization, DG)手法は、複数のソースドメインからのトレーニングデータを使用することで、目に見えないターゲットドメインにおける優れたパフォーマンスを維持することを目的としている。
この作業では、DGを改善するために、ターゲットモデルをすべてのソースドメインの専門家にすることを目的とした、複数の専門家(LFME)からの学習と呼ばれる、シンプルだが効果的なフレームワークを導入している。
- 参考スコア(独自算出の注目度): 61.16890890570814
- License:
- Abstract: Domain generalization (DG) methods aim to maintain good performance in an unseen target domain by using training data from multiple source domains. While success on certain occasions are observed, enhancing the baseline across most scenarios remains challenging. This work introduces a simple yet effective framework, dubbed learning from multiple experts (LFME), that aims to make the target model an expert in all source domains to improve DG. Specifically, besides learning the target model used in inference, LFME will also train multiple experts specialized in different domains, whose output probabilities provide professional guidance by simply regularizing the logit of the target model. Delving deep into the framework, we reveal that the introduced logit regularization term implicitly provides effects of enabling the target model to harness more information, and mining hard samples from the experts during training. Extensive experiments on benchmarks from different DG tasks demonstrate that LFME is consistently beneficial to the baseline and can achieve comparable performance to existing arts. Code is available at~\url{https://github.com/liangchen527/LFME}.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)手法は、複数のソースドメインからのトレーニングデータを使用することで、目に見えないターゲットドメインにおける優れたパフォーマンスを維持することを目的としている。
特定の機会における成功は観察されるが、ほとんどのシナリオにおけるベースラインの強化は依然として困難である。
この作業では、DGを改善するために、ターゲットモデルをすべてのソースドメインの専門家にすることを目的とした、複数の専門家からの学習(LFME)と呼ばれる、シンプルで効果的なフレームワークを導入している。
具体的には、推論で使用されるターゲットモデルを学ぶことに加えて、LFMEは、ターゲットモデルのロジットを規則化することで、出力確率が専門的なガイダンスを提供する複数のドメインの専門家を訓練する。
フレームワークを深く掘り下げると、導入したロジト正規化用語は、トレーニング中にターゲットモデルがより多くの情報を活用することを可能にし、専門家からハードサンプルをマイニングする効果を暗黙的に提供することが明らかになった。
異なるDGタスクのベンチマークに関する大規模な実験は、LFMEがベースラインに対して一貫して有益であり、既存のアートに匹敵するパフォーマンスを達成することを実証している。
コードは~\url{https://github.com/liangchen527/LFME}で入手できる。
関連論文リスト
- Rethinking Multi-domain Generalization with A General Learning Objective [19.28143363034362]
マルチドメイン一般化(mDG)は、トレーニングとテストディストリビューションの相違を最小限にすることを目的としている。
既存のmDG文献には、一般的な学習目標パラダイムが欠けている。
制約緩和に$Y$-mappingを活用することを提案する。
論文 参考訳(メタデータ) (2024-02-29T05:00:30Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Meta Adaptive Task Sampling for Few-Domain Generalization [43.2043988610497]
FDG(Few-domain Generalization)は、新規タスクのごく少数のドメインから一般化可能なモデルを学ぶことを目的としている。
本稿では,メタ適応タスクサンプリング(MATS)手法を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:44:09Z) - MultiMatch: Multi-task Learning for Semi-supervised Domain Generalization [55.06956781674986]
我々は、各ソースドメインにいくつかのラベル情報がある半教師付きドメイン一般化タスクの解決に頼っている。
我々は、MultiMatchを提案し、FixMatchをマルチタスク学習フレームワークに拡張し、SSDGのための高品質な擬似ラベルを生成する。
提案手法の有効性を検証し,いくつかのベンチマークDGデータセット上で既存の半教師付き手法とSSDG法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T14:44:33Z) - More is Better: A Novel Multi-view Framework for Domain Generalization [28.12350681444117]
ドメイン一般化(DG)の主な課題は、観測されたソースドメインへの過度な適合を防ぐ方法である。
タスクとイメージを異なる視点として扱うことにより,新しい多視点DGフレームワークを提案する。
テスト段階では、不安定な予測を緩和するため、複数の拡張現実画像を用いて多視点予測を行う。
論文 参考訳(メタデータ) (2021-12-23T02:51:35Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Unsupervised Domain Generalization for Person Re-identification: A
Domain-specific Adaptive Framework [50.88463458896428]
ドメイン一般化(DG)は近年,人物再同定(ReID)において注目されている。
既存のメソッドは通常、ソースドメインにラベルを付ける必要があります。
本稿では、単純で効率的なドメイン固有適応化フレームワークを提案し、適応正規化モジュールで実現する。
論文 参考訳(メタデータ) (2021-11-30T02:35:51Z) - Multi-Target Domain Adaptation with Collaborative Consistency Learning [105.7615147382486]
教師なしマルチターゲットドメイン適応を実現するための協調学習フレームワークを提案する。
提案手法は,ラベル付きソースドメインとラベルなしターゲットドメインの両方に含まれるリッチな構造化情報を効果的に利用することができる。
論文 参考訳(メタデータ) (2021-06-07T08:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。