論文の概要: LFME: A Simple Framework for Learning from Multiple Experts in Domain Generalization
- arxiv url: http://arxiv.org/abs/2410.17020v2
- Date: Fri, 25 Oct 2024 11:02:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:37:28.718293
- Title: LFME: A Simple Framework for Learning from Multiple Experts in Domain Generalization
- Title(参考訳): LFME: ドメインの一般化における複数の専門家から学ぶためのシンプルなフレームワーク
- Authors: Liang Chen, Yong Zhang, Yibing Song, Zhiqiang Shen, Lingqiao Liu,
- Abstract要約: ドメイン一般化(Domain Generalization, DG)手法は、複数のソースドメインからのトレーニングデータを使用することで、目に見えないターゲットドメインにおける優れたパフォーマンスを維持することを目的としている。
この作業では、DGを改善するために、ターゲットモデルをすべてのソースドメインの専門家にすることを目的とした、複数の専門家(LFME)からの学習と呼ばれる、シンプルだが効果的なフレームワークを導入している。
- 参考スコア(独自算出の注目度): 61.16890890570814
- License:
- Abstract: Domain generalization (DG) methods aim to maintain good performance in an unseen target domain by using training data from multiple source domains. While success on certain occasions are observed, enhancing the baseline across most scenarios remains challenging. This work introduces a simple yet effective framework, dubbed learning from multiple experts (LFME), that aims to make the target model an expert in all source domains to improve DG. Specifically, besides learning the target model used in inference, LFME will also train multiple experts specialized in different domains, whose output probabilities provide professional guidance by simply regularizing the logit of the target model. Delving deep into the framework, we reveal that the introduced logit regularization term implicitly provides effects of enabling the target model to harness more information, and mining hard samples from the experts during training. Extensive experiments on benchmarks from different DG tasks demonstrate that LFME is consistently beneficial to the baseline and can achieve comparable performance to existing arts. Code is available at~\url{https://github.com/liangchen527/LFME}.
- Abstract(参考訳): ドメイン一般化(Domain Generalization, DG)手法は、複数のソースドメインからのトレーニングデータを使用することで、目に見えないターゲットドメインにおける優れたパフォーマンスを維持することを目的としている。
特定の機会における成功は観察されるが、ほとんどのシナリオにおけるベースラインの強化は依然として困難である。
この作業では、DGを改善するために、ターゲットモデルをすべてのソースドメインの専門家にすることを目的とした、複数の専門家からの学習(LFME)と呼ばれる、シンプルで効果的なフレームワークを導入している。
具体的には、推論で使用されるターゲットモデルを学ぶことに加えて、LFMEは、ターゲットモデルのロジットを規則化することで、出力確率が専門的なガイダンスを提供する複数のドメインの専門家を訓練する。
フレームワークを深く掘り下げると、導入したロジト正規化用語は、トレーニング中にターゲットモデルがより多くの情報を活用することを可能にし、専門家からハードサンプルをマイニングする効果を暗黙的に提供することが明らかになった。
異なるDGタスクのベンチマークに関する大規模な実験は、LFMEがベースラインに対して一貫して有益であり、既存のアートに匹敵するパフォーマンスを達成することを実証している。
コードは~\url{https://github.com/liangchen527/LFME}で入手できる。
関連論文リスト
- From Multimodal LLMs to Generalist Embodied Agents: Methods and Lessons [85.99268361356832]
一般身体エージェント(GEA)にMLLMを適用するプロセスを紹介する。
GEAは、多体アクショントークンーザを通じて、さまざまなドメインにまたがって自分自身をグラウンド化できる単一の統一モデルである。
本研究は,汎用エージェント構築のためのクロスドメインデータとオンラインRLを用いたトレーニングの重要性を明らかにした。
論文 参考訳(メタデータ) (2024-12-11T15:06:25Z) - Chimera: Improving Generalist Model with Domain-Specific Experts [35.706585190958634]
ドメイン特化の専門家による既存のLMMの能力を高めるために,スケーラブルで低コストなマルチモーダルパイプラインを導入する。
具体的には、プログレッシブ・トレーニング・ストラテジーを設計し、専門家モデルからの機能をジェネラリストLMMの入力に統合する。
結果として、チャート、テーブル、数学、ドキュメントドメインにまたがる多用途モデルが出来上がります。
論文 参考訳(メタデータ) (2024-12-08T16:10:42Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Meta Adaptive Task Sampling for Few-Domain Generalization [43.2043988610497]
FDG(Few-domain Generalization)は、新規タスクのごく少数のドメインから一般化可能なモデルを学ぶことを目的としている。
本稿では,メタ適応タスクサンプリング(MATS)手法を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:44:09Z) - MultiMatch: Multi-task Learning for Semi-supervised Domain Generalization [55.06956781674986]
我々は、各ソースドメインにいくつかのラベル情報がある半教師付きドメイン一般化タスクの解決に頼っている。
我々は、MultiMatchを提案し、FixMatchをマルチタスク学習フレームワークに拡張し、SSDGのための高品質な擬似ラベルを生成する。
提案手法の有効性を検証し,いくつかのベンチマークDGデータセット上で既存の半教師付き手法とSSDG法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T14:44:33Z) - More is Better: A Novel Multi-view Framework for Domain Generalization [28.12350681444117]
ドメイン一般化(DG)の主な課題は、観測されたソースドメインへの過度な適合を防ぐ方法である。
タスクとイメージを異なる視点として扱うことにより,新しい多視点DGフレームワークを提案する。
テスト段階では、不安定な予測を緩和するため、複数の拡張現実画像を用いて多視点予測を行う。
論文 参考訳(メタデータ) (2021-12-23T02:51:35Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Multi-Target Domain Adaptation with Collaborative Consistency Learning [105.7615147382486]
教師なしマルチターゲットドメイン適応を実現するための協調学習フレームワークを提案する。
提案手法は,ラベル付きソースドメインとラベルなしターゲットドメインの両方に含まれるリッチな構造化情報を効果的に利用することができる。
論文 参考訳(メタデータ) (2021-06-07T08:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。