論文の概要: Explore and Exploit the Diverse Knowledge in Model Zoo for Domain
Generalization
- arxiv url: http://arxiv.org/abs/2306.02595v1
- Date: Mon, 5 Jun 2023 04:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:49:53.395046
- Title: Explore and Exploit the Diverse Knowledge in Model Zoo for Domain
Generalization
- Title(参考訳): ドメイン一般化のためのモデル動物園における多様な知識の探索と展開
- Authors: Yimeng Chen, Tianyang Hu, Fengwei Zhou, Zhenguo Li, Zhiming Ma
- Abstract要約: 本稿では,最強モデルに限らず,多様な事前学習モデルを統合するアルゴリズムを提案する。
提案手法は,様々なデータセットに対する最先端の実証結果を示し,多様な知識の活用によるメリットを検証した。
- 参考スコア(独自算出の注目度): 40.28810906825559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of pretrained models, as a result of advancements in
pretraining techniques, has led to the emergence of a vast zoo of publicly
available models. Effectively utilizing these resources to obtain models with
robust out-of-distribution generalization capabilities for downstream tasks has
become a crucial area of research. Previous research has primarily focused on
identifying the most powerful models within the model zoo, neglecting to fully
leverage the diverse inductive biases contained within. This paper argues that
the knowledge contained in weaker models is valuable and presents a method for
leveraging the diversity within the model zoo to improve out-of-distribution
generalization capabilities. Specifically, we investigate the behaviors of
various pretrained models across different domains of downstream tasks by
characterizing the variations in their encoded representations in terms of two
dimensions: diversity shift and correlation shift. This characterization
enables us to propose a new algorithm for integrating diverse pretrained
models, not limited to the strongest models, in order to achieve enhanced
out-of-distribution generalization performance. Our proposed method
demonstrates state-of-the-art empirical results on a variety of datasets, thus
validating the benefits of utilizing diverse knowledge.
- Abstract(参考訳): 事前訓練されたモデルの増加は、事前訓練技術の進歩の結果であり、公に入手可能なモデルの広大な動物園が出現した。
これらの資源を効果的に活用して、下流タスクのロバストな分散汎化能力を持つモデルを得るのが重要な研究分野となっている。
これまでの研究は主に、モデル動物園内の最も強力なモデルを特定することに焦点を当ててきた。
本稿では,弱いモデルに含まれる知識は有用であり,分散一般化能力を向上させるためにモデル動物園内の多様性を活用する方法を提案する。
具体的には,エンコード表現の変化を2次元の多様性シフトと相関シフトという観点から特徴付けることにより,下流タスクの異なる領域にまたがる様々な事前学習モデルの挙動について検討する。
この特徴付けにより,最強モデルに限らず,多様な事前学習モデルを統合するアルゴリズムが提案され,分散外分布一般化性能の向上が期待できる。
提案手法は,様々なデータセットに対する最先端の実証結果を示し,多様な知識を活用するメリットを検証した。
関連論文リスト
- Learning Multimodal Latent Generative Models with Energy-Based Prior [3.6648642834198797]
EBMに潜時生成モデルを統合する新しいフレームワークを提案する。
このアプローチは、より表現力があり、情報的であり、複数のモダリティにまたがる情報のより良いキャプチャをもたらす。
論文 参考訳(メタデータ) (2024-09-30T01:38:26Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Has Your Pretrained Model Improved? A Multi-head Posterior Based
Approach [25.927323251675386]
我々は、世界的知識の源として各エンティティに関連するメタ機能を活用し、モデルからエンティティ表現を採用する。
本稿では,これらの表現とメタ機能との整合性を,事前学習モデルの評価指標として用いることを提案する。
提案手法の有効性は,関係データセットを用いたモデル,大規模言語モデル,画像モデルなど,様々な領域で実証されている。
論文 参考訳(メタデータ) (2024-01-02T17:08:26Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Towards Mode Balancing of Generative Models via Diversity Weights [1.2354076490479513]
トレーニングデータセットのモードのバランスをとることで、モデルの出力の多様性を高めるトレーニングスキームであるダイバーシティウェイトを提示する。
我々は、より一般的に、生成機械学習における多様性、エクイティ、包摂性への我々のアプローチの関連と、特に計算的創造性について論じる。
論文 参考訳(メタデータ) (2023-04-24T09:55:17Z) - SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models [58.78043959556283]
本研究は,Low-Rank Adaptation (LoRA)ファインチューニング手法を含む,異なる微調整手法によるモデルの挙動について検討する。
解析の結果、LoRAファインチューニングは様々なシナリオにおけるフルファインチューニングよりも、OODの一般化性能が大幅に向上していることが判明した。
論文 参考訳(メタデータ) (2022-10-10T16:07:24Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Sample Efficient Reinforcement Learning via Model-Ensemble Exploration
and Exploitation [3.728946517493471]
MEEEは楽観的な探索と重み付けによる搾取からなるモデルアンサンブル法である。
我々の手法は、特にサンプル複雑性において、他のモデルフリーおよびモデルベース最先端手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-05T07:18:20Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。