論文の概要: Meta-Learning via Classifier(-free) Guidance
- arxiv url: http://arxiv.org/abs/2210.08942v1
- Date: Mon, 17 Oct 2022 11:09:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:31:36.067716
- Title: Meta-Learning via Classifier(-free) Guidance
- Title(参考訳): Classifier(-free) Guidanceによるメタラーニング
- Authors: Elvis Nava, Seijin Kobayashi, Yifei Yin, Robert K. Katzschmann,
Benjamin F. Grewe
- Abstract要約: 最先端のメタ学習技術は、目に見えないタスクへのゼロショット適応を最適化しない。
本稿では,自然言語指導によるゼロショット性能向上のためのメタ学習手法を提案する。
- 参考スコア(独自算出の注目度): 5.812784742024491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art meta-learning techniques do not optimize for zero-shot
adaptation to unseen tasks, a setting in which humans excel. On the contrary,
meta-learning algorithms learn hyperparameters and weight initializations that
explicitly optimize for few-shot learning performance. In this work, we take
inspiration from recent advances in generative modeling and
language-conditioned image synthesis to propose meta-learning techniques that
use natural language guidance to achieve higher zero-shot performance compared
to the state-of-the-art. We do so by recasting the meta-learning problem as a
multi-modal generative modeling problem: given a task, we consider its adapted
neural network weights and its natural language description as equivalent
multi-modal task representations. We first train an unconditional generative
hypernetwork model to produce neural network weights; then we train a second
"guidance" model that, given a natural language task description, traverses the
hypernetwork latent space to find high-performance task-adapted weights in a
zero-shot manner. We explore two alternative approaches for latent space
guidance: "HyperCLIP"-based classifier guidance and a conditional Hypernetwork
Latent Diffusion Model ("HyperLDM"), which we show to benefit from the
classifier-free guidance technique common in image generation. Finally, we
demonstrate that our approaches outperform existing meta-learning methods with
zero-shot learning experiments on our Meta-VQA dataset, which we specifically
constructed to reflect the multi-modal meta-learning setting.
- Abstract(参考訳): 最先端のメタ学習技術は、人間が卓越した環境である見えないタスクへのゼロショット適応を最適化しない。
それとは対照的に、メタ学習アルゴリズムはハイパーパラメータとウェイト初期化を学習する。
本研究では、生成モデルと言語条件の画像合成の最近の進歩からインスピレーションを得て、自然言語指導によるゼロショット性能向上のためのメタラーニング手法を提案する。
我々は,メタラーニング問題をマルチモーダルな生成モデル問題として再キャストすることで,その課題を与えられたニューラルネットワークの重み付けとその自然言語記述を等価なマルチモーダルなタスク表現として検討する。
まず、ニューラルネットワークの重みを生成するために、無条件生成型ハイパーネットワークモデルをトレーニングし、次に、自然言語のタスク記述を前提として、ハイパーネットワークの潜在空間を横断して、ゼロショットで高性能なタスク適応型重みを見つける第2の"ガイダンス"モデルを訓練する。
我々は,「ハイパークリップ」に基づく分類器指導と条件付きハイパーネットワーク潜在拡散モデル(hyperldm)の2つの代替手法を検討した。
最後に,マルチモーダルなメタ学習設定を反映して構築したMeta-VQAデータセットにおいて,ゼロショット学習実験による既存のメタ学習手法よりも優れていることを示す。
関連論文リスト
- Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - Meta Learning to Bridge Vision and Language Models for Multimodal
Few-Shot Learning [38.37682598345653]
視覚モデルと言語モデルとのギャップを埋めるために,マルチモーダルなメタ学習手法を導入する。
我々は,凍結した大規模視覚と言語モデルを効率的にブリッジするためにメタラーナーとして機能するメタマッパーネットワークを定義する。
我々は,最近提案されたマルチモーダル・スショット・ベンチマークに対するアプローチを評価し,新しい視覚概念を単語に結合する速度を計測した。
論文 参考訳(メタデータ) (2023-02-28T17:46:18Z) - Unsupervised Meta-Learning through Latent-Space Interpolation in
Generative Models [11.943374020641214]
生成モデルを用いてメタタスクを生成する手法について述べる。
提案手法であるLAtent Space Interpolation Unsupervised Meta-learning (LASium)が,現在の教師なし学習ベースラインよりも優れているか,あるいは競合していることがわかった。
論文 参考訳(メタデータ) (2020-06-18T02:10:56Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。