論文の概要: Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning
- arxiv url: http://arxiv.org/abs/2203.04904v1
- Date: Wed, 9 Mar 2022 17:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 18:49:57.627637
- Title: Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning
- Title(参考訳): Few-shot Vision-Language Transfer Learningのためのモデル非依存型マルチタスクファインタニング
- Authors: Zhenhailong Wang, Hang Yu, Manling Li, Han Zhao, Heng Ji
- Abstract要約: 未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 59.38343286807997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite achieving state-of-the-art zero-shot performance, existing
vision-language models, e.g., CLIP, still fall short of domain-specific
classification tasks, e.g., Fungi Classification. In the context of few-shot
transfer learning, traditional fine-tuning fails to prevent highly expressive
model from exploiting spurious correlations in the training data. On the other
hand, although model-agnostic meta-learning (MAML) presents as a natural
alternative for transfer learning, the expensive computation due to implicit
second-order optimization limits its use in large-scale models and datasets. In
this work we aim to further improve the generalization of existing
vision-language models on unseen tasks via a simple yet efficient fine-tuning
strategy based on uniform task sampling. We term our method as Model-Agnostic
Multitask Fine-tuning (MAMF). Compared with MAML, MAMF discards the bi-level
optimization and uses only first-order gradients, which makes it easily
scalable and computationally efficient. Due to the uniform task sampling
procedure, MAMF consistently outperforms the classical fine-tuning method for
few-shot transfer learning on five benchmark datasets. Empirically, we further
discover that the effectiveness of first-order MAML is highly dependent on the
zero-shot performance of the pretrained model, and our simple algorithm can
outperform first-order MAML on more challenging datasets with low zero-shot
performance.
- Abstract(参考訳): 最先端のゼロショット性能を達成したにも拘わらず、既存のビジョン言語モデル(例えばCLIP)は、ドメイン固有の分類タスク(例えばFungi Classification)にはまだ不足している。
少数ショット転送学習の文脈では、従来の微調整は、高度に表現力のあるモデルがトレーニングデータのスプリアス相関を利用するのを防げない。
一方、モデルに依存しないメタラーニング(MAML)は、トランスファーラーニングの自然な代替手段であるが、暗黙の2階最適化による高価な計算は、大規模モデルやデータセットでの使用を制限する。
本研究は、一様タスクサンプリングに基づく簡易かつ効率的な微調整戦略により、未確認タスクにおける既存の視覚言語モデルの一般化をさらに改善することを目的とする。
本手法をモデル非依存型マルチタスクファインチューニング(MAMF)と呼ぶ。
mamlと比較して、mamfは二段階最適化を捨て、一階勾配のみを使用するため、スケーラブルで計算効率がよい。
均一なタスクサンプリング手順により、MAMFは5つのベンチマークデータセット上で、数ショット転送学習のための古典的な微調整法より一貫して優れている。
経験的に, 1次mamlの有効性は事前学習したモデルのゼロショット性能に大きく依存しており, 単純なアルゴリズムでは, ゼロショット性能の低いより難しいデータセットに対して1次mamlを上回ることができる。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - MetaGPT: Merging Large Language Models Using Model Exclusive Task Arithmetic [6.46176287368784]
textbfGPTスケールモデルをマージするための textbfModel textbfExclusive textbfTask textbfArithmetic を提案する。
提案するMetaGPTは,データに依存しず,検索処理を回避し,低コストで実装が容易なメタGPTである。
論文 参考訳(メタデータ) (2024-06-17T10:12:45Z) - FREE: Faster and Better Data-Free Meta-Learning [77.90126669914324]
Data-Free Meta-Learning (DFML) は、トレーニング済みモデルのコレクションから、元のデータを必要としない知識を抽出することを目的としている。
i)事前訓練されたモデルからトレーニングタスクを迅速に回復するためのメタジェネレータ,(ii)新しい未知のタスクに一般化するためのメタラーナーを含む、より高速で優れたデータフリーなメタラーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-05-02T03:43:19Z) - Learning Semantic Proxies from Visual Prompts for Parameter-Efficient Fine-Tuning in Deep Metric Learning [13.964106147449051]
既存のソリューションは、既存の画像データセット上でトレーニング済みのモデルを微調整することに集中している。
我々は、事前学習された視覚変換器(ViT)における視覚プロンプト(VPT)の学習に基づく、新しい効果的なフレームワークを提案する。
セマンティック情報を用いた新しい近似が代表的能力よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-04T04:42:05Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Robust MAML: Prioritization task buffer with adaptive learning process
for model-agnostic meta-learning [15.894925018423665]
モデル非依存メタラーニング(MAML)は、最先端のメタラーニングアルゴリズムである。
本稿では適応型学習方式と優先順位付けタスクバッファに基づくより堅牢なMAMLを提案する。
メタ強化学習環境の実験結果は、実質的なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2021-03-15T09:34:34Z) - B-SMALL: A Bayesian Neural Network approach to Sparse Model-Agnostic
Meta-Learning [2.9189409618561966]
本稿では,b-smallアルゴリズムと呼ぶベイズ型ニューラルネットワークに基づくmamlアルゴリズムを提案する。
分類タスクと回帰タスクを用いたB-MAMLのパフォーマンスを実証し、MDLを用いたスパーシファイングBNNのトレーニングがモデルのパラメータフットプリントを実際に改善することを強調した。
論文 参考訳(メタデータ) (2021-01-01T09:19:48Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - BI-MAML: Balanced Incremental Approach for Meta Learning [9.245355087256314]
本稿では,複数のタスクを学習するための新しいバランス付きインクリメンタルモデルAgnostic Meta Learningシステム(BI-MAML)を提案する。
本手法では,従来のタスクを忘れることなく,新たなタスクにモデルを漸進的に適応させるメタ更新ルールを実装している。
本システムでは,数ショットでメタ更新を行い,その達成に成功している。
論文 参考訳(メタデータ) (2020-06-12T18:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。