論文の概要: One to Transfer All: A Universal Transfer Framework for Vision
Foundation Model with Few Data
- arxiv url: http://arxiv.org/abs/2111.12386v1
- Date: Wed, 24 Nov 2021 10:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 15:33:10.064197
- Title: One to Transfer All: A Universal Transfer Framework for Vision
Foundation Model with Few Data
- Title(参考訳): 全てを転送するフレームワーク - データが少ないビジョンファウンデーションモデルのためのユニバーサルトランスファーフレームワーク
- Authors: Yujie Wang, Junqin Huang, Mengya Gao, Yichao Wu, Zhenfei Yin, Ding
Liang, Junjie Yan
- Abstract要約: 我々は,任意のVFM(Vision Foundation Model)をダウンストリームデータが少ないダウンストリームタスクに転送するためのOTA(Transfer All)を提案する。
OTAは、転送時に上流データ、VFM、下流タスクに依存しない。
大規模な実験により,本手法の有効性と優位性を検証した。
- 参考スコア(独自算出の注目度): 56.14205030170083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The foundation model is not the last chapter of the model production
pipeline. Transferring with few data in a general way to thousands of
downstream tasks is becoming a trend of the foundation model's application. In
this paper, we proposed a universal transfer framework: One to Transfer All
(OTA) to transfer any Vision Foundation Model (VFM) to any downstream tasks
with few downstream data. We first transfer a VFM to a task-specific model by
Image Re-representation Fine-tuning (IRF) then distilling knowledge from a
task-specific model to a deployed model with data produced by Downstream
Image-Guided Generation (DIGG). OTA has no dependency on upstream data, VFM,
and downstream tasks when transferring. It also provides a way for VFM
researchers to release their upstream information for better transferring but
not leaking data due to privacy requirements. Massive experiments validate the
effectiveness and superiority of our methods in few data setting. Our code will
be released.
- Abstract(参考訳): ファウンデーションモデルは、モデル生産パイプラインの最後の章ではありません。
数千のダウンストリームタスクに一般的な方法でデータの少ない転送は、ファンデーションモデルの応用のトレンドになりつつある。
本稿では、VFM(Vision Foundation Model)をダウンストリームデータが少ないダウンストリームタスクに転送するための、OTA(One to Transfer All)というユニバーサルトランスファーフレームワークを提案する。
まず、画像再構成ファインチューニング(IRF)によりタスク固有モデルにVFMを転送し、ダウンストリーム画像ガイド生成(DIGG)によって生成されたデータを用いてタスク固有モデルからデプロイモデルに知識を蒸留する。
OTAは、転送時に上流データ、VFM、下流タスクに依存しない。
また、VFM研究者は、アップストリーム情報をより良い転送のためにリリースする手段を提供するが、プライバシ要求のためにデータをリークしない。
大規模実験により,提案手法の有効性と優越性を検証できた。
私たちのコードはリリースされます。
関連論文リスト
- Transferring Knowledge from Large Foundation Models to Small Downstream Models [40.38657103236168]
事前訓練されたモデル間で知識を伝達するための適応的特徴伝達(AFT)を導入する。
AFTは純粋に機能で動作し、より小さな下流モデルから事前訓練されたモデルの選択を分離する。
AFTは、同様の計算コストの代替よりも、ダウンストリーム性能が大幅に向上する。
論文 参考訳(メタデータ) (2024-06-11T15:06:15Z) - Ambient Diffusion Posterior Sampling: Solving Inverse Problems with
Diffusion Models trained on Corrupted Data [56.81246107125692]
Ambient Diffusion Posterior Smpling (A-DPS) は、ある種類の腐敗に対して事前訓練された生成モデルである。
A-DPSは、いくつかの画像復元タスクにおいて、クリーンなデータで訓練されたモデルよりも、速度と性能の両方で優れていることが示される。
我々はAmbient Diffusionフレームワークを拡張して、FourierサブサンプルのマルチコイルMRI測定にのみアクセスしてMRIモデルをトレーニングする。
論文 参考訳(メタデータ) (2024-03-13T17:28:20Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - When does Bias Transfer in Transfer Learning? [89.22641454588278]
トランスファーラーニングを使用して、トレーニング済みの"ソースモデル"を下流の"ターゲットタスク"に適応させることで、ダウンサイドのないように見えるパフォーマンスを劇的に向上させることができる。
結局のところ、バイアス伝達や、モデルがターゲットクラスに適応した後でも、ソースモデルのバイアスが持続する傾向というマイナス面が存在することを実証する。
論文 参考訳(メタデータ) (2022-07-06T17:58:07Z) - InPars: Data Augmentation for Information Retrieval using Large Language
Models [5.851846467503597]
本研究では,大規模な事前学習型言語モデルの,情報検索タスクのための合成データ生成機能を利用する。
我々は、教師なしデータセットのみに微調整されたモデルが、BM25のような強力なベースラインより優れていることを示す。
教師付きデータと我々の合成データの両方に微調整されたレトリバーは、教師付きデータにのみ微調整されたモデルよりも優れたゼロショット転送を実現する。
論文 参考訳(メタデータ) (2022-02-10T16:52:45Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - An Improved Transfer Model: Randomized Transferable Machine [32.50263074872975]
そこで本研究では,Randomized Transferable Machine (RTM) と呼ばれる新しいトランスファーモデルを提案する。
具体的には,既存の特徴量に基づく転送手法から得られた新たなソースとターゲットデータについて検討する。
原則として、汚職が多くなるほど、新しいターゲットデータの確率が高くなると、構築されたソースデータ人口でカバーできる。
論文 参考訳(メタデータ) (2020-11-27T09:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。