論文の概要: The Role of Pre-training Data in Transfer Learning
- arxiv url: http://arxiv.org/abs/2302.13602v1
- Date: Mon, 27 Feb 2023 09:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:15:11.407455
- Title: The Role of Pre-training Data in Transfer Learning
- Title(参考訳): 転校学習における事前学習データの役割
- Authors: Rahim Entezari, Mitchell Wortsman, Olga Saukh, M.Moein Shariatnia,
Hanie Sedghi, Ludwig Schmidt
- Abstract要約: プレトレーニングデータ分布が複数ショットおよびフル微調整性能に与える影響について検討する。
プレトレーニングされたデータソースの選択は、数ショットの転送には不可欠であることがわかったが、その役割は微調整のためにより多くのデータが利用可能になるにつれて減少する。
- 参考スコア(独自算出の注目度): 20.768366728182997
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The transfer learning paradigm of model pre-training and subsequent
fine-tuning produces high-accuracy models. While most studies recommend scaling
the pre-training size to benefit most from transfer learning, a question
remains: what data and method should be used for pre-training? We investigate
the impact of pre-training data distribution on the few-shot and full
fine-tuning performance using 3 pre-training methods (supervised, contrastive
language-image and image-image), 7 pre-training datasets, and 9 downstream
datasets. Through extensive controlled experiments, we find that the choice of
the pre-training data source is essential for the few-shot transfer, but its
role decreases as more data is made available for fine-tuning. Additionally, we
explore the role of data curation and examine the trade-offs between label
noise and the size of the pre-training dataset. We find that using 2000X more
pre-training data from LAION can match the performance of supervised ImageNet
pre-training. Furthermore, we investigate the effect of pre-training methods,
comparing language-image contrastive vs. image-image contrastive, and find that
the latter leads to better downstream accuracy
- Abstract(参考訳): モデルの事前学習とその後の微調整のトランスファー学習パラダイムは、高い精度のモデルを生み出す。
ほとんどの研究は、転校学習の恩恵を受けるために、事前トレーニングサイズのスケーリングを推奨しているが、疑問は残る: 事前トレーニングに使用するデータとメソッドは何か?
本研究では,3つの事前学習法(教師あり,コントラスト的言語画像と画像画像),7つの事前学習データセット,9つの下流データセットを用いて,プリトレーニングデータ分布がマイトショットおよびフル微調整性能に与える影響について検討した。
広範に制御された実験により,事前学習したデータソースの選択はわずかな転送には不可欠であるが,より詳細なチューニングが可能なデータが増えるにつれてその役割は減少することがわかった。
さらに,データキュレーションの役割について検討し,ラベルノイズと事前学習データセットのサイズとのトレードオフを検討する。
LAIONから2000X以上の事前学習データを使用することで、教師付きImageNet事前学習のパフォーマンスにマッチすることがわかった。
さらに,事前学習手法の効果について検討し,言語画像のコントラストと画像画像のコントラストの比較を行い,後者が下流の精度の向上につながることを確認した。
関連論文リスト
- Enhancing pretraining efficiency for medical image segmentation via transferability metrics [0.0]
医用画像のセグメンテーションタスクでは、ラベル付きトレーニングデータの不足が大きな課題となっている。
本稿では,事前学習したモデルが対象データをいかに頑健に表現できるかを計測する,対照的な学習に基づく新しい伝達可能性指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T12:11:52Z) - Better with Less: A Data-Active Perspective on Pre-Training Graph Neural
Networks [39.71761440499148]
グラフニューラルネットワーク(GNN)の事前トレーニングは、ラベルのないデータで下流タスクの転送可能な知識を学ぶことを目的としている。
より少ないが慎重に選択されたデータはGNNモデルに入力される。
実験の結果,提案手法により,より少ないトレーニングデータとより優れたダウンストリーム性能を有する効率的な事前学習モデルが得られることがわかった。
論文 参考訳(メタデータ) (2023-11-02T07:09:59Z) - On the Connection between Pre-training Data Diversity and Fine-tuning
Robustness [66.30369048726145]
下流の有効ロバスト性に影響を与える主な要因はデータ量である。
各種自然および合成データソースから抽出した事前学習分布について,本研究の成果を示す。
論文 参考訳(メタデータ) (2023-07-24T05:36:19Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Effect of large-scale pre-training on full and few-shot transfer
learning for natural and medical images [2.030567625639093]
我々は,自然(ImageNet-21k/1k)と医用胸部X線画像のいずれにおいても,大規模な事前トレーニングを行う。
自然画像領域と医用画像領域の両方の異なるターゲットデータセットを用いて、フルショットと少数ショットの転送を比較した。
我々の観察は、近縁なデータセットの事前トレーニングと転送は、事前トレーニング中にモデルとデータサイズが増加するという明らかな利点を示すが、ソースとターゲットデータセットがさらに離れている場合、そのような利点は明らかでないことを示す。
論文 参考訳(メタデータ) (2021-05-31T21:55:56Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - Efficient Conditional Pre-training for Transfer Learning [71.01129334495553]
本稿では,事前学習データセットから関連するサブセットを選択するための効率的なフィルタリング手法を提案する。
我々は、教師なし設定と教師なし設定の両方において、ImageNetで事前トレーニングを行うことで、我々の技術を検証する。
我々は、サブセットで利用可能なモデルをチューニングし、大規模なデータセットからフィルタリングされたデータセットで事前トレーニングすることで、標準のImageNet事前トレーニングを1~3%改善する。
論文 参考訳(メタデータ) (2020-11-20T06:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。