論文の概要: On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training
- arxiv url: http://arxiv.org/abs/2305.12224v2
- Date: Fri, 1 Dec 2023 15:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 18:44:12.819170
- Title: On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training
- Title(参考訳): 事前訓練を監督するクラス内・クラス内多様性のトレードオフについて
- Authors: Jieyu Zhang, Bohan Wang, Zhengyu Hu, Pang Wei Koh, Alexander Ratner
- Abstract要約: 教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
- 参考スコア(独自算出の注目度): 72.8087629914444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training datasets are critical for building state-of-the-art machine
learning models, motivating rigorous study on their impact on downstream tasks.
In this work, we study the impact of the trade-off between the intra-class
diversity (the number of samples per class) and the inter-class diversity (the
number of classes) of a supervised pre-training dataset. Empirically, we found
that with the size of the pre-training dataset fixed, the best downstream
performance comes with a balance on the intra-/inter-class diversity. To
understand the underlying mechanism, we show theoretically that the downstream
performance depends monotonically on both types of diversity. Notably, our
theory reveals that the optimal class-to-sample ratio (#classes / #samples per
class) is invariant to the size of the pre-training dataset, which motivates an
application of predicting the optimal number of pre-training classes. We
demonstrate the effectiveness of this application by an improvement of around 2
points on the downstream tasks when using ImageNet as the pre-training dataset.
- Abstract(参考訳): 事前トレーニングデータセットは、最先端の機械学習モデルの構築に不可欠であり、下流タスクへの影響に関する厳格な研究を動機付けている。
本研究では,教師付き事前学習データセットのクラス内多様性(クラスごとのサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討する。
経験的に、トレーニング済みデータセットのサイズが固定されると、最高のダウンストリームパフォーマンスはクラス内/クラス間の多様性のバランスをとることが分かりました。
基礎となるメカニズムを理解するために、下流の性能が両タイプの多様性に単調に依存することを示す。
特に, この理論は, 最適クラス対サンプル比 (#classes / #samples per class) が事前学習データセットのサイズに不変であることを明らかにしている。
我々は、ImageNetを事前学習データセットとして使用する場合、下流タスクの約2ポイントの改善により、このアプリケーションの有効性を実証する。
関連論文リスト
- Optimizing importance weighting in the presence of sub-population shifts [0.0]
トレーニングデータとテストデータの間の分散シフトは、機械学習モデルの性能を著しく損なう可能性がある。
トレーニングデータの有限標本サイズによる推定モデルのばらつきの増大を無視するため,既存の重み付けは準最適であると主張する。
重みとモデルパラメータを同時に最適化する二段階最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T09:21:10Z) - Efficient Transferability Assessment for Selection of Pre-trained Detectors [63.21514888618542]
本稿では,事前学習対象検出器の効率的な伝達性評価について検討する。
我々は、事前訓練された検出器の大規模で多様な動物園を含む検出器転送性ベンチマークを構築した。
実験により,本手法は伝達性の評価において,他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T14:23:23Z) - On the Connection between Pre-training Data Diversity and Fine-tuning
Robustness [66.30369048726145]
下流の有効ロバスト性に影響を与える主な要因はデータ量である。
各種自然および合成データソースから抽出した事前学習分布について,本研究の成果を示す。
論文 参考訳(メタデータ) (2023-07-24T05:36:19Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。