論文の概要: When, Why, and Which Pretrained GANs Are Useful?
- arxiv url: http://arxiv.org/abs/2202.08937v1
- Date: Thu, 17 Feb 2022 23:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 13:15:48.884565
- Title: When, Why, and Which Pretrained GANs Are Useful?
- Title(参考訳): トレーニング済みのGANはいつ、なぜ、どれが役に立つのか?
- Authors: Timofey Grigoryev, Andrey Voynov, Artem Babenko
- Abstract要約: 我々は,事前訓練されたチェックポイントによるGANトレーニングプロセスの初期化が,個々のサンプルの忠実度よりもモデルのカバレッジに影響を及ぼすことを示す。
対象タスクの微調整に最も適した適切なGANチェックポイントを選択するための簡単なレシピを述べる。
- 参考スコア(独自算出の注目度): 33.47417595159493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The literature has proposed several methods to finetune pretrained GANs on
new datasets, which typically results in higher performance compared to
training from scratch, especially in the limited-data regime. However, despite
the apparent empirical benefits of GAN pretraining, its inner mechanisms were
not analyzed in-depth, and understanding of its role is not entirely clear.
Moreover, the essential practical details, e.g., selecting a proper pretrained
GAN checkpoint, currently do not have rigorous grounding and are typically
determined by trial and error.
This work aims to dissect the process of GAN finetuning. First, we show that
initializing the GAN training process by a pretrained checkpoint primarily
affects the model's coverage rather than the fidelity of individual samples.
Second, we explicitly describe how pretrained generators and discriminators
contribute to the finetuning process and explain the previous evidence on the
importance of pretraining both of them. Finally, as an immediate practical
benefit of our analysis, we describe a simple recipe to choose an appropriate
GAN checkpoint that is the most suitable for finetuning to a particular target
task. Importantly, for most of the target tasks, Imagenet-pretrained GAN,
despite having poor visual quality, appears to be an excellent starting point
for finetuning, resembling the typical pretraining scenario of discriminative
computer vision models.
- Abstract(参考訳): 論文は、新しいデータセットで事前訓練されたganを微調整するいくつかの方法を提案しており、これは通常、スクラッチから、特に限られたデータレジームで、トレーニングよりも高いパフォーマンスをもたらす。
しかし、GANプレトレーニングの明らかな経験的利点にもかかわらず、その内部メカニズムは詳細に分析されず、その役割の理解は明らかになっていない。
さらに、例えば、適切な事前訓練されたGANチェックポイントを選択するなど、基本的な実践的詳細は、厳密な根拠を持たず、典型的には試行錯誤によって決定される。
この研究は、ガン微調整の過程を解明することを目的としている。
まず,事前学習したチェックポイントによるGANトレーニングプロセスの初期化が,個々のサンプルの忠実度よりもモデルのカバレッジに影響を与えることを示す。
第2に,事前学習された生成器と判別器が微調整プロセスにどのように寄与するかを明示的に記述し,両者の事前学習の重要性に関するこれまでの証拠を説明する。
最後に,本解析の直接的な実用的利点として,特定の対象タスクの微調整に最も適したganチェックポイントを選択するための簡単なレシピについて述べる。
重要なことは、ほとんどのタスクにおいて、Imagenetで事前訓練されたGANは、視覚的品質が劣っているにもかかわらず、識別型コンピュータビジョンモデルの典型的な事前訓練シナリオと同様、微調整の出発点として優れたものと思われる。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - On Transfer of Adversarial Robustness from Pretraining to Downstream
Tasks [1.8900691517352295]
下流タスクにおける線形予測子のロバスト性は、その基盤となる表現のロバスト性によって制約できることを示す。
本結果は,適応後の信頼性向上のために,表現関数の要求を特徴付けるための最初のステップを提供する。
論文 参考訳(メタデータ) (2022-08-07T23:00:40Z) - Towards Inadequately Pre-trained Models in Transfer Learning [37.66278189011681]
より優れたImageNet事前訓練モデルでは、下流タスクへの転送性が向上することが示されている。
本稿では,同じ事前学習過程において,十分に訓練されていない中新世のモデルが,完全に訓練されたモデルより優れていることを示す。
我々の発見は、事前学習中、モデルはまず大きな特異値に対応するスペクトル成分を学習する傾向があることを示唆している。
論文 参考訳(メタデータ) (2022-03-09T12:15:55Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。