論文の概要: Improved Techniques for Training Single-Image GANs
- arxiv url: http://arxiv.org/abs/2003.11512v2
- Date: Tue, 17 Nov 2020 10:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 03:33:33.336902
- Title: Improved Techniques for Training Single-Image GANs
- Title(参考訳): 単一画像GANの訓練技術の改善
- Authors: Tobias Hinz, Matthew Fisher, Oliver Wang, Stefan Wermter
- Abstract要約: 生成モデルは、大きなデータセットからではなく、単一のイメージから学習することができる。
1つのサンプルのみから現実的な画像を生成することができるモデルを訓練するためのベストプラクティスを提案する。
私たちのモデルはトレーニングの最大6倍高速で、パラメータが少なく、画像のグローバルな構造をよりよく捉えることができます。
- 参考スコア(独自算出の注目度): 44.251222212306764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently there has been an interest in the potential of learning generative
models from a single image, as opposed to from a large dataset. This task is of
practical significance, as it means that generative models can be used in
domains where collecting a large dataset is not feasible. However, training a
model capable of generating realistic images from only a single sample is a
difficult problem. In this work, we conduct a number of experiments to
understand the challenges of training these methods and propose some best
practices that we found allowed us to generate improved results over previous
work in this space. One key piece is that unlike prior single image generation
methods, we concurrently train several stages in a sequential multi-stage
manner, allowing us to learn models with fewer stages of increasing image
resolution. Compared to a recent state of the art baseline, our model is up to
six times faster to train, has fewer parameters, and can better capture the
global structure of images.
- Abstract(参考訳): 近年,大規模なデータセットとは対照的に,単一の画像から生成モデルを学ぶ可能性への関心が高まっている。
このタスクは、大規模なデータセットの収集が不可能である領域で生成モデルが使用できることを意味するため、実用的な意味を持つ。
しかし、1つのサンプルから現実的なイメージを生成できるモデルのトレーニングは難しい問題である。
本研究では,これらの手法を訓練する上での課題を理解するために,いくつかの実験を行い,この分野におけるこれまでの作業よりも優れた結果を生み出すためのベストプラクティスを提案する。
1つの重要な点は、以前の単一画像生成方法とは異なり、複数のステージを連続的に多重ステージで訓練し、画像解像度の増大の少ないモデルを学ぶことができることである。
最近のアートベースラインと比較すると、我々のモデルはトレーニングの最大6倍速く、パラメータが少なく、画像のグローバルな構造をよりよく捉えることができる。
関連論文リスト
- A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - One-Shot Image Restoration [0.0]
提案手法の適用性, 堅牢性, 計算効率を, 教師付き画像の劣化と超解像に応用できることを実験的に示す。
本結果は,学習モデルのサンプル効率,一般化,時間複雑性を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-04-26T14:03:23Z) - Is This Loss Informative? Faster Text-to-Image Customization by Tracking
Objective Dynamics [31.15864240403093]
本研究では,人気テキスト対画像パーソナライズ手法のトレーニングダイナミクスについて検討し,それらを高速化することを目的とした。
本稿では,一定組の入力に対して,正規学習目標の計算のみを必要とする,簡単な早期停止基準を提案する。
48の異なる概念に対する安定拡散実験と3つのパーソナライズ手法により,本手法の競争性能を実証した。
論文 参考訳(メタデータ) (2023-02-09T18:49:13Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Pre-Trained Image Processing Transformer [95.93031793337613]
我々は、新しい事前学習モデル、すなわち、画像処理変換器(IPT)を開発する。
本稿では、よく知られたImageNetベンチマークを用いて、大量の画像ペアを生成する。
IPTモデルは、これらの画像をマルチヘッドとマルチテールでトレーニングする。
論文 参考訳(メタデータ) (2020-12-01T09:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。