論文の概要: Improved Techniques for Training Single-Image GANs
- arxiv url: http://arxiv.org/abs/2003.11512v2
- Date: Tue, 17 Nov 2020 10:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 03:33:33.336902
- Title: Improved Techniques for Training Single-Image GANs
- Title(参考訳): 単一画像GANの訓練技術の改善
- Authors: Tobias Hinz, Matthew Fisher, Oliver Wang, Stefan Wermter
- Abstract要約: 生成モデルは、大きなデータセットからではなく、単一のイメージから学習することができる。
1つのサンプルのみから現実的な画像を生成することができるモデルを訓練するためのベストプラクティスを提案する。
私たちのモデルはトレーニングの最大6倍高速で、パラメータが少なく、画像のグローバルな構造をよりよく捉えることができます。
- 参考スコア(独自算出の注目度): 44.251222212306764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently there has been an interest in the potential of learning generative
models from a single image, as opposed to from a large dataset. This task is of
practical significance, as it means that generative models can be used in
domains where collecting a large dataset is not feasible. However, training a
model capable of generating realistic images from only a single sample is a
difficult problem. In this work, we conduct a number of experiments to
understand the challenges of training these methods and propose some best
practices that we found allowed us to generate improved results over previous
work in this space. One key piece is that unlike prior single image generation
methods, we concurrently train several stages in a sequential multi-stage
manner, allowing us to learn models with fewer stages of increasing image
resolution. Compared to a recent state of the art baseline, our model is up to
six times faster to train, has fewer parameters, and can better capture the
global structure of images.
- Abstract(参考訳): 近年,大規模なデータセットとは対照的に,単一の画像から生成モデルを学ぶ可能性への関心が高まっている。
このタスクは、大規模なデータセットの収集が不可能である領域で生成モデルが使用できることを意味するため、実用的な意味を持つ。
しかし、1つのサンプルから現実的なイメージを生成できるモデルのトレーニングは難しい問題である。
本研究では,これらの手法を訓練する上での課題を理解するために,いくつかの実験を行い,この分野におけるこれまでの作業よりも優れた結果を生み出すためのベストプラクティスを提案する。
1つの重要な点は、以前の単一画像生成方法とは異なり、複数のステージを連続的に多重ステージで訓練し、画像解像度の増大の少ないモデルを学ぶことができることである。
最近のアートベースラインと比較すると、我々のモデルはトレーニングの最大6倍速く、パラメータが少なく、画像のグローバルな構造をよりよく捉えることができる。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Diffusion Models Trained with Large Data Are Transferable Visual Models [51.9937114613558]
そこで本研究では,適度な量の目標データを用いて,基本的な視覚知覚タスクにおいて顕著な伝達性能を実現することができることを示す。
結果は、様々なタスクや実世界のデータセットにまたがる拡散モデルのバックボーンの顕著な転送可能性を示している。
論文 参考訳(メタデータ) (2024-03-10T04:23:24Z) - Is This Loss Informative? Faster Text-to-Image Customization by Tracking
Objective Dynamics [31.15864240403093]
本研究では,人気テキスト対画像パーソナライズ手法のトレーニングダイナミクスについて検討し,それらを高速化することを目的とした。
本稿では,一定組の入力に対して,正規学習目標の計算のみを必要とする,簡単な早期停止基準を提案する。
48の異なる概念に対する安定拡散実験と3つのパーソナライズ手法により,本手法の競争性能を実証した。
論文 参考訳(メタデータ) (2023-02-09T18:49:13Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Pre-Trained Image Processing Transformer [95.93031793337613]
我々は、新しい事前学習モデル、すなわち、画像処理変換器(IPT)を開発する。
本稿では、よく知られたImageNetベンチマークを用いて、大量の画像ペアを生成する。
IPTモデルは、これらの画像をマルチヘッドとマルチテールでトレーニングする。
論文 参考訳(メタデータ) (2020-12-01T09:42:46Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。