論文の概要: One-shot Ultra-high-Resolution Generative Adversarial Network That
Synthesizes 16K Images On A Single GPU
- arxiv url: http://arxiv.org/abs/2202.13799v3
- Date: Mon, 28 Aug 2023 04:52:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 02:02:56.935378
- Title: One-shot Ultra-high-Resolution Generative Adversarial Network That
Synthesizes 16K Images On A Single GPU
- Title(参考訳): 1枚のGPUで16K画像を合成する超高解像度生成逆ネットワーク
- Authors: Junseok Oh, Donghwee Yoon and Injung Kim
- Abstract要約: OUR-GANは、単一のトレーニング画像から反復的でない16K画像を生成するワンショット生成対向ネットワークフレームワークである。
OUR-GANは12.5GBのGPUメモリと4Kの画像をわずか4.29GBで合成できる。
OUR-GANは、単一のコンシューマGPU上で反復的でないUHR画像を生成する最初のワンショット画像合成器である。
- 参考スコア(独自算出の注目度): 1.9060575156739825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a one-shot ultra-high-resolution generative adversarial network
(OUR-GAN) framework that generates non-repetitive 16K (16, 384 x 8, 640) images
from a single training image and is trainable on a single consumer GPU. OUR-GAN
generates an initial image that is visually plausible and varied in shape at
low resolution, and then gradually increases the resolution by adding detail
through super-resolution. Since OUR-GAN learns from a real
ultra-high-resolution (UHR) image, it can synthesize large shapes with fine
details and long-range coherence, which is difficult to achieve with
conventional generative models that rely on the patch distribution learned from
relatively small images. OUR-GAN can synthesize high-quality 16K images with
12.5 GB of GPU memory and 4K images with only 4.29 GB as it synthesizes a UHR
image part by part through seamless subregion-wise super-resolution.
Additionally, OUR-GAN improves visual coherence while maintaining diversity by
applying vertical positional convolution. In experiments on the ST4K and RAISE
datasets, OUR-GAN exhibited improved fidelity, visual coherency, and diversity
compared with the baseline one-shot synthesis models. To the best of our
knowledge, OUR-GAN is the first one-shot image synthesizer that generates
non-repetitive UHR images on a single consumer GPU. The synthesized image
samples are presented at https://our-gan.github.io.
- Abstract(参考訳): 我々は,1つのトレーニング画像から16K(16,384 x 8, 640)の非反復的な画像を生成し,単一のGPU上でトレーニング可能な,一発の超高解像度生成対向ネットワーク(OUR-GAN)フレームワークを提案する。
OUR-GANは、視覚的に可視であり、低解像度で形状が変化する初期画像を生成し、超解像度で詳細を追加することで徐々に解像度を向上する。
OUR-GANは、実際の超高解像度(UHR)画像から学習するため、細部と長距離コヒーレンスで大きな形状を合成することが可能であり、比較的小さな画像から得られたパッチ分布に依存する従来の生成モデルでは達成が難しい。
私たちのganは、12.5gbのgpuメモリと4kイメージで高品質な16k画像を4.29gbで合成できる。
さらに, 垂直位置畳み込みを適用し, 多様性を維持しつつ, 視覚コヒーレンスを向上させる。
st4k と raise データセットの実験では、ベースラインのワンショット合成モデルと比較して忠実性、視覚的な一貫性、多様性が向上した。
我々の知る限りでは、OUR-GANは単一のコンシューマGPU上で非反復的なUHR画像を生成する最初のワンショット画像合成器である。
合成画像サンプルはhttps://our-gan.github.io.comで公開されている。
関連論文リスト
- HoloHisto: End-to-end Gigapixel WSI Segmentation with 4K Resolution Sequential Tokenization [21.1691961979094]
デジタル病理学では、ディープラーニングに基づくイメージセグメンテーションの伝統的な方法は通常、2段階のプロセスを含む。
本稿では,ギガピクセルWSI上でのエンドツーエンドのセグメンテーションを実現するために,ホロヒスト法(HoloHisto)セグメンテーション法を提案する。
HoloHistoプラットフォームでは、超高解像度の4Kサンプルをランダムに公開しています。
論文 参考訳(メタデータ) (2024-07-03T17:49:31Z) - Is One GPU Enough? Pushing Image Generation at Higher-Resolutions with Foundation Models [4.257210316104905]
我々はPixelsmithを紹介した。これはゼロショットのテキスト・ツー・イメージ生成フレームワークで、1つのGPUで高解像度の画像をサンプリングする。
我々は,事前学習した拡散モデルの出力を1000倍に拡大できることを初めて示し,ギガピクセル画像生成への道を開いた。
論文 参考訳(メタデータ) (2024-06-11T13:33:33Z) - 4K4D: Real-Time 4D View Synthesis at 4K Resolution [86.6582179227016]
本稿では、4K解像度で動的3Dシーンを高忠実かつリアルタイムに見ることを目的とする。
ハードウェア化をサポートし,前例のないレンダリング速度を実現する4Dポイントクラウド表現を提案する。
私たちの表現は、1080p解像度のDNAレンダリングデータセットで400 FPS、4090 GPUで4K解像度のENeRF-Outdoorデータセットで80 FPSでレンダリングできます。
論文 参考訳(メタデータ) (2023-10-17T17:57:38Z) - ScaleCrafter: Tuning-free Higher-Resolution Visual Generation with
Diffusion Models [126.35334860896373]
本研究では,事前学習した拡散モデルから,トレーニング画像サイズよりもはるかに高解像度で画像を生成する能力について検討する。
注意ベースや共同拡散アプローチのような、高分解能な生成のための既存の研究は、これらの問題にうまく対処できない。
本稿では,推論中の畳み込み知覚場を動的に調整できる簡易かつ効果的な再拡張法を提案する。
論文 参考訳(メタデータ) (2023-10-11T17:52:39Z) - Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing [71.62289021118983]
本研究では、4Kモアレ画像に対処する効率的なベースラインモデルESDNetを提案する。
我々の手法は、より軽量でありながら、最先端の手法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-07-20T14:20:52Z) - Projected GANs Converge Faster [50.23237734403834]
GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
論文 参考訳(メタデータ) (2021-11-01T15:11:01Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - ORStereo: Occlusion-Aware Recurrent Stereo Matching for 4K-Resolution
Images [13.508624751092654]
Occlusion-aware Recurrent binocular Stereo matching (ORStereo) を施行した。
ORStereoは、タスクを初期予測の残差更新と改善として定式化し、大きな異なる範囲の高解像度画像を目にしないように一般化する。
合成画像と実世界の高解像度画像の両方でモデルの能力をテストします。
論文 参考訳(メタデータ) (2021-03-13T21:46:06Z) - Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis [21.40315235087551]
1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2021-01-12T22:02:54Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。