論文の概要: OUR-GAN: One-shot Ultra-high-Resolution Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2202.13799v1
- Date: Mon, 28 Feb 2022 13:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 15:40:48.242730
- Title: OUR-GAN: One-shot Ultra-high-Resolution Generative Adversarial Networks
- Title(参考訳): OUR-GAN: ワンショット超解像生成対向ネットワーク
- Authors: Donghwee Yoon, Junseok Oh, Hayeong Choi, Minjae Yi and Injung Kim
- Abstract要約: OUR-GANは、単一のトレーニング画像から4K以上の解像度の非反復画像を生成する。
OUR-GANは低解像度で視覚的にコヒーレントな画像を生成し、超高解像度で徐々に解像度を増大させる。
ST4KとRAISEデータセットの実験では、OUR-GANは既存の手法と比較して忠実度、視覚的コヒーレンシー、多様性が改善された。
- 参考スコア(独自算出の注目度): 2.8585191438447892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose OUR-GAN, the first one-shot ultra-high-resolution (UHR) image
synthesis framework that generates non-repetitive images with 4K or higher
resolution from a single training image. OUR-GAN generates a visually coherent
image at low resolution and then gradually increases the resolution by
super-resolution. Since OUR-GAN learns from a real UHR image, it can synthesize
large-scale shapes with fine details while maintaining long-range coherence,
which is difficult with conventional generative models that generate large
images based on the patch distribution learned from relatively small images.
OUR-GAN applies seamless subregion-wise super-resolution that synthesizes 4k or
higher UHR images with limited memory, preventing discontinuity at the
boundary. Additionally, OUR-GAN improves visual coherence maintaining diversity
by adding vertical positional embeddings to the feature maps. In experiments on
the ST4K and RAISE datasets, OUR-GAN exhibited improved fidelity, visual
coherency, and diversity compared with existing methods. The synthesized images
are presented at https://anonymous-62348.github.io.
- Abstract(参考訳): 本稿では,1つの訓練画像から4k以上の非繰り返し画像を生成する,最初の1ショット超高解像度(uhr)画像合成フレームワークであるour-ganを提案する。
OUR-GANは低解像度で視覚的にコヒーレントな画像を生成し、超解像度で徐々に解像度を増大させる。
OUR-GANは実際のUHR画像から学習するため、比較的小さな画像から学習したパッチ分布に基づいて大きな画像を生成する従来の生成モデルでは困難である長距離コヒーレンスを維持しながら、細部まで微細な形状を合成することができる。
OUR-GANは、4k以上のUHR画像を限られたメモリで合成し、境界における不連続を防止する。
さらに、機能マップに垂直位置埋め込みを追加することで、多様性を維持するビジュアルコヒーレンスも改善します。
st4k と raise データセットの実験では、既存の手法に比べて忠実性、視覚的な一貫性、多様性が向上した。
合成画像はhttps://anonymous-62348.github.ioで公開されている。
関連論文リスト
- REDUCIO! Generating 1024$\times$1024 Video within 16 Seconds using Extremely Compressed Motion Latents [110.41795676048835]
大規模アプリケーションにとって重要な障害のひとつは、高価なトレーニングと推論コストである。
本稿では,ビデオには画像よりもはるかに冗長な情報が含まれており,非常に少ない動きの潜伏者によってエンコード可能であることを論じる。
我々は、合計3.2Kのトレーニング時間でReduceio-DiTをトレーニングし、1つのA100 GPUで15.5秒以内に16フレームの1024*1024ビデオクリップを生成する。
論文 参考訳(メタデータ) (2024-11-20T18:59:52Z) - HoloHisto: End-to-end Gigapixel WSI Segmentation with 4K Resolution Sequential Tokenization [21.1691961979094]
デジタル病理学では、ディープラーニングに基づくイメージセグメンテーションの伝統的な方法は通常、2段階のプロセスを含む。
本稿では,ギガピクセルWSI上でのエンドツーエンドのセグメンテーションを実現するために,ホロヒスト法(HoloHisto)セグメンテーション法を提案する。
HoloHistoプラットフォームでは、超高解像度の4Kサンプルをランダムに公開しています。
論文 参考訳(メタデータ) (2024-07-03T17:49:31Z) - Is One GPU Enough? Pushing Image Generation at Higher-Resolutions with Foundation Models [4.257210316104905]
我々はPixelsmithを紹介した。これはゼロショットのテキスト・ツー・イメージ生成フレームワークで、1つのGPUで高解像度の画像をサンプリングする。
我々は,事前学習した拡散モデルの出力を1000倍に拡大できることを初めて示し,ギガピクセル画像生成への道を開いた。
論文 参考訳(メタデータ) (2024-06-11T13:33:33Z) - 4K4D: Real-Time 4D View Synthesis at 4K Resolution [86.6582179227016]
本稿では、4K解像度で動的3Dシーンを高忠実かつリアルタイムに見ることを目的とする。
ハードウェア化をサポートし,前例のないレンダリング速度を実現する4Dポイントクラウド表現を提案する。
私たちの表現は、1080p解像度のDNAレンダリングデータセットで400 FPS、4090 GPUで4K解像度のENeRF-Outdoorデータセットで80 FPSでレンダリングできます。
論文 参考訳(メタデータ) (2023-10-17T17:57:38Z) - ScaleCrafter: Tuning-free Higher-Resolution Visual Generation with
Diffusion Models [126.35334860896373]
本研究では,事前学習した拡散モデルから,トレーニング画像サイズよりもはるかに高解像度で画像を生成する能力について検討する。
注意ベースや共同拡散アプローチのような、高分解能な生成のための既存の研究は、これらの問題にうまく対処できない。
本稿では,推論中の畳み込み知覚場を動的に調整できる簡易かつ効果的な再拡張法を提案する。
論文 参考訳(メタデータ) (2023-10-11T17:52:39Z) - Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing [71.62289021118983]
本研究では、4Kモアレ画像に対処する効率的なベースラインモデルESDNetを提案する。
我々の手法は、より軽量でありながら、最先端の手法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-07-20T14:20:52Z) - Projected GANs Converge Faster [50.23237734403834]
GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
論文 参考訳(メタデータ) (2021-11-01T15:11:01Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - ORStereo: Occlusion-Aware Recurrent Stereo Matching for 4K-Resolution
Images [13.508624751092654]
Occlusion-aware Recurrent binocular Stereo matching (ORStereo) を施行した。
ORStereoは、タスクを初期予測の残差更新と改善として定式化し、大きな異なる範囲の高解像度画像を目にしないように一般化する。
合成画像と実世界の高解像度画像の両方でモデルの能力をテストします。
論文 参考訳(メタデータ) (2021-03-13T21:46:06Z) - Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis [21.40315235087551]
1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2021-01-12T22:02:54Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。