論文の概要: Arbitrary-Scale Image Synthesis
- arxiv url: http://arxiv.org/abs/2204.02273v1
- Date: Tue, 5 Apr 2022 15:10:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:07:59.639266
- Title: Arbitrary-Scale Image Synthesis
- Title(参考訳): 任意スケール画像合成
- Authors: Evangelos Ntavelis, Mohamad Shahbazi, Iason Kastanis, Radu Timofte,
Martin Danelljan, Luc Van Gool
- Abstract要約: 位置エンコーディングにより、1つの敵ネットワークをトレーニングし、異なるスケールの画像を生成することができる。
生成器の変換層に不変なスケール一貫性のある位置符号化の設計を提案する。
画像合成のための様々な一般的なデータセットに対して,連続したスケールの競合結果を示す。
- 参考スコア(独自算出の注目度): 149.0290830305808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positional encodings have enabled recent works to train a single adversarial
network that can generate images of different scales. However, these approaches
are either limited to a set of discrete scales or struggle to maintain good
perceptual quality at the scales for which the model is not trained explicitly.
We propose the design of scale-consistent positional encodings invariant to our
generator's layers transformations. This enables the generation of
arbitrary-scale images even at scales unseen during training. Moreover, we
incorporate novel inter-scale augmentations into our pipeline and partial
generation training to facilitate the synthesis of consistent images at
arbitrary scales. Lastly, we show competitive results for a continuum of scales
on various commonly used datasets for image synthesis.
- Abstract(参考訳): 位置エンコーディングにより、1つの敵ネットワークをトレーニングし、異なるスケールの画像を生成することができる。
しかしながら、これらのアプローチは、離散スケールのセットに限られるか、モデルが明示的に訓練されていないスケールで、優れた知覚品質を維持するのに苦労する。
生成器の層変換に不変なスケール一貫性のある位置符号化の設計を提案する。
これにより、トレーニング中に見えないスケールでも任意のスケールの画像を生成することができる。
さらに,新しいスケール間拡張をパイプラインに組み込んで部分生成トレーニングを行い,任意のスケールで一貫した画像の合成を容易にする。
最後に、画像合成によく用いられる様々なデータセットに対して、連続したスケールの競合結果を示す。
関連論文リスト
- Learning Images Across Scales Using Adversarial Training [64.59447233902735]
本研究では,通常の画像の非構造的コレクションからマグニチュード・オブ・マグニチュード・スケールを捉える表現を学習するための新しいパラダイムを考案する。
筆者らのジェネレータは,マルチスケール生成モデルとして利用でき,非構造化パッチからのスケール空間の再構成にも利用できることを示す。
論文 参考訳(メタデータ) (2024-06-13T08:44:12Z) - FouriScale: A Frequency Perspective on Training-Free High-Resolution Image Synthesis [48.9652334528436]
本稿では、周波数領域解析の観点から、FouriScaleの革新的な学習不要アプローチを紹介する。
従来の拡散モデルの畳み込み層を,低域演算とともに拡張手法を組み込むことで置き換える。
提案手法は, 生成画像の構造的整合性と忠実度をバランスさせ, 任意のサイズ, 高解像度, 高品質な生成の驚くべき能力を実現する。
論文 参考訳(メタデータ) (2024-03-19T17:59:33Z) - Scale-Equivariant UNet for Histopathology Image Segmentation [1.213915839836187]
畳み込みニューラルネットワーク(CNN)は、特定のスケールでそのような画像で訓練されたが、異なるスケールのものに一般化することができない。
本稿では,スケール空間理論に基づく画像分割のためのスケール・エクイバティブUNet(SEUNet)を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:03:08Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - High-Resolution Complex Scene Synthesis with Transformers [6.445605125467574]
深層生成モデルによる複雑なシーン画像の粗粒合成が最近人気を集めている。
本稿では, 生成モデルが, 追加の目的を持たず, 純粋帰納的学習に基づく, この課題に対するアプローチを提案する。
提案システムは,所定のレイアウトに整合した高品質な画像を合成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-13T17:56:07Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Diverse Semantic Image Synthesis via Probability Distribution Modeling [103.88931623488088]
新規な多様な意味的画像合成フレームワークを提案する。
本手法は最先端手法と比較して優れた多様性と同等の品質を実現することができる。
論文 参考訳(メタデータ) (2021-03-11T18:59:25Z) - Nested Scale Editing for Conditional Image Synthesis [19.245119912119947]
本稿では,潜在コード空間における階層化ナビゲーションを実現する画像合成手法を提案する。
ごく少数の部分的あるいは低解像度の画像で、我々のアプローチは一貫して最先端の画像よりも優れています。
論文 参考訳(メタデータ) (2020-06-03T04:29:21Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。