論文の概要: Interpreting Spatially Infinite Generative Models
- arxiv url: http://arxiv.org/abs/2007.12411v1
- Date: Fri, 24 Jul 2020 09:00:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 05:56:00.833171
- Title: Interpreting Spatially Infinite Generative Models
- Title(参考訳): 空間的無限生成モデル解釈
- Authors: Chaochao Lu, Richard E. Turner, Yingzhen Li, Nate Kushman
- Abstract要約: 近年の研究では、空間ノイズベクトルを完全な畳み込みニューラルネットワークに入力することで、任意の解像度出力画像の生成と任意の解像度トレーニング画像のトレーニングが可能であることが示されている。
空間過程への接続を描画することで、無限空間生成のしっかりとした理論的解釈を提供する。
世界地図生成、パノラマ画像、テクスチャ合成の実験は、任意の大きさの画像を効率的に生成する$infty$-GANの能力を検証する。
- 参考スコア(独自算出の注目度): 40.453301580034804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional deep generative models of images and other spatial modalities can
only generate fixed sized outputs. The generated images have exactly the same
resolution as the training images, which is dictated by the number of layers in
the underlying neural network. Recent work has shown, however, that feeding
spatial noise vectors into a fully convolutional neural network enables both
generation of arbitrary resolution output images as well as training on
arbitrary resolution training images. While this work has provided impressive
empirical results, little theoretical interpretation was provided to explain
the underlying generative process. In this paper we provide a firm theoretical
interpretation for infinite spatial generation, by drawing connections to
spatial stochastic processes. We use the resulting intuition to improve upon
existing spatially infinite generative models to enable more efficient training
through a model that we call an infinite generative adversarial network, or
$\infty$-GAN. Experiments on world map generation, panoramic images and texture
synthesis verify the ability of $\infty$-GAN to efficiently generate images of
arbitrary size.
- Abstract(参考訳): 画像やその他の空間的モダリティの伝統的な深い生成モデルは、固定サイズの出力しか生成できない。
生成された画像はトレーニング画像とまったく同じ解像度を持ち、基盤となるニューラルネットワークのレイヤ数によって決定される。
しかし、近年の研究では、空間ノイズベクトルを完全な畳み込みニューラルネットワークに供給することで、任意の解像度出力画像の生成と任意の解像度トレーニング画像のトレーニングが可能であることが示されている。
この研究は印象的な実験的な結果をもたらしたが、基礎となる生成過程を説明するために理論的な解釈はほとんど提供されなかった。
本稿では,空間的確率過程との接続を描き,無限の空間生成に対する強固な理論的解釈を提案する。
得られた直観を用いて、既存の空間的無限生成モデルを改善し、無限生成逆ネットワーク($\infty$-GAN)と呼ばれるモデルを通してより効率的なトレーニングを可能にする。
世界地図生成、パノラマ画像、テクスチャ合成の実験は、任意の大きさの画像を効率的に生成する$\infty$-GANの能力を検証する。
関連論文リスト
- Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - NeurInt : Learning to Interpolate through Neural ODEs [18.104328632453676]
本稿では,2つの画像間の軌跡分布を学習する新しい生成モデルを提案する。
提案手法の有効性を示すとともに,画像の品質向上と,実画像と対象画像の任意のペアに対して,スムーズな軌道上の多様な分布を学習する能力を示す。
論文 参考訳(メタデータ) (2021-11-07T16:31:18Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Principled network extraction from images [0.0]
本稿では,スケーラブルで効率的な画像からネットワークトポロジを抽出する原理モデルを提案する。
我々は,網膜血管系,スライムカビ,河川網の実際の画像を用いて本モデルを検証した。
論文 参考訳(メタデータ) (2020-12-23T15:56:09Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Improving Inversion and Generation Diversity in StyleGAN using a
Gaussianized Latent Space [41.20193123974535]
現代のジェネレーティブ・アドバイサル・ネットワークは、低次元の学習された潜伏空間に住む潜伏ベクトルから、人工的で写実的な画像を作成することができる。
単純な非線形演算の下では、データ分布はガウス的としてモデル化でき、したがって十分な統計量を用いて表されることを示す。
得られた投影は、実際の画像と生成された画像の両方のパフォーマンスを用いて示されているように、潜在空間のより滑らかでより良い振る舞いの領域にある。
論文 参考訳(メタデータ) (2020-09-14T15:45:58Z) - Network Bending: Expressive Manipulation of Deep Generative Models [0.2062593640149624]
ネットワーク曲げと呼ばれる深層生成モデルを操作するための新しいフレームワークを提案する。
生成過程において意味論的に意味のある側面を直接操作できるだけでなく、幅広い表現的な結果を得ることができるかを示す。
論文 参考訳(メタデータ) (2020-05-25T21:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。