論文の概要: Image Generators with Conditionally-Independent Pixel Synthesis
- arxiv url: http://arxiv.org/abs/2011.13775v1
- Date: Fri, 27 Nov 2020 15:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:30:14.993696
- Title: Image Generators with Conditionally-Independent Pixel Synthesis
- Title(参考訳): 条件付き無依存画素合成による画像生成
- Authors: Ivan Anokhin, Kirill Demochkin, Taras Khakhulin, Gleb Sterkin, Victor
Lempitsky, Denis Korzhenkov
- Abstract要約: 画像生成のための新しいアーキテクチャを提案し,各画素の色値を独立に計算する。
合成中は、空間的畳み込みや、画素間で情報を伝達する同様の操作は関与しない。
本研究では, 逆方向の学習において, このようなジェネレータのモデリング能力を解析し, 新しいジェネレータを観察して, 最先端の畳み込みジェネレータに類似した生成品質を実現する。
- 参考スコア(独自算出の注目度): 10.792933031825527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing image generator networks rely heavily on spatial convolutions and,
optionally, self-attention blocks in order to gradually synthesize images in a
coarse-to-fine manner. Here, we present a new architecture for image
generators, where the color value at each pixel is computed independently given
the value of a random latent vector and the coordinate of that pixel. No
spatial convolutions or similar operations that propagate information across
pixels are involved during the synthesis. We analyze the modeling capabilities
of such generators when trained in an adversarial fashion, and observe the new
generators to achieve similar generation quality to state-of-the-art
convolutional generators. We also investigate several interesting properties
unique to the new architecture.
- Abstract(参考訳): 既存の画像生成ネットワークは空間的畳み込みに大きく依存しており、オプションで画像の粗大な合成を徐々に行うことができる。
本稿では,各画素における色値を,ランダム潜時ベクトルの値と,その画素の座標から独立に計算する,画像生成のための新しいアーキテクチャを提案する。
合成中にピクセル間で情報を伝達する空間畳み込みや類似の操作は関与しない。
本研究では, 逆方向の学習において, このようなジェネレータのモデリング能力を解析し, 新しいジェネレータを観察して, 最先端の畳み込みジェネレータに類似した生成品質を実現する。
また,新しいアーキテクチャに特有の興味深い特性についても検討した。
関連論文リスト
- AnomalyFactory: Regard Anomaly Generation as Unsupervised Anomaly Localization [3.180143442781838]
AnomalyFactoryは、同じネットワークアーキテクチャで異常発生とローカライゼーションを統一する。
MVTecAD、VisA、MVTecLOCO、MADSim、RealIADを含む5つのデータセットで包括的な実験が行われた。
論文 参考訳(メタデータ) (2024-08-18T16:40:11Z) - FunkNN: Neural Interpolation for Functional Generation [23.964801524703052]
FunkNNは任意の座標で連続した画像を再構成することを学び、任意の画像データセットに適用できる新しい畳み込みネットワークである。
FunkNNは、高品質な連続画像を生成し、パッチベースの設計により、配信性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-20T16:37:20Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z) - Texture Generation with Neural Cellular Automata [64.70093734012121]
一つのテンプレート画像からテクスチャジェネレータを学習する。
NCAモデルで示される振る舞いは、テクスチャを生成するための学習された分散されたローカルアルゴリズムであると主張します。
論文 参考訳(メタデータ) (2021-05-15T22:05:46Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Improved Image Generation via Sparse Modeling [27.66648389933265]
生成器は、Convolutional Sparse Coding (CSC) とそのMulti-Layeredバージョン (ML-CSC) 合成プロセスの発現として見ることができる。
この観測は、発電機内の適切な選択された活性化層にスパーシファイング正規化を明示的に強制することによって活用する。
論文 参考訳(メタデータ) (2021-04-01T13:52:40Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Spatially-Adaptive Pixelwise Networks for Fast Image Translation [57.359250882770525]
高速かつ効率的な画像-画像変換を目的とした新しいジェネレータアーキテクチャを提案する。
私たちはピクセルワイズネットワークを使用します。つまり、各ピクセルは他のピクセルとは独立して処理されます。
私たちのモデルは最先端のベースラインよりも最大18倍高速です。
論文 参考訳(メタデータ) (2020-12-05T10:02:03Z) - Adversarial Generation of Continuous Images [31.92891885615843]
本稿では,INRに基づく画像デコーダ構築のための2つの新しいアーキテクチャ手法を提案する。
私たちは、最先端の連続画像GANを構築するためにそれらを使用します。
提案したINR-GANアーキテクチャは連続画像生成装置の性能を数倍改善する。
論文 参考訳(メタデータ) (2020-11-24T11:06:40Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z) - Deformable Generator Networks: Unsupervised Disentanglement of
Appearance and Geometry [93.02523642523477]
本稿では、画像データと映像データの両方の外観と幾何学的情報を切り離す変形可能なジェネレータモデルを提案する。
外見生成ネットワークは、色、照明、アイデンティティ、カテゴリーを含む外見に関する情報をモデル化する。
幾何学的ジェネレータは、変形場を生成することにより、回転やストレッチなどの幾何学的ワーピングを行う。
論文 参考訳(メタデータ) (2018-06-16T21:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。