論文の概要: Generative Convolution Layer for Image Generation
- arxiv url: http://arxiv.org/abs/2111.15171v1
- Date: Tue, 30 Nov 2021 07:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:07:25.043424
- Title: Generative Convolution Layer for Image Generation
- Title(参考訳): 画像生成のための生成畳み込み層
- Authors: Seung Park and Yong-Goo Shin
- Abstract要約: 本稿では生成的畳み込み(GConv)と呼ばれる新しい畳み込み法を紹介する。
GConvはまず与えられた潜在ベクトルと互換性のある有用なカーネルを選択し、次に選択されたカーネルを線形に組み合わせて潜在固有カーネルを作成する。
提案手法は,潜時固有のカーネルを用いて,高品質な画像の生成を促す潜時特有の特徴を生成する。
- 参考スコア(独自算出の注目度): 8.680676599607125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel convolution method, called generative
convolution (GConv), which is simple yet effective for improving the generative
adversarial network (GAN) performance. Unlike the standard convolution, GConv
first selects useful kernels compatible with the given latent vector, and then
linearly combines the selected kernels to make latent-specific kernels. Using
the latent-specific kernels, the proposed method produces the latent-specific
features which encourage the generator to produce high-quality images. This
approach is simple but surprisingly effective. First, the GAN performance is
significantly improved with a little additional hardware cost. Second, GConv
can be employed to the existing state-of-the-art generators without modifying
the network architecture. To reveal the superiority of GConv, this paper
provides extensive experiments using various standard datasets including
CIFAR-10, CIFAR-100, LSUN-Church, CelebA, and tiny-ImageNet. Quantitative
evaluations prove that GConv significantly boosts the performances of the
unconditional and conditional GANs in terms of Inception score (IS) and Frechet
inception distance (FID). For example, the proposed method improves both FID
and IS scores on the tiny-ImageNet dataset from 35.13 to 29.76 and 20.23 to
22.64, respectively.
- Abstract(参考訳): 本稿では,生成型畳み込み(gconv)と呼ばれる新しい畳み込み法を提案する。
標準の畳み込みとは異なり、GConvはまず与えられた潜在ベクトルと互換性のある有用なカーネルを選択し、次に選択されたカーネルを線形に組み合わせて潜在固有カーネルを作成する。
提案手法は潜時固有のカーネルを用いて,高品質な画像の生成を促す潜時固有の特徴を生成する。
このアプローチは単純ですが,驚くほど効果的です。
まず、GANの性能は若干のハードウェアコストで大幅に改善されている。
第2に、GConvはネットワークアーキテクチャを変更することなく既存の最先端のジェネレータに使用できる。
本稿では,GConvの優位性を明らかにするために,CIFAR-10,CIFAR-100,LSUN-Church,CelebA,Small-ImageNetなどの標準データセットを用いた広範な実験を行った。
定量的評価は、gconvがインセプションスコア (is) とフレシェインセプション距離 (fid) の点で、無条件および条件付きganの性能を著しく向上させることを示している。
例えば、提案手法は、小画像NetデータセットのFIDとISスコアをそれぞれ35.13から29.76、20.23から22.64に改善する。
関連論文リスト
- Image Understanding Makes for A Good Tokenizer for Image Generation [62.875788091204626]
我々は,トークンシーケンスにイメージを投影する効果的なトークン化器に依存する,トークンベースのIGフレームワークを提案する。
我々は、強力なIU機能を持つトークン化装置が、さまざまなメトリクス、データセット、タスク、提案ネットワークで優れたIG性能を実現することを示す。
論文 参考訳(メタデータ) (2024-11-07T03:55:23Z) - GaussianSR: High Fidelity 2D Gaussian Splatting for Arbitrary-Scale Image Super-Resolution [29.49617080140511]
入射神経表現(INR)は、画像の任意のスケールの超解像(ASSR)の分野を大幅に進歩させた。
既存のINRベースのASSRネットワークは、まずエンコーダを用いて与えられた低解像度画像から特徴を抽出し、次に多層パーセプトロンデコーダを用いて超解像結果をレンダリングする。
2次元ガウススプラッティング(2DGS)によるこの制限を克服する新しいASSR法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:53:48Z) - BRICS: Bi-level feature Representation of Image CollectionS [16.383021791722083]
BRICSはイメージコレクションのための2レベルの特徴表現であり、特徴グリッド空間上のキーコード空間で構成されている。
我々の表現はオートエンコーダによって学習され、画像を連続的なキーコードにエンコードする。
論文 参考訳(メタデータ) (2023-05-29T20:34:40Z) - EGC: Image Generation and Classification via a Diffusion Energy-Based
Model [59.591755258395594]
この研究は、エネルギーベースの分類器とジェネレータ、すなわちEMCを導入し、単一のニューラルネットワークを使用して両方のタスクで優れたパフォーマンスを実現する。
EGCはImageNet-1k、CelebA-HQ、LSUN Churchの最先端アプローチと比較して、競争力のある生成結果を達成している。
この研究は、ネットワークパラメータの単一セットを使用して両方のタスクを同時に実行しようとする最初の試みである。
論文 参考訳(メタデータ) (2023-04-04T17:59:14Z) - GMConv: Modulating Effective Receptive Fields for Convolutional Kernels [52.50351140755224]
畳み込みニューラルネットワークでは、固定N$times$N受容場(RF)を持つ正方形カーネルを用いて畳み込みを行う。
ERFが通常ガウス分布を示す性質に着想を得て,本研究でガウス・マスク畳み込みカーネル(GMConv)を提案する。
私たちのGMConvは、既存のCNNの標準の畳み込みを直接置き換えることができ、標準のバックプロパゲーションによって、エンドツーエンドで簡単に訓練することができます。
論文 参考訳(メタデータ) (2023-02-09T10:17:17Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - A Novel Generator with Auxiliary Branch for Improving GAN Performance [7.005458308454871]
本稿では、2つの異なるブランチから得られた特徴を組み合わせることで、画像を生成する新しいジェネレータアーキテクチャを紹介する。
メインブランチの目標は、複数の残留ブロックを通り抜けて画像を生成することであり、補助ブランチは、前のレイヤの粗い情報を後層に伝達することである。
提案手法の優位性を証明するため, 各種標準データセットを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-12-30T08:38:49Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。