論文の概要: Is Deep Learning Network Necessary for Image Generation?
- arxiv url: http://arxiv.org/abs/2308.13612v1
- Date: Fri, 25 Aug 2023 18:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 20:04:54.630745
- Title: Is Deep Learning Network Necessary for Image Generation?
- Title(参考訳): 深層学習ネットワークは画像生成に必要か?
- Authors: Chenqiu Zhao, Guanfang Dong, Anup Basu
- Abstract要約: 深層学習ネットワークを使わずに画像生成の可能性を検討する。
画像が高次元分布に従うという仮定を検証する。
実験により, 画像のFID値が, 可変オートエンコーダのFID値よりも低いことがわかった。
- 参考スコア(独自算出の注目度): 9.131712404284876
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, images are considered samples from a high-dimensional distribution,
and deep learning has become almost synonymous with image generation. However,
is a deep learning network truly necessary for image generation? In this paper,
we investigate the possibility of image generation without using a deep
learning network, motivated by validating the assumption that images follow a
high-dimensional distribution. Since images are assumed to be samples from such
a distribution, we utilize the Gaussian Mixture Model (GMM) to describe it. In
particular, we employ a recent distribution learning technique named as
Monte-Carlo Marginalization to capture the parameters of the GMM based on image
samples. Moreover, we also use the Singular Value Decomposition (SVD) for
dimensionality reduction to decrease computational complexity. During our
evaluation experiment, we first attempt to model the distribution of image
samples directly to verify the assumption that images truly follow a
distribution. We then use the SVD for dimensionality reduction. The principal
components, rather than raw image data, are used for distribution learning.
Compared to methods relying on deep learning networks, our approach is more
explainable, and its performance is promising. Experiments show that our images
have a lower FID value compared to those generated by variational
auto-encoders, demonstrating the feasibility of image generation without deep
learning networks.
- Abstract(参考訳): 近年、画像は高次元分布のサンプルと見なされ、深層学習は画像生成とほぼ同義語になっている。
しかし、画像生成には深層学習ネットワークが本当に必要か?
本稿では,画像が高次元分布に従うという仮定を検証することによって,ディープラーニングネットワークを用いずに画像生成の可能性を検討する。
画像はそのような分布からのサンプルであると仮定するため,ガウス混合モデル(GMM)を用いて記述する。
特に,最近の分布学習手法であるmontal-carlo marginalizationを用いて,gmmのパラメータを画像サンプルに基づいて捉える。
さらに,次元減少のためにSingular Value Decomposition (SVD) を用いて計算複雑性を低減する。
評価実験では,まず,画像サンプルの分布を直接モデル化して,画像が真の分布に従うという仮定を検証する。
次に, SVD を用いて次元還元を行う。
主要なコンポーネントは、生の画像データではなく、分散学習に使用される。
ディープラーニングネットワークに依存する手法と比較して,このアプローチはより説明可能であり,その性能は有望である。
実験により,可変オートエンコーダが生成する画像に比べてfid値が低く,深層学習ネットワークを介さずに画像生成が可能となった。
関連論文リスト
- MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Image Compression with Recurrent Neural Network and Generalized Divisive
Normalization [3.0204520109309843]
深層学習は研究コミュニティから大きな注目を集め、将来有望な画像再構成結果を生み出している。
近年の手法は、ネットワークの複雑さを大幅に増大させる、より深い複雑なネットワークの開発に焦点を当てている。
本稿では、畳み込み層を用いた解析とブロック合成と、可変レートエンコーダとデコーダ側における一般化分割正規化(GDN)の2つの有効な新しいブロックを開発する。
論文 参考訳(メタデータ) (2021-09-05T05:31:55Z) - Exploring Generative Adversarial Networks for Image-to-Image Translation
in STEM Simulation [0.0]
畳み込み法により生成されたSTEM画像を高精度なマルチスライス画像の予測に変換しようとする深層学習モデルについて検討する。
ディープラーニングモデルであるGenerative Adrial Network(GAN)を使用することで、最適な結果が得られ、同一データセット上の従来の回帰モデルと同等の精度で処理できることがわかった。
論文 参考訳(メタデータ) (2020-10-29T02:14:57Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Radon cumulative distribution transform subspace modeling for image
classification [18.709734704950804]
画像変形モデルの幅広いクラスに適用可能な新しい教師付き画像分類法を提案する。
この方法は、画像データに先述のRandon Cumulative Distribution Transform(R-CDT)を用いる。
テスト精度の向上に加えて,計算効率の向上も示す。
論文 参考訳(メタデータ) (2020-04-07T19:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。