論文の概要: Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis
- arxiv url: http://arxiv.org/abs/2211.15807v1
- Date: Mon, 28 Nov 2022 22:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 18:10:19.158790
- Title: Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis
- Title(参考訳): 条件付き生成型adversarial networkを用いたiactデータ解析のための生成画像の統計的特性制御
- Authors: Julia Dubenskaya, Alexander Kryukov, Andrey Demichev, Stanislav
Polyakov, Elizaveta Gres, Anna Vlaskina
- Abstract要約: 画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
- 参考スコア(独自算出の注目度): 55.41644538483948
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative adversarial networks are a promising tool for image generation in
the astronomy domain. Of particular interest are conditional generative
adversarial networks (cGANs), which allow you to divide images into several
classes according to the value of some property of the image, and then specify
the required class when generating new images. In the case of images from
Imaging Atmospheric Cherenkov Telescopes (IACTs), an important property is the
total brightness of all image pixels (image size), which is in direct
correlation with the energy of primary particles. We used a cGAN technique to
generate images similar to whose obtained in the TAIGA-IACT experiment. As a
training set, we used a set of two-dimensional images generated using the TAIGA
Monte Carlo simulation software. We artificiallly divided the training set into
10 classes, sorting images by size and defining the boundaries of the classes
so that the same number of images fall into each class. These classes were used
while training our network. The paper shows that for each class, the size
distribution of the generated images is close to normal with the mean value
located approximately in the middle of the corresponding class. We also show
that for the generated images, the total image size distribution obtained by
summing the distributions over all classes is close to the original
distribution of the training set. The results obtained will be useful for more
accurate generation of realistic synthetic images similar to the ones taken by
IACTs.
- Abstract(参考訳): 生成逆ネットワークは天文学領域における画像生成に有望なツールである。
特に興味深いのは条件付き生成対向ネットワーク(cGAN)で、画像のいくつかの特性の値に応じて画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定することができる。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な特性はすべての画像ピクセルの明るさ(画像サイズ)であり、これは一次粒子のエネルギーと直接相関している。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGANを用いた。
トレーニングセットとして,TAIGAモンテカルロシミュレーションソフトウェアを用いて生成した2次元画像の集合を用いた。
トレーニングセットを10クラスに人工的に分割し,画像のサイズを分類し,同じ数の画像が各クラスに収まるようにクラスの境界を定義する。
これらのクラスはネットワークのトレーニングに使われました。
本稿は,各クラスについて,生成した画像のサイズ分布が正規に近いことを示し,その平均値が対応するクラスのほぼ中間に位置することを示す。
また,生成した画像に対して,全クラスにわたる分布を合計した総画像サイズ分布がトレーニングセットの原分布に近いことを示す。
得られた結果は、IACTsが撮影したものと同様のリアルな合成画像のより正確な生成に役立ちます。
関連論文リスト
- Is Deep Learning Network Necessary for Image Generation? [9.131712404284876]
深層学習ネットワークを使わずに画像生成の可能性を検討する。
画像が高次元分布に従うという仮定を検証する。
実験により, 画像のFID値が, 可変オートエンコーダのFID値よりも低いことがわかった。
論文 参考訳(メタデータ) (2023-08-25T18:14:19Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Synthesize-It-Classifier: Learning a Generative Classifier through
RecurrentSelf-analysis [9.029985847202667]
本研究では,高分解能,フォトリアリスティック,多彩な画像を大規模に合成することにより,画像分類ネットワークの生成能力を示す。
Synthesize-It-Classifier(STIC)と呼ばれる全体的な方法論は、データ分布の密度を推定するために明示的なジェネレータネットワークを必要としません。
ImageNetデータセット上で合成された画像の反復描画を示すAttentive-STICネットワークを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:00:29Z) - Multi-class Generative Adversarial Nets for Semi-supervised Image
Classification [0.17404865362620794]
類似した画像がGANを一般化させ、画像の分類が貧弱になることを示す。
半教師付き学習フレームワークにおいて、画像の類似クラスにおけるマルチクラス分類を改善するため、GANの従来の訓練の修正を提案する。
論文 参考訳(メタデータ) (2021-02-13T15:26:17Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。