論文の概要: Using conditional variational autoencoders to generate images from
atmospheric Cherenkov telescopes
- arxiv url: http://arxiv.org/abs/2211.12553v1
- Date: Tue, 22 Nov 2022 20:05:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:37:21.753965
- Title: Using conditional variational autoencoders to generate images from
atmospheric Cherenkov telescopes
- Title(参考訳): 条件変動オートエンコーダを用いた大気チェレンコフ望遠鏡の画像生成
- Authors: Stanislav Polyakov (1), Alexander Kryukov (1), Andrey Demichev (1),
Julia Dubenskaya (1), Elizaveta Gres (2), Anna Vlaskina (3) ((1) Skobeltsyn
Institute of Nuclear Physics, Lomonosov Moscow State University, (2) Applied
Physics Institute of Irkutsk State University, (3) Lomonosov Moscow State
University)
- Abstract要約: 地球上層大気に衝突する高エネルギー粒子は、地上から検出できる広範囲の大気シャワーを発生させる。
チェレンコフ望遠鏡によって記録された画像は、背景のハドロンイベントからガンマ線イベントを分離するために分析することができる。
条件付き変分オートエンコーダを用いて,TAIGA実験のチェレンコフ望遠鏡からガンマ事象の画像を生成する。
- 参考スコア(独自算出の注目度): 48.7576911714538
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High-energy particles hitting the upper atmosphere of the Earth produce
extensive air showers that can be detected from the ground level using imaging
atmospheric Cherenkov telescopes. The images recorded by Cherenkov telescopes
can be analyzed to separate gamma-ray events from the background hadron events.
Many of the methods of analysis require simulation of massive amounts of events
and the corresponding images by the Monte Carlo method. However, Monte Carlo
simulation is computationally expensive. The data simulated by the Monte Carlo
method can be augmented by images generated using faster machine learning
methods such as generative adversarial networks or conditional variational
autoencoders. We use a conditional variational autoencoder to generate images
of gamma events from a Cherenkov telescope of the TAIGA experiment. The
variational autoencoder is trained on a set of Monte Carlo events with the
image size, or the sum of the amplitudes of the pixels, used as the conditional
parameter. We used the trained variational autoencoder to generate new images
with the same distribution of the conditional parameter as the size
distribution of the Monte Carlo-simulated images of gamma events. The generated
images are similar to the Monte Carlo images: a classifier neural network
trained on gamma and proton events assigns them the average gamma score 0.984,
with less than 3% of the events being assigned the gamma score below 0.999. At
the same time, the sizes of the generated images do not match the conditional
parameter used in their generation, with the average error 0.33.
- Abstract(参考訳): 地球上層大気に衝突する高エネルギー粒子は、チェレンコフ望遠鏡を用いて地上から検出できる広範囲の空気シャワーを発生させる。
チェレンコフ望遠鏡によって記録された画像は、背景ハドロン現象からガンマ線イベントを分離するために分析することができる。
多くの分析方法は、モンテカルロ法による大量の事象と対応する画像のシミュレーションを必要とする。
しかしモンテカルロシミュレーションは計算に高価である。
モンテカルロ法でシミュレーションされたデータは、生成逆数ネットワークや条件付き変分オートエンコーダなどの高速な機械学習手法を用いて生成された画像によって拡張することができる。
我々は条件付き変分オートエンコーダを用いて、タイガ実験のチェレンコフ望遠鏡からガンマ現象の画像を生成する。
可変オートエンコーダは、条件パラメータとして使用される画像サイズまたは画素の振幅の和を持つモンテカルロイベントのセットに基づいて訓練される。
トレーニングされた変分オートエンコーダを用いて,ガンマ事象のモンテカルロシミュレーション画像のサイズ分布と同じ条件パラメータの分布を持つ新しい画像を生成する。
ガンマとプロトンで訓練された分類器ニューラルネットワークは、平均ガンマスコア0.984を割り当て、3%未満のイベントは0.999以下のガンマスコアに割り当てられる。
同時に、生成した画像のサイズは、生成に使用される条件パラメータに一致せず、平均誤差 0.33 である。
関連論文リスト
- Monte Carlo Path Tracing and Statistical Event Detection for Event Camera Simulation [9.80621423903019]
本稿では,適応的経路サンプリングによるモンテカルロ経路トレースに基づく新しいイベントカメラシミュレーションシステムを提案する。
我々はモンテカルロ経路追跡における適応サンプリング手法を用いて,イベントカメラの挙動を物理的に正確にシミュレートした最初の人物である。
論文 参考訳(メタデータ) (2024-08-15T07:46:51Z) - Selection of gamma events from IACT images with deep learning methods [0.0]
ガンマ線観測衛星TAIGAの大気チェレンコフ望遠鏡(IACT)によるエキシビティブ・エア・ショウア(EAS)の検出
ハドロン宇宙線背景からガンマ線画像を分離する能力は、この種の検出器の主な特徴の1つである。
実際のIACT観測では、背景とガンマ線源の同時観測が必要である。
この観察モード(ウォブリングと呼ばれる)は、ニューラルネットワークによる選択の質に影響を与えるイベントの画像を変更する。
論文 参考訳(メタデータ) (2024-01-30T13:07:24Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Anomaly Detection in Aerial Videos with Transformers [49.011385492802674]
我々は、空中ビデオの異常検出のための新しいデータセットDroneAnomalyを作成します。
87,488色のビデオフレーム(トレーニング用51,635フレーム、テスト用35,853フレーム)があり、サイズは640×640ドル/秒である。
本稿では,連続するビデオフレームを一連のチューブレットとして扱う新しいベースラインモデルAnomaly Detection with Transformers (ANDT)を提案する。
論文 参考訳(メタデータ) (2022-09-25T21:24:18Z) - Processing Images from Multiple IACTs in the TAIGA Experiment with
Convolutional Neural Networks [62.997667081978825]
我々は、畳み込みニューラルネットワーク(CNN)を用いて、TAIGA実験からモンテカルロシミュレーション画像を分析する。
この分析は、ガンマ線によるシャワーに対応する画像の選択と、ガンマ線のエネルギーを推定することを含む。
論文 参考訳(メタデータ) (2021-12-31T10:49:11Z) - Convolutional Deep Denoising Autoencoders for Radio Astronomical Images [0.0]
我々は、最先端の電波望遠鏡の合成画像に、畳み込み復号化オートエンコーダ(Convolutional Denoising Autoencoder)と呼ばれる機械学習技術を適用した。
我々のオートエンコーダは、器用感度の限界でかすかな物体を識別し、抽出する複雑な画像を効果的に識別することができる。
論文 参考訳(メタデータ) (2021-10-16T17:08:30Z) - Deep learning with photosensor timing information as a background
rejection method for the Cherenkov Telescope Array [0.0]
Atmospheric Cherenkov Telescopes (IACTs) の画像解析における新たな深層学習手法の提案
cnnは、チェレンコフシャワー画像に含まれる全情報を使用する直接イベント分類方法を提供することができる。
論文 参考訳(メタデータ) (2021-03-10T13:54:43Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。