論文の概要: Gamma/hadron separation in the TAIGA experiment with neural network methods
- arxiv url: http://arxiv.org/abs/2502.01500v1
- Date: Mon, 03 Feb 2025 16:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:52:21.498713
- Title: Gamma/hadron separation in the TAIGA experiment with neural network methods
- Title(参考訳): ニューラルネットワークを用いたTAIGA実験におけるガンマ/ハドロン分離
- Authors: E. O. Gres, A. P. Kryukov, P. A. Volchugov, J. J. Dubenskaya, D. P. Zhurov, S. P. Polyakov, E. B. Postnikov, A. A. Vlaskina,
- Abstract要約: ニューラルネットワークを用いた希少なVHEガンマ線選択能力について,宇宙線束が強く普及している場合に検討した。
クレーター大星雲の観測から21時間で5.5シグマ以上の信号が受信された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this work, the ability of rare VHE gamma ray selection with neural network methods is investigated in the case when cosmic radiation flux strongly prevails (ratio up to {10^4} over the gamma radiation flux from a point source). This ratio is valid for the Crab Nebula in the TeV energy range, since the Crab is a well-studied source for calibration and test of various methods and installations in gamma astronomy. The part of TAIGA experiment which includes three Imaging Atmospheric Cherenkov Telescopes observes this gamma-source too. Cherenkov telescopes obtain images of Extensive Air Showers. Hillas parameters can be used to analyse images in standard processing method, or images can be processed with convolutional neural networks. In this work we would like to describe the main steps and results obtained in the gamma/hadron separation task from the Crab Nebula with neural network methods. The results obtained are compared with standard processing method applied in the TAIGA collaboration and using Hillas parameter cuts. It is demonstrated that a signal was received at the level of higher than 5.5{\sigma} in 21 hours of Crab Nebula observations after processing the experimental data with the neural network method.
- Abstract(参考訳): 本研究では、宇宙線束が強い場合(点源からのガンマ線束に対して {10^4} まで比例する)に、ニューラルネットワークを用いた希少なVHEガンマ線選択能力について検討する。
この比は、ガンマ天文学における様々な方法や設備の校正と試験のためのよく研究された情報源であるため、TeVエネルギー範囲のクレーブ星雲に有効である。
3つの大気圧チェレンコフ望遠鏡を含むTAIGA実験は、このガンマ線源も観測している。
チェレンコフ望遠鏡はエクステンシブ・エア・ショウの画像を取得できる。
Hillasパラメータは、標準的な処理方法でイメージを分析するために使用したり、畳み込みニューラルネットワークで画像処理することができる。
本研究では, クランプ大星雲からのガンマ/ハドロン分離タスクで得られた主なステップと結果について, ニューラルネットワークを用いて述べる。
その結果、TAIGAコラボレーションやHillasパラメータカットで適用された標準処理手法と比較した。
実験データをニューラルネットワーク法で処理した後, クランプ大星雲の観測から21時間で5.5{\sigma} 以上の信号が受信された。
関連論文リスト
- Selection of gamma events from IACT images with deep learning methods [0.0]
ガンマ線観測衛星TAIGAの大気チェレンコフ望遠鏡(IACT)によるエキシビティブ・エア・ショウア(EAS)の検出
ハドロン宇宙線背景からガンマ線画像を分離する能力は、この種の検出器の主な特徴の1つである。
実際のIACT観測では、背景とガンマ線源の同時観測が必要である。
この観察モード(ウォブリングと呼ばれる)は、ニューラルネットワークによる選択の質に影響を与えるイベントの画像を変更する。
論文 参考訳(メタデータ) (2024-01-30T13:07:24Z) - Generating Images of the M87* Black Hole Using GANs [1.0532948482859532]
本研究では,様々なブラックホール画像を生成するためにCPGAN(Con Conditional Progressive Generative Adversarial Networks)を導入する。
GANは、ブラックホール画像生成のためのコスト効率の良いモデルとして利用でき、他のパラメータ化アルゴリズムのためのトレーニングデータセットを確実に増強することができる。
論文 参考訳(メタデータ) (2023-12-02T02:47:34Z) - Energy Reconstruction in Analysis of Cherenkov Telescopes Images in
TAIGA Experiment Using Deep Learning Methods [0.0]
本稿では,1個の望遠鏡(モノモード)と複数個のIACT望遠鏡(ステレオモード)のDeep Learning法によるモンテカルロ画像の解析を行う。
エネルギー再構成の質を推定し,そのエネルギースペクトルを数種類のニューラルネットワークを用いて解析した。
論文 参考訳(メタデータ) (2022-11-16T15:24:32Z) - Supernova Light Curves Approximation based on Neural Network Models [53.180678723280145]
光度データによる超新星の分類は、天文学におけるビッグデータのリアルタイム処理の出現によって課題となる。
近年の研究では、様々な機械学習モデルに基づく解の優れた品質が実証されている。
我々は,多層パーセプトロン(MLP),ベイジアンニューラルネットワーク(BNN),正規化フロー(NF)の単一光曲線観測への応用について検討した。
論文 参考訳(メタデータ) (2022-06-27T13:46:51Z) - Processing Images from Multiple IACTs in the TAIGA Experiment with
Convolutional Neural Networks [62.997667081978825]
我々は、畳み込みニューラルネットワーク(CNN)を用いて、TAIGA実験からモンテカルロシミュレーション画像を分析する。
この分析は、ガンマ線によるシャワーに対応する画像の選択と、ガンマ線のエネルギーを推定することを含む。
論文 参考訳(メタデータ) (2021-12-31T10:49:11Z) - Analysis of the HiSCORE Simulated Events in TAIGA Experiment Using
Convolutional Neural Networks [77.34726150561087]
本稿では,エアシャワー特性決定における畳み込みニューラルネットワークの利用について検討する。
我々は、CNNを使ってHiSCOREイベントを分析し、それらをイメージとして扱います。
また,エアシャワーのパラメータの決定に関する予備的な結果も提示した。
論文 参考訳(メタデータ) (2021-12-19T15:18:56Z) - The Preliminary Results on Analysis of TAIGA-IACT Images Using
Convolutional Neural Networks [68.8204255655161]
本研究の目的は,AIGA-IACTに設定された課題を解決するための機械学習アプリケーションの可能性を検討することである。
The method of Convolutional Neural Networks (CNN) was applied to process and analysis Monte-Carlo eventssimulated with CORSIKA。
論文 参考訳(メタデータ) (2021-12-19T15:17:20Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - A study of Neural networks point source extraction on simulated
Fermi/LAT Telescope images [1.4528756508275622]
本稿では,我々の人工データセットに基づいて学習した畳み込みニューラルネットワーク(CNN)を用いた点源抽出手法を提案する。
これらの画像は1から10GeVのエネルギーをカバーする10×10度の原数光子マップである。
論文 参考訳(メタデータ) (2020-07-08T17:47:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。