論文の概要: Deep learning with photosensor timing information as a background
rejection method for the Cherenkov Telescope Array
- arxiv url: http://arxiv.org/abs/2103.06054v1
- Date: Wed, 10 Mar 2021 13:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:39:20.352628
- Title: Deep learning with photosensor timing information as a background
rejection method for the Cherenkov Telescope Array
- Title(参考訳): チェレンコフ望遠鏡アレイの背景拒絶手法としての光センサタイミング情報を用いた深層学習
- Authors: Samuel Spencer, Thomas Armstrong, Jason Watson, Salvatore Mangano,
Yves Renier, Garret Cotter
- Abstract要約: Atmospheric Cherenkov Telescopes (IACTs) の画像解析における新たな深層学習手法の提案
cnnは、チェレンコフシャワー画像に含まれる全情報を使用する直接イベント分類方法を提供することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: New deep learning techniques present promising new analysis methods for
Imaging Atmospheric Cherenkov Telescopes (IACTs) such as the upcoming Cherenkov
Telescope Array (CTA). In particular, the use of Convolutional Neural Networks
(CNNs) could provide a direct event classification method that uses the entire
information contained within the Cherenkov shower image, bypassing the need to
Hillas parameterise the image and allowing fast processing of the data.
Existing work in this field has utilised images of the integrated charge from
IACT camera photomultipliers, however the majority of current and upcoming
generation IACT cameras have the capacity to read out the entire photosensor
waveform following a trigger. As the arrival times of Cherenkov photons from
Extensive Air Showers (EAS) at the camera plane are dependent upon the altitude
of their emission and the impact distance from the telescope, these waveforms
contain information potentially useful for IACT event classification.
In this test-of-concept simulation study, we investigate the potential for
using these camera pixel waveforms with new deep learning techniques as a
background rejection method, against both proton and electron induced EAS. We
find that a means of utilising their information is to create a set of seven
additional 2-dimensional pixel maps of waveform parameters, to be fed into the
machine learning algorithm along with the integrated charge image. Whilst we
ultimately find that the only classification power against electrons is based
upon event direction, methods based upon timing information appear to
out-perform similar charge based methods for gamma/hadron separation. We also
review existing methods of event classifications using a combination of deep
learning and timing information in other astroparticle physics experiments.
- Abstract(参考訳): 新しい深層学習技術は、今後のチェレンコフ望遠鏡アレイ(CTA)のようなイメージング大気チェレンコフ望遠鏡(IACT)のための有望な新しい分析方法を提示します。
特に、畳み込みニューラルネットワーク(CNN)の使用は、チェレンコフシャワー画像に含まれるすべての情報を使用して、画像のパラメータ化の必要性を回避し、データの高速処理を可能にする、直接イベント分類方法を提供することができます。
この分野での既存の作業は、IACTカメラの光増倍器から統合された電荷の画像を利用してきたが、現在および今後のIACTカメラの大半は、トリガー後の光センサーの波形全体を読み取る能力を持っている。
カメラ平面における広範囲のエアシャワー(EAS)からのチェレンコフ光子の到着時間は、その放出の高度と望遠鏡からの衝撃距離に依存するため、これらの波形はIACTイベント分類に有用な情報を含む。
本研究は,プロトンおよび電子誘導easに対する背景拒絶法として,新しい深層学習手法を用いて,これらのカメラ画素波形を用いる可能性について検討する。
それらの情報を利用する手段は、波形パラメータの7つの追加2次元ピクセルマップを作成することであり、統合電荷画像と共に機械学習アルゴリズムに供給される。
最終的に、電子に対する唯一の分類力は事象の方向に基づくが、タイミング情報に基づく手法はガンマ/ハドロン分離における同様の電荷ベースの手法を上回っているように見える。
また,他の天体物理学実験において,深層学習とタイミング情報を組み合わせたイベント分類手法についても検討した。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Enhancing Events in Neutrino Telescopes through Deep Learning-Driven Super-Resolution [0.0]
本稿では,深層学習駆動によるデータイベントの超解像を用いて,検出器媒質を介して光子輸送を学習する手法を提案する。
我々の戦略では、既存の検出器の幾何内に仮想'の光学モジュールを配置し、畳み込みニューラルネットワークをトレーニングし、これらの仮想光学モジュールのヒットを予測する。
論文 参考訳(メタデータ) (2024-08-16T01:20:27Z) - Deep(er) Reconstruction of Imaging Cherenkov Detectors with Swin Transformers and Normalizing Flow Models [0.0]
チェレンコフ検出器のイメージングは、核物理学と粒子物理学の実験において粒子識別(PID)に不可欠である。
本稿では,複雑なヒットパターンを示すDIRC検出器に着目し,JLabのGlueX実験において,ピオンとカオンのPIDにも使用される。
We present Deep(er)RICH, a extension of the seminal DeepRICH work, offered improve and faster PID than traditional methods。
論文 参考訳(メタデータ) (2024-07-10T05:37:02Z) - A Data-Driven Approach for Mitigating Dark Current Noise and Bad Pixels in Complementary Metal Oxide Semiconductor Cameras for Space-based Telescopes [2.4489471766462625]
我々は、CMOSカメラの暗電流ノイズと悪い画素を緩和するデータ駆動フレームワークを提案する。
私たちのアプローチには、ピクセルクラスタリングと関数フィッティングという2つの重要なステップがあります。
その結果,宇宙望遠鏡の検出効率は大幅に向上した。
論文 参考訳(メタデータ) (2024-03-15T11:15:06Z) - Image Restoration with Point Spread Function Regularization and Active
Learning [5.575847437953924]
大規模な天文学的な調査では、銀河や星雲を含む多数の天体の画像を捉えることができる。
様々なノイズレベルと点拡散関数は、これらの画像から情報抽出の精度と効率を損なう。
深層学習に基づく復元アルゴリズムと高忠実度望遠鏡シミュレータを接続する新しい画像復元アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-31T23:16:26Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Energy Reconstruction in Analysis of Cherenkov Telescopes Images in
TAIGA Experiment Using Deep Learning Methods [0.0]
本稿では,1個の望遠鏡(モノモード)と複数個のIACT望遠鏡(ステレオモード)のDeep Learning法によるモンテカルロ画像の解析を行う。
エネルギー再構成の質を推定し,そのエネルギースペクトルを数種類のニューラルネットワークを用いて解析した。
論文 参考訳(メタデータ) (2022-11-16T15:24:32Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。