論文の概要: A Convolutional Neural Network based Cascade Reconstruction for the
IceCube Neutrino Observatory
- arxiv url: http://arxiv.org/abs/2101.11589v1
- Date: Wed, 27 Jan 2021 18:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:39:24.290256
- Title: A Convolutional Neural Network based Cascade Reconstruction for the
IceCube Neutrino Observatory
- Title(参考訳): 畳み込みニューラルネットワークによるアイスキューブニュートリノ天文台のカスケード再構成
- Authors: R. Abbasi, M. Ackermann, J. Adams, J. A. Aguilar, M. Ahlers, M.
Ahrens, C. Alispach, A. A. Alves Jr., N. M. Amin, R. An, K. Andeen, T.
Anderson, I. Ansseau, G. Anton, C. Arg\"uelles, S. Axani, X. Bai, A.
Balagopal V., A. Barbano, S. W. Barwick, B. Bastian, V. Basu, V. Baum, S.
Baur, R. Bay, J. J. Beatty, K.-H. Becker, J. Becker Tjus, C. Bellenghi, S.
BenZvi, D. Berley, E. Bernardini, D. Z. Besson, G. Binder, D. Bindig, E.
Blaufuss, S. Blot, S. B\"oser, O. Botner, J. B\"ottcher, E. Bourbeau, J.
Bourbeau, F. Bradascio, J. Braun, S. Bron, J. Brostean-Kaiser, A. Burgman, R.
S. Busse, M. A. Campana, C. Chen, D. Chirkin, S. Choi, B. A. Clark, K. Clark,
L. Classen, A. Coleman, G. H. Collin, J. M. Conrad, P. Coppin, P. Correa, D.
F. Cowen, R. Cross, P. Dave, C. De Clercq, J. J. DeLaunay, H. Dembinski, K.
Deoskar, S. De Ridder, A. Desai, P. Desiati, K. D. de Vries, G. de Wasseige,
M. de With, T. DeYoung, S. Dharani, A. Diaz, J. C. D\'iaz-V\'elez, H.
Dujmovic, M. Dunkman, M. A. DuVernois, E. Dvorak, T. Ehrhardt, P. Eller, R.
Engel, J. Evans, P. A. Evenson, S. Fahey, A. R. Fazely, S. Fiedlschuster,
A.T. Fienberg, K. Filimonov, C. Finley, L. Fischer, D. Fox, A. Franckowiak,
E. Friedman, A. Fritz, P. F\"urst, T. K. Gaisser, J. Gallagher, E. Ganster,
S. Garrappa, L. Gerhardt, A. Ghadimi, C. Glaser, T. Glauch, T. Gl\"usenkamp,
A. Goldschmidt, J. G. Gonzalez, S. Goswami, D. Grant, T. Gr\'egoire, Z.
Griffith, S. Griswold, M. G\"und\"uz, C. Haack, A. Hallgren, R. Halliday, L.
Halve, F. Halzen, M. Ha Minh, K. Hanson, J. Hardin, A. A. Harnisch, A.
Haungs, S. Hauser, D. Hebecker, K. Helbing, F. Henningsen, E. C. Hettinger,
S. Hickford, J. Hignight, C. Hill, G. C. Hill, K. D. Hoffman, R. Hoffmann, T.
Hoinka, B. Hokanson-Fasig, K. Hoshina, F. Huang, M. Huber, T. Huber, K.
Hultqvist, M. H\"unnefeld, R. Hussain, S. In, N. Iovine, A. Ishihara, M.
Jansson, G. S. Japaridze, M. Jeong, B. J. P. Jones, R. Joppe, D. Kang, W.
Kang, X. Kang, A. Kappes, D. Kappesser, T. Karg, M. Karl, A. Karle, U. Katz,
M. Kauer, M. Kellermann, J. L. Kelley, A. Kheirandish, J. Kim, K. Kin, T.
Kintscher, J. Kiryluk, S. R. Klein, R. Koirala, H. Kolanoski, L. K\"opke, C.
Kopper, S. Kopper, D. J. Koskinen, P. Koundal, M. Kovacevich, M. Kowalski, K.
Krings, G. Kr\"uckl, N. Kurahashi, A. Kyriacou, C. Lagunas Gualda, J. L.
Lanfranchi, M. J. Larson, F. Lauber, J. P. Lazar, K. Leonard, A.
Leszczy\'nska, Y. Li, Q. R. Liu, E. Lohfink, C. J. Lozano Mariscal, L. Lu, F.
Lucarelli, A. Ludwig, W. Luszczak, Y. Lyu, W. Y. Ma, J. Madsen, K. B. M.
Mahn, Y. Makino, P. Mallik, S. Mancina, I. C. Mari{\c{s}}, R. Maruyama, K.
Mase, F. McNally, K. Meagher, A. Medina, M. Meier, S. Meighen-Berger, J.
Merz, J. Micallef, D. Mockler, G. Moment\'e, T. Montaruli, R. W. Moore, K.
Morik, R. Morse, M. Moulai, R. Naab, R. Nagai, U. Naumann, J. Necker, L. V.
Nguy{\~{\^{{e}}}}n, H. Niederhausen, M. U. Nisa, S. C. Nowicki, D. R. Nygren,
A. Obertacke Pollmann, M. Oehler, A. Olivas, E. O'Sullivan, H. Pandya, D. V.
Pankova, N. Park, G. K. Parker, E. N. Paudel, P. Peiffer, C. P\'erez de los
Heros, S. Philippen, D. Pieloth, S. Pieper, A. Pizzuto, M. Plum, Y. Popovych,
A. Porcelli, M. Prado Rodriguez, P. B. Price, B. Pries, G. T. Przybylski, C.
Raab, A. Raissi, M. Rameez, K. Rawlins, I. C. Rea, A. Rehman, R. Reimann, M.
Renschler, G. Renzi, E. Resconi, S. Reusch, W. Rhode, M. Richman, B. Riedel,
S. Robertson, G. Roellinghoff, M. Rongen, C. Rott, T. Ruhe, D. Ryckbosch, D.
Rysewyk Cantu, I. Safa, S. E. Sanchez Herrera, A. Sandrock, J. Sandroos, M.
Santander, S. Sarkar, S. Sarkar, K. Satalecka, M. Scharf, M. Schaufel, H.
Schieler, P. Schlunder, T. Schmidt, A. Schneider, J. Schneider, F. G.
Schr\"oder, L. Schumacher, S. Sclafani, D. Seckel, S. Seunarine, A. Sharma,
S. Shefali, M. Silva, B. Skrzypek, B. Smithers, R. Snihur, J. Soedingrekso,
D. Soldin, G. M. Spiczak, C. Spiering, J. Stachurska, M. Stamatikos, T.
Stanev, R. Stein, J. Stettner, A. Steuer, T. Stezelberger, R. G. Stokstad, T.
St\"urwald, T. Stuttard, G. W. Sullivan, I. Taboada, F. Tenholt, S.
Ter-Antonyan, S. Tilav, F. Tischbein, K. Tollefson, L. Tomankova, C.
T\"onnis, S. Toscano, D. Tosi, A. Trettin, M. Tselengidou, C. F. Tung, A.
Turcati, R. Turcotte, C. F. Turley, J. P. Twagirayezu, B. Ty, M. A. Unland
Elorrieta, N. Valtonen-Mattila, J. Vandenbroucke, D. van Eijk, N. van
Eijndhoven, D. Vannerom, J. van Santen, S. Verpoest, M. Vraeghe, C. Walck, A.
Wallace, T. B. Watson, C. Weaver, A. Weindl, M. J. Weiss, J. Weldert, C.
Wendt, J. Werthebach, M. Weyrauch, B. J. Whelan, N. Whitehorn, K. Wiebe, C.
H. Wiebusch, D. R. Williams, M. Wolf, K. Woschnagg, G. Wrede, J. Wulff, X. W.
Xu, Y. Xu, J. P. Yanez, S. Yoshida, T. Yuan, Z. Zhang
- Abstract要約: ディープニューラルネットワークは非常に強力であり、ネットワークをトレーニングすればその使用は計算的に安価になる。
畳み込み構造と六角形カーネルに基づく再構成法を提案する。
それは2から3桁の規模で再建を実行するために必要な時間を短縮しながら、再建の精度を向上させることができます。
- 参考スコア(独自算出の注目度): 0.4282223735043171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continued improvements on existing reconstruction methods are vital to the
success of high-energy physics experiments, such as the IceCube Neutrino
Observatory. In IceCube, further challenges arise as the detector is situated
at the geographic South Pole where computational resources are limited.
However, to perform real-time analyses and to issue alerts to telescopes around
the world, powerful and fast reconstruction methods are desired. Deep neural
networks can be extremely powerful, and their usage is computationally
inexpensive once the networks are trained. These characteristics make a deep
learning-based approach an excellent candidate for the application in IceCube.
A reconstruction method based on convolutional architectures and hexagonally
shaped kernels is presented. The presented method is robust towards systematic
uncertainties in the simulation and has been tested on experimental data. In
comparison to standard reconstruction methods in IceCube, it can improve upon
the reconstruction accuracy, while reducing the time necessary to run the
reconstruction by two to three orders of magnitude.
- Abstract(参考訳): 既存の再建手法の改善は、アイスキューブニュートリノ天文台のような高エネルギー物理実験の成功に不可欠である。
アイスキューブでは、検出器が計算資源が限られている南極点に位置するため、さらなる課題が生じる。
しかし, リアルタイム解析を行い, 世界中の望遠鏡に警告を発するためには, 強力かつ高速な再構成手法が望まれている。
ディープニューラルネットワークは非常に強力であり、ネットワークをトレーニングすればその使用は計算的に安価になる。
これらの特徴により、深層学習に基づくアプローチは、icecubeの応用に優れた候補となる。
畳み込み構造と六角形カーネルに基づく再構成法を提案する。
提案手法はシミュレーションの系統的不確実性に対して頑健であり,実験データを用いて実験を行った。
アイスキューブの標準的な再建法と比較して、再建に必要な時間を2~3桁に短縮しつつ、復元精度を向上させることができる。
関連論文リスト
- Neural Poisson Surface Reconstruction: Resolution-Agnostic Shape
Reconstruction from Point Clouds [53.02191521770926]
我々は,3次元形状を点から復元するという課題に対処する形状再構成アーキテクチャであるニューラルポアソン表面再構成(nPSR)を導入する。
nPSRには2つの大きな利点がある: まず、高分解能評価において同等の性能を達成しつつ、低分解能データの効率的なトレーニングを可能にする。
全体として、ニューラル・ポアソン表面の再構成は、形状再構成における古典的なディープニューラルネットワークの限界を改良するだけでなく、再構築品質、走行時間、分解能非依存の観点からも優れた結果が得られる。
論文 参考訳(メタデータ) (2023-08-03T13:56:07Z) - 2D Convolutional Neural Network for Event Reconstruction in IceCube
DeepCore [0.0]
IceCube DeepCoreは、GeVスケールの大気ニュートリノ相互作用を測定するために設計されたアイスキューブニュートリノ天文台の拡張である。
他のフレーバーからミューオンニュートリノを除去し、非弾性を再構築することは、特にGeVスケールエネルギーにおいて難しい課題である。
我々はIceCube DeepCoreデータにおける時間と深さの対称性を利用する新しいCNNモデルを提案する。
論文 参考訳(メタデータ) (2023-07-31T02:37:36Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Physics-informed neural networks for gravity currents reconstruction
from limited data [0.0]
本研究では, 物理インフォームドニューラルネットワーク(PINN)を用いた非定常重力電流の3次元再構成について検討した。
PINNコンテキストでは、目的関数がネットワーク予測と観測データとのミスマッチをペナルティ化するニューラルネットワークをトレーニングすることにより、フローフィールドを再構築する。
論文 参考訳(メタデータ) (2022-11-03T11:27:29Z) - A Dataset-Dispersion Perspective on Reconstruction Versus Recognition in
Single-View 3D Reconstruction Networks [16.348294592961327]
我々は、この先行要因を定量化し、そのNNへの影響を研究するために、新しいデータ駆動計量である分散スコアを導入する。
提案手法は, 従来の再建スコアに加えて, 復元品質を解析し, 新たな情報を提供する主要な方法であることを示す。
論文 参考訳(メタデータ) (2021-11-30T06:33:35Z) - Localized Persistent Homologies for more Effective Deep Learning [60.78456721890412]
ネットワークトレーニング中の位置を考慮に入れた新しいフィルタ機能を利用する手法を提案する。
この方法で訓練されたネットワークが抽出した曲線構造のトポロジを回復するのに役立つ道路の2次元画像と神経過程の3次元画像スタックを実験的に実証した。
論文 参考訳(メタデータ) (2021-10-12T19:28:39Z) - Backward Gradient Normalization in Deep Neural Networks [68.8204255655161]
ニューラルネットワークトレーニングにおける勾配正規化のための新しい手法を提案する。
勾配は、ネットワークアーキテクチャ内の特定の点で導入された正規化レイヤを使用して、後方通過中に再スケールされる。
非常に深いニューラルネットワークを用いたテストの結果、新しい手法が勾配ノルムを効果的に制御できることが示されている。
論文 参考訳(メタデータ) (2021-06-17T13:24:43Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - Baryon acoustic oscillations reconstruction using convolutional neural
networks [1.9262162668141078]
深部畳み込みニューラルネットワーク(CNN)に基づく重要な宇宙情報を含むバリオン音響発振(BAO)信号の再構成手法を提案する。
一方の宇宙論で訓練されたネットワークは、他の宇宙論とは無関係に非線型性に失われる情報を復元し、BAOピークを再構築することができる。
論文 参考訳(メタデータ) (2020-02-24T13:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。