論文の概要: Machine learning based event classification for the energy-differential
measurement of the $^\text{nat}$C(n,p) and $^\text{nat}$C(n,d) reactions
- arxiv url: http://arxiv.org/abs/2204.04955v1
- Date: Mon, 11 Apr 2022 09:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 19:05:16.055882
- Title: Machine learning based event classification for the energy-differential
measurement of the $^\text{nat}$C(n,p) and $^\text{nat}$C(n,d) reactions
- Title(参考訳): 機械学習による$^\text{nat}$C(n,p)および$^\text{nat}$C(n,d)反応のエネルギー差分測定のための事象分類
- Authors: P. \v{Z}ugec, M. Barbagallo, J. Andrzejewski, J. Perkowski, N.
Colonna, D. Bosnar, A. Gawlik, M. Sabate-Gilarte, M. Bacak, F. Mingrone, E.
Chiaveri
- Abstract要約: 本稿では,実験データの分類に機械学習,特にニューラルネットワークを用いることの可能性について検討する。
実験データは、CERNの飛行施設n_TOFの中性子時間から、ジョイント$textnat$C(n,p)と$textnat$C(n,d)反応断面積の測定から得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper explores the feasibility of using machine learning techniques, in
particular neural networks, for classification of the experimental data from
the joint $^\text{nat}$C(n,p) and $^\text{nat}$C(n,d) reaction cross section
measurement from the neutron time of flight facility n_TOF at CERN. Each
relevant $\Delta E$-$E$ pair of strips from two segmented silicon telescopes is
treated separately and afforded its own dedicated neural network. An important
part of the procedure is a careful preparation of training datasets, based on
the raw data from Geant4 simulations. Instead of using these raw data for the
training of neural networks, we divide a relevant 3-parameter space into
discrete voxels, classify each voxel according to a particle/reaction type and
submit these voxels to a training procedure. The classification capabilities of
the structurally optimized and trained neural networks are found to be superior
to those of the manually selected cuts.
- Abstract(参考訳): 本稿では, CERNにおける飛行施設n_TOFの中性子時間から, 実験データである$^\text{nat}$C(n,p)と$^\text{nat}$C(n,d)の反応断面積を分類するために, 機械学習技術, 特にニューラルネットワークを用いることの可能性を検討する。
関連する$\Delta E$-$E$の2つのセグメントのシリコン望遠鏡のストリップは別々に処理され、独自のニューラルネットワークが提供される。
手順の重要な部分は、Geant4シミュレーションの生データに基づいて、トレーニングデータセットの慎重な準備である。
これらの生データをニューラルネットワークのトレーニングに使用する代わりに、関連する3パラメータ空間を離散ボクセルに分割し、各ボクセルを粒子/反応タイプに従って分類し、これらのボクセルをトレーニング手順に送信する。
構造的に最適化され、訓練されたニューラルネットワークの分類能力は、手動で選択したカットの分類能力よりも優れている。
関連論文リスト
- Fuzzy Convolution Neural Networks for Tabular Data Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、様々な領域における顕著な性能のために、多くの注目を集めている。
本稿では,表データに適したファジィ畳み込みニューラルネットワーク(FCNN)を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:33:35Z) - Efficient SGD Neural Network Training via Sublinear Activated Neuron
Identification [22.361338848134025]
本稿では,ReLUの活性化をシフトする2層ニューラルネットワークについて,幾何学的探索によるサブ線形時間における活性化ニューロンの同定を可能にする。
また、我々のアルゴリズムは、係数ノルム上界$M$とエラー項$epsilon$の2次ネットワークサイズで$O(M2/epsilon2)$時間に収束できることを示す。
論文 参考訳(メタデータ) (2023-07-13T05:33:44Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Does Preprocessing Help Training Over-parameterized Neural Networks? [19.64638346701198]
我々は,$Omega(mnd)$バリアをバイパスする2つの新しい前処理手法を提案する。
本研究は,これまでに確立された高速訓練法について理論的考察を行った。
論文 参考訳(メタデータ) (2021-10-09T18:16:23Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。