論文の概要: Deep Neural Network as an alternative to Boosted Decision Trees for PID
- arxiv url: http://arxiv.org/abs/2104.14045v1
- Date: Wed, 28 Apr 2021 23:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 00:33:30.351723
- Title: Deep Neural Network as an alternative to Boosted Decision Trees for PID
- Title(参考訳): PIDのためのブースト決定木に代わるディープニューラルネットワーク
- Authors: Denis Stanev, Riccardo Riva, Michele Umassi
- Abstract要約: Roe et alで提案された粒子の二元分類法を再現し、改善する。
(2005)論文「粒子識別のためのニューラルネットワークの代替としてのブースト決定木」
現代の技術を用いて、精度とトレーニング時間の両方において、元の結果をどのように改善できるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we recreate, and improve, the binary classification method for
particles proposed in Roe et al. (2005) paper "Boosted decision trees as an
alternative to artificial neural networks for particle identification". Such
particles are tau neutrinos, which we will refer to as background, and
electronic neutrinos: the signal we are interested in. In the original paper
the preferred algorithm is a Boosted decision tree. This is due to its low
effort tuning and good overall performance at the time. Our choice for
implementation is a deep neural network, faster and more promising in
performance. We will show how, using modern techniques, we are able to improve
on the original result, both in accuracy and in training time.
- Abstract(参考訳): 本稿では,Roe et alで提案した粒子の2値分類法を再現し,改良する。
2005年)論文"boosted decision trees as an alternative of artificial neural networks for particle identification"。
このような粒子はタウニュートリノ(tau neutrinos)と呼ばれ、背景(background)、電子ニュートリノ(electronic neutrinos)と呼ばれる。
元の論文では、望ましいアルゴリズムはブースト決定木である。
これは、その労力の少ないチューニングと、その時の全体的なパフォーマンスが良いためである。
実装の選択はディープニューラルネットワークで、パフォーマンスがより速く、より有望です。
現代の技術を用いて、精度とトレーニング時間の両方において、元の結果をどのように改善できるかを示す。
関連論文リスト
- An experimental comparative study of backpropagation and alternatives for training binary neural networks for image classification [1.0749601922718608]
バイナリニューラルネットワークは、ディープニューラルネットワークモデルのサイズを減らすことを約束する。
より強力なモデルをエッジデバイスにデプロイすることも可能だ。
しかしながら、バイナリニューラルネットワークは、バックプロパゲーションに基づく勾配降下法を用いて訓練することが依然として難しいことが証明されている。
論文 参考訳(メタデータ) (2024-08-08T13:39:09Z) - Forward Direct Feedback Alignment for Online Gradient Estimates of Spiking Neural Networks [0.0]
スパイクニューラルネットワークは、ニューロモルフィックハードウェアプラットフォーム上で効率的にエネルギーをシミュレートすることができる。
本研究では,新しいニューロモルフィックアルゴリズムであるtextitSpiking Forward Direct Feedback Alignment (SFDFA) を提案する。
論文 参考訳(メタデータ) (2024-02-06T09:07:12Z) - Reinforcement Learning for Node Selection in Branch-and-Bound [52.2648997215667]
現在の最先端セレクタは手作りのアンサンブルを使用して、ナイーブなサブノードセレクタと、個々のノードデータに依存する学習ノードセレクタを自動的に切り替える。
孤立ノードではなく木の状態全体を考慮しながら強化学習(RL)を用いる新しいシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2023-09-29T19:55:56Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Benchmarking the Accuracy and Robustness of Feedback Alignment
Algorithms [1.2183405753834562]
バックプロパゲーションは、その単純さ、効率性、高収束率のために、ディープニューラルネットワークをトレーニングするためのデフォルトのアルゴリズムである。
近年,より生物学的に妥当な学習法が提案されている。
BioTorchは、生物学的に動機付けられたニューラルネットワークを作成し、トレーニングし、ベンチマークするソフトウェアフレームワークである。
論文 参考訳(メタデータ) (2021-08-30T18:02:55Z) - To Boost or not to Boost: On the Limits of Boosted Neural Networks [67.67776094785363]
ブースティングは分類器のアンサンブルを学ぶ方法である。
ブースティングは決定木に非常に有効であることが示されているが、ニューラルネットワークへの影響は広く研究されていない。
単一のニューラルネットワークは通常、同じ数のパラメータを持つ小さなニューラルネットワークの強化されたアンサンブルよりもよく一般化される。
論文 参考訳(メタデータ) (2021-07-28T19:10:03Z) - SparseDNN: Fast Sparse Deep Learning Inference on CPUs [1.6244541005112747]
CPUをターゲットとしたスパースディープラーニング推論エンジンであるSparseDNNを紹介します。
我々のスパースコードジェネレータは,最先端のスパースライブラリや高密度ライブラリよりも大幅に高速化できることを示す。
論文 参考訳(メタデータ) (2021-01-20T03:27:35Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。