論文の概要: Variational Dropout Sparsification for Particle Identification speed-up
- arxiv url: http://arxiv.org/abs/2001.07493v1
- Date: Tue, 21 Jan 2020 13:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:27:59.397641
- Title: Variational Dropout Sparsification for Particle Identification speed-up
- Title(参考訳): 粒子識別速度アップのための変分ドロップアウトスパーシフィケーション
- Authors: Artem Ryzhikov, Denis Derkach, Mikhail Hushchyn
- Abstract要約: LHCアップグレード条件における高速PIDを実現するためのニューラルネットワーク高速化手法の新たな応用について論じる。
その結果, 浅層ネットワークモデルと比較して, 予測速度が最大16倍に向上することを示した。
- 参考スコア(独自算出の注目度): 1.2031796234206138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate particle identification (PID) is one of the most important aspects
of the LHCb experiment. Modern machine learning techniques such as neural
networks (NNs) are efficiently applied to this problem and are integrated into
the LHCb software. In this research, we discuss novel applications of neural
network speed-up techniques to achieve faster PID in LHC upgrade conditions. We
show that the best results are obtained using variational dropout
sparsification, which provides a prediction (feedforward pass) speed increase
of up to a factor of sixteen even when compared to a model with shallow
networks.
- Abstract(参考訳): 正確な粒子識別(PID)はLHCb実験の最も重要な側面の一つである。
ニューラルネットワーク(NN)のような現代の機械学習技術がこの問題に効果的に適用され、LHCbソフトウェアに統合される。
本研究では,LHCアップグレード条件における高速PIDを実現するニューラルネットワーク高速化手法の新たな応用について論じる。
その結果,浅層ネットワークモデルと比較して,最大16倍の予測速度向上(フェードフォワードパス)が得られた。
関連論文リスト
- Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
本稿では、適応LIFニューロンとそのネットワークの動的、計算的、および学習特性について分析する。
適応LIFニューロンのネットワークの優越性は、複雑な時系列の予測と生成にまで及んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries [4.5594104437122684]
変分物理学情報ニューラルネットワーク(VPINN)は偏微分方程式の解法として変分損失関数を用いる。
FastVPINNは、従来のhp-VPINNと比較して、エポックあたりの平均トレーニング時間を100倍に短縮する。
論文 参考訳(メタデータ) (2024-04-18T10:21:28Z) - SLP-Net:An efficient lightweight network for segmentation of skin
lesions [9.812172372998358]
SLP-Netは、スパイキングニューラルP(SNP)システム型機構に基づく超軽量皮膚病変セグメンテーションネットワークである。
通常のエンコーダ・デコーダ構造を持たない軽量なマルチスケール特徴抽出器を設計する。
ISIC2018チャレンジの実験では、提案されたモデルが最先端の手法の中で最も高いAccとDSCを持つことを示した。
論文 参考訳(メタデータ) (2023-12-20T06:22:21Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Machine learning enabled experimental design and parameter estimation
for ultrafast spin dynamics [54.172707311728885]
機械学習とベイズ最適実験設計(BOED)を組み合わせた方法論を提案する。
本手法は,大規模スピンダイナミクスシミュレーションのためのニューラルネットワークモデルを用いて,BOEDの正確な分布と実用計算を行う。
数値ベンチマークでは,XPFS実験の誘導,モデルパラメータの予測,実験時間内でのより情報的な測定を行う上で,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-03T06:19:20Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Variational learning of quantum ground states on spiking neuromorphic
hardware [0.0]
高次元サンプリング空間と過渡自己相関は、難しい計算ボトルネックを伴うニューラルネットワークに直面する。
従来のニューラルネットワークと比較して、物理モデルデバイスは高速で効率的で本質的に並列な基板を提供する。
変動エネルギー最小化による量子スピンモデルの基底状態を表すニューロモルフィックチップの能力を示す。
論文 参考訳(メタデータ) (2021-09-30T14:39:45Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Data Augmentation at the LHC through Analysis-specific Fast Simulation
with Deep Learning [4.666011151359189]
本稿では,大規模解析用データセットを作成するために設計されたディープニューラルネットワークに基づく高速シミュレーションアプリケーションを提案する。
本稿では,大量のジェネレータレベルのイベントから始まる高速シミュレーションワークフローを提案する。
論文 参考訳(メタデータ) (2020-10-05T07:48:45Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。