論文の概要: On the impact of selected modern deep-learning techniques to the
performance and celerity of classification models in an experimental
high-energy physics use case
- arxiv url: http://arxiv.org/abs/2002.01427v4
- Date: Fri, 8 May 2020 10:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:48:45.430348
- Title: On the impact of selected modern deep-learning techniques to the
performance and celerity of classification models in an experimental
high-energy physics use case
- Title(参考訳): 実験高エネルギー物理利用事例における選択された近代深層学習技術が分類モデルの性能と不整合性に及ぼす影響について
- Authors: Giles Chatham Strong
- Abstract要約: ディープラーニング技術は、高エネルギー物理学の領域で遭遇する分類問題の文脈でテストされる。
利点は、パフォーマンスメトリクスと、結果のモデルのトレーニングと適用に必要な時間の両方の観点から評価されます。
LUMINと呼ばれるPyTorch用の新しいラッパーライブラリが紹介されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beginning from a basic neural-network architecture, we test the potential
benefits offered by a range of advanced techniques for machine learning, in
particular deep learning, in the context of a typical classification problem
encountered in the domain of high-energy physics, using a well-studied dataset:
the 2014 Higgs ML Kaggle dataset. The advantages are evaluated in terms of both
performance metrics and the time required to train and apply the resulting
models. Techniques examined include domain-specific data-augmentation, learning
rate and momentum scheduling, (advanced) ensembling in both model-space and
weight-space, and alternative architectures and connection methods. Following
the investigation, we arrive at a model which achieves equal performance to the
winning solution of the original Kaggle challenge, whilst being significantly
quicker to train and apply, and being suitable for use with both GPU and CPU
hardware setups. These reductions in timing and hardware requirements
potentially allow the use of more powerful algorithms in HEP analyses, where
models must be retrained frequently, sometimes at short notice, by small groups
of researchers with limited hardware resources. Additionally, a new wrapper
library for PyTorch called LUMIN is presented, which incorporates all of the
techniques studied.
- Abstract(参考訳): 基本的なニューラルネットワークアーキテクチャから始まり、2014 higgs ml kaggleデータセットを使用して、高エネルギー物理学の領域で遭遇する典型的な分類問題の文脈で、機械学習、特にディープラーニングの高度な技術によって提供される潜在的な利点をテストする。
利点は、パフォーマンスメトリクスと、モデルのトレーニングと適用に要する時間の両方の観点から評価されます。
検証された技術には、ドメイン固有のデータ提供、学習速度と運動量スケジューリング、モデル空間と重み空間の両方で(高度な)センシング、代替アーキテクチャと接続方法が含まれる。
調査の後、我々は元のKaggleチャレンジの勝者ソリューションと同等のパフォーマンスを達成するモデルに到達し、トレーニングと適用が極めて高速で、GPUとCPUハードウェアの両方のセットアップでの使用に適している。
これらのタイミングとハードウェア要件の削減は、限られたハードウェアリソースを持つ少数の研究者グループによって、モデルが頻繁に、時には短時間に、頻繁に再訓練されなければならないHEP分析において、より強力なアルゴリズムの使用を可能にする可能性がある。
さらに、LUMINと呼ばれるPyTorch用の新しいラッパーライブラリが紹介され、研究されたすべてのテクニックが組み込まれている。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Hybrid Quantum Neural Network in High-dimensional Data Classification [1.4801853435122907]
本稿では,古典的畳み込み層と量子ニューラルネットワークを組み合わせた新しいモデルアーキテクチャを提案する。
この実験は、Bird-CLEF 2021データセットから高次元オーディオデータを分類することを目的としている。
論文 参考訳(メタデータ) (2023-12-02T04:19:23Z) - Data Augmentations in Deep Weight Spaces [89.45272760013928]
そこで本研究では,Mixup法に基づく新しい拡張手法を提案する。
既存のベンチマークと新しいベンチマークでこれらのテクニックのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2023-11-15T10:43:13Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - A New Clustering-Based Technique for the Acceleration of Deep
Convolutional Networks [2.7393821783237184]
MCA(Model Compression and Acceleration)技術は、大規模な事前学習ネットワークをより小さなモデルに変換するために用いられる。
本稿では,採用したセントロイド/表現量を増やすクラスタリングに基づく手法を提案する。
これは、被雇用者に対して特別な構造を課すことによって達成され、これは、目の前の問題の特異性によって実現される。
論文 参考訳(メタデータ) (2021-07-19T18:22:07Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Computation on Sparse Neural Networks: an Inspiration for Future
Hardware [20.131626638342706]
スパースニューラルネットワークの計算に関する研究の現状について述べる。
本稿では,重みパラメータの数とモデル構造に影響されるモデルの精度について論じる。
実際に複雑な問題に対して、重みが支配する領域において、大小のモデルを探索することはより有益であることを示す。
論文 参考訳(メタデータ) (2020-04-24T19:13:50Z) - Gradient-Based Training and Pruning of Radial Basis Function Networks
with an Application in Materials Physics [0.24792948967354234]
本稿では,高速かつスケーラブルなオープンソース実装による放射状基底関数ネットワークのトレーニング手法を提案する。
連立データと連立データのモデル解析のための新しいクローズドフォーム最適化基準を導出する。
論文 参考訳(メタデータ) (2020-04-06T11:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。