論文の概要: Higgs Boson Classification: Brain-inspired BCPNN Learning with
StreamBrain
- arxiv url: http://arxiv.org/abs/2107.06676v1
- Date: Wed, 14 Jul 2021 13:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:06:35.229658
- Title: Higgs Boson Classification: Brain-inspired BCPNN Learning with
StreamBrain
- Title(参考訳): higgs boson分類:streambrainを用いた脳インスパイアbcpnn学習
- Authors: Martin Svedin, Artur Podobas, Steven W. D. Chien, Stefano Markidis
- Abstract要約: 我々は,機械学習の課題を解決するために,高性能コンピューティングリソースを活用するために,脳にインスパイアされたMLの可能性について論じる。
高エネルギー物理学からヒッグス・ボソンのデータセットを分析するためにStreamBrainを使用します。
精度は69.15%、AUC(Area Under the Curve)は76.4%に達する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most promising approaches for data analysis and exploration of
large data sets is Machine Learning techniques that are inspired by brain
models. Such methods use alternative learning rules potentially more
efficiently than established learning rules. In this work, we focus on the
potential of brain-inspired ML for exploiting High-Performance Computing (HPC)
resources to solve ML problems: we discuss the BCPNN and an HPC implementation,
called StreamBrain, its computational cost, suitability to HPC systems. As an
example, we use StreamBrain to analyze the Higgs Boson dataset from High Energy
Physics and discriminate between background and signal classes in collisions of
high-energy particle colliders. Overall, we reach up to 69.15% accuracy and
76.4% Area Under the Curve (AUC) performance.
- Abstract(参考訳): データ分析と大規模なデータセット探索の最も有望なアプローチの1つは、脳モデルにインスパイアされた機械学習技術である。
このような方法は、既存の学習規則よりも効率的な代替学習規則を使用する。
本稿では,高パフォーマンスコンピューティング(hpc)資源を活用してml問題を解決するための,脳にインスパイアされたmlの可能性に注目し,bcpnnと,その計算コスト,hpcシステムに適合するhpc実装について論じる。
例えば、ストリームブレインを使って高エネルギー物理学からヒッグス粒子データセットを分析し、高エネルギー粒子衝突器の衝突における背景と信号のクラスを区別する。
全体的な精度は69.15%、AUC(Area Under the Curve)のパフォーマンスは76.4%に達する。
関連論文リスト
- FastSpiker: Enabling Fast Training for Spiking Neural Networks on Event-based Data through Learning Rate Enhancements for Autonomous Embedded Systems [5.59354286094951]
FastSpikerは、学習率の強化を通じて、イベントベースのデータに対する高速SNNトレーニングを可能にする、新しい方法論である。
我々は、FastSpikerが最大10.5倍高速なトレーニング時間と88.39%低い二酸化炭素排出量を提供し、イベントベースの自動車データセットの最先端または同等の精度を達成することを示した。
論文 参考訳(メタデータ) (2024-07-07T05:17:17Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - To Spike or Not To Spike: A Digital Hardware Perspective on Deep
Learning Acceleration [4.712922151067433]
ディープラーニングモデルがスケールするにつれて、コンピュータビジョンから自然言語処理まで、ドメイン間の競争が激化する。
生物学的脳のパワー効率は、大規模深層学習(DL)モデルよりも優れている。
ニューロモルフィックコンピューティングは、DLモデルの効率を改善するために、脳の操作を模倣しようとする。
論文 参考訳(メタデータ) (2023-06-27T19:04:00Z) - Scalable training of graph convolutional neural networks for fast and
accurate predictions of HOMO-LUMO gap in molecules [1.8947048356389908]
この研究は、数百万の分子の物質特性を予測するために、HPCシステム上でGCNNモデルを構築することに焦点を当てている。
PyTorchで分散データ並列性を活用するために,大規模GCNNトレーニング用の社内ライブラリであるHydraGNNを使用しています。
我々は2つのオープンソースの大規模グラフデータセットの並列トレーニングを行い、HOMO-LUMOギャップとして知られる重要な量子特性のためのGCNN予測器を構築する。
論文 参考訳(メタデータ) (2022-07-22T20:54:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - LGGNet: Learning from Local-Global-Graph Representations for
Brain-Computer Interface [9.825158483198113]
我々は,脳波から局所的グローバルグラフ表現を学ぶために,神経学的にインスパイアされたグラフニューラルネットワークlggを提案する。
脳波の時間的ダイナミクスを学習するために, 複数スケールの1次元畳み込み核とカーネルレベルの注目融合を有する時間的畳み込み層を提案する。
論文 参考訳(メタデータ) (2021-05-05T12:06:34Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - A 28-nm Convolutional Neuromorphic Processor Enabling Online Learning
with Spike-Based Retinas [1.4425878137951236]
適応エッジコンピューティングとビジョンアプリケーションのための28nmイベント駆動CNN(eCNN)であるSPOONを提案する。
16.8-%のパワーと11.8-%のオーバヘッドしか持たないオンライン学習を、生物学的に証明可能な直接ランダムターゲットプロジェクション(DRTP)アルゴリズムで埋め込んでいる。
0.6Vでの313nJの分類あたりのエネルギーと95.3%(オンチップトレーニング)と97.5%(オフチップトレーニング)のアキュラシーに対する0.32-mm$2$の面積で、SPOONが従来の機械学習アクセラレータの効率に達することを示した。
論文 参考訳(メタデータ) (2020-05-13T13:47:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。