論文の概要: 19 Parameters Is All You Need: Tiny Neural Networks for Particle Physics
- arxiv url: http://arxiv.org/abs/2310.16121v2
- Date: Wed, 29 Nov 2023 22:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 22:55:38.933972
- Title: 19 Parameters Is All You Need: Tiny Neural Networks for Particle Physics
- Title(参考訳): 素粒子物理学のためのニューラルネットワーク「19のパラメータ」
- Authors: Alexander Bogatskiy, Timothy Hoffman, Jan T. Offermann
- Abstract要約: 本稿では,ローレンツ型および置換対称型アーキテクチャPELICANの低遅延ニューラルネットワークへの応用の可能性を示す。
トップクォークジェットタグのバイナリ分類タスクと比較すると,最大19のトレーニング可能なパラメータで,数万のパラメータでジェネリックアーキテクチャを上回る性能を示す。
- 参考スコア(独自算出の注目度): 52.42485649300583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As particle accelerators increase their collision rates, and deep learning
solutions prove their viability, there is a growing need for lightweight and
fast neural network architectures for low-latency tasks such as triggering. We
examine the potential of one recent Lorentz- and permutation-symmetric
architecture, PELICAN, and present its instances with as few as 19 trainable
parameters that outperform generic architectures with tens of thousands of
parameters when compared on the binary classification task of top quark jet
tagging.
- Abstract(参考訳): 粒子加速器の衝突速度が向上し、ディープラーニングソリューションがその実現可能性を証明するにつれ、トリガーのような低レイテンシタスクのための軽量で高速なニューラルネットワークアーキテクチャの必要性が高まっている。
本稿では,最近のLorentz- and permutation-symmetric architectureであるPELICANの可能性を検証し,トップクォークジェットタグのバイナリ分類タスクと比較した場合に,数万のパラメータで汎用アーキテクチャを上回り,最大19個のトレーニング可能なパラメータを提示する。
関連論文リスト
- Explainable Equivariant Neural Networks for Particle Physics: PELICAN [51.02649432050852]
PELICANは、新しい置換同変であり、ローレンツ不変アグリゲーターネットワークである。
本稿では,タグ付け(分類)とローレンツ発泡トップクォークの再構成(回帰)の両文脈におけるPELICANアルゴリズムアーキテクチャについて述べる。
PELICANの適用範囲を、クォーク開始時とグルーオン開始時とを識別するタスクに拡張し、5種類のジェットを対象とするマルチクラス同定を行う。
論文 参考訳(メタデータ) (2023-07-31T09:08:40Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - Quantum HyperNetworks: Training Binary Neural Networks in Quantum
Superposition [16.1356415877484]
量子コンピュータ上でバイナリニューラルネットワークをトレーニングするメカニズムとして量子ハイパーネットを導入する。
提案手法は, 最適パラメータ, ハイパーパラメータ, アーキテクチャ選択を, 分類問題に対する高い確率で効果的に発見できることを示す。
私たちの統合されたアプローチは、機械学習の分野における他のアプリケーションにとって大きなスコープを提供します。
論文 参考訳(メタデータ) (2023-01-19T20:06:48Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Semi-Equivariant GNN Architectures for Jet Tagging [1.6626046865692057]
本稿では,対称性検査と非制約演算を組み合わせた新しいアーキテクチャVecNetを提案し,物理インフォームドGNNの程度を学習・調整する。
私たちのような一般化されたアーキテクチャは、リソース制約のあるアプリケーションで最適なパフォーマンスを提供できることが分かりました。
論文 参考訳(メタデータ) (2022-02-14T18:57:12Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。