論文の概要: Semi-Equivariant GNN Architectures for Jet Tagging
- arxiv url: http://arxiv.org/abs/2202.06941v1
- Date: Mon, 14 Feb 2022 18:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 18:16:56.233743
- Title: Semi-Equivariant GNN Architectures for Jet Tagging
- Title(参考訳): ジェットタグ用半不変GNNアーキテクチャ
- Authors: Daniel Murnane, Savannah Thais and Jason Wong
- Abstract要約: 本稿では,対称性検査と非制約演算を組み合わせた新しいアーキテクチャVecNetを提案し,物理インフォームドGNNの程度を学習・調整する。
私たちのような一般化されたアーキテクチャは、リソース制約のあるアプリケーションで最適なパフォーマンスを提供できることが分かりました。
- 参考スコア(独自算出の注目度): 1.6626046865692057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Composing Graph Neural Networks (GNNs) of operations that respect physical
symmetries has been suggested to give better model performance with a smaller
number of learnable parameters. However, real-world applications, such as in
high energy physics have not born this out. We present the novel architecture
VecNet that combines both symmetry-respecting and unconstrained operations to
study and tune the degree of physics-informed GNNs. We introduce a novel
metric, the \textit{ant factor}, to quantify the resource-efficiency of each
configuration in the search-space. We find that a generalized architecture such
as ours can deliver optimal performance in resource-constrained applications.
- Abstract(参考訳): 物理対称性を尊重する演算のグラフニューラルネットワーク(GNN)を構成することで、学習可能なパラメータの少ないモデル性能が向上することが示唆されている。
しかし、高エネルギー物理学のような実世界の応用はこの段階から生まれていない。
本稿では,対称性検査と非制約演算を組み合わせた新しいアーキテクチャVecNetを提案し,物理インフォームドGNNの程度を学習・調整する。
探索空間における各構成のリソース効率を定量化するために、新しい計量である \textit{ant factor} を導入する。
私たちのような汎用アーキテクチャは、リソース制約のあるアプリケーションで最適なパフォーマンスを提供できることが分かりました。
関連論文リスト
- Do deep neural networks utilize the weight space efficiently? [2.9914612342004503]
TransformersやConvolutional Neural Networks(CNN)といったディープラーニングモデルは、さまざまなドメインに革命をもたらしたが、パラメータ集約的な自然ハマーをリソース制約された設定に配置する。
重み行列の列空間と行空間を利用する新しい概念を導入し、性能を損なうことなくモデルパラメータを大幅に削減する。
私たちのアプローチはBottleneck層とAttention層の両方に適用され、パラメータを効果的に半分にします。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - 19 Parameters Is All You Need: Tiny Neural Networks for Particle Physics [52.42485649300583]
本稿では,ローレンツ型および置換対称型アーキテクチャPELICANの低遅延ニューラルネットワークへの応用の可能性を示す。
トップクォークジェットタグのバイナリ分類タスクと比較すると,最大19のトレーニング可能なパラメータで,数万のパラメータでジェネリックアーキテクチャを上回る性能を示す。
論文 参考訳(メタデータ) (2023-10-24T18:51:22Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Equivariant Graph Neural Networks for Charged Particle Tracking [1.6626046865692057]
EuclidNetは荷電粒子追跡のための新しい対称性等価GNNである。
TrackMLデータセット上の最先端のインタラクションネットワークに対してベンチマークを行う。
以上の結果から,EuclidNetは小規模なモデルスケールでほぼ最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-04-11T15:43:32Z) - Connectivity Optimized Nested Graph Networks for Crystal Structures [1.1470070927586016]
グラフニューラルネットワーク(GNN)は、材料科学や化学における様々な応用に応用されている。
提案したモデルでは,MateBenchベンチマークのすべてのタスクにおいて,最新の結果が体系的に改善されることが示されている。
論文 参考訳(メタデータ) (2023-02-27T19:26:48Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。