論文の概要: CapsLorentzNet: Integrating Physics Inspired Features with Graph Convolution
- arxiv url: http://arxiv.org/abs/2403.11826v1
- Date: Mon, 18 Mar 2024 14:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 20:10:10.220301
- Title: CapsLorentzNet: Integrating Physics Inspired Features with Graph Convolution
- Title(参考訳): CapsLorentzNet: 物理にインスパイアされた機能とグラフの畳み込みの統合
- Authors: Rameswar Sahu,
- Abstract要約: 本稿では,広範囲なグラフニューラルネットワーク(GNN)アーキテクチャと互換性のあるアーキテクチャを新たに導入する。
本手法は,標準GNNにおける従来の復号ブロックを置き換えるカプセル層の統合を提唱する。
我々の新しいアーキテクチャはクォークグルーオンタグ処理においてローレンツネットの性能を20%向上させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of advanced machine learning techniques, boosted object tagging has witnessed significant progress. In this article, we take this field further by introducing novel architectural modifications compatible with a wide array of Graph Neural Network (GNN) architectures. Our approach advocates for integrating capsule layers, replacing the conventional decoding blocks in standard GNNs. These capsules are a group of neurons with vector activations. The orientation of these vectors represents important properties of the objects under study, with their magnitude characterizing whether the object under study belongs to the class represented by the capsule. Moreover, capsule networks incorporate a regularization by reconstruction mechanism, facilitating the seamless integration of expert-designed high-level features into the analysis. We have studied the usefulness of our architecture with the LorentzNet architecture for quark-gluon tagging. Here, we have replaced the decoding block of LorentzNet with a capsulated decoding block and have called the resulting architecture CapsLorentzNet. Our new architecture can enhance the performance of LorentzNet by 20 \% for the quark-gluon tagging task.
- Abstract(参考訳): 高度な機械学習技術の出現により、オブジェクトのタグ付けが大幅に進歩した。
本稿では,広い範囲のグラフニューラルネットワーク(GNN)アーキテクチャと互換性のある新しいアーキテクチャ変更を導入することにより,この分野をさらに進める。
本手法は,標準GNNにおける従来の復号ブロックを置き換えるカプセル層の統合を提唱する。
これらのカプセルは、ベクターアクティベーションを持つニューロンのグループである。
これらのベクトルの向きは、研究中の物体がカプセルで表されるクラスに属するかどうかを特徴づける大きさで、研究中の物体の重要な特性を表している。
さらに、カプセルネットワークは再構成機構による正規化を取り入れ、専門家が設計した高レベルな特徴をシームレスに分析に統合することを容易にする。
クォークグルーオンタギングにおけるLorentzNetアーキテクチャによるアーキテクチャの有用性について検討した。
ここでは、LorentzNetの復号ブロックをカプセル化復号ブロックに置き換え、結果のアーキテクチャをCapsLorentzNetと呼ぶ。
我々の新しいアーキテクチャはクォークグルーオンタギングタスクにおいてローレンツネットの性能を20%向上させることができる。
関連論文リスト
- Towards characterizing the value of edge embeddings in Graph Neural Networks [47.01312576529216]
グラフニューラルネットワーク(GNN)は、グラフ上で定義された機械学習問題を解決する主要なアプローチである。
エッジの埋め込みを維持し、更新するアーキテクチャの利点について検討する。
論文 参考訳(メタデータ) (2024-10-13T15:03:24Z) - The Impact of Feature Embedding Placement in the Ansatz of a Quantum Kernel in QSVMs [0.5399800035598186]
量子埋め込みカーネル(QEK)における様々なアーキテクチャパターンの研究と分類を行う。
既存の建築様式は文献が想定しているように振る舞わないことを示す。
我々は、古いものに基づいた新しい代替アーキテクチャを作成し、古いものよりも少ないゲートを含む一方で、同等に機能することを示す。
論文 参考訳(メタデータ) (2024-09-20T01:25:13Z) - MuseGNN: Interpretable and Convergent Graph Neural Network Layers at
Scale [15.93424606182961]
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - Equivariant Architectures for Learning in Deep Weight Spaces [54.61765488960555]
重み空間の学習のための新しいネットワークアーキテクチャを提案する。
入力として、事前訓練された不変量の重みとバイアスの連結をとる。
これらのレイヤを3つの基本的な操作で実装する方法を示す。
論文 参考訳(メタデータ) (2023-01-30T10:50:33Z) - Extending Graph Transformers with Quantum Computed Aggregation [0.0]
本稿では,量子系の長距離相関を用いて集約重みを計算するGNNアーキテクチャを提案する。
これらの相関は、グラフトポロジーを量子コンピュータ内の量子ビットの集合の相互作用に変換することによって生成される。
論文 参考訳(メタデータ) (2022-10-19T14:56:15Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。