論文の概要: CapsLorentzNet: Integrating Physics Inspired Features with Graph Convolution
- arxiv url: http://arxiv.org/abs/2403.11826v1
- Date: Mon, 18 Mar 2024 14:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 20:10:10.220301
- Title: CapsLorentzNet: Integrating Physics Inspired Features with Graph Convolution
- Title(参考訳): CapsLorentzNet: 物理にインスパイアされた機能とグラフの畳み込みの統合
- Authors: Rameswar Sahu,
- Abstract要約: 本稿では,広範囲なグラフニューラルネットワーク(GNN)アーキテクチャと互換性のあるアーキテクチャを新たに導入する。
本手法は,標準GNNにおける従来の復号ブロックを置き換えるカプセル層の統合を提唱する。
我々の新しいアーキテクチャはクォークグルーオンタグ処理においてローレンツネットの性能を20%向上させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of advanced machine learning techniques, boosted object tagging has witnessed significant progress. In this article, we take this field further by introducing novel architectural modifications compatible with a wide array of Graph Neural Network (GNN) architectures. Our approach advocates for integrating capsule layers, replacing the conventional decoding blocks in standard GNNs. These capsules are a group of neurons with vector activations. The orientation of these vectors represents important properties of the objects under study, with their magnitude characterizing whether the object under study belongs to the class represented by the capsule. Moreover, capsule networks incorporate a regularization by reconstruction mechanism, facilitating the seamless integration of expert-designed high-level features into the analysis. We have studied the usefulness of our architecture with the LorentzNet architecture for quark-gluon tagging. Here, we have replaced the decoding block of LorentzNet with a capsulated decoding block and have called the resulting architecture CapsLorentzNet. Our new architecture can enhance the performance of LorentzNet by 20 \% for the quark-gluon tagging task.
- Abstract(参考訳): 高度な機械学習技術の出現により、オブジェクトのタグ付けが大幅に進歩した。
本稿では,広い範囲のグラフニューラルネットワーク(GNN)アーキテクチャと互換性のある新しいアーキテクチャ変更を導入することにより,この分野をさらに進める。
本手法は,標準GNNにおける従来の復号ブロックを置き換えるカプセル層の統合を提唱する。
これらのカプセルは、ベクターアクティベーションを持つニューロンのグループである。
これらのベクトルの向きは、研究中の物体がカプセルで表されるクラスに属するかどうかを特徴づける大きさで、研究中の物体の重要な特性を表している。
さらに、カプセルネットワークは再構成機構による正規化を取り入れ、専門家が設計した高レベルな特徴をシームレスに分析に統合することを容易にする。
クォークグルーオンタギングにおけるLorentzNetアーキテクチャによるアーキテクチャの有用性について検討した。
ここでは、LorentzNetの復号ブロックをカプセル化復号ブロックに置き換え、結果のアーキテクチャをCapsLorentzNetと呼ぶ。
我々の新しいアーキテクチャはクォークグルーオンタギングタスクにおいてローレンツネットの性能を20%向上させることができる。
関連論文リスト
- Towards characterizing the value of edge embeddings in Graph Neural Networks [47.01312576529216]
グラフニューラルネットワーク(GNN)は、グラフ上で定義された機械学習問題を解決する主要なアプローチである。
エッジの埋め込みを維持し、更新するアーキテクチャの利点について検討する。
論文 参考訳(メタデータ) (2024-10-13T15:03:24Z) - MuseGNN: Interpretable and Convergent Graph Neural Network Layers at
Scale [15.93424606182961]
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - Extending Graph Transformers with Quantum Computed Aggregation [0.0]
本稿では,量子系の長距離相関を用いて集約重みを計算するGNNアーキテクチャを提案する。
これらの相関は、グラフトポロジーを量子コンピュータ内の量子ビットの集合の相互作用に変換することによって生成される。
論文 参考訳(メタデータ) (2022-10-19T14:56:15Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - The staircase property: How hierarchical structure can guide deep
learning [38.713566366330326]
本稿では,深層ニューラルネットワークが階層的に学習できるデータ分布の構造特性を明らかにする。
この特性を満たす関数は、通常のニューラルネットワーク上で階層的に座標降下を用いて時間的に学習できることを実証する。
論文 参考訳(メタデータ) (2021-08-24T08:19:05Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。