論文の概要: Graph Neural Networks in Particle Physics: Implementations, Innovations,
and Challenges
- arxiv url: http://arxiv.org/abs/2203.12852v1
- Date: Wed, 23 Mar 2022 04:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 04:08:25.303597
- Title: Graph Neural Networks in Particle Physics: Implementations, Innovations,
and Challenges
- Title(参考訳): 粒子物理学におけるグラフニューラルネットワーク : 実装,革新,挑戦
- Authors: Savannah Thais, Paolo Calafiura, Grigorios Chachamis, Gage DeZoort,
Javier Duarte, Sanmay Ganguly, Michael Kagan, Daniel Murnane, Mark S.
Neubauer, Kazuhiro Terao
- Abstract要約: 現在HEPコミュニティで十分に評価されている機能やまだ未成熟な機能について紹介する。
業界におけるGNNの普及により、HEPコミュニティは、GNNレイテンシとメモリ使用量の急速な改善の恩恵を受けることができる。
我々は、機械学習におけるグラフ技術の展望を捉え、また、研究の大きな飛躍を阻害している最も重要なギャップを指摘したいと考えています。
- 参考スコア(独自算出の注目度): 7.071890461446324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many physical systems can be best understood as sets of discrete data with
associated relationships. Where previously these sets of data have been
formulated as series or image data to match the available machine learning
architectures, with the advent of graph neural networks (GNNs), these systems
can be learned natively as graphs. This allows a wide variety of high- and
low-level physical features to be attached to measurements and, by the same
token, a wide variety of HEP tasks to be accomplished by the same GNN
architectures. GNNs have found powerful use-cases in reconstruction, tagging,
generation and end-to-end analysis. With the wide-spread adoption of GNNs in
industry, the HEP community is well-placed to benefit from rapid improvements
in GNN latency and memory usage. However, industry use-cases are not perfectly
aligned with HEP and much work needs to be done to best match unique GNN
capabilities to unique HEP obstacles. We present here a range of these
capabilities, predictions of which are currently being well-adopted in HEP
communities, and which are still immature. We hope to capture the landscape of
graph techniques in machine learning as well as point out the most significant
gaps that are inhibiting potentially large leaps in research.
- Abstract(参考訳): 多くの物理系は、関連する関係を持つ離散データの集合として最もよく理解できる。
従来、これらのデータセットは、利用可能な機械学習アーキテクチャとグラフニューラルネットワーク(GNN)の出現に合わせて、シリーズまたはイメージデータとして定式化されてきたが、これらのシステムはグラフとしてネイティブに学習することができる。
これにより、さまざまな高レベルおよび低レベルの物理的特徴を計測にアタッチすることができ、同じトークンによって、同じGNNアーキテクチャによって、さまざまなHEPタスクが達成される。
GNNは、再構築、タグ付け、生成、エンドツーエンド分析に強力なユースケースを見つけた。
業界におけるGNNの普及により、HEPコミュニティは、GNNレイテンシとメモリ使用量の急速な改善の恩恵を受けることができる。
しかし、業界でのユースケースはHEPと完全に一致していないため、ユニークなGNN機能とユニークなHEP障害を最大限にマッチさせるためには、多くの作業が必要になる。
以下に示すのは、HEPコミュニティで現在十分に評価されており、まだ未成熟な機能である。
機械学習におけるグラフ技術の展望を捉えつつ、研究の大きな飛躍を妨げる最も重要なギャップを指摘したいと考えています。
関連論文リスト
- Enabling Accelerators for Graph Computing [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学ぶための新しいパラダイムを提供する。
GNNは従来のニューラルネットワークと比較して新しい計算課題を提示している。
この論文は、GNNが基盤となるハードウェアとどのように相互作用するかをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-16T23:31:20Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - The Evolution of Distributed Systems for Graph Neural Networks and their
Origin in Graph Processing and Deep Learning: A Survey [17.746899445454048]
グラフニューラルネットワーク(GNN)は、新たな研究分野である。
GNNはレコメンデーションシステム、コンピュータビジョン、自然言語処理、生物学、化学など様々な分野に適用できる。
我々は,大規模GNNソリューションの重要な手法と手法を要約し,分類することで,このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2023-05-23T09:22:33Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - IGNNITION: Bridging the Gap Between Graph Neural Networks and Networking
Systems [4.1591055164123665]
本稿では,ネットワークシステムのためのグラフニューラルネットワーク(GNN)の高速プロトタイピングを可能にする,新しいオープンソースフレームワークIGNNITIONを提案する。
IGNNITIONは、GNNの背後にある複雑さを隠す直感的な高レベルの抽象化に基づいている。
IGNNITIONが生成するGNNモデルは,ネイティブ実装の精度と性能の点で同等であることを示す。
論文 参考訳(メタデータ) (2021-09-14T14:28:21Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Computing Graph Neural Networks: A Survey from Algorithms to
Accelerators [2.491032752533246]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデル化および学習する能力のため、近年、機械学習の現場で爆発的に普及している。
本稿では,GNNの分野をコンピュータの観点から概観する。
現在のソフトウェアとハードウェアアクセラレーションスキームの詳細な分析を行う。
論文 参考訳(メタデータ) (2020-09-30T22:29:27Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。