論文の概要: Guided Graph Compression for Quantum Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2506.09862v1
- Date: Wed, 11 Jun 2025 15:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.098276
- Title: Guided Graph Compression for Quantum Graph Neural Networks
- Title(参考訳): 量子グラフニューラルネットワークのためのガイド付きグラフ圧縮
- Authors: Mikel Casals, Vasilis Belis, Elias F. Combarro, Eduard Alarcón, Sofia Vallecorsa, Michele Grossi,
- Abstract要約: この研究は、グラフオートエンコーダを使用してノード数とノード特徴の次元の両方を削減する、ガイド付きグラフ圧縮(GGC)フレームワークを導入している。
このフレームワークは、高エネルギー物理学における基本的な重要性の分類問題であるJet Taggingタスクに基づいて評価される。
- 参考スコア(独自算出の注目度): 0.7421845364041001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are effective for processing graph-structured data but face challenges with large graphs due to high memory requirements and inefficient sparse matrix operations on GPUs. Quantum Computing (QC) offers a promising avenue to address these issues and inspires new algorithmic approaches. In particular, Quantum Graph Neural Networks (QGNNs) have been explored in recent literature. However, current quantum hardware limits the dimension of the data that can be effectively encoded. Existing approaches either simplify datasets manually or use artificial graph datasets. This work introduces the Guided Graph Compression (GGC) framework, which uses a graph autoencoder to reduce both the number of nodes and the dimensionality of node features. The compression is guided to enhance the performance of a downstream classification task, which can be applied either with a quantum or a classical classifier. The framework is evaluated on the Jet Tagging task, a classification problem of fundamental importance in high energy physics that involves distinguishing particle jets initiated by quarks from those by gluons. The GGC is compared against using the autoencoder as a standalone preprocessing step and against a baseline classical GNN classifier. Our numerical results demonstrate that GGC outperforms both alternatives, while also facilitating the testing of novel QGNN ansatzes on realistic datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するのに有効だが、高いメモリ要求とGPU上のスパース行列操作の非効率のため、大きなグラフで問題に直面している。
量子コンピューティング(QC)は、これらの問題に対処し、新しいアルゴリズムアプローチを刺激する有望な道を提供する。
特に量子グラフニューラルネットワーク(QGNN)は近年研究されている。
しかし、現在の量子ハードウェアは、効果的に符号化できるデータの次元を制限する。
既存のアプローチでは、データセットを手動で単純化するか、人工グラフデータセットを使用する。
この研究は、グラフオートエンコーダを使用してノード数とノード特徴の次元の両方を削減する、ガイド付きグラフ圧縮(GGC)フレームワークを導入している。
圧縮は、量子または古典的分類器で適用可能な下流分類タスクの性能を高めるために導かれる。
この枠組みは、クォークによる粒子ジェットとグルーオンによる粒子ジェットの区別を含む高エネルギー物理学における基本的な重要性の分類問題であるJet Taggingタスクに基づいて評価されている。
GGCは、オートエンコーダをスタンドアロンの事前処理ステップとして使用し、ベースラインの古典的なGNN分類器と比較される。
数値計算の結果、GGCは両方の選択肢よりも優れており、また、現実的なデータセット上での新たなQGNNアンサーゼのテストも容易であることがわかった。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification [6.977634174845066]
グラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダ(UniG-Encoder)が設計されている。
アーキテクチャは、連結ノードのトポロジ的関係をエッジやハイパーエッジに前方変換することから始まる。
符号化されたノードの埋め込みは、投影行列の変換によって記述された逆変換から導かれる。
論文 参考訳(メタデータ) (2023-08-03T09:32:50Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Towards Quantum Graph Neural Networks: An Ego-Graph Learning Approach [47.19265172105025]
グラフ構造化データのための新しいハイブリッド量子古典アルゴリズムを提案し、これをEgo-graph based Quantum Graph Neural Network (egoQGNN)と呼ぶ。
egoQGNNはテンソル積とユニティ行列表現を用いてGNN理論フレームワークを実装し、必要なモデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - From block-Toeplitz matrices to differential equations on graphs:
towards a general theory for scalable masked Transformers [44.074479731587786]
線形因果的注意に関する最近の結果は、この一般的なメカニズムの特別な事例であることを示す。
この問題を無作為な注意のトポロジカルな(グラフに基づく)変調としてキャストすることで、以前にも知られていなかったいくつかの結果が得られる。
論文 参考訳(メタデータ) (2021-07-16T16:39:10Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。