論文の概要: GQWformer: A Quantum-based Transformer for Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2412.02285v1
- Date: Tue, 03 Dec 2024 09:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:48:49.255574
- Title: GQWformer: A Quantum-based Transformer for Graph Representation Learning
- Title(参考訳): GQWformer:グラフ表現学習のための量子ベースの変換器
- Authors: Lei Yu, Hongyang Chen, Jingsong Lv, Linyao Yang,
- Abstract要約: 本稿では, 構造符号化に量子技術を活用することにより, グラフ帰納バイアスを自己認識機構に統合する手法を提案する。
グラフ量子ウォーク変換器(GQWformer, Graph Quantum Walk Transformer)は, 属性グラフ上の量子ウォークを利用してノード量子状態を生成するGNNフレームワークである。
これらの量子状態は、豊富な構造特性をカプセル化し、変圧器の誘導バイアスとして機能し、より有意義な注意スコアの生成を可能にする。
- 参考スコア(独自算出の注目度): 15.97445757658235
- License:
- Abstract: Graph Transformers (GTs) have demonstrated significant advantages in graph representation learning through their global attention mechanisms. However, the self-attention mechanism in GTs tends to neglect the inductive biases inherent in graph structures, making it chanllenging to effectively capture essential structural information. To address this issue, we propose a novel approach that integrate graph inductive bias into self-attention mechanisms by leveraging quantum technology for structural encoding. In this paper, we introduce the Graph Quantum Walk Transformer (GQWformer), a groundbreaking GNN framework that utilizes quantum walks on attributed graphs to generate node quantum states. These quantum states encapsulate rich structural attributes and serve as inductive biases for the transformer, thereby enabling the generation of more meaningful attention scores. By subsequently incorporating a recurrent neural network, our design amplifies the model's ability to focus on both local and global information. We conducted comprehensive experiments across five publicly available datasets to evaluate the effectiveness of our model. These results clearly indicate that GQWformer outperforms existing state-of-the-art graph classification algorithms. These findings highlight the significant potential of integrating quantum computing methodologies with traditional GNNs to advance the field of graph representation learning, providing a promising direction for future research and applications.
- Abstract(参考訳): グラフ変換器(GT)は,そのグローバルアテンション機構を通じて,グラフ表現学習において大きな優位性を示している。
しかし、GTの自己保持機構は、グラフ構造に固有の帰納的バイアスを無視する傾向にあり、それが変化し、重要な構造情報を効果的に捉える。
この問題に対処するために,構造符号化に量子技術を活用することにより,グラフ帰納バイアスを自己注意機構に統合する手法を提案する。
本稿では、属性グラフ上の量子ウォークを利用してノード量子状態を生成するGNNフレームワークであるグラフ量子ウォーク変換器(GQWformer)を紹介する。
これらの量子状態は、豊富な構造的特性をカプセル化し、変圧器の誘導バイアスとして機能し、より有意義な注意スコアの生成を可能にする。
その後、リカレントニューラルネットワークを組み込むことで、我々の設計は、局所情報とグローバル情報の両方にフォーカスするモデルの能力を増幅する。
提案モデルの有効性を評価するため,5つの公開データセットを対象とした総合的な実験を行った。
これらの結果は、GQWformerが既存の最先端グラフ分類アルゴリズムより優れていることを示している。
これらの知見は、量子コンピューティング方法論を従来のGNNと統合し、グラフ表現学習の分野を前進させ、将来の研究や応用に有望な方向性をもたらす大きな可能性を浮き彫りにしている。
関連論文リスト
- What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Quantum Positional Encodings for Graph Neural Networks [1.9791587637442671]
本稿では,量子コンピュータを用いて得られたグラフニューラルネットワークに適した位置符号化の新たなファミリを提案する。
私たちのインスピレーションは、量子処理ユニットの最近の進歩に起因しています。
論文 参考訳(メタデータ) (2024-05-21T17:56:33Z) - Gradformer: Graph Transformer with Exponential Decay [69.50738015412189]
グラフ変換器(GT)の自己保持機構は、グラフの帰納バイアス、特に構造に関するバイアスを見落としている。
本稿では,GTと本質的帰納バイアスを革新的に統合するGradformerを提案する。
GradformerはグラフニューラルネットワークやGTベースラインモデルよりも、さまざまなグラフ分類や回帰タスクにおいて一貫して優れています。
論文 参考訳(メタデータ) (2024-04-24T08:37:13Z) - Graph Transformers without Positional Encodings [0.7252027234425334]
グラフのラプラシアンスペクトルを認識する新しいスペクトル対応アテンション機構を用いたグラフ変換器であるEigenformerを紹介する。
我々は,多数の標準GNNベンチマークにおいて,SOTAグラフ変換器の性能向上を実証的に示す。
論文 参考訳(メタデータ) (2024-01-31T12:33:31Z) - Enhancing Graph Neural Networks with Quantum Computed Encodings [1.884651553431727]
グラフ変換器に適した位置符号化の新たなファミリーを提案する。
これらのエンコーディングは、量子系に固有の長距離相関を利用する。
標準ベンチマークや大規模データセットでは,最先端モデルの性能向上が期待できる。
論文 参考訳(メタデータ) (2023-10-31T14:56:52Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Extending Graph Transformers with Quantum Computed Aggregation [0.0]
本稿では,量子系の長距離相関を用いて集約重みを計算するGNNアーキテクチャを提案する。
これらの相関は、グラフトポロジーを量子コンピュータ内の量子ビットの集合の相互作用に変換することによって生成される。
論文 参考訳(メタデータ) (2022-10-19T14:56:15Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。