論文の概要: QDC: Quantum Diffusion Convolution Kernels on Graphs
- arxiv url: http://arxiv.org/abs/2307.11234v1
- Date: Thu, 20 Jul 2023 21:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 14:23:30.059941
- Title: QDC: Quantum Diffusion Convolution Kernels on Graphs
- Title(参考訳): QDC: グラフ上の量子拡散畳み込みカーネル
- Authors: Thomas Markovich
- Abstract要約: グラフ畳み込みニューラルネットワーク (GCNs) は、関心のある予測タスクを与えられた局所的にメッセージを集約することで機能する。
本稿では,量子粒子のグラフ上での伝播に対する一般化拡散パラダイムに基づくトレーディングにより,頂点の占有相関に従ってグラフを効果的に再配線する新しい畳み込みカーネルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional neural networks (GCNs) operate by aggregating messages
over local neighborhoods given the prediction task under interest. Many GCNs
can be understood as a form of generalized diffusion of input features on the
graph, and significant work has been dedicated to improving predictive accuracy
by altering the ways of message passing. In this work, we propose a new
convolution kernel that effectively rewires the graph according to the
occupation correlations of the vertices by trading on the generalized diffusion
paradigm for the propagation of a quantum particle over the graph. We term this
new convolution kernel the Quantum Diffusion Convolution (QDC) operator. In
addition, we introduce a multiscale variant that combines messages from the QDC
operator and the traditional combinatorial Laplacian. To understand our method,
we explore the spectral dependence of homophily and the importance of quantum
dynamics in the construction of a bandpass filter. Through these studies, as
well as experiments on a range of datasets, we observe that QDC improves
predictive performance on the widely used benchmark datasets when compared to
similar methods.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(graph convolutional neural networks, gcns)は、対象とする予測タスクに基づいて、ローカルな近傍にメッセージを集約することで動作する。
多くのGCNは、グラフ上の入力特徴の一般化拡散の一形態として理解することができ、メッセージパッシングの方法を変更することで予測精度を向上させるために重要な研究がなされている。
本研究では,量子粒子のグラフ上での伝播に対する一般化拡散パラダイムに基づくトレーディングにより,頂点の占有相関に従ってグラフを効果的に再配線する新しい畳み込みカーネルを提案する。
この新しい畳み込みカーネルを量子拡散畳み込み演算子(QDC)と呼ぶ。
さらに、QDC演算子と従来の組合せラプラシアンからのメッセージを組み合わせたマルチスケール変種を導入する。
本手法を理解するために,帯域通過フィルタの構成におけるホモフィリのスペクトル依存性と量子力学の重要性を検討する。
これらの研究、および様々なデータセットの実験を通して、QDCは類似の手法と比較して広く使われているベンチマークデータセットの予測性能を改善する。
関連論文リスト
- Understanding the Effect of GCN Convolutions in Regression Tasks [8.299692647308323]
グラフ畳み込みネットワーク(GCN)は、グラフ上の関数をモデル化する機械学習において重要な手法となっている。
本稿では、同好ネットワーク上の回帰タスクにおける畳み込み演算子の影響を公式解析する。
論文 参考訳(メタデータ) (2024-10-26T04:19:52Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - GCEPNet: Graph Convolution-Enhanced Expectation Propagation for Massive MIMO Detection [5.714553194279462]
実数値系をグラフ上のスペクトル信号畳み込みとしてモデル化し,未知変数間の相関を捉えることができることを示す。
このような分析に基づいて,より優れた一般化能力を有するグラフ畳み込み型予測伝搬(GCEPNet)を提案する。
論文 参考訳(メタデータ) (2024-04-23T10:13:39Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Enhancing Graph Neural Networks with Quantum Computed Encodings [1.884651553431727]
グラフ変換器に適した位置符号化の新たなファミリーを提案する。
これらのエンコーディングは、量子系に固有の長距離相関を利用する。
標準ベンチマークや大規模データセットでは,最先端モデルの性能向上が期待できる。
論文 参考訳(メタデータ) (2023-10-31T14:56:52Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Tangent Bundle Convolutional Learning: from Manifolds to Cellular Sheaves and Back [84.61160272624262]
この畳み込み操作に基づいて,タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
タンジェントバンドルフィルタは、スカラー多様体フィルタ、グラフフィルタ、標準畳み込みフィルタを連続的に一般化するスペクトル表現を許容する。
提案したアーキテクチャが様々な学習課題に与える影響を数値的に評価する。
論文 参考訳(メタデータ) (2023-03-20T17:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。