論文の概要: VS-Graph: Scalable and Efficient Graph Classification Using Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2512.03394v1
- Date: Wed, 03 Dec 2025 03:03:44 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:14:36.957641
- Title: VS-Graph: Scalable and Efficient Graph Classification Using Hyperdimensional Computing
- Title(参考訳): VS-Graph:超次元計算を用いたスケーラブルで効率的なグラフ分類
- Authors: Hamed Poursiami, Shay Snyder, Guojing Cong, Thomas Potok, Maryam Parsa,
- Abstract要約: 本稿では,HDCの効率性とメッセージパッシングの表現力とのギャップを狭めるベクトル記号グラフ学習フレームワークであるVS-Graphを提案する。
提案手法は,従来のHDCベースラインを標準ベンチマークで4-5%上回り,最新のGNNと競合する精度を実現している。
また、GNNベースラインのパフォーマンスを複数のデータセットで一致または超過し、最大450倍の速度でトレーニングを加速する。
- 参考スコア(独自算出の注目度): 0.4497860392054933
- License:
- Abstract: Graph classification is a fundamental task in domains ranging from molecular property prediction to materials design. While graph neural networks (GNNs) achieve strong performance by learning expressive representations via message passing, they incur high computational costs, limiting their scalability and deployment on resource-constrained devices. Hyperdimensional Computing (HDC), also known as Vector Symbolic Architectures (VSA), offers a lightweight, brain-inspired alternative, yet existing HDC-based graph methods typically struggle to match the predictive performance of GNNs. In this work, we propose VS-Graph, a vector-symbolic graph learning framework that narrows the gap between the efficiency of HDC and the expressive power of message passing. VS-Graph introduces a Spike Diffusion mechanism for topology-driven node identification and an Associative Message Passing scheme for multi-hop neighborhood aggregation entirely within the high-dimensional vector space. Without gradient-based optimization or backpropagation, our method achieves competitive accuracy with modern GNNs, outperforming the prior HDC baseline by 4-5% on standard benchmarks such as MUTAG and DD. It also matches or exceeds the performance of the GNN baselines on several datasets while accelerating the training by a factor of up to 450x. Furthermore, VS-Graph maintains high accuracy even with the hypervector dimensionality reduced to D=128, demonstrating robustness under aggressive dimension compression and paving the way for ultra-efficient execution on edge and neuromorphic hardware.
- Abstract(参考訳): グラフ分類は、分子特性予測から材料設計まで、領域における基本的な課題である。
グラフニューラルネットワーク(GNN)は、メッセージパッシングを通じて表現表現を学習することで、高いパフォーマンスを達成する一方で、高い計算コストを発生させ、リソースに制約のあるデバイスへのスケーラビリティとデプロイメントを制限する。
VSA(Vector Symbolic Architectures)としても知られる超次元コンピューティング(HDC)は、軽量で頭脳にインスパイアされた代替手段を提供するが、既存のHDCベースのグラフ手法はGNNの予測性能に匹敵する。
本稿では,HDCの効率性とメッセージパッシングの表現力とのギャップを狭めるベクトル記号グラフ学習フレームワークであるVS-Graphを提案する。
VS-Graphは、トポロジー駆動ノード識別のためのスパイク拡散機構と、高次元ベクトル空間内でのマルチホップ近傍アグリゲーションのための連想メッセージパッシングスキームを導入している。
勾配に基づく最適化やバックプロパゲーションがなければ,従来のHDCベースラインをMUTAGやDDなどの標準ベンチマークで4-5%上回り,現代のGNNとの競合精度が向上する。
また、GNNベースラインのパフォーマンスを複数のデータセットで一致または超過し、最大450倍の速度でトレーニングを加速する。
さらに、VS-Graphは、高ベクトル次元がD=128に減少しても高い精度を維持し、アグレッシブディメンション圧縮の下で堅牢性を示し、エッジおよびニューロモルフィックハードウェア上で超効率的な実行を可能にする。
関連論文リスト
- Efficient Learning on Large Graphs using a Densifying Regularity Lemma [7.2134828716289645]
交差する二部体成分の組み合わせに基づいて、大きな有向グラフの低ランク分解を導入する。
グラフ,スパース,あるいは密度を高密度IBGで効率的に近似する方法を示す。
論文 参考訳(メタデータ) (2025-04-25T11:34:44Z) - OMEGA: A Low-Latency GNN Serving System for Large Graphs [8.51634655687174]
グラフニューラルネットワーク(GNN)は、グラフデータセットにおける表現ノード表現の計算能力に広く採用されている。
既存のトレーニングにおける近似技術はオーバーヘッドを軽減することができるが、サービスでは高いレイテンシと/または精度の損失につながる。
本稿では,低遅延GNNを最小限の精度でグラフに役立てるシステムであるOMEGAを提案する。
論文 参考訳(メタデータ) (2025-01-15T03:14:18Z) - MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - CiliaGraph: Enabling Expression-enhanced Hyper-Dimensional Computation in Ultra-Lightweight and One-Shot Graph Classification on Edge [1.8726646412385333]
CiliaGraphはグラフ分類のための拡張表現型だが超軽量なHDCモデルである。
CiliaGraphはメモリ使用量を削減し、トレーニング速度を平均292倍に高速化する。
論文 参考訳(メタデータ) (2024-05-29T12:22:59Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。