論文の概要: When Prompting Meets Spiking: Graph Sparse Prompting via Spiking Graph Prompt Learning
- arxiv url: http://arxiv.org/abs/2601.02662v1
- Date: Tue, 06 Jan 2026 02:22:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.774992
- Title: When Prompting Meets Spiking: Graph Sparse Prompting via Spiking Graph Prompt Learning
- Title(参考訳): グラフプロンプト学習によるグラフスパースプロンプティング
- Authors: Bo Jiang, Weijun Zhao, Beibei Wang, Jin Tang,
- Abstract要約: Graph Prompt Feature (GPF) 学習は、下流タスクでトレーニング済みのGNNモデルを適応するために広く利用されている。
本稿では、スパイキングニューロン機構、スパイキンググラフプロンプト特徴(SpikingGPF)を活用することにより、学習用スパースグラフプロンプトを提案する。
我々のアプローチは、スパイキングニューロンが安価な情報処理を実行し、グラフスパースプロンプトのタスクに自然に適合するスパースアウトプットを生成できるという観察に動機づけられている。
- 参考スコア(独自算出の注目度): 16.952691538775877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Prompt Feature (GPF) learning has been widely used in adapting pre-trained GNN model on the downstream task. GPFs first introduce some prompt atoms and then learns the optimal prompt vector for each graph node using the linear combination of prompt atoms. However, existing GPFs generally conduct prompting over node's all feature dimensions which is obviously redundant and also be sensitive to node feature noise. To overcome this issue, for the first time, this paper proposes learning sparse graph prompts by leveraging the spiking neuron mechanism, termed Spiking Graph Prompt Feature (SpikingGPF). Our approach is motivated by the observation that spiking neuron can perform inexpensive information processing and produce sparse outputs which naturally fits the task of our graph sparse prompting. Specifically, SpikingGPF has two main aspects. First, it learns a sparse prompt vector for each node by exploiting a spiking neuron architecture, enabling prompting on selective node features. This yields a more compact and lightweight prompting design while also improving robustness against node noise. Second, SpikingGPF introduces a novel prompt representation learning model based on sparse representation theory, i.e., it represents each node prompt as a sparse combination of prompt atoms. This encourages a more compact representation and also facilitates efficient computation. Extensive experiments on several benchmarks demonstrate the effectiveness and robustness of SpikingGPF.
- Abstract(参考訳): Graph Prompt Feature (GPF) 学習は、下流タスクでトレーニング済みのGNNモデルを適応するために広く利用されている。
GPFはまずいくつかのプロンプト原子を導入し、その後、プロンプト原子の線形結合を用いて各グラフノードの最適プロンプトベクトルを学習する。
しかし、既存のGPFは一般に、明らかに冗長であり、ノードの特徴ノイズに敏感であるノードの全ての特徴次元を優先的に実行している。
この問題を克服するため,本研究では,スパイキンググラフプロンプト機能(SpikingGPF)と呼ばれるスパイキングニューロン機構を活用することにより,スパースグラフプロンプトの学習を提案する。
我々のアプローチは、スパイキングニューロンが安価な情報処理を実行し、グラフスパースプロンプトのタスクに自然に適合するスパースアウトプットを生成できるという観察に動機づけられている。
具体的には、SpkingGPFには2つの主な側面がある。
まず、スパイクニューロンアーキテクチャを利用して各ノードのスパースプロンプトベクターを学習し、選択ノード特徴のプロンプトを可能にする。
これにより、よりコンパクトで軽量なプロンプト設計が可能となり、ノードノイズに対する堅牢性も向上する。
第二に、SpkingGPFはスパース表現理論に基づく新しいプロンプト表現学習モデルを導入し、すなわち、各ノードプロンプトをプロンプト原子のスパース結合として表現する。
これによりよりコンパクトな表現が促進され、効率的な計算が容易になる。
いくつかのベンチマークでの大規模な実験は、SpikeGPFの有効性とロバスト性を示している。
関連論文リスト
- Reliable and Compact Graph Fine-tuning via GraphSparse Prompting [24.381392096420402]
グラフプロンプトおよびグラフスパースプロンプト(GSP)におけるスパース表現理論の活用を提案する。
GSPは、下流タスクのコンパクトなプロンプトを達成するために最適な要素を適応的かつ簡潔に選択することを目的としている。
GSFP と GSmFP モデルを解くために、単純で効果的なアルゴリズムが設計された。
論文 参考訳(メタデータ) (2024-10-29T05:31:14Z) - A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Embedding Compression with Hashing for Efficient Representation Learning
in Large-Scale Graph [21.564894767364397]
グラフニューラルネットワーク(GNN)は、グラフデータに特化したディープラーニングモデルである。
本研究では,各ノードを浮動小数点ベクトルの代わりにビットベクトルでコンパクトに表現するノード埋め込み圧縮法を開発した。
提案手法は,提案手法が提案手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-08-11T05:43:39Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。