論文の概要: PLACE: Prompt Learning for Attributed Community Search
- arxiv url: http://arxiv.org/abs/2507.05311v1
- Date: Mon, 07 Jul 2025 09:48:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.259784
- Title: PLACE: Prompt Learning for Attributed Community Search
- Title(参考訳): PLACE: 分散コミュニティ検索のためのプロンプト学習
- Authors: Shuheng Fang, Kangfei Zhao, Rener Zhang, Yu Rong, Jeffrey Xu Yu,
- Abstract要約: PLACE(Prompt Learning for Attributed Community Search)は、ACSのための革新的なグラフプロンプト学習フレームワークである。
Placeは、構造的かつ学習可能なプロンプトトークンをクエリ依存の洗練メカニズムとしてグラフに統合し、プロンプト拡張グラフを形成する。
9つの実世界のグラフの実験において、PLACEは平均的な最先端のグラフに比べて22%高いF1スコアを達成する。
- 参考スコア(独自算出の注目度): 33.006758428769416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose PLACE (Prompt Learning for Attributed Community Search), an innovative graph prompt learning framework for ACS. Enlightened by prompt-tuning in Natural Language Processing (NLP), where learnable prompt tokens are inserted to contextualize NLP queries, PLACE integrates structural and learnable prompt tokens into the graph as a query-dependent refinement mechanism, forming a prompt-augmented graph. Within this prompt-augmented graph structure, the learned prompt tokens serve as a bridge that strengthens connections between graph nodes for the query, enabling the GNN to more effectively identify patterns of structural cohesiveness and attribute similarity related to the specific query. We employ an alternating training paradigm to optimize both the prompt parameters and the GNN jointly. Moreover, we design a divide-and-conquer strategy to enhance scalability, supporting the model to handle million-scale graphs. Extensive experiments on 9 real-world graphs demonstrate the effectiveness of PLACE for three types of ACS queries, where PLACE achieves higher F1 scores by 22% compared to the state-of-the-arts on average.
- Abstract(参考訳): 本稿では, ACS のための革新的なグラフプロンプト学習フレームワーク PLACE (Prompt Learning for Attributed Community Search) を提案する。
自然言語処理(NLP)において、学習可能なプロンプトトークンを挿入してNLPクエリをコンテキスト化することで啓発されたPLACEは、構造的かつ学習可能なプロンプトトークンをクエリ依存の洗練メカニズムとしてグラフに統合し、プロンプト拡張グラフを形成する。
このプロンプト拡張グラフ構造の中で、学習されたプロンプトトークンはクエリのグラフノード間の接続を強化するブリッジとして機能し、GNNは特定のクエリに関連する構造的凝集性と属性類似性のパターンをより効果的に識別することができる。
我々は、プロンプトパラメータとGNNを協調的に最適化するために、交互にトレーニングパラダイムを採用する。
さらに,スケーラビリティを向上し,百万グラフを扱うモデルをサポートするための分割・分散戦略を設計する。
9つの実世界のグラフに対する大規模な実験では、3種類のACSクエリに対してPLACEの有効性が示され、PLACEは平均的な最先端よりも22%高いF1スコアを達成している。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - RGL: A Graph-Centric, Modular Framework for Efficient Retrieval-Augmented Generation on Graphs [58.10503898336799]
完全なRAGパイプラインをシームレスに統合するモジュラーフレームワークであるRAG-on-Graphs Library(RGL)を紹介した。
RGLは、さまざまなグラフフォーマットをサポートし、必須コンポーネントの最適化実装を統合することで、重要な課題に対処する。
評価の結果,RGLはプロトタイピングプロセスの高速化だけでなく,グラフベースRAGシステムの性能や適用性の向上も図っている。
論文 参考訳(メタデータ) (2025-03-25T03:21:48Z) - Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - RELIEF: Reinforcement Learning Empowered Graph Feature Prompt Tuning [15.385771185777626]
近年,グラフ表現学習に一般化能力とデータ効率を応用した「事前学習,プロンプト」パラダイムが提案されている。
本稿では,Reinforcement Learning (RL) を用いたRELIEFを提案する。
論文 参考訳(メタデータ) (2024-08-06T13:55:51Z) - G-SAP: Graph-based Structure-Aware Prompt Learning over Heterogeneous Knowledge for Commonsense Reasoning [8.02547453169677]
本稿では,G-SAP という名称のコモンセンス推論のためのグラフベース構造認識プロンプト学習モデルを提案する。
特にエビデンスグラフは、ConceptNet、Wikipedia、Cambridge Dictionaryといった複数の知識ソースを統合することで構築される。
その結果、既存のモデル、特にOpenbookQAデータセット上のSoTA LM+GNNsモデルよりも6.12%改善された。
論文 参考訳(メタデータ) (2024-05-09T08:28:12Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - PSP: Pre-Training and Structure Prompt Tuning for Graph Neural Networks [24.688842637377583]
事前学習とプロンプト」は、教師付きデータが少ない様々なタスクにグラフニューラルネットワークを適用するという有望な結果を示している。
本稿では,事前学習と即時チューニングの両段階における構造情報を一貫して活用するPSPを提案する。
PSPは、ホモフィルグラフとヘテロフィルグラフの両方において、数ショットのシナリオにおいて優れたパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-10-26T13:46:18Z) - Jointly Cross- and Self-Modal Graph Attention Network for Query-Based
Moment Localization [77.21951145754065]
本稿では,共同グラフを渡る反復的メッセージのプロセスとして,このタスクをリキャストするクロスモーダルグラフ注意ネットワーク(CSMGAN)を提案する。
CSMGANは2つのモード間の高次相互作用を効果的に捉えることができ、より正確な局所化を可能にします。
論文 参考訳(メタデータ) (2020-08-04T08:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。