論文の概要: Scaling GraphLLM with Bilevel-Optimized Sparse Querying
- arxiv url: http://arxiv.org/abs/2602.09038v1
- Date: Fri, 30 Jan 2026 07:03:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.704225
- Title: Scaling GraphLLM with Bilevel-Optimized Sparse Querying
- Title(参考訳): 双方向最適化スパースクエリによるGraphLLMのスケーリング
- Authors: Yangzhe Peng, Haiquan Qiu, Quanming Yao, Kun He,
- Abstract要約: BOSQ(Bilevel-d Sparse Querying)を提案する。
BOSQは既存のGraphLLMメソッドよりも桁違いのスピードアップを実現し、オンパーまたは優れたパフォーマンスを継続的に提供する。
- 参考スコア(独自算出の注目度): 37.58045479215621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs have recently shown strong potential in enhancing node-level tasks on text-attributed graphs (TAGs) by providing explanation features. However, their practical use is severely limited by the high computational and monetary cost of repeated LLM queries. To illustrate, naively generating explanations for all nodes on a medium-sized benchmark like Photo (48k nodes) using a representative method (e.g., TAPE) would consume days of processing time. In this paper, we propose Bilevel-Optimized Sparse Querying (BOSQ), a general framework that selectively leverages LLM-derived explanation features to enhance performance on node-level tasks on TAGs. We design an adaptive sparse querying strategy that selectively decides when to invoke LLMs, avoiding redundant or low-gain queries and significantly reducing computation overhead. Extensive experiments on six real-world TAG datasets involving two types of node-level tasks demonstrate that BOSQ achieves orders of magnitude speedups over existing GraphLLM methods while consistently delivering on-par or superior performance.
- Abstract(参考訳): LLMは、最近、説明機能を提供することで、テキスト分散グラフ(TAG)上のノードレベルのタスクを強化する可能性を示している。
しかし、その実用性は、繰り返しLLMクエリの計算コストと金銭コストによって著しく制限されている。
説明として、代表的な方法(例:TAPE)を使用して、Photo(48kノード)のような中規模のベンチマークで、すべてのノードの説明を鼻で生成することは、処理時間を消費する。
本稿では,LLMに基づく説明機能を選択的に活用し,TAG上のノードレベルのタスクの性能を向上させる汎用フレームワークであるBilevel-Optimized Sparse Querying (BOSQ)を提案する。
LLMをいつ呼び出すかを選択的に決定し、冗長なクエリや低ゲインクエリを回避し、計算オーバーヘッドを大幅に削減する適応スパースクエリ戦略を設計する。
2種類のノードレベルのタスクを含む6つの実世界のTAGデータセットに関する大規模な実験は、BOSQが既存のGraphLLMメソッドよりも桁違いのスピードアップを達成し、オンパーまたは優れたパフォーマンスを継続的に提供することを示した。
関連論文リスト
- DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Can LLMs perform structured graph reasoning? [4.676784872259775]
LLM(Pretrained Large Language Models)は、言語ベースのプロンプトだけで様々な推論能力を示す。
本稿では,半構造化タスクのプロキシとして,様々なグラフ推論タスクを設計する。
上記の課題に対して,5種類のインストラクト微細化LDM (GPT-4, GPT-3.5, Claude-2, Llama-2, Palm-2) をベンチマークした。
論文 参考訳(メタデータ) (2024-02-02T09:45:33Z) - Large Language Models as Topological Structure Enhancers for Text-Attributed Graphs [3.5627549694751184]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野に革命をもたらした。
本研究では,LLMの情報検索とテキスト生成機能を活用して,ノード分類設定の下でのテキスト分散グラフ(TAG)のトポロジ構造を洗練・強化する方法について検討する。
論文 参考訳(メタデータ) (2023-11-24T07:53:48Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。