論文の概要: Scaling GraphLLM with Bilevel-Optimized Sparse Querying
- arxiv url: http://arxiv.org/abs/2602.09038v1
- Date: Fri, 30 Jan 2026 07:03:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.704225
- Title: Scaling GraphLLM with Bilevel-Optimized Sparse Querying
- Title(参考訳): 双方向最適化スパースクエリによるGraphLLMのスケーリング
- Authors: Yangzhe Peng, Haiquan Qiu, Quanming Yao, Kun He,
- Abstract要約: BOSQ(Bilevel-d Sparse Querying)を提案する。
BOSQは既存のGraphLLMメソッドよりも桁違いのスピードアップを実現し、オンパーまたは優れたパフォーマンスを継続的に提供する。
- 参考スコア(独自算出の注目度): 37.58045479215621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs have recently shown strong potential in enhancing node-level tasks on text-attributed graphs (TAGs) by providing explanation features. However, their practical use is severely limited by the high computational and monetary cost of repeated LLM queries. To illustrate, naively generating explanations for all nodes on a medium-sized benchmark like Photo (48k nodes) using a representative method (e.g., TAPE) would consume days of processing time. In this paper, we propose Bilevel-Optimized Sparse Querying (BOSQ), a general framework that selectively leverages LLM-derived explanation features to enhance performance on node-level tasks on TAGs. We design an adaptive sparse querying strategy that selectively decides when to invoke LLMs, avoiding redundant or low-gain queries and significantly reducing computation overhead. Extensive experiments on six real-world TAG datasets involving two types of node-level tasks demonstrate that BOSQ achieves orders of magnitude speedups over existing GraphLLM methods while consistently delivering on-par or superior performance.
- Abstract(参考訳): LLMは、最近、説明機能を提供することで、テキスト分散グラフ(TAG)上のノードレベルのタスクを強化する可能性を示している。
しかし、その実用性は、繰り返しLLMクエリの計算コストと金銭コストによって著しく制限されている。
説明として、代表的な方法(例:TAPE)を使用して、Photo(48kノード)のような中規模のベンチマークで、すべてのノードの説明を鼻で生成することは、処理時間を消費する。
本稿では,LLMに基づく説明機能を選択的に活用し,TAG上のノードレベルのタスクの性能を向上させる汎用フレームワークであるBilevel-Optimized Sparse Querying (BOSQ)を提案する。
LLMをいつ呼び出すかを選択的に決定し、冗長なクエリや低ゲインクエリを回避し、計算オーバーヘッドを大幅に削減する適応スパースクエリ戦略を設計する。
2種類のノードレベルのタスクを含む6つの実世界のTAGデータセットに関する大規模な実験は、BOSQが既存のGraphLLMメソッドよりも桁違いのスピードアップを達成し、オンパーまたは優れたパフォーマンスを継続的に提供することを示した。
関連論文リスト
- Semi-supervised Instruction Tuning for Large Language Models on Text-Attributed Graphs [62.544129365882014]
本稿では,SIT-Graph というグラフ学習用セミ教師付きインストラクションチューニングパイプラインを提案する。
SIT-Graphはモデルに依存しず、LSMを予測子として利用するグラフ命令チューニングメソッドにシームレスに統合することができる。
SIT-Graphは、最先端グラフチューニング手法に組み込むと、テキスト分散グラフベンチマークの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-01-19T08:10:53Z) - GRIP: In-Parameter Graph Reasoning through Fine-Tuning Large Language Models [40.5886835740214]
大規模言語モデル(LLM)は、逐次テキストデータのモデリングにおいて顕著な能力を示した。
グラフから複雑な関係情報を内部化できる新しいフレームワークGRIPを提案する。
この知識は軽量な LoRA パラメータに効率的に格納され、微調整された LLM が幅広いグラフ関連タスクを実行できる。
論文 参考訳(メタデータ) (2025-11-06T21:56:58Z) - From Cross-Task Examples to In-Task Prompts: A Graph-Based Pseudo-Labeling Framework for In-context Learning [55.90498988440303]
In-context Learning (ICL) は、大きな言語モデルでパラメータを更新せずに新しいタスクを実行できる。
データラベリングのための言語モデルに依存するコスト効率のよい2段階パイプラインを提案する。
5つのタスクにまたがる実験により,ラベリングコストを下げながら,本手法が高い性能を達成することを示す。
論文 参考訳(メタデータ) (2025-10-28T15:37:51Z) - Let's Ask GNN: Empowering Large Language Model for Graph In-Context Learning [28.660326096652437]
本稿では,逐次テキスト処理とグラフ構造化データのギャップを埋める新しいアプローチであるAskGNNを紹介する。
AskGNNはグラフニューラルネットワーク(GNN)を利用した構造強化レトリバーを使用して、グラフをまたいだラベル付きノードを選択する。
3つのタスクと7つのLLMにわたる実験は、グラフタスクのパフォーマンスにおいてAskGNNが優れていることを示す。
論文 参考訳(メタデータ) (2024-10-09T17:19:12Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Large Language Model with Graph Convolution for Recommendation [21.145230388035277]
テキスト情報は、時々品質の低いものになり、現実世界のアプリケーションにとってその効果を阻害する。
大きな言語モデルにカプセル化された知識と推論機能によって、LCMを活用することが、記述改善の有望な方法として現れます。
本稿では,ユーザ・イテムグラフの高次関係を捉えるために,LLMを抽出するグラフ対応畳み込みLLM法を提案する。
論文 参考訳(メタデータ) (2024-02-14T00:04:33Z) - Can LLMs perform structured graph reasoning? [4.676784872259775]
LLM(Pretrained Large Language Models)は、言語ベースのプロンプトだけで様々な推論能力を示す。
本稿では,半構造化タスクのプロキシとして,様々なグラフ推論タスクを設計する。
上記の課題に対して,5種類のインストラクト微細化LDM (GPT-4, GPT-3.5, Claude-2, Llama-2, Palm-2) をベンチマークした。
論文 参考訳(メタデータ) (2024-02-02T09:45:33Z) - Large Language Models as Topological Structure Enhancers for Text-Attributed Graphs [3.5627549694751184]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野に革命をもたらした。
本研究では,LLMの情報検索とテキスト生成機能を活用して,ノード分類設定の下でのテキスト分散グラフ(TAG)のトポロジ構造を洗練・強化する方法について検討する。
論文 参考訳(メタデータ) (2023-11-24T07:53:48Z) - Temporal-aware Hierarchical Mask Classification for Video Semantic
Segmentation [62.275143240798236]
ビデオセマンティックセグメンテーションデータセットは、ビデオ毎のカテゴリが限られている。
VSSトレーニング中に意味のある勾配更新を受けるために、クエリの10%未満がマッチする可能性がある。
提案手法は,最新のVSSベンチマークVSPWにおいてベルやホイッスルを使わずに,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-09-14T20:31:06Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。