論文の概要: DANCE: Dynamic, Available, Neighbor-gated Condensation for Federated Text-Attributed Graphs
- arxiv url: http://arxiv.org/abs/2601.16519v1
- Date: Fri, 23 Jan 2026 07:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.594555
- Title: DANCE: Dynamic, Available, Neighbor-gated Condensation for Federated Text-Attributed Graphs
- Title(参考訳): DANCE:Federated Text-Attributed Graphsのための動的、可用性、隣り合った凝縮
- Authors: Zekai Chen, Haodong Lu, Xunkai Li, Henan Sun, Jia Li, Hongchao Qin, Rong-Hua Li, Guoren Wang,
- Abstract要約: テキスト分散グラフフェデレーション学習(TAG-FGL)は,大規模言語モデル(LLM)を明示的に活用することにより,グラフ学習を改善する
最近のTAG-FGL法では,3つの課題に直面している。 textbf(1) オーバーヘッド。
我々は,GCを用いた新しいTAG-FGLパラダイムである textbfDANCE を提案する。
- 参考スコア(独自算出の注目度): 41.015941863230346
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated graph learning (FGL) enables collaborative training on graph data across multiple clients. With the rise of large language models (LLMs), textual attributes in FGL graphs are gaining attention. Text-attributed graph federated learning (TAG-FGL) improves FGL by explicitly leveraging LLMs to process and integrate these textual features. However, current TAG-FGL methods face three main challenges: \textbf{(1) Overhead.} LLMs for processing long texts incur high token and computation costs. To make TAG-FGL practical, we introduce graph condensation (GC) to reduce computation load, but this choice also brings new issues. \textbf{(2) Suboptimal.} To reduce LLM overhead, we introduce GC into TAG-FGL by compressing multi-hop texts/neighborhoods into a condensed core with fixed LLM surrogates. However, this one-shot condensation is often not client-adaptive, leading to suboptimal performance. \textbf{(3) Interpretability.} LLM-based condensation further introduces a black-box bottleneck: summaries lack faithful attribution and clear grounding to specific source spans, making local inspection and auditing difficult. To address the above issues, we propose \textbf{DANCE}, a new TAG-FGL paradigm with GC. To improve \textbf{suboptimal} performance, DANCE performs round-wise, model-in-the-loop condensation refresh using the latest global model. To enhance \textbf{interpretability}, DANCE preserves provenance by storing locally inspectable evidence packs that trace predictions to selected neighbors and source text spans. Across 8 TAG datasets, DANCE improves accuracy by \textbf{2.33\%} at an \textbf{8\%} condensation ratio, with \textbf{33.42\%} fewer tokens than baselines.
- Abstract(参考訳): フェデレーショングラフ学習(FGL)は、複数のクライアントにわたるグラフデータの協調トレーニングを可能にする。
大規模言語モデル(LLM)の台頭に伴い、FGLグラフのテキスト属性が注目されている。
テキスト分散グラフフェデレーション学習(TAG-FGL)は、これらのテキスト機能の処理と統合にLLMを明示的に活用することにより、FGLを改善する。
しかし、現在のTAG-FGLメソッドは3つの大きな課題に直面している。
LLMs for processing long texts incur high token and compute cost。
TAG-FGLを実用化するために,計算負荷を削減するためにGC(Graph Condensation)を導入するが,この選択は新たな問題を引き起こす。
\textbf{(2) Suboptimal。
} LLMオーバヘッドを低減するため, 固定LLMサロゲートを固定したコンデントコアにマルチホップテキスト/近傍を圧縮することにより, GCをTAG-FGLに導入する。
しかし、このワンショットの凝縮は、しばしばクライアント適応的ではなく、最適以下のパフォーマンスをもたらす。
\textbf{(3) 解釈可能性。
要約には、特定のソーススパンに対する忠実な帰属や明確な根拠がなく、局所的な検査や監査が困難である。
上記の問題に対処するため,GC を用いた新しい TAG-FGL パラダイムである \textbf{DANCE} を提案する。
DANCEは、‘textbf{suboptimal}パフォーマンスを改善するために、最新のグローバルモデルを使用して、ラウンドワイドなループ内縮合リフレッシュを実行する。
textbf{interpretability} を強化するために、DANCEは、選択された隣人やソーステキストスパンに予測をトレースするローカル検査可能なエビデンスパックを格納することで、証明を保存する。
8つのTAGデータセットを通して、DANCEは、ベースラインよりもトークンを少なくして、‘textbf{2.33\%} 縮合比で \textbf{2.33\%} によって精度を向上する。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs [55.13817504780764]
実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
グラフ強化LSMは、グラフ情報をプロンプトに変換する、有望なグラフ学習アプローチとして登場します。
目的ノードの細粒度テキストの詳細を保存し,情報過負荷を軽減するDGPを提案する。
論文 参考訳(メタデータ) (2025-07-29T10:10:47Z) - LLM as GNN: Graph Vocabulary Learning for Text-Attributed Graph Foundation Models [87.68057302738457]
Text-Attributed Graphs (TAG) は、現実のシナリオにおいてユビキタスである。
大規模言語モデル(LLMs)とグラフニューラルネットワーク(GNNs)をTAGsに統合する努力にもかかわらず、既存のアプローチは分離されたアーキテクチャに悩まされている。
本稿では,グラフ語彙学習に基づくTAGのための汎用GFMであるPromptGFMを提案する。
論文 参考訳(メタデータ) (2025-03-05T09:45:22Z) - GMLM: Bridging Graph Neural Networks and Language Models for Heterophilic Node Classification [0.0]
本稿では,事前学習したテキストエンコーダとグラフ畳み込みネットワーク(R-GCN)を効果的に融合するフレームワークを提案する。
5つのヘテロ親和性ベンチマークの実験により、我々の積分法は最先端の結果が得られることを示した。
これらの結果は,テキストリッチグラフ表現学習における融合戦略の有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-24T07:44:01Z) - GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs [27.169892145194638]
GraphCLIPは、強力なクロスドメインゼロ/フェーショット転送可能性を持つグラフ基盤モデルを学習するためのフレームワークである。
LLMの助けを借りて、大規模グラフ-土木ペアデータを生成し、キュレートする。
数ショットの学習では,事前学習目標に沿った新しいグラフプロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T09:40:52Z) - LLaGA: Large Language and Graph Assistant [73.71990472543027]
大規模言語とグラフアシスタント(LLaGA)は、グラフ構造化データの複雑さを扱う革新的なモデルである。
LLaGAは汎用性、一般化性、解釈性に優れており、異なるデータセットやタスク間で一貫して動作する。
実験の結果,LLaGAは4つのデータセットと3つのタスクに1つの単一モデルを用いて優れた性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-13T02:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。