論文の概要: Both Topology and Text Matter: Revisiting LLM-guided Out-of-Distribution Detection on Text-attributed Graphs
- arxiv url: http://arxiv.org/abs/2602.11641v1
- Date: Thu, 12 Feb 2026 06:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.683323
- Title: Both Topology and Text Matter: Revisiting LLM-guided Out-of-Distribution Detection on Text-attributed Graphs
- Title(参考訳): トポロジーとテクストの両面:テキスト対応グラフにおけるLLM誘導のアウト・オブ・ディストリビューション検出の再検討
- Authors: Yinlin Zhu, Di Wu, Xu Wang, Guocong Quan, Miao Hu,
- Abstract要約: LG-Plug は TAG OOD 検出タスクのための LLM-Guided Plug-and-play 戦略である。
クラスタ化された反復プロンプトを通じてコンセンサス駆動のOOD露光を生成する。
結果として生じるOOD露光は、IDとOODノードを分離するための正規化用語として機能し、既存の検出器とのシームレスな統合を可能にする。
- 参考スコア(独自算出の注目度): 9.174883084149881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-attributed graphs (TAGs) associate nodes with textual attributes and graph structure, enabling GNNs to jointly model semantic and structural information. While effective on in-distribution (ID) data, GNNs often encounter out-of-distribution (OOD) nodes with unseen textual or structural patterns in real-world settings, leading to overconfident and erroneous predictions in the absence of reliable OOD detection. Early approaches address this issue from a topology-driven perspective, leveraging neighboring structures to mitigate node-level detection bias. However, these methods typically encode node texts as shallow vector features, failing to fully exploit rich semantic information. In contrast, recent LLM-based approaches generate pseudo OOD priors by leveraging textual knowledge, but they suffer from several limitations: (1) a reliability-informativeness imbalance in the synthesized OOD priors, as the generated OOD exposures either deviate from the true OOD semantics, or introduce non-negligible ID noise, all of which offers limited improvement to detection performance; (2) reliance on specialized architectures, which prevents incorporation of the extensive effective topology-level insights that have been empirically validated in prior work. To this end, we propose LG-Plug, an LLM-Guided Plug-and-play strategy for TAG OOD detection tasks. LG-Plug aligns topology and text representations to produce fine-grained node embeddings, then generates consensus-driven OOD exposure via clustered iterative LLM prompting. Moreover, it leverages lightweight in-cluster codebook and heuristic sampling reduce time cost of LLM querying. The resulting OOD exposure serves as a regularization term to separate ID and OOD nodes, enabling seamless integration with existing detectors.
- Abstract(参考訳): テキスト分散グラフ(TAG)は、ノードをテキスト属性とグラフ構造に関連付け、GNNが意味と構造情報を共同でモデル化することを可能にする。
ID(In-distriion)データに効果があるが、GNNは現実の環境では見当たらないテキストや構造パターンを持つアウト・オブ・ディストリビューション(OOD)ノードに遭遇することが多く、信頼性の高いOOD検出がないと過度に自信と誤った予測が生じる。
初期のアプローチでは、ノードレベルの検出バイアスを軽減するために隣接する構造を活用するトポロジ駆動の観点からこの問題に対処している。
しかし、これらの手法は一般的にノードのテキストを浅いベクトルの特徴としてエンコードし、リッチな意味情報を十分に活用することができない。
対照的に、最近のLCMベースのアプローチでは、テキスト知識を活用することによって擬似OOD事前を生成するが、(1) 生成したOOD暴露が真のOODセマンティクスから逸脱するか、または検出性能に制限がある非無視IDノイズを発生させるため、合成されたOOD事前の信頼性非形式性の不均衡、(2) 事前作業で実証的に検証された広範な効果的なトポロジレベルの洞察の取り込みを阻止する特化アーキテクチャへの依存など、いくつかの制限がある。
そこで本研究では,TAG OOD検出タスクのためのLLM-Guided Plug-and-play戦略であるLG-Plugを提案する。
LG-Plugは、トポロジとテキスト表現を調整してきめ細かなノード埋め込みを生成し、クラスタ化された反復LDMプロンプトを介してコンセンサス駆動のOOD露光を生成する。
さらに、軽量なクラスタ内コードブックとヒューリスティックサンプリングを活用し、LLMクエリの時間コストを削減する。
結果として生じるOOD露光は、IDとOODノードを分離するための正規化用語として機能し、既存の検出器とのシームレスな統合を可能にする。
関連論文リスト
- Improving LLM Reasoning with Homophily-aware Structural and Semantic Text-Attributed Graph Compression [55.51959317490934]
大規模言語モデル(LLM)は、テキスト分散グラフ(TAG)理解において有望な能力を示している。
グラフは本来、構造情報や意味情報を豊富に含むものであり、それらの有効利用はLLMの推論性能の潜在的な利益を解放する可能性があると論じる。
グラフホモフィリーの活用を目的としたフレームワーク LLMs (HS2C) のホモフィリー対応構造とセマンティック圧縮を提案する。
論文 参考訳(メタデータ) (2026-01-13T03:35:18Z) - LLM-Powered Text-Attributed Graph Anomaly Detection via Retrieval-Augmented Reasoning [20.426942100536003]
テキスト分散グラフ(TAG)の異常検出は、不正検出、侵入監視、誤情報解析などの応用において重要な役割を果たす。
本稿では,TAGのノード検出のための総合ベンチマークであるTAG-ADを紹介する。
本稿では,LLMに基づくゼロショット異常検出フレームワークであるRAG(Research-augmented Generation)を提案する。
論文 参考訳(メタデータ) (2025-11-16T05:21:14Z) - Human Texts Are Outliers: Detecting LLM-generated Texts via Out-of-distribution Detection [71.59834293521074]
我々は,人間によるテキストと機械によるテキストを区別する枠組みを開発した。
提案手法は,DeepFakeデータセット上で98.3%のAUROCとAUPRを8.9%のFPR95で達成する。
コード、事前トレーニングされたウェイト、デモがリリースされる。
論文 参考訳(メタデータ) (2025-10-07T08:14:45Z) - Graph Synthetic Out-of-Distribution Exposure with Large Language Models [14.666576854790163]
グラフにおけるアウト・オブ・ディストリビューション(OOD)検出は、オープンワールドおよび安全に敏感なアプリケーションにおけるモデルロバスト性を保証するために重要である。
現在のグラフベースの手法は、しばしば実際のOODノードへのアクセスを前提とします。
GOE-LLMは,大規模言語モデル(LLM)を利用して,実際のOODノードを使わずに,テキスト分散グラフ上でのOOD露光を実現するフレームワークである。
論文 参考訳(メタデータ) (2025-04-29T22:04:30Z) - Refining Interactions: Enhancing Anisotropy in Graph Neural Networks with Language Semantics [6.273224130511677]
異方性GNNの概念を自然言語レベルまで拡張するフレームワークであるLanSAGNN(Language Semantic Anisotropic Graph Neural Network)を紹介する。
本稿では,LLMの出力とグラフタスクとの整合性を改善するために,効率的な2層LLMの微調整アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-02T07:32:45Z) - Few-Shot Graph Out-of-Distribution Detection with LLMs [34.42512005781724]
本稿では,大規模言語モデル (LLM) とグラフニューラルネットワーク (GNN) の長所を組み合わせたフレームワークを提案する。
LLM-GOODは人間のアノテーションのコストを大幅に削減し、ID分類精度とOOD検出性能の両方において最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-03-28T02:37:18Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。