論文の概要: Detecting Miscitation on the Scholarly Web through LLM-Augmented Text-Rich Graph Learning
- arxiv url: http://arxiv.org/abs/2603.12290v1
- Date: Tue, 10 Mar 2026 12:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.675431
- Title: Detecting Miscitation on the Scholarly Web through LLM-Augmented Text-Rich Graph Learning
- Title(参考訳): LLM-Augmented Text-Rich Graph LearningによるScholarly Web上の誤読の検出
- Authors: Huidong Wu, Haojia Xiang, Jingtong Gao, Xiangyu Zhao, Dengsheng Wu, Jianping Li,
- Abstract要約: LAGMiDは,グラフニューラルネットワーク(GNN)に意味論的推論を蒸留して,効率的かつスケーラブルな誤引用検出を実現する新しいフレームワークである。
具体的には、LAGMiDはエビデンスチェーン推論機構を導入し、チェーン・オブ・ソート・プロンプトを用いてマルチホップ引用追跡を行う。
3つの実世界のベンチマーク実験により、LAGMiDは推論コストを大幅に削減し、最先端の誤引用検出を実現することが示された。
- 参考スコア(独自算出の注目度): 14.471117470890178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scholarly web is a vast network of knowledge connected by citations. However, this system is increasingly compromised by miscitation, where references do not support or even contradict the claims they are cited for. Current miscitation detection methods, which primarily rely on semantic similarity or network anomalies, struggle to capture the nuanced relationship between a citation's context and its place in the wider network. While large language models (LLMs) offer powerful capabilities in semantic reasoning for this task, their deployment is hindered by hallucination risks and high computational costs. In this work, we introduce LLM-Augmented Graph Learning-based Miscitation Detector (LAGMiD), a novel framework that leverages LLMs for deep semantic reasoning over citation graphs and distills this knowledge into graph neural networks (GNNs) for efficient and scalable miscitation detection. Specifically, LAGMiD introduces an evidence-chain reasoning mechanism, which uses chain-of-thought prompting, to perform multi-hop citation tracing and assess semantic fidelity. To reduce LLM inference costs, we design a knowledge distillation method aligning GNN embeddings with intermediate LLM reasoning states. A collaborative learning strategy further routes complex cases to the LLM while optimizing the GNN for structure-based generalization. Experiments on three real-world benchmarks show that LAGMiD achieves state-of-the-art miscitation detection with significantly reduced inference cost.
- Abstract(参考訳): 学術ウェブは、引用によって繋がる膨大な知識ネットワークである。
しかし、この制度は、引用された主張を支持したり、矛盾させたりしないという誤解によって、ますます妥協される。
現在の誤引用検出法は、主に意味的類似性やネットワークの異常に依存しており、引用のコンテキストとより広いネットワークにおけるその位置との間のニュアンスな関係を捉えるのに苦労している。
大きな言語モデル(LLM)は、このタスクのセマンティック推論において強力な能力を提供するが、その展開は幻覚のリスクと高い計算コストによって妨げられる。
本研究では,LLMを引用グラフ上の深い意味的推論に利用する新しいフレームワークであるLLM-Augmented Graph Learning-based Miscitation Detector (LAGMiD)を導入し,その知識をグラフニューラルネットワーク(GNN)に抽出して,効率的でスケーラブルな誤引用検出を行う。
具体的には、LAGMiDは、チェーン・オブ・シークレット・プロンプトを使用して、マルチホップ引用追跡を行い、意味的忠実さを評価するエビデンス・チェーン推論機構を導入している。
LLM推論コストを低減するため、GNN埋め込みを中間LLM推論状態に整合させる知識蒸留法を設計する。
協調学習戦略は、複雑なケースをLLMにルーティングし、GNNを構造に基づく一般化に最適化する。
3つの実世界のベンチマーク実験により、LAGMiDは推論コストを大幅に削減し、最先端の誤引用検出を実現することが示された。
関連論文リスト
- Explore-on-Graph: Incentivizing Autonomous Exploration of Large Language Models on Knowledge Graphs with Path-refined Reward Modeling [40.52120101666234]
Explore-on-Graph(EoG)は、Large Language Modelsが知識グラフのより多様な推論空間を自律的に探索することを可能にするフレームワークである。
EoGは最先端のパフォーマンスを実現し、オープンソースやクローズドソースのLLMよりも優れています。
論文 参考訳(メタデータ) (2026-02-25T09:35:18Z) - Autonomous Chain-of-Thought Distillation for Graph-Based Fraud Detection [73.9189065770752]
テキスト分散グラフ(TAG)上のグラフベースの不正検出には、リッチテキストセマンティクスとリレーショナル依存関係を共同でモデル化する必要がある。
我々は,自律型グラフ認識チェーン(CoT)推論とスケーラブルなLLM-GNN協調学習を通じて,TAGに基づく不正検出を促進する統一フレームワークであるFraudCoTを提案する。
論文 参考訳(メタデータ) (2026-01-30T13:12:12Z) - Efficient Code Analysis via Graph-Guided Large Language Models [14.569998138597393]
本稿では,大規模言語モデルによる悪意ある行動のローカライズ能力を高めるグラフ中心の注意獲得パイプラインを提案する。
このアプローチはプロジェクトをコードグラフに解析し、LLMを使用してノードに意味的および構造的なシグナルをエンコードし、疎い監視の下でグラフニューラルネットワーク(GNN)をトレーニングする。
論文 参考訳(メタデータ) (2026-01-19T09:42:00Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Enhancing Graph Neural Networks with Limited Labeled Data by Actively Distilling Knowledge from Large Language Models [30.867447814409623]
グラフニューラルネットワーク(GNN)は、グラフの基本課題であるノード分類において優れた能力を持つ。
本稿では,Large Language Models(LLM)とGNNを統合する新しい手法を提案する。
我々のモデルでは,ラベル付きデータによるノード分類精度を著しく向上し,最先端のベースラインをかなりのマージンで超えた。
論文 参考訳(メタデータ) (2024-07-19T02:34:10Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Deep Graph Learning for Anomalous Citation Detection [55.81334139806342]
本稿では,新たな深層グラフ学習モデルであるGLAD(Graph Learning for Anomaly Detection)を提案する。
GLADフレームワーク内ではCPU(Citation PUrpose)と呼ばれるアルゴリズムが提案され,引用テキストに基づく引用の目的が明らかになった。
論文 参考訳(メタデータ) (2022-02-23T09:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。