論文の概要: LINK-KG: LLM-Driven Coreference-Resolved Knowledge Graphs for Human Smuggling Networks
- arxiv url: http://arxiv.org/abs/2510.26486v1
- Date: Thu, 30 Oct 2025 13:39:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.834979
- Title: LINK-KG: LLM-Driven Coreference-Resolved Knowledge Graphs for Human Smuggling Networks
- Title(参考訳): LINK-KG:LLM-Driven Coreference-Resolved Knowledge Graphs for Human Smuggling Networks
- Authors: Dipak Meher, Carlotta Domeniconi, Guadalupe Correa-Cabrera,
- Abstract要約: Link-KGは、3段階のLLM誘導コア参照解決パイプラインと下流KG抽出を統合したフレームワークである。
このアプローチのコアとなるのは、型固有のPromptキャッシュです。
Link-KGは平均ノード重複を45.21%、ノイズノードを32.22%削減する。
- 参考スコア(独自算出の注目度): 8.222584338135986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human smuggling networks are complex and constantly evolving, making them difficult to analyze comprehensively. Legal case documents offer rich factual and procedural insights into these networks but are often long, unstructured, and filled with ambiguous or shifting references, posing significant challenges for automated knowledge graph (KG) construction. Existing methods either overlook coreference resolution or fail to scale beyond short text spans, leading to fragmented graphs and inconsistent entity linking. We propose LINK-KG, a modular framework that integrates a three-stage, LLM-guided coreference resolution pipeline with downstream KG extraction. At the core of our approach is a type-specific Prompt Cache, which consistently tracks and resolves references across document chunks, enabling clean and disambiguated narratives for structured knowledge graph construction from both short and long legal texts. LINK-KG reduces average node duplication by 45.21% and noisy nodes by 32.22% compared to baseline methods, resulting in cleaner and more coherent graph structures. These improvements establish LINK-KG as a strong foundation for analyzing complex criminal networks.
- Abstract(参考訳): 人間の密輸ネットワークは複雑で、常に進化しているため、包括的な分析は困難である。
法的事例文書は、これらのネットワークに関する豊富な事実と手続き的な洞察を提供するが、多くの場合、長く、構造化されておらず、曖昧な参照やシフトする参照で満たされており、自動知識グラフ(KG)構築において重大な課題を提起している。
既存のメソッドは、コア参照の解決を見落としているか、短いテキストスパンを超えてスケールできないかのいずれかで、断片化されたグラフと一貫性のないエンティティリンクにつながる。
我々は,3段階のLLM誘導コア参照分解パイプラインと下流KG抽出を統合するモジュールフレームワークLINK-KGを提案する。
このアプローチの核心にあるのは、型固有のPromptキャッシュで、文書チャンク間の参照を一貫して追跡し、解決し、短文と長文の両方から構造化知識グラフを構築するためのクリーンで曖昧な物語を可能にする。
LINK-KGは平均ノード重複を45.21%減らし、ノイズノードを32.22%減らした。
これらの改良によりLINK-KGは複雑な犯罪ネットワークを解析するための強力な基盤となる。
関連論文リスト
- Inside CORE-KG: Evaluating Structured Prompting and Coreference Resolution for Knowledge Graphs [9.241360770841013]
法的事例文書は重要な洞察を提供するが、しばしば非構造的で、語彙的に密集しており、曖昧さやシフトする参照で満たされている。
CORE-KGフレームワークは、型認識型コア参照モジュールとドメイン誘導型構造化プロンプトを統合することで、これらの制限に対処する。
その結果,コア参照の解消はノード重複が28.32%増加し,ノイズノードが4.32%増加し,構造化されたプロンプトが除去され,ノード重複が4.34%増加し,ノイズノードが73.33%増加した。
論文 参考訳(メタデータ) (2025-10-30T14:05:55Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Cross-Granularity Hypergraph Retrieval-Augmented Generation for Multi-hop Question Answering [49.43814054718318]
マルチホップ質問応答 (MHQA) は、正しい回答を得るために複数の経路に散在する知識を統合する必要がある。
従来の検索拡張生成法(RAG)は主に粗い粒度のテキスト意味的類似性に焦点を当てている。
本稿では,HGRAG for MHQAという新しいRAG手法を提案する。
論文 参考訳(メタデータ) (2025-08-15T06:36:13Z) - CORE-KG: An LLM-Driven Knowledge Graph Construction Framework for Human Smuggling Networks [9.68109098750283]
CORE-KGは法的テキストから解釈可能な知識グラフを構築するためのモジュラーフレームワークである。
ノード重複を33.28%減らし、法的なノイズを38.37%減らした。
論文 参考訳(メタデータ) (2025-06-20T11:58:00Z) - Talking to GDELT Through Knowledge Graphs [0.6153162958674417]
本研究では,各アプローチの強みと弱みを質問応答解析で把握するために,様々なRAG(Retrieval Augmented Regeneration)アプローチについて検討する。
テキストコーパスから情報を取得するために,従来のベクトルストアRAGと,最先端の大規模言語モデル(LLM)に基づくアプローチを実装した。
論文 参考訳(メタデータ) (2025-03-10T17:48:10Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。