論文の概要: Inside CORE-KG: Evaluating Structured Prompting and Coreference Resolution for Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2510.26512v1
- Date: Thu, 30 Oct 2025 14:05:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.847974
- Title: Inside CORE-KG: Evaluating Structured Prompting and Coreference Resolution for Knowledge Graphs
- Title(参考訳): CORE-KGの内部:知識グラフにおける構造化プロンプトと参照分解能の評価
- Authors: Dipak Meher, Carlotta Domeniconi,
- Abstract要約: 法的事例文書は重要な洞察を提供するが、しばしば非構造的で、語彙的に密集しており、曖昧さやシフトする参照で満たされている。
CORE-KGフレームワークは、型認識型コア参照モジュールとドメイン誘導型構造化プロンプトを統合することで、これらの制限に対処する。
その結果,コア参照の解消はノード重複が28.32%増加し,ノイズノードが4.32%増加し,構造化されたプロンプトが除去され,ノード重複が4.34%増加し,ノイズノードが73.33%増加した。
- 参考スコア(独自算出の注目度): 9.241360770841013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human smuggling networks are increasingly adaptive and difficult to analyze. Legal case documents offer critical insights but are often unstructured, lexically dense, and filled with ambiguous or shifting references, which pose significant challenges for automated knowledge graph (KG) construction. While recent LLM-based approaches improve over static templates, they still generate noisy, fragmented graphs with duplicate nodes due to the absence of guided extraction and coreference resolution. The recently proposed CORE-KG framework addresses these limitations by integrating a type-aware coreference module and domain-guided structured prompts, significantly reducing node duplication and legal noise. In this work, we present a systematic ablation study of CORE-KG to quantify the individual contributions of its two key components. Our results show that removing coreference resolution results in a 28.32% increase in node duplication and a 4.32% increase in noisy nodes, while removing structured prompts leads to a 4.34% increase in node duplication and a 73.33% increase in noisy nodes. These findings offer empirical insights for designing robust LLM-based pipelines for extracting structured representations from complex legal texts.
- Abstract(参考訳): 人間の密輸ネットワークは適応性が高く、分析が難しい。
法ケース文書は重要な洞察を提供するが、しばしば非構造的で、語彙的に密接であり、曖昧な参照やシフトする参照で満たされ、自動化知識グラフ(KG)の構築に重大な課題を生じさせる。
最近のLCMベースのアプローチは静的テンプレートよりも改善されているが、ガイド付き抽出とコア参照の解決がないため、重複ノードを持つノイズの多いフラグメントグラフを生成する。
最近提案されたCORE-KGフレームワークは、型認識型コア参照モジュールとドメイン誘導型構造化プロンプトを統合することでこれらの制限に対処し、ノード重複と法的なノイズを大幅に低減した。
本研究では、CORE-KGの系統的アブレーション研究を行い、2つの主要成分の個々の寄与を定量化する。
その結果,コア参照の解消はノード重複が28.32%増加し,ノイズノードが4.32%増加し,構造化されたプロンプトが除去され,ノード重複が4.34%増加し,ノイズノードが73.33%増加した。
これらの知見は、複雑な法文から構造化表現を抽出する堅牢なLCMベースのパイプラインを設計するための実証的な洞察を与える。
関連論文リスト
- LINK-KG: LLM-Driven Coreference-Resolved Knowledge Graphs for Human Smuggling Networks [8.222584338135986]
Link-KGは、3段階のLLM誘導コア参照解決パイプラインと下流KG抽出を統合したフレームワークである。
このアプローチのコアとなるのは、型固有のPromptキャッシュです。
Link-KGは平均ノード重複を45.21%、ノイズノードを32.22%削減する。
論文 参考訳(メタデータ) (2025-10-30T13:39:08Z) - Less is More: Denoising Knowledge Graphs For Retrieval Augmented Generation [16.70703934014251]
本稿では,DEG-RAG(Denoized Knowledge Graphs for Retrieval Augmented Generation)を紹介する。
LLM生成知識グラフの難解化問題に対処するフレームワークである。
グラフのサイズを大幅に削減し、問合せ性能を継続的に改善する。
論文 参考訳(メタデータ) (2025-10-16T03:41:44Z) - Unifying Tree Search Algorithm and Reward Design for LLM Reasoning: A Survey [92.71325249013535]
線形木探索はLarge Language Model (LLM) 研究の基盤となっている。
本稿では,検索アルゴリズムを3つのコアコンポーネントに分解する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-11T03:29:18Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - LeanRAG: Knowledge-Graph-Based Generation with Semantic Aggregation and Hierarchical Retrieval [10.566901995776025]
LeanRAGは知識集約と検索戦略を組み合わせたフレームワークです。
グラフ上のパス検索に関連するかなりのオーバーヘッドを軽減し、冗長な情報検索を最小限にする。
論文 参考訳(メタデータ) (2025-08-14T06:47:18Z) - CORE-KG: An LLM-Driven Knowledge Graph Construction Framework for Human Smuggling Networks [9.68109098750283]
CORE-KGは法的テキストから解釈可能な知識グラフを構築するためのモジュラーフレームワークである。
ノード重複を33.28%減らし、法的なノイズを38.37%減らした。
論文 参考訳(メタデータ) (2025-06-20T11:58:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - HELPNet: Hierarchical Perturbations Consistency and Entropy-guided Ensemble for Scribble Supervised Medical Image Segmentation [4.034121387622003]
本稿では,新しいスクリブルベースの弱教師付きセグメンテーションフレームワークHELPNetを提案する。
HELPNetはアノテーション効率とセグメンテーション性能のギャップを埋めるために3つのモジュールを統合する。
HELPNetは、スクリブルベースの弱教師付きセグメンテーションの最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-12-25T01:52:01Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。