論文の概要: Harnessing Deep LLM Participation for Robust Entity Linking
- arxiv url: http://arxiv.org/abs/2511.14181v1
- Date: Tue, 18 Nov 2025 06:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.970073
- Title: Harnessing Deep LLM Participation for Robust Entity Linking
- Title(参考訳): ロバストエンティティリンクにおける深いLLM参加のハーネス化
- Authors: Jiajun Hou, Chenyu Zhang, Rui Meng,
- Abstract要約: DeepELは大規模言語モデル(LLM)をエンティティリンクタスクのすべてのステージに組み込む包括的なフレームワークです。
この制限に対処するために,グローバルな文脈情報を利用する新しい自己検証機構を提案する。
10のベンチマークデータセットにわたる大規模な経験的評価は、DeepELが既存の最先端メソッドを大幅に上回っていることを示している。
- 参考スコア(独自算出の注目度): 14.079957943961276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity Linking (EL), the task of mapping textual entity mentions to their corresponding entries in knowledge bases, constitutes a fundamental component of natural language understanding. Recent advancements in Large Language Models (LLMs) have demonstrated remarkable potential for enhancing EL performance. Prior research has leveraged LLMs to improve entity disambiguation and input representation, yielding significant gains in accuracy and robustness. However, these approaches typically apply LLMs to isolated stages of the EL task, failing to fully integrate their capabilities throughout the entire process. In this work, we introduce DeepEL, a comprehensive framework that incorporates LLMs into every stage of the entity linking task. Furthermore, we identify that disambiguating entities in isolation is insufficient for optimal performance. To address this limitation, we propose a novel self-validation mechanism that utilizes global contextual information, enabling LLMs to rectify their own predictions and better recognize cohesive relationships among entities within the same sentence. Extensive empirical evaluation across ten benchmark datasets demonstrates that DeepEL substantially outperforms existing state-of-the-art methods, achieving an average improvement of 2.6\% in overall F1 score and a remarkable 4% gain on out-of-domain datasets. These results underscore the efficacy of deep LLM integration in advancing the state-of-the-art in entity linking.
- Abstract(参考訳): テキストエンティティのマッピングタスクであるEntity Linking (EL)は、自然言語理解の基本的な構成要素となっている。
近年,Large Language Models (LLMs) の進歩により,EL性能が向上する可能性が示唆されている。
従来の研究では、LCMを利用してエンティティの曖昧さと入力表現を改善し、精度とロバスト性を大きく向上させた。
しかしながら、これらのアプローチは一般的に、ELタスクの独立したステージにLLMを適用し、プロセス全体を通してその機能を完全に統合することができない。
本稿では,LLMをエンティティリンクタスクのすべてのステージに組み込む包括的フレームワークであるDeepELを紹介する。
さらに,分離された不明瞭な実体は最適性能には不十分であることを確認した。
この制限に対処するために,グローバルな文脈情報を活用する新たな自己検証機構を提案し,LLMが自身の予測を正し,同一文内のエンティティ間の密接な関係をよりよく認識できるようにする。
10のベンチマークデータセットにわたる大規模な経験的評価は、DeepELが既存の最先端メソッドを大幅に上回り、F1スコア全体の2.6\%の平均的な改善と、ドメイン外のデータセットでの顕著な4%のアップを実現していることを示している。
これらの結果は, エンティティリンクの最先端化における深部LCM統合の有効性を裏付けるものである。
関連論文リスト
- Efficient Uncertainty Estimation for LLM-based Entity Linking in Tabular Data [0.3593955557310285]
トークンレベルの特徴量を用いて単発出力から不確実性を推定するための自己教師型アプローチについて検討する。
得られた不確実性推定は,低精度出力の検出に極めて有効であることを示す。
これは計算コストのごく一部で達成され、不確実性対策をEntity Linkingに費用対効果で統合するのをサポートする。
論文 参考訳(メタデータ) (2025-09-24T10:44:16Z) - FuDoBa: Fusing Document and Knowledge Graph-based Representations with Bayesian Optimisation [43.56253799373878]
本稿では,LLMに基づく埋め込みとドメイン固有の構造化知識を統合したベイズ最適化に基づくFuDoBaを紹介する。
この融合は、訓練の複雑さを減らし、解釈可能な早期融合重みを生み出すとともに、低次元のタスク関連表現を生成する。
2つの領域における6つのデータセットに対するアプローチの有効性を実証し、提案した表現学習アプローチが、プロプライエタリなLCMベースの埋め込みベースラインでのみ生成されるものと同程度に、あるいは超えていることを示す。
論文 参考訳(メタデータ) (2025-07-09T07:49:55Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - Evaluation of LLMs on Long-tail Entity Linking in Historical Documents [1.9854418074386933]
GPT と LLama3 という2つの人気のある LLM の性能を,ロングテールなエンティティリンクのシナリオで評価する。
MHERCL v0.1は、ドメイン固有の歴史的テキストからテキストを手動で注釈付けしたベンチマークであり、エンティティをウィキデータエントリに識別・リンクする際のLLMの性能を定量的に比較する。
予備実験の結果,LLMは長尾ELにおいて良好に機能し,この技術は長尾ELと長尾ELのギャップを埋める上で有益であることが示唆された。
論文 参考訳(メタデータ) (2025-05-06T12:25:15Z) - LLM-Forest: Ensemble Learning of LLMs with Graph-Augmented Prompts for Data Imputation [50.375567142250446]
巨大なコーパスで訓練された大規模言語モデル(LLM)は、データ生成に強い可能性を示している。
我々は,信頼度に基づく重み付け投票によって出力を集約した,数発のプロンプト学習 LLM ツリーの "フォレスト" を導入した新しいフレームワーク LLM-Forest を提案する。
このフレームワークは、2部情報グラフという新しい概念に基づいて構築され、特徴と値の粒度の両方で高品質な関連項目を識別する。
論文 参考訳(メタデータ) (2024-10-28T20:42:46Z) - General LLMs as Instructors for Domain-Specific LLMs: A Sequential Fusion Method to Integrate Extraction and Editing [12.017822691367705]
複雑な文脈からの知識をLarge Language Models (LLM) に統合するための逐次融合法を提案する。
本手法を用いて,質問応答におけるドメイン固有LCMの精度は71.7%(平均39.1%)に達した。
これらの知見は、FDoR-ULにおけるアプローチの有効性と柔軟性を、様々な領域で示している。
論文 参考訳(メタデータ) (2024-03-23T06:03:36Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。