論文の概要: Contextual Augmentation for Entity Linking using Large Language Models
- arxiv url: http://arxiv.org/abs/2510.18888v1
- Date: Fri, 17 Oct 2025 13:37:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.133941
- Title: Contextual Augmentation for Entity Linking using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたエンティティリンクの文脈拡張
- Authors: Daniel Vollmers, Hamada M. Zahera, Diego Moussallem, Axel-Cyrille Ngonga Ngomo,
- Abstract要約: 本稿では,エンティティ認識と曖昧さを統一されたフレームワークに統合する微調整モデルを提案する。
ベンチマークデータセットに対する我々のアプローチを評価し、いくつかのベースラインと比較した。
- 参考スコア(独自算出の注目度): 6.246102028831753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity Linking involves detecting and linking entity mentions in natural language texts to a knowledge graph. Traditional methods use a two-step process with separate models for entity recognition and disambiguation, which can be computationally intensive and less effective. We propose a fine-tuned model that jointly integrates entity recognition and disambiguation in a unified framework. Furthermore, our approach leverages large language models to enrich the context of entity mentions, yielding better performance in entity disambiguation. We evaluated our approach on benchmark datasets and compared with several baselines. The evaluation results show that our approach achieves state-of-the-art performance on out-of-domain datasets.
- Abstract(参考訳): エンティティリンクは、自然言語テキスト中のエンティティ参照を知識グラフに検出およびリンクする。
従来の手法では、エンティティ認識と曖昧化のための別々のモデルを持つ2段階のプロセスが用いられており、計算集約的で効果が低い。
統合されたフレームワークにおいて,エンティティ認識と曖昧さを協調的に統合する微調整モデルを提案する。
さらに、我々のアプローチは、エンティティ参照のコンテキストを豊かにするために大きな言語モデルを活用し、エンティティの曖昧さにおいてより良いパフォーマンスをもたらす。
ベンチマークデータセットに対する我々のアプローチを評価し、いくつかのベースラインと比較した。
評価結果から,本手法はドメイン外データセットの最先端性能を実現する。
関連論文リスト
- Knowledge Graph Completion with Relation-Aware Anchor Enhancement [50.50944396454757]
関係認識型アンカー強化知識グラフ補完法(RAA-KGC)を提案する。
まず、ヘッダーのリレーショナル・アウェア・エリア内でアンカー・エンティティを生成します。
次に、アンカーの近傍に埋め込まれたクエリを引っ張ることで、ターゲットのエンティティマッチングに対してより差別的になるように調整する。
論文 参考訳(メタデータ) (2025-04-08T15:22:08Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - TAGPRIME: A Unified Framework for Relational Structure Extraction [71.88926365652034]
TAGPRIMEは、与えられた条件に関する情報を入力テキストに追加するシーケンスタグ付けモデルである。
事前学習された言語モデルにおける自己認識機構により、プライミングワードは、出力された文脈化された表現に、与えられた条件に関するより多くの情報を含む。
5つの異なる言語にまたがる10のデータセットをカバーする3つのタスクに関する大規模な実験と分析は、TAGPRIMEの汎用性と有効性を示している。
論文 参考訳(メタデータ) (2022-05-25T08:57:46Z) - Entity Linking and Discovery via Arborescence-based Supervised
Clustering [35.93568319872986]
本稿では,言及親和性を完全に活用する新しいトレーニングと推論手法を提案する。
我々は,この手法がエンティティ発見に優雅に拡張されていることを示す。
我々はZero-Shot Entity LinkingデータセットとMedMentionsに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-09-02T23:05:58Z) - An End-to-end Model for Entity-level Relation Extraction using
Multi-instance Learning [2.111790330664657]
本稿では,文書からのエンティティレベルの関係抽出のための共同モデルを提案する。
DocREDデータセットから最先端関係抽出結果を得る。
実験結果から,共同学習はタスク固有の学習と同等であるが,共有パラメータや学習手順によりより効率的であることが示唆された。
論文 参考訳(メタデータ) (2021-02-11T12:49:39Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。