論文の概要: LELA: an LLM-based Entity Linking Approach with Zero-Shot Domain Adaptation
- arxiv url: http://arxiv.org/abs/2601.05192v1
- Date: Thu, 08 Jan 2026 18:15:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.329286
- Title: LELA: an LLM-based Entity Linking Approach with Zero-Shot Domain Adaptation
- Title(参考訳): LELA:ゼロショットドメイン適応を用いたLCMベースのエンティティリンクアプローチ
- Authors: Samy Haffoudhi, Fabian M. Suchanek, Nils Holzenberger,
- Abstract要約: 我々の手法であるLELAは,大規模言語モデル(LLM)の能力を生かしたモジュラー・粗大なアプローチである。
各種エンティティリンク設定に対する実験により,LELAは細調整アプローチと高い競争力を示し,非微調整手法よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 12.509786917611125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity linking (mapping ambiguous mentions in text to entities in a knowledge base) is a foundational step in tasks such as knowledge graph construction, question-answering, and information extraction. Our method, LELA, is a modular coarse-to-fine approach that leverages the capabilities of large language models (LLMs), and works with different target domains, knowledge bases and LLMs, without any fine-tuning phase. Our experiments across various entity linking settings show that LELA is highly competitive with fine-tuned approaches, and substantially outperforms the non-fine-tuned ones.
- Abstract(参考訳): エンティティリンク(知識ベースにおけるエンティティへのテキストでの曖昧な言及をマッピングする)は、知識グラフの構築、質問応答、情報抽出といったタスクの基本的なステップである。
我々の手法であるLELAは,大規模言語モデル(LLM)の機能を活用し,異なるターゲットドメイン,知識ベース,LLMを微調整なしで動作させるモジュール間粗大化手法である。
各種エンティティリンク設定に対する実験により,LELAは細調整アプローチと高い競争力を示し,非微調整手法よりも大幅に優れていた。
関連論文リスト
- Harnessing Deep LLM Participation for Robust Entity Linking [14.079957943961276]
DeepELは大規模言語モデル(LLM)をエンティティリンクタスクのすべてのステージに組み込む包括的なフレームワークです。
この制限に対処するために,グローバルな文脈情報を利用する新しい自己検証機構を提案する。
10のベンチマークデータセットにわたる大規模な経験的評価は、DeepELが既存の最先端メソッドを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-11-18T06:35:26Z) - LLMs as Better Recommenders with Natural Language Collaborative Signals: A Self-Assessing Retrieval Approach [22.656330484701375]
既存のアプローチでは、ソフトトークンや抽象識別子を使用して、コラボレーション情報(CI)を符号化することが多い。
LLMのセマンティックスペースとの整合性を向上するために,CIを直接自然言語で表現することを提案する。
本稿では,自己評価型協調検索フレームワーク(SCORE)を紹介する。
論文 参考訳(メタデータ) (2025-05-26T03:37:17Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Towards Reliable Latent Knowledge Estimation in LLMs: Zero-Prompt Many-Shot Based Factual Knowledge Extraction [15.534647327246239]
本稿では,大規模言語モデル(LLM)を事実知識として探索する場合に,迅速なエンジニアリングを不要にすることを提案する。
我々のアプローチはZP-LKE(Zero-Prompt Latent Knowledge Estimator)と呼ばれ、LLMの文脈内学習能力を活用している。
我々は,Wikidata の知識ベースから,さまざまなオープンソース LLM の事実知識を,膨大な関連性や事実に対して大規模に評価する。
論文 参考訳(メタデータ) (2024-04-19T15:40:39Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Link-Context Learning for Multimodal LLMs [40.923816691928536]
リンクコンテキスト学習(LCL)はMLLMの学習能力を高めるために「原因と効果からの推論」を強調する。
LCLは、アナログだけでなく、データポイント間の因果関係も識別するようモデルに導出する。
本手法の評価を容易にするため,ISEKAIデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-15T17:33:24Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。