論文の概要: It's All About the Confidence: An Unsupervised Approach for Multilingual Historical Entity Linking using Large Language Models
- arxiv url: http://arxiv.org/abs/2601.08500v1
- Date: Tue, 13 Jan 2026 12:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.195882
- Title: It's All About the Confidence: An Unsupervised Approach for Multilingual Historical Entity Linking using Large Language Models
- Title(参考訳): 信頼性に関するすべて:大規模言語モデルを用いた多言語歴史的エンティティリンクの教師なしアプローチ
- Authors: Cristian Santini, Marieke Van Erp, Mehwish Alam,
- Abstract要約: MHEL-LLaMoは、Small Language Model (SLM)とLLMを組み合わせた教師なしアンサンブルアプローチである。
MHEL-LLaMoを6つのヨーロッパ言語で確立された4つのベンチマークで評価した。
その結果、MHEL-LLaMoは微調整を必要とせず、最先端モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 1.6407393639625105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the recent advancements in NLP with the advent of Large Language Models (LLMs), Entity Linking (EL) for historical texts remains challenging due to linguistic variation, noisy inputs, and evolving semantic conventions. Existing solutions either require substantial training data or rely on domain-specific rules that limit scalability. In this paper, we present MHEL-LLaMo (Multilingual Historical Entity Linking with Large Language MOdels), an unsupervised ensemble approach combining a Small Language Model (SLM) and an LLM. MHEL-LLaMo leverages a multilingual bi-encoder (BELA) for candidate retrieval and an instruction-tuned LLM for NIL prediction and candidate selection via prompt chaining. Our system uses SLM's confidence scores to discriminate between easy and hard samples, applying an LLM only for hard cases. This strategy reduces computational costs while preventing hallucinations on straightforward cases. We evaluate MHEL-LLaMo on four established benchmarks in six European languages (English, Finnish, French, German, Italian and Swedish) from the 19th and 20th centuries. Results demonstrate that MHEL-LLaMo outperforms state-of-the-art models without requiring fine-tuning, offering a scalable solution for low-resource historical EL. The implementation of MHEL-LLaMo is available on Github.
- Abstract(参考訳): LLM(Large Language Models)の出現に伴うNLPの最近の進歩にもかかわらず、歴史的テキストに対するエンティティリンク(EL)は、言語的変化、ノイズの多い入力、意味的慣行の進化などにより困難である。
既存のソリューションは、十分なトレーニングデータを必要とするか、スケーラビリティを制限するドメイン固有のルールに依存している。
本稿では,MHEL-LLaMo(Multilingual Historical Entity Linking with Large Language Models)について述べる。
MHEL-LLaMoは、候補検索に多言語バイエンコーダ(BELA)、NIL予測とプロンプト連鎖による候補選択のための命令調整LDMを利用する。
本システムでは,SLMの信頼性スコアを用いて,難易度と難易度を判別し,難易度にのみLLMを適用する。
この戦略は、簡単な場合の幻覚を防ぎながら計算コストを削減する。
MHEL-LLaMoを、19世紀から20世紀にかけての6つのヨーロッパ言語(英語、フィンランド語、フランス語、ドイツ語、イタリア語、スウェーデン語)で確立された4つのベンチマークで評価した。
その結果、MHEL-LLaMoは微調整を必要とせずに最先端モデルより優れており、低リソース履歴ELにスケーラブルなソリューションを提供することがわかった。
MHEL-LLaMoの実装はGithubで公開されている。
関連論文リスト
- Beyond Monolingual Assumptions: A Survey of Code-Switched NLP in the Era of Large Language Models [1.175067374181304]
単一発話における言語とスクリプトの交替であるコードスイッチングは、多言語NLPの根本的な課題である。
ほとんどの大規模言語モデル(LLM)は、混合言語入力、限られたCSWデータセット、評価バイアスに悩まされている。
この調査は、CSWを意識したLSM研究の総合的な分析を初めて提供する。
論文 参考訳(メタデータ) (2025-10-08T14:04:14Z) - Do LLMs exhibit the same commonsense capabilities across languages? [4.177608674029413]
我々はCOCOTEROSデータセットを4つの言語(英語、スペイン語、オランダ語、バレンシア語)に拡張する新しいベンチマークであるMultiCOMを紹介した。
このタスクは、与えられた3つの単語を含む常識的な文を生成することを含む。
その結果、英語では優れた性能を示し、低リソース言語では大幅に性能が低下した。
論文 参考訳(メタデータ) (2025-09-08T07:47:00Z) - Few-Shot Multilingual Open-Domain QA from 5 Examples [44.04243892727856]
我々は,大規模言語モデル(LLM)から大規模多言語データを合成するためのemphfew-shot学習手法を提案する。
提案手法はWikiDataを用いた大規模自己教師付き事前学習から始まり,LLMを数発の監視で生成した高品質な合成多言語データを訓練する。
最終的なモデルである textscFsModQA は、MLODQA における既存の少数ショットベースラインと教師付きベースラインと、言語横断とモノリンガル検索を著しく上回る。
論文 参考訳(メタデータ) (2025-02-27T03:24:57Z) - LLMic: Romanian Foundation Language Model [76.09455151754062]
ルーマニア語に特化して設計された基礎言語モデルである LLMic について述べる。
英語からルーマニア語への翻訳作業において,事前学習後の言語翻訳のための微調整 LLMic が既存の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-01-13T22:14:45Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。