論文の概要: Local LLM Ensembles for Zero-shot Portuguese Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2512.10043v1
- Date: Wed, 10 Dec 2025 19:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.038553
- Title: Local LLM Ensembles for Zero-shot Portuguese Named Entity Recognition
- Title(参考訳): ゼロショットポルトガル語名前付きエンティティ認識のためのローカルLLMアンサンブル
- Authors: João Lucas Luz Lima Sarcinelli, Diego Furtado Silva,
- Abstract要約: 大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクを、文脈内学習を通じて優れている。
しかしながら、単一のモデルがすべてのタスクを支配し、アンサンブルアプローチを動機付けることはない。
そこで本研究では,NERをゼロショット化するための3ステップアンサンブルパイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.7734726150561086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) excel in many Natural Language Processing (NLP) tasks through in-context learning but often under-perform in Named Entity Recognition (NER), especially for lower-resource languages like Portuguese. While open-weight LLMs enable local deployment, no single model dominates all tasks, motivating ensemble approaches. However, existing LLM ensembles focus on text generation or classification, leaving NER under-explored. In this context, this work proposes a novel three-step ensemble pipeline for zero-shot NER using similarly capable, locally run LLMs. Our method outperforms individual LLMs in four out of five Portuguese NER datasets by leveraging a heuristic to select optimal model combinations with minimal annotated data. Moreover, we show that ensembles obtained on different source datasets generally outperform individual LLMs in cross-dataset configurations, potentially eliminating the need for annotated data for the current task. Our work advances scalable, low-resource, and zero-shot NER by effectively combining multiple small LLMs without fine-tuning. Code is available at https://github.com/Joao-Luz/local-llm-ner-ensemble.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多くの自然言語処理(NLP)タスクをコンテキスト内学習を通じて優れているが、名前付きエンティティ認識(NER)では性能が劣ることが多い。
オープンウェイトなLLMはローカルなデプロイメントを可能にするが、ひとつのモデルがすべてのタスクを支配し、アンサンブルアプローチを動機付けることはない。
しかし、既存のLLMアンサンブルはテキスト生成や分類に重点を置いており、NERは未探索のままである。
この文脈では、同様の能力を持つローカルに動作するLLMを用いて、ゼロショットNERのための新しい3ステップアンサンブルパイプラインを提案する。
提案手法は,5つのポルトガル語NERデータセットのうち4つにおいて,最小の注釈付きデータを用いた最適なモデル組み合わせを選択するヒューリスティックを活用することにより,個々のLSMよりも優れる。
さらに、異なるソースデータセット上で得られたアンサンブルは、一般的に、データセット間の構成において個々のLLMよりも優れており、現在のタスクに対する注釈付きデータを必要としない可能性があることを示す。
我々の研究は、細調整なしで複数の小さなLLMを効果的に組み合わせることで、スケーラブルで低リソースでゼロショットのNERを進化させます。
コードはhttps://github.com/Joao-Luz/local-llm-ner-ensemble.comで公開されている。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - DynamicNER: A Dynamic, Multilingual, and Fine-Grained Dataset for LLM-based Named Entity Recognition [53.019885776033824]
動的分類を伴うLarge Language Models (LLM) ベースの手法のために設計された最初のNERデータセットであるDynamicNERを提案する。
データセットは多言語および多言語で、8言語と155のエンティティタイプをカバーし、コーパスはさまざまなドメインにまたがる。
実験によると、DynamicNERはLLMベースのNERメソッドの堅牢で効果的なベンチマークとして機能している。
論文 参考訳(メタデータ) (2024-09-17T09:32:12Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。