論文の概要: A Multi-Agent LLM Framework for Multi-Domain Low-Resource In-Context NER via Knowledge Retrieval, Disambiguation and Reflective Analysis
- arxiv url: http://arxiv.org/abs/2511.19083v1
- Date: Mon, 24 Nov 2025 13:23:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.211093
- Title: A Multi-Agent LLM Framework for Multi-Domain Low-Resource In-Context NER via Knowledge Retrieval, Disambiguation and Reflective Analysis
- Title(参考訳): 知識検索・曖昧化・リフレクティブ分析によるマルチドメイン低リソースインコンテキストNERのためのマルチエージェントLLMフレームワーク
- Authors: Wenxuan Mu, Jinzhong Ning, Di Zhao, Yijia Zhang,
- Abstract要約: In-context Learning (ICL) with large language model (LLMs)は、低リソースシナリオにおける名前付きエンティティ認識(NER)のための有望なパラダイムとして登場した。
KDR-Agentは、知識検索、曖昧さ、反射分析を統合した、コンテキスト内NERのための新しいマルチエージェントフレームワークである。
5つのドメインから10のデータセットを対象とした実験では、KDR-Agentが既存のゼロショットと少数ショットのICLベースラインを大幅に上回っていることが示されている。
- 参考スコア(独自算出の注目度): 7.594209761100934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-context learning (ICL) with large language models (LLMs) has emerged as a promising paradigm for named entity recognition (NER) in low-resource scenarios. However, existing ICL-based NER methods suffer from three key limitations: (1) reliance on dynamic retrieval of annotated examples, which is problematic when annotated data is scarce; (2) limited generalization to unseen domains due to the LLM's insufficient internal domain knowledge; and (3) failure to incorporate external knowledge or resolve entity ambiguities. To address these challenges, we propose KDR-Agent, a novel multi-agent framework for multi-domain low-resource in-context NER that integrates Knowledge retrieval, Disambiguation, and Reflective analysis. KDR-Agent leverages natural-language type definitions and a static set of entity-level contrastive demonstrations to reduce dependency on large annotated corpora. A central planner coordinates specialized agents to (i) retrieve factual knowledge from Wikipedia for domain-specific mentions, (ii) resolve ambiguous entities via contextualized reasoning, and (iii) reflect on and correct model predictions through structured self-assessment. Experiments across ten datasets from five domains demonstrate that KDR-Agent significantly outperforms existing zero-shot and few-shot ICL baselines across multiple LLM backbones. The code and data can be found at https://github.com/MWXGOD/KDR-Agent.
- Abstract(参考訳): In-context Learning (ICL) with large language model (LLMs)は、低リソースシナリオにおける名前付きエンティティ認識(NER)のための有望なパラダイムとして登場した。
しかし,既存の ICL ベースの NER 法は,(1) 注釈付きデータが不足している場合に問題となる注釈付きサンプルの動的検索に依存すること,(2) LLM の内部ドメイン知識の不足による未確認領域への一般化に限定すること,(3) 外部知識を組み込んだり,エンティティの曖昧さを解決することに失敗すること,の3つの重要な制限がある。
これらの課題に対処するために、知識検索、曖昧さ、反射分析を統合したマルチドメイン低リソースインコンテキストNERのための新しいマルチエージェントフレームワークであるKDR-Agentを提案する。
KDR-Agentは、自然言語の型定義とエンティティレベルの対照的なデモの静的セットを活用して、大きな注釈付きコーパスへの依存を減らす。
中央プランナーが特殊エージェントを調整します
i) ドメイン固有の言及のためにウィキペディアから事実知識を取得する。
二 文脈的推論により曖昧な実体を解決し、
三 構造化自己評価によるモデル予測を反映し正すこと。
5つのドメインから10のデータセットにわたる実験では、KDR-Agentは既存のゼロショットと数ショットのICLベースラインを複数のLCMバックボーンで大幅に上回っている。
コードとデータはhttps://github.com/MWXGOD/KDR-Agent.comにある。
関連論文リスト
- MARAG-R1: Beyond Single Retriever via Reinforcement-Learned Multi-Tool Agentic Retrieval [50.30107119622642]
大規模言語モデル(LLM)は推論と生成において優れているが、本質的には静的事前学習データによって制限されている。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識に基盤を置くことでこの問題に対処する。
MarAG-R1は、LLMが複数の検索機構を動的に調整できる強化学習型マルチツールRAGフレームワークである。
論文 参考訳(メタデータ) (2025-10-31T15:51:39Z) - Towards Open-World Retrieval-Augmented Generation on Knowledge Graph: A Multi-Agent Collaboration Framework [21.896955284099334]
大きな言語モデル(LLM)は、言語理解と推論において強力な能力を示している。
Retrieval-Augmented Generation (RAG)は、外部知識ソースを組み込むことによって、この制限に対処する。
AnchorRAGは,オープンワールドRAGのための,事前定義されたアンカーエンティティを持たない新しいマルチエージェント協調フレームワークである。
論文 参考訳(メタデータ) (2025-09-01T08:26:12Z) - DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - A Cooperative Multi-Agent Framework for Zero-Shot Named Entity Recognition [71.61103962200666]
ゼロショット名付きエンティティ認識(NER)は、注釈のないテキストコーパスからエンティティ認識システムを開発することを目的としている。
最近の研究は、特別なプロンプトテンプレートを作成することで、ゼロショットNERに大規模な言語モデル(LLM)を適用している。
ゼロショットNERのための新しいフレームワークである協調型マルチエージェントシステム(CMAS)を紹介する。
論文 参考訳(メタデータ) (2025-02-25T23:30:43Z) - OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
性能ギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - AgentRE: An Agent-Based Framework for Navigating Complex Information Landscapes in Relation Extraction [10.65417796726349]
複雑なシナリオにおける関係抽出(RE)は、多種多様な関係型や単一の文内のエンティティ間のあいまいな関係のような課題に直面します。
本稿では,複雑なシナリオにおいてREを実現するために,大規模言語モデルの可能性を完全に活用するエージェントベースのREフレームワークであるAgentREを提案する。
論文 参考訳(メタデータ) (2024-09-03T12:53:05Z) - ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models [25.68491572293656]
大規模言語モデルは、名前付きエンティティ認識のような構造化された知識抽出タスクにおいて不足する。
本稿では,より優れたNERデータセットを生成するため,LCMを質素なNER能力で活用するための革新的で費用効率のよい戦略について検討する。
論文 参考訳(メタデータ) (2024-03-17T06:12:43Z) - Robust Few-Shot Named Entity Recognition with Boundary Discrimination
and Correlation Purification [14.998158107063848]
NER (Few-shot named entity recognition) は、既存の知識を活用して、低リソース領域における新しい名前付きエンティティを認識することを目的としている。
境界識別・相関浄化法(BDCP)を用いた頑健な2段連写NER法を提案する。
スパン検出段階では、エンティティ境界判別モジュールを導入して、エンティティスパンを検出するための高度に区別された境界表現空間を提供する。
エンティティタイピング段階では、干渉情報を最小化してエンティティとコンテキストの相関を浄化する。
論文 参考訳(メタデータ) (2023-12-13T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。