論文の概要: A Reasoning Paradigm for Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2511.11978v1
- Date: Sat, 15 Nov 2025 01:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.476316
- Title: A Reasoning Paradigm for Named Entity Recognition
- Title(参考訳): 名前付きエンティティ認識のための推論パラダイム
- Authors: Hui Huang, Yanping Chen, Ruizhang Huang, Chuan Lin, Yongbin Qin,
- Abstract要約: 名前付きエンティティ認識のための推論フレームワークが提案されている。
フレームワークは、Chain of Thought(CoT)生成、CoTチューニング、推論強化の3つのステージで構成されている。
実験では、ReasoningNERがNERタスクにおける印象的な認知能力を示し、競争性能を達成する。
- 参考スコア(独自算出の注目度): 16.86833034216367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative LLMs typically improve Named Entity Recognition (NER) performance through instruction tuning. They excel at generating entities by semantic pattern matching but lack an explicit, verifiable reasoning mechanism. This "cognitive shortcutting" leads to suboptimal performance and brittle generalization, especially in zero-shot and lowresource scenarios where reasoning from limited contextual cues is crucial. To address this issue, a reasoning framework is proposed for NER, which shifts the extraction paradigm from implicit pattern matching to explicit reasoning. This framework consists of three stages: Chain of Thought (CoT) generation, CoT tuning, and reasoning enhancement. First, a dataset annotated with NER-oriented CoTs is generated, which contain task-relevant reasoning chains. Then, they are used to tune the NER model to generate coherent rationales before deriving the final answer. Finally, a reasoning enhancement stage is implemented to optimize the reasoning process using a comprehensive reward signal. This stage ensures explicit and verifiable extractions. Experiments show that ReasoningNER demonstrates impressive cognitive ability in the NER task, achieving competitive performance. In zero-shot settings, it achieves state-of-the-art (SOTA) performance, outperforming GPT-4 by 12.3 percentage points on the F1 score. Analytical results also demonstrate its great potential to advance research in reasoningoriented information extraction. Our codes are available at https://github.com/HuiResearch/ReasoningIE.
- Abstract(参考訳): ジェネレーティブLLMは命令チューニングによって名前付きエンティティ認識(NER)の性能を改善するのが一般的である。
セマンティックパターンマッチングによってエンティティを生成するのが得意だが、明示的で検証可能な推論メカニズムが欠如している。
この「認知的ショートカット」は、特に限られた文脈的手がかりからの推論が不可欠であるゼロショットおよび低リソースのシナリオにおいて、最適性能と不安定な一般化をもたらす。
この問題に対処するために、暗黙のパターンマッチングから明示的な推論へ抽出パラダイムをシフトする、NERのための推論フレームワークが提案されている。
このフレームワークは、Chain of Thought(CoT)生成、CoTチューニング、推論強化の3つのステージで構成されている。
まず、タスク関連推論チェーンを含む、NER指向のCoTでアノテートされたデータセットを生成する。
そして、最終的な答えを得る前に、NERモデルをチューニングしてコヒーレントな有理数を生成する。
最後に、総合的な報酬信号を用いて推論過程を最適化するために、推論強化段階を実行する。
この段階は明示的で検証可能な抽出を保証する。
実験によると、ReasoningNERはNERタスクにおいて印象的な認知能力を示し、競争性能を達成する。
ゼロショット設定では、最新技術(SOTA)のパフォーマンスを達成し、F1スコアでGPT-4を12.3%上回っている。
分析結果は、推論指向情報抽出の研究を前進させる大きな可能性をも示している。
私たちのコードはhttps://github.com/HuiResearch/ReasoningIEで公開されています。
関連論文リスト
- In-Token Rationality Optimization: Towards Accurate and Concise LLM Reasoning via Self-Feedback [38.915062716409686]
InTROはトークンレベルの探索と,正確かつ簡潔な推論のための自己フィードバックを可能にする,新たなフレームワークである。
InTROは他のベースラインを一貫して上回り、ベースモデルと比較して解の精度を最大20%向上させる。
その思考の連鎖は明らかに簡潔であり、冗長性が低下している。
論文 参考訳(メタデータ) (2025-11-13T01:47:06Z) - LENS: Learning to Segment Anything with Unified Reinforced Reasoning [38.582392908238866]
LENSは拡張性のある強化学習フレームワークで、推論プロセスとセグメンテーションをエンドツーエンドで共同で最適化する。
LENSはRefCOCO、RefCOCO+、RefCOCOgのベンチマークで平均81.2%のcIoUを達成し、GLaMMという強力な微調整法を最大5.6%上回っている。
論文 参考訳(メタデータ) (2025-08-19T17:59:53Z) - Causal Prompting for Implicit Sentiment Analysis with Large Language Models [21.39152516811571]
Implicit Sentiment Analysis (ISA) は、明示的に述べられるのではなく、示唆される感情を推測することを目的としている。
近年,Large Language Models (LLMs) を用いたプロンプトベースの手法がISAで実現されている。
我々は,CoT推論に正面調整を組み込んだ因果的プロンプトフレームワークであるCAPITALを提案する。
論文 参考訳(メタデータ) (2025-07-01T03:01:09Z) - ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation [74.37307916314407]
提案するフレームワークはConciseHintと呼ばれ,推論モデルが簡潔に話すことを継続的に奨励する。
DeepSeek-R1 および Qwen-3 シリーズを含む最先端の LRM 実験により,本手法が簡潔な推論を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2025-06-23T16:20:44Z) - Reinforced Latent Reasoning for LLM-based Recommendation [92.56166822197919]
大きな言語モデル(LLM)は、複雑な問題解決タスクにおいて印象的な推論能力を示している。
既存の手法は通常、明示的なチェーン・オブ・シント(CoT)データによる微調整に依存している。
本研究では, 明示的なCoT推論から, コンパクトで情報密度の高い潜伏推論へ移行する代替手法について検討する。
論文 参考訳(メタデータ) (2025-05-25T11:03:45Z) - Gaussian Prior Reinforcement Learning for Nested Named Entity
Recognition [52.46740830977898]
GPRLと呼ばれる新しいSeq2seqモデルを提案し、ネストしたNERタスクをエンティティ三重項列生成プロセスとして定式化する。
3つのネストされたNERデータセットの実験では、GPRLが以前のネストされたNERモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-12T05:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。