論文の概要: Who Is the Story About? Protagonist Entity Recognition in News
- arxiv url: http://arxiv.org/abs/2511.07296v1
- Date: Mon, 10 Nov 2025 16:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.376605
- Title: Who Is the Story About? Protagonist Entity Recognition in News
- Title(参考訳): 物語とは何か?ニュースにおける主人公のエンティティ認識
- Authors: Jorge Gabín, M. Eduardo Ares, Javier Parapar,
- Abstract要約: 本稿では,ニュースストーリーを定着させ,主要な展開を形作る組織を識別するタスクであるProtagonist Entity Recognition(PER)を紹介する。
我々は現在最先端のLarge Language Models (LLMs) を用いて、NER誘導プロンプトを通じて大規模ニュースコレクションを自動的にラベル付けする。
その結果,PERは物語中心の情報抽出に有効かつ有意義な拡張であることが示された。
- 参考スコア(独自算出の注目度): 3.597778914286147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: News articles often reference numerous organizations, but traditional Named Entity Recognition (NER) treats all mentions equally, obscuring which entities genuinely drive the narrative. This limits downstream tasks that rely on understanding event salience, influence, or narrative focus. We introduce Protagonist Entity Recognition (PER), a task that identifies the organizations that anchor a news story and shape its main developments. To validate PER, we compare he predictions of Large Language Models (LLMs) against annotations from four expert annotators over a gold corpus, establishing both inter-annotator consistency and human-LLM agreement. Leveraging these findings, we use state-of-the-art LLMs to automatically label large-scale news collections through NER-guided prompting, generating scalable, high-quality supervision. We then evaluate whether other LLMs, given reduced context and without explicit candidate guidance, can still infer the correct protagonists. Our results demonstrate that PER is a feasible and meaningful extension to narrative-centered information extraction, and that guided LLMs can approximate human judgments of narrative importance at scale.
- Abstract(参考訳): ニュース記事は、しばしば多くの組織に言及するが、伝統的な名前付きエンティティ認識(NER)は、どのエンティティが真に物語を駆動しているかを無視して、全ての言及を平等に扱う。
これにより、イベントのサリエンス、影響、物語の焦点を理解することに依存する下流タスクが制限される。
本稿では,ニュースストーリーを定着させ,主要な展開を形作る組織を識別するタスクであるProtagonist Entity Recognition(PER)を紹介する。
PERを検証するため,金のコーパス上の4つの専門家アノテータからのアノテーションに対して,Large Language Models (LLM) の予測を比較し,アノテータ間の一貫性と人間-LLM合意を確立する。
これらの知見を生かして、NER誘導による大規模ニュースコレクションの自動ラベル付け、スケーラブルで高品質な監視を実現するために、最先端のLCMを用いている。
そして,他のLLMが文脈を減らし,明確な候補ガイダンスを持たず,正しい主人公を推測できるかどうかを評価する。
その結果,PERは物語中心の情報抽出に有効かつ有意義な拡張であり,ガイド付きLLMは大規模に物語を重要視する人間の判断を近似できることを示した。
関連論文リスト
- Evaluating Large Language Models as Expert Annotators [17.06186816803593]
本稿では,トップパフォーマンス言語モデルが,人間の専門家アノテータの直接的な代替として機能するかどうかを考察する。
我々は、金融、バイオメディシン、法という3つの専門分野にまたがる個別のLCMとマルチエージェントのアプローチを評価した。
実験結果から,推定時間的手法を具備した個々のLSMは,限界あるいは負の利得しか示さないことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-11T10:19:10Z) - Classifying Unreliable Narrators with Large Language Models [23.817691955577835]
本稿では,複数のドメインからのナラティブを人間に注釈付けしたデータセットTUNaを提案する。
ナレーション内,ナレーション間,テキスト間不確実性の分類タスクを定義する。
実世界のテキストデータに基づいて,信頼できないナレーター分類を行うために,文献からの学習を提案する。
論文 参考訳(メタデータ) (2025-06-11T23:17:12Z) - A Cooperative Multi-Agent Framework for Zero-Shot Named Entity Recognition [71.61103962200666]
ゼロショット名付きエンティティ認識(NER)は、注釈のないテキストコーパスからエンティティ認識システムを開発することを目的としている。
最近の研究は、特別なプロンプトテンプレートを作成することで、ゼロショットNERに大規模な言語モデル(LLM)を適用している。
ゼロショットNERのための新しいフレームワークである協調型マルチエージェントシステム(CMAS)を紹介する。
論文 参考訳(メタデータ) (2025-02-25T23:30:43Z) - Potential and Perils of Large Language Models as Judges of Unstructured Textual Data [0.631976908971572]
本研究では,LLM-as-judgeモデルの有効性を検討した。
LLM-as-judgeは、人間に匹敵するスケーラブルなソリューションを提供するが、人間は微妙で文脈固有のニュアンスを検出するのに優れている。
論文 参考訳(メタデータ) (2025-01-14T14:49:14Z) - Explingo: Explaining AI Predictions using Large Language Models [47.21393184176602]
LLM(Large Language Models)は、説明を自然なコミュニケーションと整合する人間可読な物語形式に変換することができる。
ナレーターはMLの説明を取り入れ、それらを自然言語の説明に変換する。
グレーダーはこれらの物語を、正確性、完全性、流用性、簡潔さを含む一連の指標で評価する。
この研究の結果はオープンソースツールに統合され、さらなるアプリケーションで物語の説明が利用できるようになった。
論文 参考訳(メタデータ) (2024-12-06T16:01:30Z) - Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Do Language Models Enjoy Their Own Stories? Prompting Large Language Models for Automatic Story Evaluation [15.718288693929019]
大規模言語モデル(LLM)は多くのNLPタスクで最先端のパフォーマンスを達成する。
LLMがヒトアノテーターの代用として使用できるかどうかを検討した。
LLMはシステムレベルの評価において,現在の自動測定値よりも優れていますが,十分な説明が得られていないことが分かりました。
論文 参考訳(メタデータ) (2024-05-22T15:56:52Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。