論文の概要: MARCUS: An Event-Centric NLP Pipeline that generates Character Arcs from Narratives
- arxiv url: http://arxiv.org/abs/2510.18201v1
- Date: Tue, 21 Oct 2025 01:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.750266
- Title: MARCUS: An Event-Centric NLP Pipeline that generates Character Arcs from Narratives
- Title(参考訳): MARCUS: 物語からキャラクタアークを生成するイベント中心NLPパイプライン
- Authors: Sriharsh Bhyravajjula, Ujwal Narayan, Manish Shrivastava,
- Abstract要約: MARCUSは,人物間の関係をモデル化するためのイベント,参加者キャラクタ,インプリード感情,感情を抽出するNLPパイプラインである。
2つの拡張ファンタジーシリーズ、ハリー・ポッターとロード・オブ・ザ・リングからキャラクターアークを生成する。
- 参考スコア(独自算出の注目度): 3.0765811485120182
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Character arcs are important theoretical devices employed in literary studies to understand character journeys, identify tropes across literary genres, and establish similarities between narratives. This work addresses the novel task of computationally generating event-centric, relation-based character arcs from narratives. Providing a quantitative representation for arcs brings tangibility to a theoretical concept and paves the way for subsequent applications. We present MARCUS (Modelling Arcs for Understanding Stories), an NLP pipeline that extracts events, participant characters, implied emotion, and sentiment to model inter-character relations. MARCUS tracks and aggregates these relations across the narrative to generate character arcs as graphical plots. We generate character arcs from two extended fantasy series, Harry Potter and Lord of the Rings. We evaluate our approach before outlining existing challenges, suggesting applications of our pipeline, and discussing future work.
- Abstract(参考訳): キャラクタアークは、文学研究で用いられる重要な理論装置であり、キャラクターの旅を理解し、文学ジャンルにまたがるトロープを識別し、物語間の類似性を確立する。
この研究は、物語から出来事中心の、関係に基づく文字弧を計算的に生成する新しい課題に対処する。
アークの定量的表現を提供することは、理論的な概念に有意性をもたらし、その後の応用への道を開く。
MARCUS (Modelling Arcs for Understanding Stories) は,イベント,参加者キャラクタ,インプリード感情,感情を抽出し,キャラクタ間の関係をモデル化するNLPパイプラインである。
MARCUSはこれらの関係を物語全体で追跡し集約し、グラフィカルプロットとして文字弧を生成する。
2つの拡張ファンタジーシリーズ、ハリー・ポッターとロード・オブ・ザ・リングからキャラクターアークを生成する。
既存の課題を概説し、パイプラインの応用を提案し、今後の作業について議論する前に、アプローチを評価します。
関連論文リスト
- Story Ribbons: Reimagining Storyline Visualizations with Large Language Models [39.0439095287205]
大規模言語モデル(LLM)は、既存のストーリーラインの可視化技術の拡張と再構成に使用されている。
小説や脚本から関連する物語情報を自動抽出するLLM駆動型データ解析パイプラインを提案する。
次に、このパイプラインを適用して、初心者や専門文献アナリストが詳細な性格やテーマの軌跡を探索するのに役立つインタラクティブな可視化システムであるStory Ribbonsを作成します。
論文 参考訳(メタデータ) (2025-08-09T01:49:30Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Fine-Grained Modeling of Narrative Context: A Coherence Perspective via Retrospective Questions [48.18584733906447]
この研究は、物語の中の個々の通路が孤立するよりも密接な関係にある傾向があるという特徴から生まれた、物語理解のためのオリジナルで実践的なパラダイムを取り入れたものである。
本稿では,タスク非依存のコヒーレンス依存を明示的に表現したNarCoというグラフを定式化することにより,物語コンテキストのきめ細かいモデリングを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:14:04Z) - Understanding Social Structures from Contemporary Literary Fiction using
Character Interaction Graph -- Half Century Chronology of Influential Bengali
Writers [2.103087897983347]
社会構造や現実世界の出来事は、しばしば現代文学に影響を及ぼす。
文字相互作用グラフを用いて、現代文化が文学の風景に与える影響について、社会的問いかけを探索する。
論文 参考訳(メタデータ) (2023-10-25T20:09:14Z) - "Let Your Characters Tell Their Story": A Dataset for Character-Centric
Narrative Understanding [31.803481510886378]
文芸作品の新しいデータセットLiSCUとその要約を、それらに現れる文字の記述と組み合わせて紹介する。
また、LiSCUにおける文字識別と文字記述生成という2つの新しいタスクについても紹介する。
これらの課題に適応した事前学習型言語モデルを用いた実験により,より優れた物語理解モデルの必要性が示された。
論文 参考訳(メタデータ) (2021-09-12T06:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。