論文の概要: EvolvTrip: Enhancing Literary Character Understanding with Temporal Theory-of-Mind Graphs
- arxiv url: http://arxiv.org/abs/2506.13641v1
- Date: Mon, 16 Jun 2025 16:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.905098
- Title: EvolvTrip: Enhancing Literary Character Understanding with Temporal Theory-of-Mind Graphs
- Title(参考訳): EvolvTrip: テンポラル・オブ・ミンドグラフによる文学的文字理解の強化
- Authors: Bohao Yang, Hainiu Xu, Jinhua Du, Ze Li, Yulan He, Chenghua Lin,
- Abstract要約: EvolvTripは、物語を通して心理学的発達を追跡する視点対応の時間知識グラフである。
本研究は,物語理解における時間的性格的状態の明示的表現の重要性を強調した。
- 参考スコア(独自算出の注目度): 23.86303464364475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A compelling portrayal of characters is essential to the success of narrative writing. For readers, appreciating a character's traits requires the ability to infer their evolving beliefs, desires, and intentions over the course of a complex storyline, a cognitive skill known as Theory-of-Mind (ToM). Performing ToM reasoning in prolonged narratives requires readers to integrate historical context with current narrative information, a task at which humans excel but Large Language Models (LLMs) often struggle. To systematically evaluate LLMs' ToM reasoning capability in long narratives, we construct LitCharToM, a benchmark of character-centric questions across four ToM dimensions from classic literature. Further, we introduce EvolvTrip, a perspective-aware temporal knowledge graph that tracks psychological development throughout narratives. Our experiments demonstrate that EvolvTrip consistently enhances performance of LLMs across varying scales, even in challenging extended-context scenarios. EvolvTrip proves to be particularly valuable for smaller models, partially bridging the performance gap with larger LLMs and showing great compatibility with lengthy narratives. Our findings highlight the importance of explicit representation of temporal character mental states in narrative comprehension and offer a foundation for more sophisticated character understanding. Our data and code are publicly available at https://github.com/Bernard-Yang/EvolvTrip.
- Abstract(参考訳): 登場人物の説得力のある描写は、物語の執筆の成功に不可欠である。
読者にとって、キャラクターの特徴を理解するには、複雑なストーリーライン、すなわち理論・オブ・ミンド(ToM)として知られる認知スキルを通じて、進化する信念、欲望、意図を推測する能力が必要である。
長い物語の中でToM推論を実行するには、読者が過去の文脈を現在の物語情報と統合する必要がある。
長文におけるLLMのToM推論能力を体系的に評価するために,古典文学から4次元の文字中心質問のベンチマークであるLitCharToMを構築した。
さらに,物語を通しての心理的発達を追跡する視点対応の時間的知識グラフであるEvolvTripを紹介する。
EvolvTripは、拡張コンテキストのシナリオであっても、様々なスケールでLLMの性能を継続的に向上することを示した。
EvolvTripは、より小さなモデルで特に有用であることが証明されており、より大きなLLMでパフォーマンスギャップを部分的に埋め、長い物語との互換性が優れている。
本研究は、物語理解における時間的性格的状態の明示的表現の重要性を強調し、より洗練された性格的理解の基礎を提供するものである。
私たちのデータとコードはhttps://github.com/Bernard-Yang/EvolvTrip.comで公開されています。
関連論文リスト
- The Essence of Contextual Understanding in Theory of Mind: A Study on Question Answering with Story Characters [67.61587661660852]
理論・オブ・ミンド(ToM)は、人間が他者の精神状態を理解し解釈することを可能にする。
本稿では,ToMにおける個人的背景に関する包括的文脈理解の重要性を検証する。
本稿では,古典小説の登場人物をベースとした1,035ToM質問からなるCharToMベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-01-03T09:04:45Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - StoryGPT-V: Large Language Models as Consistent Story Visualizers [33.68157535461168]
生成モデルは、テキストのプロンプトに基づいて、現実的で視覚的に喜ばしい画像を生成する素晴らしい能力を示しています。
しかし、新興のLarge Language Model(LLM)はあいまいな参照をナビゲートする堅牢な推論能力を示している。
本稿では,LDMとLDMの利点を生かしたemphStoryGPT-Vを提案する。
論文 参考訳(メタデータ) (2023-12-04T18:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。