論文の概要: EvolvTrip: Enhancing Literary Character Understanding with Temporal Theory-of-Mind Graphs
- arxiv url: http://arxiv.org/abs/2506.13641v1
- Date: Mon, 16 Jun 2025 16:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.905098
- Title: EvolvTrip: Enhancing Literary Character Understanding with Temporal Theory-of-Mind Graphs
- Title(参考訳): EvolvTrip: テンポラル・オブ・ミンドグラフによる文学的文字理解の強化
- Authors: Bohao Yang, Hainiu Xu, Jinhua Du, Ze Li, Yulan He, Chenghua Lin,
- Abstract要約: EvolvTripは、物語を通して心理学的発達を追跡する視点対応の時間知識グラフである。
本研究は,物語理解における時間的性格的状態の明示的表現の重要性を強調した。
- 参考スコア(独自算出の注目度): 23.86303464364475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A compelling portrayal of characters is essential to the success of narrative writing. For readers, appreciating a character's traits requires the ability to infer their evolving beliefs, desires, and intentions over the course of a complex storyline, a cognitive skill known as Theory-of-Mind (ToM). Performing ToM reasoning in prolonged narratives requires readers to integrate historical context with current narrative information, a task at which humans excel but Large Language Models (LLMs) often struggle. To systematically evaluate LLMs' ToM reasoning capability in long narratives, we construct LitCharToM, a benchmark of character-centric questions across four ToM dimensions from classic literature. Further, we introduce EvolvTrip, a perspective-aware temporal knowledge graph that tracks psychological development throughout narratives. Our experiments demonstrate that EvolvTrip consistently enhances performance of LLMs across varying scales, even in challenging extended-context scenarios. EvolvTrip proves to be particularly valuable for smaller models, partially bridging the performance gap with larger LLMs and showing great compatibility with lengthy narratives. Our findings highlight the importance of explicit representation of temporal character mental states in narrative comprehension and offer a foundation for more sophisticated character understanding. Our data and code are publicly available at https://github.com/Bernard-Yang/EvolvTrip.
- Abstract(参考訳): 登場人物の説得力のある描写は、物語の執筆の成功に不可欠である。
読者にとって、キャラクターの特徴を理解するには、複雑なストーリーライン、すなわち理論・オブ・ミンド(ToM)として知られる認知スキルを通じて、進化する信念、欲望、意図を推測する能力が必要である。
長い物語の中でToM推論を実行するには、読者が過去の文脈を現在の物語情報と統合する必要がある。
長文におけるLLMのToM推論能力を体系的に評価するために,古典文学から4次元の文字中心質問のベンチマークであるLitCharToMを構築した。
さらに,物語を通しての心理的発達を追跡する視点対応の時間的知識グラフであるEvolvTripを紹介する。
EvolvTripは、拡張コンテキストのシナリオであっても、様々なスケールでLLMの性能を継続的に向上することを示した。
EvolvTripは、より小さなモデルで特に有用であることが証明されており、より大きなLLMでパフォーマンスギャップを部分的に埋め、長い物語との互換性が優れている。
本研究は、物語理解における時間的性格的状態の明示的表現の重要性を強調し、より洗練された性格的理解の基礎を提供するものである。
私たちのデータとコードはhttps://github.com/Bernard-Yang/EvolvTrip.comで公開されています。
関連論文リスト
- Collaborative Storytelling and LLM: A Linguistic Analysis of Automatically-Generated Role-Playing Game Sessions [55.2480439325792]
RPG(ロールプレイングゲーム)とは、プレイヤーが互いに対話して物語を作るゲームである。
この共有物語の新たな形態は、主に口頭で注目されている。
本稿では,大言語モデル(LLM)の言語がRPGセッションの生成を依頼した場合に,どの程度に口頭や書面の機能を示すかを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-03-26T15:10:47Z) - Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,文字のテキストワークに現れる言語パターンと独特の思考パターンの両方を再現するモデルである characterBot を紹介する。
著名な中国の作家ル・ジュンをケーススタディとして、17冊のエッセイ集から派生した4つの訓練課題を提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - The Essence of Contextual Understanding in Theory of Mind: A Study on Question Answering with Story Characters [67.61587661660852]
理論・オブ・ミンド(ToM)は、人間が他者の精神状態を理解し解釈することを可能にする。
本稿では,ToMにおける個人的背景に関する包括的文脈理解の重要性を検証する。
本稿では,古典小説の登場人物をベースとした1,035ToM質問からなるCharToMベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-01-03T09:04:45Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - StoryGPT-V: Large Language Models as Consistent Story Visualizers [33.68157535461168]
生成モデルは、テキストのプロンプトに基づいて、現実的で視覚的に喜ばしい画像を生成する素晴らしい能力を示しています。
しかし、新興のLarge Language Model(LLM)はあいまいな参照をナビゲートする堅牢な推論能力を示している。
本稿では,LDMとLDMの利点を生かしたemphStoryGPT-Vを提案する。
論文 参考訳(メタデータ) (2023-12-04T18:14:29Z) - Are NLP Models Good at Tracing Thoughts: An Overview of Narrative
Understanding [21.900015612952146]
物語的理解は、著者の認知過程を捉え、その知識、意図、信念、欲求に関する洞察を提供する。
大きな言語モデル(LLM)は文法的に一貫性のあるテキストを生成するのに優れているが、著者の思考を理解する能力は依然として不明である。
これは物語理解の実践的な応用を妨げる。
論文 参考訳(メタデータ) (2023-10-28T18:47:57Z) - TVShowGuess: Character Comprehension in Stories as Speaker Guessing [23.21452223968301]
物語における架空のキャラクターを理解するための機械のスキルを評価するための新しいタスクを提案する。
タスクであるTVShowGuessは、TVシリーズのスクリプトをベースとして、シーンの背景や対話に基づいて匿名のメインキャラクターを推測する形式をとっている。
我々の人間による研究は、キャラクターの個性、事実、個性体験の記憶など、複数の種類の人格の理解をカバーしている。
論文 参考訳(メタデータ) (2022-04-16T05:15:04Z) - "Let Your Characters Tell Their Story": A Dataset for Character-Centric
Narrative Understanding [31.803481510886378]
文芸作品の新しいデータセットLiSCUとその要約を、それらに現れる文字の記述と組み合わせて紹介する。
また、LiSCUにおける文字識別と文字記述生成という2つの新しいタスクについても紹介する。
これらの課題に適応した事前学習型言語モデルを用いた実験により,より優れた物語理解モデルの必要性が示された。
論文 参考訳(メタデータ) (2021-09-12T06:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。