論文の概要: Codified Foreshadowing-Payoff Text Generation
- arxiv url: http://arxiv.org/abs/2601.07033v1
- Date: Sun, 11 Jan 2026 19:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.125278
- Title: Codified Foreshadowing-Payoff Text Generation
- Title(参考訳): 符号化されたフォアシャドウィング・ペイオフテキスト生成
- Authors: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang,
- Abstract要約: 前処理と支払いは、著者が物語の初期にコミットメントを導入し、具体的で観察可能な結果を通じてそれらを解決するユビキタスな物語装置である。
既存の評価は、物語のセットアップの論理的充足よりも表面レベルのコヒーレンスに焦点をあてて、この構造的失敗を概ね見落としている。
我々は,報奨実現のレンズを通して物語の質を再構築する新しいフレームワークであるCodified Foreshadowing-Payoff Generationを紹介した。
- 参考スコア(独自算出の注目度): 67.01182739162142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
- Abstract(参考訳): 前処理と支払いは、著者が物語の初期段階でコミットメントを導入し、具体的で観察可能な結果を通じてそれらを解決するユビキタスな物語装置である。
しかし、物語生成の進歩にもかかわらず、大きな言語モデル(LLM)はしばしばこれらの長距離の物語の依存関係を橋渡しすることに失敗し、必要な文脈が存在する場合でも「チェホフの銃」が点火されることがしばしばある。
既存の評価は、物語のセットアップの論理的充足よりも表面レベルのコヒーレンスに焦点をあてて、この構造的失敗を概ね見落としている。
本稿では,コデファイド・フォアシャドウィング・ペイオフ・ジェネレーション(CFPG)について紹介する。
LLMが前向きな出来事の「トリガー機構」を直感的に把握するのに苦労していることを認識し、CFPGは物語の連続性を一連の因果述語に変換する。
Foreshadow-Trigger-Payoff三重奏をBookSum corpusからマイニングし、符号化することで、先進的なコミットメントが言及されるだけでなく、時間的にも論理的に満たされることを保証する構造化された監督を提供する。
実験により、CFPGは標準よりもはるかに優れており、支払い精度と物語のアライメントの基準となることが示されている。
本研究は, LLMを表面流動性から真の物語能力に移行する上で, 物語力学を明示的に定式化することが重要であることを示唆している。
関連論文リスト
- LaSER: Internalizing Explicit Reasoning into Latent Space for Dense Retrieval [74.72139580745511]
LaSERは、レトリバーの潜在空間に明示的な推論を内部化する、新しい自己蒸留フレームワークである。
提案手法は, 明示的なCoTパイプラインの推論深度と, 標準的な高密度検索器の推論効率をうまく組み合わせる。
論文 参考訳(メタデータ) (2026-03-02T04:11:18Z) - NarraScore: Bridging Visual Narrative and Musical Dynamics via Hierarchical Affective Control [59.6128550986024]
ナラスコア(NarraScore)は、感情が物語論理の高密度圧縮として働くという中心的な洞察に基づく階層的なフレームワークである。
NarraScoreは、グローバルな構造とローカルなダイナミズムを調和させるために、Dual-Branch Injection戦略を採用している。
NarraScoreは、無視可能な計算オーバーヘッドを伴う最先端の一貫性と物語のアライメントを実現している。
論文 参考訳(メタデータ) (2026-02-09T09:39:42Z) - MUSE: A Multi-agent Framework for Unconstrained Story Envisioning via Closed-Loop Cognitive Orchestration [16.61208703961799]
我々は,短いユーザプロンプトから長文音声視覚ストーリーを生成するフレームワークを開発した。
MUSEは物語の意図を、個人性、空間構成、時間的連続性に関する明示的で機械実行可能な制御に翻訳する。
MUSEは、ロングホライズンな物語のコヒーレンス、クロスモーダルなアイデンティティの整合性、および映画的品質を代表的ベースラインに比べて大幅に改善する。
論文 参考訳(メタデータ) (2026-02-03T02:55:00Z) - NarrativeTrack: Evaluating Video Language Models Beyond the Frame [10.244330591706744]
MLLMにおける物語理解を評価する最初のベンチマークであるNarrativeTrackを紹介する。
映像を構成要素に分解し,構成推論(CRP)フレームワークを用いて連続性を検証する。
CRPは、時間的永続性から文脈的進化、そしてきめ細かい知覚的推論まで、モデルを進化させることに挑戦する。
論文 参考訳(メタデータ) (2026-01-03T07:12:55Z) - Living the Novel: A System for Generating Self-Training Timeline-Aware Conversational Agents from Novels [50.43968216132018]
文芸作品が没入的で多文字の会話体験に変換されるエンド・ツー・エンドシステムを提案する。
このシステムはLLM駆動文字の2つの基本的な課題を解決するために設計されている。
論文 参考訳(メタデータ) (2025-12-08T11:57:46Z) - NOAH: Benchmarking Narrative Prior driven Hallucination and Omission in Video Large Language Models [8.6767620170781]
ビデオ大言語モデル(ビデオLLM)は、最近、キャプション、要約、質問応答といったタスクにおいて、強力なパフォーマンスを実現している。
多くのモデルやトレーニング手法は、物語の一貫性を高めるためにイベント間の連続性を明示的に奨励する。
我々は、このバイアスを、物語を先に呼ぶ2つの誤りの鍵となる要因として挙げる:幻覚(幻覚)、非存在事象、または既存の事象が誤って解釈される場合、そして、事実事象が周囲の状況と不一致しているため抑制される場合である。
論文 参考訳(メタデータ) (2025-11-09T17:41:11Z) - Cut2Next: Generating Next Shot via In-Context Tuning [93.14744132897428]
マルチショット生成には、目的があり、映画のような遷移と厳密な撮影連続性が必要である。
現在の手法はしばしば基本的な視覚的一貫性を優先し、重要な編集パターンを無視している。
我々は、プロの編集パターンを批判的に合成する、その後の高品質なショットであるNext Shot Generation (NSG)を紹介する。
論文 参考訳(メタデータ) (2025-08-11T17:56:59Z) - Finding Flawed Fictions: Evaluating Complex Reasoning in Language Models via Plot Hole Detection [35.550137361809405]
ストーリーにおけるプロットホール検出は、大規模言語モデルにおける言語理解と推論を評価するためのプロキシである。
FlawedFictionsMakerは人書きストーリーのプロットホールを制御し、慎重に合成する新しいアルゴリズムである。
現状のLLMは、理屈によらず、FlawedFictionsを正確に解くのに苦労している。
論文 参考訳(メタデータ) (2025-04-16T09:25:54Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。