論文の概要: Codified Foreshadowing-Payoff Text Generation
- arxiv url: http://arxiv.org/abs/2601.07033v1
- Date: Sun, 11 Jan 2026 19:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.125278
- Title: Codified Foreshadowing-Payoff Text Generation
- Title(参考訳): 符号化されたフォアシャドウィング・ペイオフテキスト生成
- Authors: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang,
- Abstract要約: 前処理と支払いは、著者が物語の初期にコミットメントを導入し、具体的で観察可能な結果を通じてそれらを解決するユビキタスな物語装置である。
既存の評価は、物語のセットアップの論理的充足よりも表面レベルのコヒーレンスに焦点をあてて、この構造的失敗を概ね見落としている。
我々は,報奨実現のレンズを通して物語の質を再構築する新しいフレームワークであるCodified Foreshadowing-Payoff Generationを紹介した。
- 参考スコア(独自算出の注目度): 67.01182739162142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
- Abstract(参考訳): 前処理と支払いは、著者が物語の初期段階でコミットメントを導入し、具体的で観察可能な結果を通じてそれらを解決するユビキタスな物語装置である。
しかし、物語生成の進歩にもかかわらず、大きな言語モデル(LLM)はしばしばこれらの長距離の物語の依存関係を橋渡しすることに失敗し、必要な文脈が存在する場合でも「チェホフの銃」が点火されることがしばしばある。
既存の評価は、物語のセットアップの論理的充足よりも表面レベルのコヒーレンスに焦点をあてて、この構造的失敗を概ね見落としている。
本稿では,コデファイド・フォアシャドウィング・ペイオフ・ジェネレーション(CFPG)について紹介する。
LLMが前向きな出来事の「トリガー機構」を直感的に把握するのに苦労していることを認識し、CFPGは物語の連続性を一連の因果述語に変換する。
Foreshadow-Trigger-Payoff三重奏をBookSum corpusからマイニングし、符号化することで、先進的なコミットメントが言及されるだけでなく、時間的にも論理的に満たされることを保証する構造化された監督を提供する。
実験により、CFPGは標準よりもはるかに優れており、支払い精度と物語のアライメントの基準となることが示されている。
本研究は, LLMを表面流動性から真の物語能力に移行する上で, 物語力学を明示的に定式化することが重要であることを示唆している。
関連論文リスト
- NarrativeTrack: Evaluating Video Language Models Beyond the Frame [10.244330591706744]
MLLMにおける物語理解を評価する最初のベンチマークであるNarrativeTrackを紹介する。
映像を構成要素に分解し,構成推論(CRP)フレームワークを用いて連続性を検証する。
CRPは、時間的永続性から文脈的進化、そしてきめ細かい知覚的推論まで、モデルを進化させることに挑戦する。
論文 参考訳(メタデータ) (2026-01-03T07:12:55Z) - NOAH: Benchmarking Narrative Prior driven Hallucination and Omission in Video Large Language Models [8.6767620170781]
ビデオ大言語モデル(ビデオLLM)は、最近、キャプション、要約、質問応答といったタスクにおいて、強力なパフォーマンスを実現している。
多くのモデルやトレーニング手法は、物語の一貫性を高めるためにイベント間の連続性を明示的に奨励する。
我々は、このバイアスを、物語を先に呼ぶ2つの誤りの鍵となる要因として挙げる:幻覚(幻覚)、非存在事象、または既存の事象が誤って解釈される場合、そして、事実事象が周囲の状況と不一致しているため抑制される場合である。
論文 参考訳(メタデータ) (2025-11-09T17:41:11Z) - Finding Flawed Fictions: Evaluating Complex Reasoning in Language Models via Plot Hole Detection [35.550137361809405]
ストーリーにおけるプロットホール検出は、大規模言語モデルにおける言語理解と推論を評価するためのプロキシである。
FlawedFictionsMakerは人書きストーリーのプロットホールを制御し、慎重に合成する新しいアルゴリズムである。
現状のLLMは、理屈によらず、FlawedFictionsを正確に解くのに苦労している。
論文 参考訳(メタデータ) (2025-04-16T09:25:54Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。