論文の概要: Modeling Fair Play in Detective Stories with Language Models
- arxiv url: http://arxiv.org/abs/2507.13841v1
- Date: Fri, 18 Jul 2025 11:55:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.274674
- Title: Modeling Fair Play in Detective Stories with Language Models
- Title(参考訳): 言語モデルを用いた検出的ストーリーにおけるフェアプレイのモデル化
- Authors: Eitan Wagner, Renana Keydar, Omri Abend,
- Abstract要約: 本論では,刑事小説に望ましい品質を定義するための確率的枠組みを提案する。
LLM生成した推理小説に適用し,その枠組みを検証した。
結果は、LCM生成したストーリーは予測できないかもしれないが、概してサプライズとフェアプレイのトレードオフのバランスが取れないことを示している。
- 参考スコア(独自算出の注目度): 14.90042250991032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective storytelling relies on a delicate balance between meeting the reader's prior expectations and introducing unexpected developments. In the domain of detective fiction, this tension is known as fair play, which includes the implicit agreement between the writer and the reader as to the range of possible resolutions the mystery story may have. In this work, we present a probabilistic framework for detective fiction that allows us to define desired qualities. Using this framework, we formally define fair play and design appropriate metrics for it. Stemming from these definitions is an inherent tension between the coherence of the story, which measures how much it ``makes sense'', and the surprise it induces. We validate the framework by applying it to LLM-generated detective stories. This domain is appealing since we have an abundance of data, we can sample from the distribution generating the story, and the story-writing capabilities of LLMs are interesting in their own right. Results show that while LLM-generated stories may be unpredictable, they generally fail to balance the trade-off between surprise and fair play, which greatly contributes to their poor quality.
- Abstract(参考訳): 効果的なストーリーテリングは、読者の事前の期待に応えることと、予期せぬ展開を導入することの間の微妙なバランスに依存する。
探偵小説の領域では、この緊張関係はフェアプレイとして知られており、ミステリーストーリーが持つ可能性のある解決範囲に関して、作家と読者の間の暗黙の合意を含んでいる。
本研究は,探偵小説における所望の質を定義するための確率的枠組みを提示する。
このフレームワークを使用して、フェアプレイを正式に定義し、適切なメトリクスを設計します。
これらの定義から推測すると、物語の一貫性の間に固有の緊張関係があり、それはそれがどれだけ「マスキースセンス」であるかを測り、それが引き起こす驚きを測る。
LLM生成した推理小説に適用し,その枠組みを検証した。
このドメインは、大量のデータがあるので、ストーリーを生成するディストリビューションからサンプルを作成できますし、LLMのストーリーライティング能力は、それ自体が興味深いものです。
結果は、LCM生成したストーリーは予測できないかもしれないが、概してサプライズとフェアプレイの間のトレードオフのバランスが取れず、品質の低下に大きく寄与していることを示している。
関連論文リスト
- Finding Flawed Fictions: Evaluating Complex Reasoning in Language Models via Plot Hole Detection [35.550137361809405]
ストーリーにおけるプロットホール検出は、大規模言語モデルにおける言語理解と推論を評価するためのプロキシである。
FlawedFictionsMakerは人書きストーリーのプロットホールを制御し、慎重に合成する新しいアルゴリズムである。
現状のLLMは、理屈によらず、FlawedFictionsを正確に解くのに苦労している。
論文 参考訳(メタデータ) (2025-04-16T09:25:54Z) - Learning to Reason for Long-Form Story Generation [98.273323001781]
一般的なストーリー生成タスク(Next-Chapter Prediction)と報酬定式化(Completion Likelihood Improvementによる検証リワード)を提案する。
私たちは、物語の凝縮した情報を推論し、次の章の詳細な計画を作成することを学びます。
私たちの推論は、ストーリージェネレータ作成を支援する章を通じて評価され、トレーニングされていない、教師なしの微調整(SFT)ベースラインと比較されます。
論文 参考訳(メタデータ) (2025-03-28T18:48:26Z) - Show, Don't Tell: Uncovering Implicit Character Portrayal using LLMs [19.829683714192615]
LIIPA(LIIPA)は,大きな言語モデルに暗黙的文字の描写を明らかにするためのフレームワークである。
LIIPAは既存の手法よりも優れており,文字数の増加に対してより堅牢であることがわかった。
我々の研究は、複雑な文字を解析するためにLLMを使うことの潜在的な利点を実証している。
論文 参考訳(メタデータ) (2024-12-05T19:46:53Z) - Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - Let Storytelling Tell Vivid Stories: An Expressive and Fluent Multimodal
Storyteller [21.953766228135827]
我々はLLaMSと呼ばれる新しいパイプラインを提案し、マルチモーダルな人間レベルのストーリーを生成する。
まず、実写コンテンツ表現を強化するために、シーケンスデータ自動強調戦略を用いる。
次に,SQ-Adatpterモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-12T04:07:00Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z) - Modelling Suspense in Short Stories as Uncertainty Reduction over Neural
Representation [17.683705809784453]
サスペンスは物語小説の重要な要素であり、読者を惹きつけ、説得力のある物語を作る。
サスペンスをモデル化する2つの方法を比較する。サプライズ、現在の状況がどれだけ予期せぬものであるかの逆向きの尺度、不確実性低減、ストーリーの継続がどれだけ予期せぬかの前方方向の尺度である。
本稿では,物語を符号化し,サプライズと不確実性を低減する階層型言語モデルを提案する。
論文 参考訳(メタデータ) (2020-04-30T16:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。