論文の概要: Creating Suspenseful Stories: Iterative Planning with Large Language
Models
- arxiv url: http://arxiv.org/abs/2402.17119v1
- Date: Tue, 27 Feb 2024 01:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:12:08.416393
- Title: Creating Suspenseful Stories: Iterative Planning with Large Language
Models
- Title(参考訳): suspenseful storiesの作成 - 大規模言語モデルによる反復計画
- Authors: Kaige Xie, Mark Riedl
- Abstract要約: 本稿では,ストーリー・サスペンスの2つの理論的基礎に根ざした,反復型提案型計画手法を提案する。
本論文は,我々の知る限りでは,大規模言語モデルを用いたサスペンスな物語生成の試みである。
- 参考スコア(独自算出の注目度): 2.6923151107804055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated story generation has been one of the long-standing challenges in
NLP. Among all dimensions of stories, suspense is very common in human-written
stories but relatively under-explored in AI-generated stories. While recent
advances in large language models (LLMs) have greatly promoted language
generation in general, state-of-the-art LLMs are still unreliable when it comes
to suspenseful story generation. We propose a novel iterative-prompting-based
planning method that is grounded in two theoretical foundations of story
suspense from cognitive psychology and narratology. This theory-grounded method
works in a fully zero-shot manner and does not rely on any supervised story
corpora. To the best of our knowledge, this paper is the first attempt at
suspenseful story generation with LLMs. Extensive human evaluations of the
generated suspenseful stories demonstrate the effectiveness of our method.
- Abstract(参考訳): 自動ストーリ生成は,NLPの長年にわたる課題のひとつだ。
ストーリーのあらゆる次元の中で、サスペンスは人間書きのストーリーでは一般的であるが、AI生成のストーリーでは比較的過小評価されている。
近年の大規模言語モデル (LLM) の進歩は言語生成を飛躍的に推進してきたが、現状のLLMは物語生成の難しさに関してまだ信頼できない。
認知心理学とナラトロジーのストーリーサスペンスの2つの理論的基礎を基礎とした,新しい反復型計画手法を提案する。
この理論基底法は完全にゼロショット方式で機能し、教師付きストーリーコーパスに依存しない。
我々の知る限りでは,本論文は LLM を用いたサスペンスなストーリー生成の試みとしては初めてである。
生成したサスペンスストーリーを広範囲に評価した結果,本手法の有効性が示された。
関連論文リスト
- Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Conveying the Predicted Future to Users: A Case Study of Story Plot
Prediction [14.036772394560238]
予測されたプロットをナレーションする短い記述を生成するシステムを作成する。
私たちのゴールは、作家が一貫した説得力のあるストーリーアークを作るのを支援することです。
論文 参考訳(メタデータ) (2023-02-17T20:10:55Z) - The Next Chapter: A Study of Large Language Models in Storytelling [51.338324023617034]
大規模言語モデル(LLM)を用いたプロンプトベース学習の適用は,自然言語処理(NLP)タスクにおいて顕著な性能を示した。
本稿では,LLMのストーリー生成能力と最近のモデルを比較するために,自動評価と人的評価の両方を利用した総合的な調査を行う。
その結果、LLMは他のストーリー生成モデルと比較して、非常に高い品質のストーリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - Neural Story Planning [8.600049807193413]
本稿では,ニューラル言語モデルと因果計画を統合したストーリープロット生成手法を提案する。
我々のシステムは、物語における出来事の前提条件を推測し、その条件が真実になるイベントを推定する。
その結果,提案手法は複数の強基線よりもコヒーレントなプロットラインを生成することがわかった。
論文 参考訳(メタデータ) (2022-12-16T21:29:41Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Great Expectations: Unsupervised Inference of Suspense, Surprise and
Salience in Storytelling [3.42658286826597]
この論文は、物語のみを読み取ることによって、一連のディープラーニングモデルを訓練する。
物語理論法は、物語におけるサリエンス、サプライズ、サリエンスを直接推測するために、ディープラーニングモデルに組み込まれた知識に適用される。
論文 参考訳(メタデータ) (2022-06-20T11:00:23Z) - Guiding Neural Story Generation with Reader Models [5.935317028008691]
本稿では、読者モデルを用いてストーリーを推論するフレームワークであるReader Models(StoRM)によるストーリー生成について紹介する。
実験により、我々のモデルは、プロットの可視性やトピックの継続など、次元のベースラインをはるかに上回り、コヒーレントでオントピー的なストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2021-12-16T03:44:01Z) - Cue Me In: Content-Inducing Approaches to Interactive Story Generation [74.09575609958743]
本研究では,対話型物語生成の課題に焦点をあてる。
本稿では、この追加情報を効果的に活用するための2つのコンテンツ誘導手法を提案する。
自動評価と人的評価の両方による実験結果から,これらの手法がよりトポロジ的な一貫性とパーソナライズされたストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2020-10-20T00:36:15Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。