論文の概要: End-to-end Story Plot Generator
- arxiv url: http://arxiv.org/abs/2310.08796v1
- Date: Fri, 13 Oct 2023 00:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 14:51:56.152215
- Title: End-to-end Story Plot Generator
- Title(参考訳): エンド・ツー・エンドのストーリープロット生成装置
- Authors: Hanlin Zhu, Andrew Cohen, Danqing Wang, Kevin Yang, Xiaomeng Yang,
Jiantao Jiao, Yuandong Tian
- Abstract要約: 本稿では,ストーリープロットの自動生成問題について考察する。
既存のプロットジェネレータは、ストーリープロットの計画段階において、数百から数千のLCMを呼び出す必要がある。
これらの課題に対処するために、textttOpenPlot$, $textttE2EPlot$, $textttRLPlot$という3つのモデルを提案する。
- 参考スコア(独自算出の注目度): 53.71807932386971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Story plots, while short, carry most of the essential information of a full
story that may contain tens of thousands of words. We study the problem of
automatic generation of story plots, which includes story premise, character
descriptions, plot outlines, etc. To generate a single engaging plot, existing
plot generators (e.g., DOC (Yang et al., 2022a)) require hundreds to thousands
of calls to LLMs (e.g., OpenAI API) in the planning stage of the story plot,
which is costly and takes at least several minutes. Moreover, the hard-wired
nature of the method makes the pipeline non-differentiable, blocking fast
specialization and personalization of the plot generator. In this paper, we
propose three models, $\texttt{OpenPlot}$, $\texttt{E2EPlot}$ and
$\texttt{RLPlot}$, to address these challenges. $\texttt{OpenPlot}$ replaces
expensive OpenAI API calls with LLaMA2 (Touvron et al., 2023) calls via careful
prompt designs, which leads to inexpensive generation of high-quality training
datasets of story plots. We then train an end-to-end story plot generator,
$\texttt{E2EPlot}$, by supervised fine-tuning (SFT) using approximately 13000
story plots generated by $\texttt{OpenPlot}$. $\texttt{E2EPlot}$ generates
story plots of comparable quality to $\texttt{OpenPlot}$, and is > 10$\times$
faster (1k tokens in only 30 seconds on average). Finally, we obtain
$\texttt{RLPlot}$ that is further fine-tuned with RLHF on several different
reward models for different aspects of story quality, which yields 60.0$\%$
winning rate against $\texttt{E2EPlot}$ along the aspect of suspense and
surprise.
- Abstract(参考訳): ストーリープロットは短くても、何万語もの単語を含むかもしれないフルストーリーの本質的な情報の大半を担っている。
本研究では,ストーリーの前提,キャラクタ記述,プロットアウトラインなどを含むストーリープロットの自動生成の問題について検討する。
単一のプロットを生成するには、既存のプロットジェネレータ(例えばDOC(Yang et al., 2022a))は、コストがかかり、少なくとも数分かかるストーリープロットの計画段階において、数百から数千のLCM(例えばOpenAI API)を呼び出す必要がある。
さらに、この方法のハード配線性はパイプラインを非微分可能とし、プロット生成器の高速特殊化とパーソナライズをブロックする。
本稿では,これらの課題に対処するために, $\textt{OpenPlot}$, $\textt{E2EPlot}$と $\textt{RLPlot}$という3つのモデルを提案する。
openai apiコールをllama2 (touvron et al., 2023)コールに置き換えることで,ストーリプロットの高品質なトレーニングデータセットを安価に生成することができる。
次に、$\texttt{OpenPlot}$によって生成される約13,000のストーリープロットを使用して、教師付き微調整(SFT)によって、エンドツーエンドのストーリープロットジェネレータ$\textt{E2EPlot}$をトレーニングします。
$\texttt{e2eplot}$は$\texttt{openplot}$に匹敵する品質のストーリープロットを生成し、10$\times$より高速である(平均して30秒で1kトークンが生成される)。
最後に、ストーリー品質の異なる面でRLHFでさらに微調整された$\texttt{RLPlot}$を取得し、サスペンスとサプライズという側面に沿って$\texttt{E2EPlot}$に対して60.0$\%$の勝利率を得る。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Evaluating $n$-Gram Novelty of Language Models Using Rusty-DAWG [57.14250086701313]
本研究では,現代のLMがトレーニングデータから$n$-gramを生成できる範囲について検討する。
我々は,ゲノムデータのインデックス化にインスパイアされた新しい検索ツールであるRusty-DAWGを開発した。
論文 参考訳(メタデータ) (2024-06-18T21:31:19Z) - MoPS: Modular Story Premise Synthesis for Open-Ended Automatic Story Generation [50.01780173691132]
モジュール・ストーリー・プリミゼ・シンセサイザー(MoPS)について紹介する。
MoPSはストーリーの前提をバックグラウンドやペルソナなどのモジュールに分割し、自動設計と生成を行う。
より詳細な評価は、我々の合成された施設が多様性、魅力、完全性、独創性に優れていることを示している。
論文 参考訳(メタデータ) (2024-06-09T08:31:14Z) - GROVE: A Retrieval-augmented Complex Story Generation Framework with A
Forest of Evidence [26.90143556633735]
本稿では,etextbfVidtextbfEnce (GROVE) のftextbfOrestを用いた検索用autextbfGmented stotextbfRy生成フレームワークを提案する。
我々は、証拠の森を抽出し、生成された物語で起こりうる曖昧さを補償する「なぜ」プロンプトスキームを設計する。
論文 参考訳(メタデータ) (2023-10-09T03:55:55Z) - "Kurosawa": A Script Writer's Assistant [27.95392833516136]
本稿は,黒澤というAIベースのスクリプト記述ワークベンチについて紹介する。
プロンプト(15~40語)を与えられたコヒーレントで創造的なプロット(600~800語)を生成することを目的としたプロット生成
一方、スクリプト生成は、簡単な記述(15~40語)から脚本形式でシーン(200~500語)を生成する。
注釈付きデータセットとこれらのデータセットでトレーニングされたモデルを、自動映画のプロットとスクリプト生成のためのワーキングベンチマークとしてリリースする。
論文 参考訳(メタデータ) (2023-08-06T14:09:02Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。