論文の概要: End-to-end Story Plot Generator
- arxiv url: http://arxiv.org/abs/2310.08796v1
- Date: Fri, 13 Oct 2023 00:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 14:51:56.152215
- Title: End-to-end Story Plot Generator
- Title(参考訳): エンド・ツー・エンドのストーリープロット生成装置
- Authors: Hanlin Zhu, Andrew Cohen, Danqing Wang, Kevin Yang, Xiaomeng Yang,
Jiantao Jiao, Yuandong Tian
- Abstract要約: 本稿では,ストーリープロットの自動生成問題について考察する。
既存のプロットジェネレータは、ストーリープロットの計画段階において、数百から数千のLCMを呼び出す必要がある。
これらの課題に対処するために、textttOpenPlot$, $textttE2EPlot$, $textttRLPlot$という3つのモデルを提案する。
- 参考スコア(独自算出の注目度): 53.71807932386971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Story plots, while short, carry most of the essential information of a full
story that may contain tens of thousands of words. We study the problem of
automatic generation of story plots, which includes story premise, character
descriptions, plot outlines, etc. To generate a single engaging plot, existing
plot generators (e.g., DOC (Yang et al., 2022a)) require hundreds to thousands
of calls to LLMs (e.g., OpenAI API) in the planning stage of the story plot,
which is costly and takes at least several minutes. Moreover, the hard-wired
nature of the method makes the pipeline non-differentiable, blocking fast
specialization and personalization of the plot generator. In this paper, we
propose three models, $\texttt{OpenPlot}$, $\texttt{E2EPlot}$ and
$\texttt{RLPlot}$, to address these challenges. $\texttt{OpenPlot}$ replaces
expensive OpenAI API calls with LLaMA2 (Touvron et al., 2023) calls via careful
prompt designs, which leads to inexpensive generation of high-quality training
datasets of story plots. We then train an end-to-end story plot generator,
$\texttt{E2EPlot}$, by supervised fine-tuning (SFT) using approximately 13000
story plots generated by $\texttt{OpenPlot}$. $\texttt{E2EPlot}$ generates
story plots of comparable quality to $\texttt{OpenPlot}$, and is > 10$\times$
faster (1k tokens in only 30 seconds on average). Finally, we obtain
$\texttt{RLPlot}$ that is further fine-tuned with RLHF on several different
reward models for different aspects of story quality, which yields 60.0$\%$
winning rate against $\texttt{E2EPlot}$ along the aspect of suspense and
surprise.
- Abstract(参考訳): ストーリープロットは短くても、何万語もの単語を含むかもしれないフルストーリーの本質的な情報の大半を担っている。
本研究では,ストーリーの前提,キャラクタ記述,プロットアウトラインなどを含むストーリープロットの自動生成の問題について検討する。
単一のプロットを生成するには、既存のプロットジェネレータ(例えばDOC(Yang et al., 2022a))は、コストがかかり、少なくとも数分かかるストーリープロットの計画段階において、数百から数千のLCM(例えばOpenAI API)を呼び出す必要がある。
さらに、この方法のハード配線性はパイプラインを非微分可能とし、プロット生成器の高速特殊化とパーソナライズをブロックする。
本稿では,これらの課題に対処するために, $\textt{OpenPlot}$, $\textt{E2EPlot}$と $\textt{RLPlot}$という3つのモデルを提案する。
openai apiコールをllama2 (touvron et al., 2023)コールに置き換えることで,ストーリプロットの高品質なトレーニングデータセットを安価に生成することができる。
次に、$\texttt{OpenPlot}$によって生成される約13,000のストーリープロットを使用して、教師付き微調整(SFT)によって、エンドツーエンドのストーリープロットジェネレータ$\textt{E2EPlot}$をトレーニングします。
$\texttt{e2eplot}$は$\texttt{openplot}$に匹敵する品質のストーリープロットを生成し、10$\times$より高速である(平均して30秒で1kトークンが生成される)。
最後に、ストーリー品質の異なる面でRLHFでさらに微調整された$\texttt{RLPlot}$を取得し、サスペンスとサプライズという側面に沿って$\texttt{E2EPlot}$に対して60.0$\%$の勝利率を得る。
関連論文リスト
- GROVE: A Retrieval-augmented Complex Story Generation Framework with A
Forest of Evidence [26.90143556633735]
本稿では,etextbfVidtextbfEnce (GROVE) のftextbfOrestを用いた検索用autextbfGmented stotextbfRy生成フレームワークを提案する。
我々は、証拠の森を抽出し、生成された物語で起こりうる曖昧さを補償する「なぜ」プロンプトスキームを設計する。
論文 参考訳(メタデータ) (2023-10-09T03:55:55Z) - "Kurosawa": A Script Writer's Assistant [27.95392833516136]
本稿は,黒澤というAIベースのスクリプト記述ワークベンチについて紹介する。
プロンプト(15~40語)を与えられたコヒーレントで創造的なプロット(600~800語)を生成することを目的としたプロット生成
一方、スクリプト生成は、簡単な記述(15~40語)から脚本形式でシーン(200~500語)を生成する。
注釈付きデータセットとこれらのデータセットでトレーニングされたモデルを、自動映画のプロットとスクリプト生成のためのワーキングベンチマークとしてリリースする。
論文 参考訳(メタデータ) (2023-08-06T14:09:02Z) - Album Storytelling with Iterative Story-aware Captioning and Large
Language Models [86.6548090965982]
私たちはアルバムを鮮明で一貫性のあるストーリーに変える方法を研究し、これは「アルバム・ストーリーテリング」と呼ぶタスクである。
近年のLarge Language Models (LLMs) の進歩により、長いコヒーレントなテキストを生成することが可能になった。
本手法は,アルバムのコヒーレンスと鮮明さを向上し,より正確で魅力的なストーリーを効果的に生成する。
論文 参考訳(メタデータ) (2023-05-22T11:45:10Z) - DePlot: One-shot visual language reasoning by plot-to-table translation [50.28850068391312]
本稿では,視覚言語推論における最初のワンショットソリューションを提案する。
DePlotと名付けられたモダリティ変換モジュールは、プロットやチャートのイメージを線形化されたテーブルに変換する。
次に、DePlotの出力を直接使用して、事前訓練された大きな言語モデルをプロンプトすることができる。
論文 参考訳(メタデータ) (2022-12-20T18:20:50Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - TVRecap: A Dataset for Generating Stories with Character Descriptions [43.198875830024825]
TVRecapはストーリー生成データセットで、短い要約と関連するキャラクターを記述した文書から詳細なテレビ番組のエピソードを再生する。
ファンが配信するウェブサイトからTVRecapを作成し、平均して1868.7トークンで26kエピソードのリキャップを収集できる。
論文 参考訳(メタデータ) (2021-09-18T05:02:29Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z) - STORIUM: A Dataset and Evaluation Platform for Machine-in-the-Loop Story
Generation [48.56586847883825]
我々は、オンラインのコラボレーティブなストーリーテリングコミュニティであるSTORiumから構築されたデータセットと評価プラットフォームを紹介した。
データセットには6Kの長編記事と、各物語に散在する詳細な自然言語アノテーションが含まれています。
我々は、STORiumにそれらを統合することで、データセット上で微調整された言語モデルを評価し、実際の著者は提案されたストーリーの継続をモデルに問い合わせ、編集することができる。
論文 参考訳(メタデータ) (2020-10-04T23:26:09Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。