論文の概要: SWAG: Storytelling With Action Guidance
- arxiv url: http://arxiv.org/abs/2402.03483v2
- Date: Mon, 07 Oct 2024 22:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:30:10.283066
- Title: SWAG: Storytelling With Action Guidance
- Title(参考訳): SWAG:アクションガイダンスによるストーリーテリング
- Authors: Zeeshan Patel, Karim El-Refai, Jonathan Pei, Tianle Li,
- Abstract要約: 大規模言語モデル(LLM)を用いたストーリーテリングの新しいアプローチであるストーリーテリング・ウィズ・アクション・ガイダンス(SWAG)を紹介する。
提案手法は,2モデルフィードバックループを用いて,ストーリー執筆を検索問題とする。
小さなオープンソースモデルのみを使用したパイプラインは、GPT-3.5-Turboを超えています。
- 参考スコア(独自算出の注目度): 4.212344009251362
- License:
- Abstract: Automated long-form story generation typically employs long-context large language models (LLMs) for one-shot creation, which can produce cohesive but not necessarily engaging content. We introduce Storytelling With Action Guidance (SWAG), a novel approach to storytelling with LLMs. Our approach frames story writing as a search problem through a two-model feedback loop: one LLM generates story content, and another auxiliary LLM is used to choose the next best "action" to steer the story's future direction. Our results show that SWAG can substantially outperform previous end-to-end story generation techniques when evaluated by GPT-4 and through human evaluation. Our SWAG pipeline using only small open-source models surpasses GPT-3.5-Turbo.
- Abstract(参考訳): 自動長文ストーリー生成は、通常、ワンショット生成に長文大言語モデル(LLM)を用いる。
LLMを用いたストーリーテリングの新しいアプローチであるストーリーテリング・ウィズ・アクション・ガイダンス(SWAG)を紹介する。
提案手法は,2モデルフィードバックループを用いて,ストーリー執筆を検索問題として捉えている。一方のLLMはストーリーコンテンツを生成し,他方のLLMはストーリーの今後の方向性を判断するために,次の「アクション」を選択する。
GPT-4による評価と人間による評価により,SWAGは従来のエンドツーエンドのストーリー生成技術を大幅に上回ることを示す。
小さなオープンソースモデルのみを使用したSWAGパイプラインは、GPT-3.5-Turboを超えています。
関連論文リスト
- Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Guiding and Diversifying LLM-Based Story Generation via Answer Set Programming [1.7889842797216124]
大規模言語モデル(LLM)は、オープンエンドのユーザ要求に応じてストーリーを生成することができる。
本稿では,高レベルかつ抽象的な高レベルなストーリー構造仕様を用いて,ストーリー生成のガイドと多様化を提案する。
論文 参考訳(メタデータ) (2024-06-01T21:14:25Z) - Let Storytelling Tell Vivid Stories: An Expressive and Fluent Multimodal
Storyteller [21.953766228135827]
我々はLLaMSと呼ばれる新しいパイプラインを提案し、マルチモーダルな人間レベルのストーリーを生成する。
まず、実写コンテンツ表現を強化するために、シーケンスデータ自動強調戦略を用いる。
次に,SQ-Adatpterモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-12T04:07:00Z) - GENEVA: GENErating and Visualizing branching narratives using LLMs [15.43734266732214]
textbfGENEVAはプロトタイプツールで、ストーリーラインの分岐と再収束を伴うリッチな物語グラフを生成する。
textbfGENEVAはゲーム開発、シミュレーション、その他のゲームライクな特性を持つアプリケーションを支援する可能性がある。
論文 参考訳(メタデータ) (2023-11-15T18:55:45Z) - GROVE: A Retrieval-augmented Complex Story Generation Framework with A
Forest of Evidence [26.90143556633735]
本稿では,etextbfVidtextbfEnce (GROVE) のftextbfOrestを用いた検索用autextbfGmented stotextbfRy生成フレームワークを提案する。
我々は、証拠の森を抽出し、生成された物語で起こりうる曖昧さを補償する「なぜ」プロンプトスキームを設計する。
論文 参考訳(メタデータ) (2023-10-09T03:55:55Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Album Storytelling with Iterative Story-aware Captioning and Large
Language Models [86.6548090965982]
私たちはアルバムを鮮明で一貫性のあるストーリーに変える方法を研究し、これは「アルバム・ストーリーテリング」と呼ぶタスクである。
近年のLarge Language Models (LLMs) の進歩により、長いコヒーレントなテキストを生成することが可能になった。
本手法は,アルバムのコヒーレンスと鮮明さを向上し,より正確で魅力的なストーリーを効果的に生成する。
論文 参考訳(メタデータ) (2023-05-22T11:45:10Z) - The Next Chapter: A Study of Large Language Models in Storytelling [51.338324023617034]
大規模言語モデル(LLM)を用いたプロンプトベース学習の適用は,自然言語処理(NLP)タスクにおいて顕著な性能を示した。
本稿では,LLMのストーリー生成能力と最近のモデルを比較するために,自動評価と人的評価の両方を利用した総合的な調査を行う。
その結果、LLMは他のストーリー生成モデルと比較して、非常に高い品質のストーリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - StoryDALL-E: Adapting Pretrained Text-to-Image Transformers for Story
Continuation [76.44802273236081]
生成したビジュアルストーリーをソースイメージに条件付けしたストーリー継続のためのモデルであるStoryDALL-Eを開発した。
提案手法は, ストーリー継続のためのGANモデルよりも優れており, 画像からの視覚要素のコピーを容易にする。
全体として、本研究は、事前訓練されたテキスト-画像合成モデルがストーリー継続のような複雑で低リソースなタスクに適応できることを実証している。
論文 参考訳(メタデータ) (2022-09-13T17:47:39Z) - CLSEG: Contrastive Learning of Story Ending Generation [21.235334611386598]
終末生成(SEG)は自然言語生成において難しい課題である。
事前学習型言語モデル(PLM)は非常に繁栄しており、流動的で一貫性のある物語の結末を生み出すことができる。
本稿では,物語の文脈とより整合した結末を生成するために,コントラスト学習を採用することを目的とする。
論文 参考訳(メタデータ) (2022-02-18T07:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。