論文の概要: Guiding and Diversifying LLM-Based Story Generation via Answer Set Programming
- arxiv url: http://arxiv.org/abs/2406.00554v2
- Date: Fri, 19 Jul 2024 22:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 01:21:37.936324
- Title: Guiding and Diversifying LLM-Based Story Generation via Answer Set Programming
- Title(参考訳): 回答セットプログラミングによるLCMベースのストーリー生成の誘導と多様化
- Authors: Phoebe J. Wang, Max Kreminski,
- Abstract要約: 大規模言語モデル(LLM)は、オープンエンドのユーザ要求に応じてストーリーを生成することができる。
本稿では,高レベルかつ抽象的な高レベルなストーリー構造仕様を用いて,ストーリー生成のガイドと多様化を提案する。
- 参考スコア(独自算出の注目度): 1.7889842797216124
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Instruction-tuned large language models (LLMs) are capable of generating stories in response to open-ended user requests, but the resulting stories tend to be limited in their diversity. Older, symbolic approaches to story generation (such as planning) can generate substantially more diverse plot outlines, but are limited to producing stories that recombine a fixed set of hand-engineered character action templates. Can we combine the strengths of these approaches while mitigating their weaknesses? We propose to do so by using a higher-level and more abstract symbolic specification of high-level story structure -- implemented via answer set programming (ASP) -- to guide and diversify LLM-based story generation. Via semantic similarity analysis, we demonstrate that our approach produces more diverse stories than an unguided LLM, and via code excerpts, we demonstrate the improved compactness and flexibility of ASP-based outline generation over full-fledged narrative planning.
- Abstract(参考訳): インストラクションチューニングされた大規模言語モデル(LLM)は、オープンエンドのユーザ要求に応答してストーリーを生成することができるが、結果として得られるストーリーは多様性に制限される傾向がある。
より古いシンボリックなストーリー生成アプローチ(プランニングなど)は、より多様なプロットアウトラインを生成することができるが、手書きのキャラクターアクションテンプレートの固定セットを再結合するストーリーだけに限られる。
これらのアプローチの強みを組み合わせて、弱点を軽減できますか?
本稿では,高レベルかつ抽象的な高レベルなストーリー構造仕様(ASP)を用いて実装された高レベルなストーリー構造(高レベルなストーリー構造)を用いて,LCMベースのストーリー生成をガイドし,多様化させることを提案する。
セマンティックな類似性分析により,本手法が無指導のLLMよりも多様なストーリを生成することを示すとともに,コードの抜粋を通じて,完全なストーリープランニングよりもASPベースのアウトライン生成のコンパクト性と柔軟性の向上を実証する。
関連論文リスト
- SEED-Story: Multimodal Long Story Generation with Large Language Model [66.37077224696242]
SEED-Storyは、MLLM(Multimodal Large Language Model)を利用して拡張マルチモーダルストーリーを生成する新しい手法である。
マルチモーダルアテンションシンク機構を提案し,最大25個のストーリー(トレーニング用10個)を高い効率で自動回帰的に生成する。
本稿では,大規模かつ高解像度なStoryStreamというデータセットを提案する。
論文 参考訳(メタデータ) (2024-07-11T17:21:03Z) - Rethinking Visual Prompting for Multimodal Large Language Models with External Knowledge [76.45868419402265]
マルチモーダルな大言語モデル(MLLM)は、膨大な高品質の画像テキストデータセットをトレーニングすることで、大きな進歩を遂げている。
しかし、マスクのような細粒度や空間的に密集した情報をテキストで明示的に伝達することの難しさは、MLLMにとって困難である。
本稿では、特殊な視覚モデルから派生した細粒度の外部知識をMLLMに統合する新しい視覚的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-07-05T17:43:30Z) - Improving Visual Storytelling with Multimodal Large Language Models [1.325953054381901]
本稿では,大規模言語モデル(LLM)と大規模視覚言語モデル(LVLM)を活用した新しいアプローチを提案する。
様々な視覚的ストーリーからなる新しいデータセットを導入し、詳細なキャプションとマルチモーダル要素を付加する。
本手法では,教師付き学習と強化学習を組み合わせてモデルを微調整し,物語生成能力を向上する。
論文 参考訳(メタデータ) (2024-07-02T18:13:55Z) - Retrieve-Plan-Generation: An Iterative Planning and Answering Framework for Knowledge-Intensive LLM Generation [47.22520829950929]
大規模言語モデル(LLM)のためのリトリーブ・プラン生成(RPG)フレームワークを提案する。
RPGはプラントークンを生成し、プランステージの後の世代をガイドする。
解答段階では、その計画に基づいて関連きめ細かい段落を選択し、さらに解答生成に使用する。
論文 参考訳(メタデータ) (2024-06-21T08:45:52Z) - MoPS: Modular Story Premise Synthesis for Open-Ended Automatic Story Generation [50.01780173691132]
モジュール・ストーリー・プリミゼ・シンセサイザー(MoPS)について紹介する。
MoPSはストーリーの前提をバックグラウンドやペルソナなどのモジュールに分割し、自動設計と生成を行う。
より詳細な評価は、我々の合成された施設が多様性、魅力、完全性、独創性に優れていることを示している。
論文 参考訳(メタデータ) (2024-06-09T08:31:14Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - Structure Guided Prompt: Instructing Large Language Model in Multi-Step
Reasoning by Exploring Graph Structure of the Text [44.81698187939784]
本稿では,大規模言語モデル(LLM)の多段階推論能力向上を目的としたフレームワークであるStructure Guided Promptを紹介する。
実験の結果,このフレームワークはLLMの推論能力を大幅に向上し,より広い範囲の自然言語シナリオを拡張できることがわかった。
論文 参考訳(メタデータ) (2024-02-20T22:56:23Z) - GROVE: A Retrieval-augmented Complex Story Generation Framework with A
Forest of Evidence [26.90143556633735]
本稿では,etextbfVidtextbfEnce (GROVE) のftextbfOrestを用いた検索用autextbfGmented stotextbfRy生成フレームワークを提案する。
我々は、証拠の森を抽出し、生成された物語で起こりうる曖昧さを補償する「なぜ」プロンプトスキームを設計する。
論文 参考訳(メタデータ) (2023-10-09T03:55:55Z) - Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion
Models [70.86603627188519]
我々は,オープンエンドなビジュアルストーリーテリングとして表現された,与えられたストーリーラインに基づいてコヒーレントな画像列を生成するという,斬新で挑戦的な課題に焦点をあてる。
本稿では,新しい視覚言語コンテキストモジュールを用いた学習に基づく自動回帰画像生成モデル(StoryGen)を提案する。
StoryGenは最適化なしに文字を一般化することができ、一貫性のあるコンテンツと一貫した文字で画像列を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:58:50Z) - Plot Writing From Pre-Trained Language Models [3.592350589927261]
事前訓練された言語モデル(PLM)は、グローバルな構造を考慮していないため、長文の物語テキストを生成することができない。
ストーリー生成における最近の研究は、プロンプト、キーワード、セマンティックフレームの形式で明示的なコンテンツ計画を再導入した。
密集的でコンテントフルなストーリーを生成するためのコンテンツプランニングの利点を維持しつつ,既成のPLMを用いてストーリープロットを生成することを提案する。
論文 参考訳(メタデータ) (2022-06-07T05:30:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。