論文の概要: Ex3: Automatic Novel Writing by Extracting, Excelsior and Expanding
- arxiv url: http://arxiv.org/abs/2408.08506v1
- Date: Fri, 16 Aug 2024 03:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:50:01.684308
- Title: Ex3: Automatic Novel Writing by Extracting, Excelsior and Expanding
- Title(参考訳): Ex3: Extracting, Excelsior and Expandingによる自動新規作成
- Authors: Huang Lei, Jiaming Guo, Guanhua He, Xishan Zhang, Rui Zhang, Shaohui Peng, Shaoli Liu, Tianshi Chen,
- Abstract要約: 一般的なアプローチは、大きな言語モデル(LLM)を使用して、最初に計画し、次に書く階層的なフレームワークを構築することである。
本稿では,Excelsior と Expanding を抽出する手法を提案する。
Ex3は、当初、生の新規データから構造情報を抽出し、この構造情報と新規データとを組み合わせることにより、指示追従データセットを慎重に作成する。
最終段階では、任意に長い小説の生成を容易にするために、木のような展開方法が展開される。
- 参考スコア(独自算出の注目度): 13.745075093827555
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generating long-term texts such as novels using artificial intelligence has always been a challenge. A common approach is to use large language models (LLMs) to construct a hierarchical framework that first plans and then writes. Despite the fact that the generated novels reach a sufficient length, they exhibit poor logical coherence and appeal in their plots and deficiencies in character and event depiction, ultimately compromising the overall narrative quality. In this paper, we propose a method named Extracting Excelsior and Expanding. Ex3 initially extracts structure information from raw novel data. By combining this structure information with the novel data, an instruction-following dataset is meticulously crafted. This dataset is then utilized to fine-tune the LLM, aiming for excelsior generation performance. In the final stage, a tree-like expansion method is deployed to facilitate the generation of arbitrarily long novels. Evaluation against previous methods showcases Ex3's ability to produce higher-quality long-form novels.
- Abstract(参考訳): 人工知能を使って小説などの長期的なテキストを生成することは、常に困難である。
一般的なアプローチは、大きな言語モデル(LLM)を使用して、最初に計画し、次に書く階層的なフレームワークを構築することである。
生成された小説が十分な長さに達するという事実にもかかわらず、彼らのプロットに論理的一貫性と魅力が乏しく、性格や出来事の描写に欠陥があり、最終的に全体の物語の質を損なうことになる。
本稿では,Excelsior と Expanding を抽出する手法を提案する。
Ex3は、当初、生の新規データから構造情報を抽出する。
この構造情報を新しいデータと組み合わせることで、指示追従データセットを慎重に作成する。
このデータセットを使用してLLMを微調整し、優れた生成性能を実現する。
最終段階では、任意に長い小説の生成を容易にするために、木のような展開方法が展開される。
以前の手法に対する評価は、高品質の長編小説を制作するEx3の能力を示している。
関連論文リスト
- Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - MoPS: Modular Story Premise Synthesis for Open-Ended Automatic Story Generation [50.01780173691132]
モジュール・ストーリー・プリミゼ・シンセサイザー(MoPS)について紹介する。
MoPSはストーリーの前提をバックグラウンドやペルソナなどのモジュールに分割し、自動設計と生成を行う。
より詳細な評価は、我々の合成された施設が多様性、魅力、完全性、独創性に優れていることを示している。
論文 参考訳(メタデータ) (2024-06-09T08:31:14Z) - EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation [114.50719922069261]
長文物語テキスト生成のための評価誘導反復計画抽出法(EIPE-text)を提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
論文 参考訳(メタデータ) (2023-10-12T10:21:37Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - Attend, Memorize and Generate: Towards Faithful Table-to-Text Generation
in Few Shots [58.404516361586325]
Few-shot table-to-text generation は、限られたデータを用いてテーブル内容を伝えるために、流動的で忠実な文を構成するタスクである。
本稿では,人間のテキスト生成プロセスに触発された新しい手法,覚醒と生成(AMG)を提案する。
論文 参考訳(メタデータ) (2022-03-01T20:37:20Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - BookSum: A Collection of Datasets for Long-form Narrative Summarization [42.26628743419607]
booksumは長文要約のためのデータセットのコレクションである。
我々のデータセットは、小説、戯曲、物語などの文学分野の資料をカバーしています。
論文 参考訳(メタデータ) (2021-05-18T00:22:46Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。