論文の概要: EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation
- arxiv url: http://arxiv.org/abs/2310.08185v1
- Date: Thu, 12 Oct 2023 10:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 12:03:30.865495
- Title: EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation
- Title(参考訳): EIPE-text:長期ナラティブテキスト生成のための評価誘導反復計画抽出
- Authors: Wang You, Wenshan Wu, Yaobo Liang, Shaoguang Mao, Chenfei Wu, Maosong
Cao, Yuzhe Cai, Yiduo Guo, Yan Xia, Furu Wei, Nan Duan
- Abstract要約: 長文物語テキスト生成のための評価誘導反復計画抽出法(EIPE-text)を提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
- 参考スコア(独自算出の注目度): 114.50719922069261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Plan-and-Write is a common hierarchical approach in long-form narrative text
generation, which first creates a plan to guide the narrative writing.
Following this approach, several studies rely on simply prompting large
language models for planning, which often yields suboptimal results. In this
paper, we propose a new framework called Evaluation-guided Iterative Plan
Extraction for long-form narrative text generation (EIPE-text), which extracts
plans from the corpus of narratives and utilizes the extracted plans to
construct a better planner. EIPE-text has three stages: plan extraction,
learning, and inference. In the plan extraction stage, it iteratively extracts
and improves plans from the narrative corpus and constructs a plan corpus. We
propose a question answer (QA) based evaluation mechanism to automatically
evaluate the plans and generate detailed plan refinement instructions to guide
the iterative improvement. In the learning stage, we build a better planner by
fine-tuning with the plan corpus or in-context learning with examples in the
plan corpus. Finally, we leverage a hierarchical approach to generate long-form
narratives. We evaluate the effectiveness of EIPE-text in the domains of novels
and storytelling. Both GPT-4-based evaluations and human evaluations
demonstrate that our method can generate more coherent and relevant long-form
narratives. Our code will be released in the future.
- Abstract(参考訳): プラン・アンド・ライト(plan-and-write)は、長文の物語テキスト生成における一般的な階層的アプローチである。
このアプローチに従い、いくつかの研究は計画のために単に大きな言語モデルを促すことに依存している。
本稿では,ナラティブのコーパスからプランを抽出し,抽出したプランを用いてより良いプランナーを構築する,長文のナラティブテキスト生成のための評価ガイド型反復計画抽出(epe-text)という新しいフレームワークを提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
計画抽出段階では、物語コーパスから計画を反復的に抽出し、改善し、計画コーパスを構築する。
質問応答(QA)に基づく評価機構を提案し,計画を自動的に評価し,詳細な計画修正手順を生成し,反復的な改善を導く。
学習段階では、プランコーパスを微調整したり、プランコーパスの例を使ってコンテキスト内学習することで、より良いプランナーを構築します。
最後に、階層的なアプローチを用いて長文の物語を生成する。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
GPT-4に基づく評価と人的評価の両方が、我々の手法がより一貫性があり、関連する長文の物語を生成することを示す。
私たちのコードは将来リリースされるでしょう。
関連論文リスト
- Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - Socratic Planner: Inquiry-Based Zero-Shot Planning for Embodied Instruction Following [17.608330952846075]
EIF(Embodied Instruction following)は、3D環境のオブジェクトをナビゲートして操作することで自然言語命令を実行するタスクである。
EIFの主な課題の1つは構成的タスク計画であり、しばしばラベル付きデータによる教師付きまたはコンテキスト内学習で対処される。
トレーニングデータを必要とせずに推測できる最初のゼロショットプランニング手法であるソクラティックプランナーを紹介する。
論文 参考訳(メタデータ) (2024-04-21T08:10:20Z) - PARADISE: Evaluating Implicit Planning Skills of Language Models with Procedural Warnings and Tips Dataset [0.0]
PARADISE は,wikiHow をベースとした実践的な手続きテキスト上で,Q&A 形式を用いた帰納的推論タスクである。
計画の暗黙的な知識を与えられた目標からのみ推論するモデルの能力をテストすることを目的として、中間的なステップを除く、目標に直接関連した警告およびヒント推論タスクを含む。
我々の実験は、微調整言語モデルとゼロショットプロンプトを利用して、ほとんどのシナリオにおいて、大規模言語モデルに対するタスク固有小モデルの有効性を明らかにした。
論文 参考訳(メタデータ) (2024-03-05T18:01:59Z) - Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning and Generation with Large Language Models [69.60579227637399]
以前の研究は、主に英語に焦点を当てた単言語設定でのみストーリー生成の計画の有効性を実証してきた。
本稿では,言語横断型ストーリ生成の新たな課題を提案する。
論文 参考訳(メタデータ) (2022-12-20T17:42:16Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical
Supervision from Extractive Summaries [46.183289748907804]
長文生成のためのアウトライン化,アウトライン化,エラボレートを行うパイプラインシステムSOEを提案する。
SOEは、より高速な収束速度とともに、非常に優れた品質の長いテキストを生成する。
論文 参考訳(メタデータ) (2020-10-14T13:22:20Z) - Plan ahead: Self-Supervised Text Planning for Paragraph Completion Task [14.483791451578007]
まず最初に何を言おうかを予測する自己教師型テキストプランナSSPlannerを提案する。
その後、予測された内容を用いて事前訓練された言語モデル(表面実現)を導出する。
また,名詞型と動詞型の組み合わせが,コンテンツ選択に最も有効であることも確認した。
論文 参考訳(メタデータ) (2020-10-11T02:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。