論文の概要: Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning
and Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2212.10471v2
- Date: Mon, 22 May 2023 10:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 04:36:48.034245
- Title: Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning
and Generation with Large Language Models
- Title(参考訳): 小さな赤いライディングフードは世界中を旅する:言語横断型ストーリープランニングと大規模言語モデルによる生成
- Authors: Evgeniia Razumovskaia, Joshua Maynez, Annie Louis, Mirella Lapata,
Shashi Narayan
- Abstract要約: 以前の研究は、主に英語に焦点を当てた単言語設定でのみストーリー生成の計画の有効性を実証してきた。
本稿では,言語横断型ストーリ生成の新たな課題を提案する。
- 参考スコア(独自算出の注目度): 65.53377371479499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work has demonstrated the effectiveness of planning for story
generation exclusively in a monolingual setting focusing primarily on English.
We consider whether planning brings advantages to automatic story generation
across languages. We propose a new task of cross-lingual story generation with
planning and present a new dataset for this task. We conduct a comprehensive
study of different plans and generate stories in several languages, by
leveraging the creative and reasoning capabilities of large pre-trained
language models. Our results demonstrate that plans which structure stories
into three acts lead to more coherent and interesting narratives, while
allowing to explicitly control their content and structure.
- Abstract(参考訳): 以前の研究は、主に英語に焦点を当てた単言語設定でのみストーリー生成の計画の有効性を実証してきた。
計画が言語間でのストーリーの自動生成に利点をもたらすかどうか検討する。
本稿では,この課題に対して,計画を伴う言語間ストーリ生成の新たなタスクを提案し,新たなデータセットを提案する。
我々は,事前学習された大規模言語モデルの創造性と推論能力を活用することで,異なる計画の包括的な研究を行い,複数の言語で物語を生成する。
以上の結果から,物語を3つの行動に構成するプランは,内容や構造を明確に制御しながら,より一貫性のある,興味深い物語を生み出すことが示唆された。
関連論文リスト
- Using Left and Right Brains Together: Towards Vision and Language
Planning [95.47128850991815]
本稿では,任意の形態の入力を伴うタスクに対して,視覚と言語を同時に計画する新しい視覚言語計画フレームワークを提案する。
我々は,視覚言語タスク,視覚のみタスク,言語のみタスクにまたがるフレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-16T09:46:20Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation [114.50719922069261]
長文物語テキスト生成のための評価誘導反復計画抽出法(EIPE-text)を提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
論文 参考訳(メタデータ) (2023-10-12T10:21:37Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge [72.64847925450368]
言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成することで構成される。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$mu$PLANを提示する。
論文 参考訳(メタデータ) (2023-05-23T16:25:21Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Stylized Story Generation with Style-Guided Planning [38.791298336259146]
そこで本稿では,先行する文脈を条件として,新たなタスク,スタイル化されたストーリージェネレーション,すなわちスペクティフィドスタイルでストーリーを生成することを提案する。
我々のモデルは、ROCStoriesデータセットに基づいて、エモオプション駆動またはイベント駆動のストーリーを制御できる。
論文 参考訳(メタデータ) (2021-05-18T15:55:38Z) - Content Planning for Neural Story Generation with Aristotelian Rescoring [39.07607377794395]
長文の物語テキストは、人間の文章の流動的な偽造を管理するが、局所的な文レベルでのみ行われ、構造や大域的な結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドする優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。