論文の概要: Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning
and Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2212.10471v1
- Date: Tue, 20 Dec 2022 17:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 15:58:02.260552
- Title: Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning
and Generation with Large Language Models
- Title(参考訳): 小さな赤いライディングフードは世界中を旅する:言語横断型ストーリープランニングと大規模言語モデルによる生成
- Authors: Evgeniia Razumovskaia, Joshua Maynez, Annie Louis, Mirella Lapata,
Shashi Narayan
- Abstract要約: クロスリンガルなストーリー生成は、ストーリープランニングに関するより普遍的な研究を可能にする。
我々は、4種類の計画を検討し、異なる計画戦略に対してアウトプットがどのように異なるかを体系的に分析する。
- 参考スコア(独自算出の注目度): 65.53377371479499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of automatically generating stories in multiple
languages. Compared to prior work in monolingual story generation, crosslingual
story generation allows for more universal research on story planning. We
propose to use Prompting Large Language Models with Plans to study which plan
is optimal for story generation. We consider 4 types of plans and
systematically analyse how the outputs differ for different planning
strategies. The study demonstrates that formulating the plans as
question-answer pairs leads to more coherent generated stories while the plan
gives more control to the story creators.
- Abstract(参考訳): 複数の言語で物語を自動生成する問題を考える。
モノリンガルストーリー生成における以前の仕事と比較して、クロスリンガルストーリー生成はストーリープランニングに関するより普遍的な研究を可能にする。
我々は,ストーリー生成に最適な計画について検討する計画を持つ大規模言語モデルの提案を行う。
我々は4種類の計画を検討し、異なる計画戦略でアウトプットがどのように異なるかを体系的に分析する。
この研究は、質問と回答のペアとしてプランを定式化することで、より一貫性のあるストーリーが生み出される一方で、計画がストーリークリエーターにもっとコントロールを与えることを示している。
関連論文リスト
- Using Left and Right Brains Together: Towards Vision and Language
Planning [95.47128850991815]
本稿では,任意の形態の入力を伴うタスクに対して,視覚と言語を同時に計画する新しい視覚言語計画フレームワークを提案する。
我々は,視覚言語タスク,視覚のみタスク,言語のみタスクにまたがるフレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-16T09:46:20Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation [114.50719922069261]
長文物語テキスト生成のための評価誘導反復計画抽出法(EIPE-text)を提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
論文 参考訳(メタデータ) (2023-10-12T10:21:37Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - $\mu$PLAN: Summarizing using a Content Plan as Cross-Lingual Bridge [72.64847925450368]
言語間の要約は、異なる言語で入力文書が与えられた1つの言語で要約を生成することで構成される。
この研究は、中間計画段階を言語横断橋として利用する言語横断要約へのアプローチである$mu$PLANを提示する。
論文 参考訳(メタデータ) (2023-05-23T16:25:21Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Stylized Story Generation with Style-Guided Planning [38.791298336259146]
そこで本稿では,先行する文脈を条件として,新たなタスク,スタイル化されたストーリージェネレーション,すなわちスペクティフィドスタイルでストーリーを生成することを提案する。
我々のモデルは、ROCStoriesデータセットに基づいて、エモオプション駆動またはイベント駆動のストーリーを制御できる。
論文 参考訳(メタデータ) (2021-05-18T15:55:38Z) - Content Planning for Neural Story Generation with Aristotelian Rescoring [39.07607377794395]
長文の物語テキストは、人間の文章の流動的な偽造を管理するが、局所的な文レベルでのみ行われ、構造や大域的な結束が欠如している。
本稿では,高品質なコンテンツプランニングによってストーリー生成の問題の多くに対処できると仮定し,ストーリー生成をガイドする優れたプロット構造を学習する方法に焦点を当てたシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。