論文の概要: Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2105.01311v1
- Date: Tue, 4 May 2021 06:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 13:01:15.475075
- Title: Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning
- Title(参考訳): 読者の推測:Commonsense Reasoningによる自動ストーリー生成の指導
- Authors: Xiangyu Peng, Siyan Li, Sarah Wiegreffe, Mark Riedl
- Abstract要約: 生成プロセスに常識推論を導入するフレームワークであるCommonsense-inference Augmented neural StoryTelling(CAST)を紹介します。
提案手法は,プロットの妥当性やトピックの継続といった次元において,よりコヒーレントでオントピー的な2文字のストーリーを生成する。
- 参考スコア(独自算出の注目度): 8.407561989920548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based language model approaches to automated story generation
currently provide state-of-the-art results. However, they still suffer from
plot incoherence when generating narratives over time, and critically lack
basic commonsense reasoning. Furthermore, existing methods generally focus only
on single-character stories, or fail to track characters at all. To improve the
coherence of generated narratives and to expand the scope of character-centric
narrative generation, we introduce Commonsense-inference Augmented neural
StoryTelling (CAST), a framework for introducing commonsense reasoning into the
generation process while modeling the interaction between multiple characters.
We find that our CAST method produces significantly more coherent and on-topic
two-character stories, outperforming baselines in dimensions including plot
plausibility and staying on topic. We also show how the CAST method can be used
to further train language models that generate more coherent stories and reduce
computation cost.
- Abstract(参考訳): トランスフォーマティブな言語モデルによる自動ストーリー生成アプローチは現在、最先端の結果を提供している。
しかし、物語を時間とともに生み出す際にもプロットの不整合に悩まされ、基本的な常識的推論が欠如している。
さらに、既存のメソッドは一般的にシングルキャラクタストーリーにのみフォーカスするか、文字の追跡に失敗する。
生成した物語のコヒーレンスを向上し、キャラクタ中心の物語生成の範囲を広げるために、複数のキャラクタ間の相互作用をモデル化しながら、生成プロセスにコモンセンス推論を導入するフレームワークであるCommonsense-inference Augmented Neural StoryTelling(CAST)を導入する。
提案手法は,プロットの妥当性やトピックの継続といった次元において,よりコヒーレントでオントピー的な2文字のストーリーを生成する。
また,よりコヒーレントなストーリを生成し,計算コストを低減させる言語モデルの学習にもcast法が利用できることを示す。
関連論文リスト
- Can Very Large Pretrained Language Models Learn Storytelling With A Few
Examples? [51.338324023617034]
State-of-the-art(SOTA)ストーリー生成モデルは、プロットやコモンセンス知識のような高レベルな特徴を使って、生成されたストーリーの品質を改善する。
非常に大きな事前学習言語モデルを用いたプロンプトベースの学習は、様々なNLPタスクでさえ素晴らしい性能を示している。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Generating Coherent Narratives by Learning Dynamic and Discrete Entity
States with a Contrastive Framework [68.1678127433077]
我々はトランスフォーマーモデルを拡張して,物語生成のためのエンティティ状態更新と文実現を動的に行う。
2つのナラティブデータセットの実験により、我々のモデルは強いベースラインよりも一貫性があり多様なナラティブを生成できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:02:19Z) - Guiding Neural Story Generation with Reader Models [5.935317028008691]
本稿では、読者モデルを用いてストーリーを推論するフレームワークであるReader Models(StoRM)によるストーリー生成について紹介する。
実験により、我々のモデルは、プロットの可視性やトピックの継続など、次元のベースラインをはるかに上回り、コヒーレントでオントピー的なストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2021-12-16T03:44:01Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Cue Me In: Content-Inducing Approaches to Interactive Story Generation [74.09575609958743]
本研究では,対話型物語生成の課題に焦点をあてる。
本稿では、この追加情報を効果的に活用するための2つのコンテンツ誘導手法を提案する。
自動評価と人的評価の両方による実験結果から,これらの手法がよりトポロジ的な一貫性とパーソナライズされたストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2020-10-20T00:36:15Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。