論文の概要: Narrative Text Generation with a Latent Discrete Plan
- arxiv url: http://arxiv.org/abs/2010.03272v1
- Date: Wed, 7 Oct 2020 08:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:11:09.994000
- Title: Narrative Text Generation with a Latent Discrete Plan
- Title(参考訳): 潜在離散計画を用いたナラティブテキスト生成
- Authors: Harsh Jhamtani and Taylor Berg-Kirkpatrick
- Abstract要約: 本稿では,その生成過程の一環として,物語中の文ごとに1つのアンカー語列を最初にサンプリングする潜時変数モデルを提案する。
トレーニング中は、アンカー語の列を潜在変数として扱い、アンカーの列を誘導し、教師なしの方法で生成を誘導する。
我々は,本モデルで作成したストーリーが,ストーリープランを考慮しないベースラインと比較して評価が優れていることを示す,人間による評価を行う。
- 参考スコア(独自算出の注目度): 39.71663365273463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Past work on story generation has demonstrated the usefulness of conditioning
on a generation plan to generate coherent stories. However, these approaches
have used heuristics or off-the-shelf models to first tag training stories with
the desired type of plan, and then train generation models in a supervised
fashion. In this paper, we propose a deep latent variable model that first
samples a sequence of anchor words, one per sentence in the story, as part of
its generative process. During training, our model treats the sequence of
anchor words as a latent variable and attempts to induce anchoring sequences
that help guide generation in an unsupervised fashion. We conduct experiments
with several types of sentence decoder distributions: left-to-right and
non-monotonic, with different degrees of restriction. Further, since we use
amortized variational inference to train our model, we introduce two
corresponding types of inference network for predicting the posterior on anchor
words. We conduct human evaluations which demonstrate that the stories produced
by our model are rated better in comparison with baselines which do not
consider story plans, and are similar or better in quality relative to
baselines which use external supervision for plans. Additionally, the proposed
model gets favorable scores when evaluated on perplexity, diversity, and
control of story via discrete plan.
- Abstract(参考訳): ストーリー生成に関する過去の研究は、コヒーレントストーリーを生成する世代計画におけるコンディショニングの有用性を実証している。
しかしながら、これらのアプローチはヒューリスティックスまたはオフザシェルフモデルを使用して、まず望ましいタイプのプランでトレーニングストーリーをタグ付けし、次に教師付き方式で生成モデルをトレーニングしている。
本稿では,その生成過程の一部として,まずアンカー単語の列を,ストーリー中の文1つずつにサンプリングする,深い潜伏変数モデルを提案する。
学習中、本モデルはアンカー語の列を潜在変数として扱い、教師なしの方法で生成を導くアンカーシーケンスを誘導しようとする。
我々は,左から右へ,非単調な2種類の文デコーダ分布を,異なる制限度で実験する。
さらに,amortized variational inference (amortized variational inference) を用いてモデルの学習を行うため,アンカー語の後部を推定する2種類の推論ネットワークを導入する。
我々は,本モデルで作成したストーリーが,ストーリープランを考慮しないベースラインと比較して評価が優れており,計画の外部監督を利用するベースラインと同等あるいは良質であることを示す人的評価を行う。
さらに,提案モデルは,個別計画による複雑度,多様性,ストーリー制御の評価において好意的なスコアを得た。
関連論文リスト
- MOCHA: A Multi-Task Training Approach for Coherent Text Generation from
Cognitive Perspective [22.69509556890676]
本稿では,文章の認知理論に基づくコヒーレントテキスト生成のための新しいマルチタスク学習戦略を提案する。
我々は,物語生成,ニュース記事作成,議論生成という3つのオープンエンド世代タスクに対して,我々のモデルを広範囲に評価する。
論文 参考訳(メタデータ) (2022-10-26T11:55:41Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - COINS: Dynamically Generating COntextualized Inference Rules for
Narrative Story Completion [16.676036625561057]
我々は、文脈文を反復的に読み出し、文脈化された推論規則を生成し、それらを符号化し、タスク固有の出力生成をガイドするフレームワークであるCOINSを提案する。
繰り返しモデルで推論と文生成のステップをモジュール化することにより、推論のステップとその次の文生成に対する影響を透過的にすることを目指す。
自動的および手動的評価は、特にコヒーレンスの観点から、SOTAベースラインよりも優れたストーリー文を生成することを示す。
論文 参考訳(メタデータ) (2021-06-04T14:06:33Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Narrative Interpolation for Generating and Understanding Stories [52.463747140762145]
そこで本研究では,ユーザが特定した目的語を含むコヒーレントな物語を生成するために,モデルをガイドできる物語・物語生成制御手法を提案する。
本手法の中核はGPT-2に基づく漸進的モデルであり,前文と次文を物語の中で条件付けし,そのギャップを埋める。
終末誘導世代は、与えられた終末ガイドに忠実で忠実であり、過去のアプローチよりも手作業の少ない物語を生み出すことを示す。
論文 参考訳(メタデータ) (2020-08-17T16:45:50Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。