論文の概要: Generating Narrative Text in a Switching Dynamical System
- arxiv url: http://arxiv.org/abs/2004.03762v1
- Date: Wed, 8 Apr 2020 01:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 07:59:59.623170
- Title: Generating Narrative Text in a Switching Dynamical System
- Title(参考訳): スイッチング力学系におけるナラティブテキストの生成
- Authors: Noah Weber, Leena Shekhar, Heeyoung Kwon, Niranjan Balasubramanian,
Nathanael Chambers
- Abstract要約: スイッチング線形力学系(SLDS)としての物語モデリングの形式化
SLDSは、システムの潜在力学がトップレベルの離散スイッチング変数によって制御される力学系である。
切り替え変数によって導かれる、物語の任意の部分を埋めることのできるモデル用のギブスサンプルを導出する。
- 参考スコア(独自算出の注目度): 20.583487756067022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early work on narrative modeling used explicit plans and goals to generate
stories, but the language generation itself was restricted and inflexible.
Modern methods use language models for more robust generation, but often lack
an explicit representation of the scaffolding and dynamics that guide a
coherent narrative. This paper introduces a new model that integrates explicit
narrative structure with neural language models, formalizing narrative modeling
as a Switching Linear Dynamical System (SLDS). A SLDS is a dynamical system in
which the latent dynamics of the system (i.e. how the state vector transforms
over time) is controlled by top-level discrete switching variables. The
switching variables represent narrative structure (e.g., sentiment or discourse
states), while the latent state vector encodes information on the current state
of the narrative. This probabilistic formulation allows us to control
generation, and can be learned in a semi-supervised fashion using both labeled
and unlabeled data. Additionally, we derive a Gibbs sampler for our model that
can fill in arbitrary parts of the narrative, guided by the switching
variables. Our filled-in (English language) narratives outperform several
baselines on both automatic and human evaluations.
- Abstract(参考訳): 物語モデリングに関する初期の研究は、明確な計画と目標を使用してストーリーを生成するが、言語生成そのものは制限され、柔軟性がない。
現代の手法では、より堅牢な生成のために言語モデルを使用するが、コヒーレントな物語を導く足場とダイナミックスの明示的な表現が欠けていることが多い。
本稿では,ニューラルネットワークモデルと明示的な物語構造を統合した新しいモデルを提案し,Switching Linear Dynamical System (SLDS) として物語モデリングを定式化する。
SLDSは、システムの潜在力学(すなわち状態ベクトルが時間とともにどのように変化するか)がトップレベルの離散スイッチング変数によって制御される力学系である。
切り替え変数は物語構造(感情状態や談話状態など)を表し、潜在状態ベクトルは物語の現在の状態に関する情報を符号化する。
この確率的定式化により生成を制御でき、ラベル付きデータとラベルなしデータの両方を用いて半教師付きで学習することができる。
さらに、切り替え変数によって導かれる物語の任意の部分を埋めることのできるモデル用のギブスサンプルを導出する。
満載の(英語の)物語は、自動評価と人的評価の両方において、いくつかのベースラインを上回ります。
関連論文リスト
- Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Generating Coherent Narratives by Learning Dynamic and Discrete Entity
States with a Contrastive Framework [68.1678127433077]
我々はトランスフォーマーモデルを拡張して,物語生成のためのエンティティ状態更新と文実現を動的に行う。
2つのナラティブデータセットの実験により、我々のモデルは強いベースラインよりも一貫性があり多様なナラティブを生成できることが示された。
論文 参考訳(メタデータ) (2022-08-08T09:02:19Z) - Collocation2Text: Controllable Text Generation from Guide Phrases in
Russian [0.0]
Collocation2Textはロシア語で自動制御可能なテキスト生成のためのプラグイン・アンド・プレイ方式である。
この手法は、自己回帰言語ruGPT-3モデルと自己符号化言語ruRoBERTaモデルという2つの相互作用モデルに基づいている。
提案手法を用いてニュース記事を生成する実験は,自動生成された流布文に対して有効性を示した。
論文 参考訳(メタデータ) (2022-06-18T17:10:08Z) - Goal-Directed Story Generation: Augmenting Generative Language Models
with Reinforcement Learning [7.514717103747824]
本稿では,コンピュータ生成ストーリーのプロットを制御するために,深層強化学習と報酬形成を基礎とした2つの自動手法を提案する。
1つ目は、近似ポリシー最適化を利用して、既存のトランスフォーマーベースの言語モデルを微調整してテキスト継続を生成するが、目標探索も行う。
第2は、グラフを考慮したポリシーネットワークが使用する展開ストーリーから知識グラフを抽出し、言語モデルによって生成された候補継続を選択する。
論文 参考訳(メタデータ) (2021-12-16T03:34:14Z) - Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning [12.264880519328353]
生成プロセスにコモンセンス推論を導入するフレームワークであるCommonsense-inference Augmented Neural StoryTelling (CAST)を紹介する。
我々のCAST手法は,既存のモデルよりも,一文字と二文字の両方で,一貫性があり,オントピー的,楽しむことができる。
論文 参考訳(メタデータ) (2021-05-04T06:40:33Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。