論文の概要: Sketch and Customize: A Counterfactual Story Generator
- arxiv url: http://arxiv.org/abs/2104.00929v1
- Date: Fri, 2 Apr 2021 08:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 14:05:46.014377
- Title: Sketch and Customize: A Counterfactual Story Generator
- Title(参考訳): Sketch and Customize: 事実上のストーリージェネレータ
- Authors: Changying Hao, Liang Pang, Yanyan Lan, Yan Wang, Jiafeng Guo, Xueqi
Cheng
- Abstract要約: 条件と終了に関係のある因果関係を導いたスケッチ・アンド・カスタマイズ生成モデルを提案する。
実験結果から,従来のシーケンス・ツー・シーケンスモデルと比較して,提案モデルの方がより優れたエンディングを生成することがわかった。
- 参考スコア(独自算出の注目度): 71.34131541754674
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent text generation models are easy to generate relevant and fluent text
for the given text, while lack of causal reasoning ability when we change some
parts of the given text. Counterfactual story rewriting is a recently proposed
task to test the causal reasoning ability for text generation models, which
requires a model to predict the corresponding story ending when the condition
is modified to a counterfactual one. Previous works have shown that the
traditional sequence-to-sequence model cannot well handle this problem, as it
often captures some spurious correlations between the original and
counterfactual endings, instead of the causal relations between conditions and
endings. To address this issue, we propose a sketch-and-customize generation
model guided by the causality implicated in the conditions and endings. In the
sketch stage, a skeleton is extracted by removing words which are conflict to
the counterfactual condition, from the original ending. In the customize stage,
a generation model is used to fill proper words in the skeleton under the
guidance of the counterfactual condition. In this way, the obtained
counterfactual ending is both relevant to the original ending and consistent
with the counterfactual condition. Experimental results show that the proposed
model generates much better endings, as compared with the traditional
sequence-to-sequence model.
- Abstract(参考訳): 最近のテキスト生成モデルは、与えられたテキストの一部を変更する際に因果推論能力が欠如しているのに対して、特定のテキストに対して関連のある、流れるようなテキストを生成するのが容易である。
テキスト生成モデルの因果推論能力をテストするために最近提案された課題であり, 条件が反事実に修正された場合, 対応する物語終末を予測するモデルが必要である。
従来の研究では、従来のシーケンス・ツー・シーケンスモデルでは、条件と終端の因果関係ではなく、元の終端と反実の終端の間のいくつかの急激な相関を捉えることが多いため、この問題にうまく対応できないことが示されている。
この問題に対処するために,条件や結末に含んだ因果関係を導いたスケッチ・アンド・カスタマイズ生成モデルを提案する。
スケッチ段階では、元の結末から、偽の条件と矛盾する単語を取り除き、骨格を抽出する。
カスタマイズ段階では、造形モデルは、反事実条件の下で骨格内の適切な単語を埋めるために使用される。
このようにして得られる偽りの結末は、元の結末と関係があり、偽りの条件と一致する。
実験結果から,従来のシーケンス・ツー・シーケンスモデルと比較して,提案モデルの方がより優れたエンディングを生成することがわかった。
関連論文リスト
- Counterfactual Generation from Language Models [64.55296662926919]
対実的推論が介入と概念的に異なることを示す。
そこで本研究では,真の文字列反事実を生成するためのフレームワークを提案する。
我々の実験は、このアプローチが有意義な反事実を生み出すことを示した。
論文 参考訳(メタデータ) (2024-11-11T17:57:30Z) - Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data [49.73114504515852]
各世代の合成データによって元の実データを置き換えることは、モデル崩壊の傾向にあることを示す。
生成した実データと連続する合成データの蓄積は,モデル崩壊を回避することを実証する。
論文 参考訳(メタデータ) (2024-04-01T18:31:24Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Text Generation with Text-Editing Models [78.03750739936956]
このチュートリアルは、テキスト編集モデルと最先端のアプローチの概要を提供する。
生産化に関わる課題と、これらのモデルが幻覚や偏見を軽減するためにどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2022-06-14T17:58:17Z) - COINS: Dynamically Generating COntextualized Inference Rules for
Narrative Story Completion [16.676036625561057]
我々は、文脈文を反復的に読み出し、文脈化された推論規則を生成し、それらを符号化し、タスク固有の出力生成をガイドするフレームワークであるCOINSを提案する。
繰り返しモデルで推論と文生成のステップをモジュール化することにより、推論のステップとその次の文生成に対する影響を透過的にすることを目指す。
自動的および手動的評価は、特にコヒーレンスの観点から、SOTAベースラインよりも優れたストーリー文を生成することを示す。
論文 参考訳(メタデータ) (2021-06-04T14:06:33Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z) - Narrative Text Generation with a Latent Discrete Plan [39.71663365273463]
本稿では,その生成過程の一環として,物語中の文ごとに1つのアンカー語列を最初にサンプリングする潜時変数モデルを提案する。
トレーニング中は、アンカー語の列を潜在変数として扱い、アンカーの列を誘導し、教師なしの方法で生成を誘導する。
我々は,本モデルで作成したストーリーが,ストーリープランを考慮しないベースラインと比較して評価が優れていることを示す,人間による評価を行う。
論文 参考訳(メタデータ) (2020-10-07T08:45:37Z) - Modeling Preconditions in Text with a Crowd-sourced Dataset [17.828175478279654]
本稿では,ニュースワイヤにおけるイベントペア間の事前条件のクラウドソースアノテーションであるPeKoを紹介する。
前提条件のモデル化を目的とした2つの課題タスクも導入する。
両方のタスクの評価は、今日の大規模言語モデルでさえ、事前条件のモデリングが困難であることを示している。
論文 参考訳(メタデータ) (2020-10-06T01:52:34Z) - Improving Language Generation with Sentence Coherence Objective [4.997730662279843]
既存のモデルは、与えられたプロンプトから徐々に分岐するテキストの段落を出力する傾向がある。
このプロジェクトの目的は、言語生成モデルにおける文間の一貫性と一貫性を改善することである。
論文 参考訳(メタデータ) (2020-09-07T06:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。