論文の概要: Paragraph-level Commonsense Transformers with Recurrent Memory
- arxiv url: http://arxiv.org/abs/2010.01486v2
- Date: Tue, 2 Feb 2021 05:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:05:53.722893
- Title: Paragraph-level Commonsense Transformers with Recurrent Memory
- Title(参考訳): リカレントメモリを有する段落レベルのコモンセンストランスフォーマ
- Authors: Saadia Gabriel, Chandra Bhagavatula, Vered Shwartz, Ronan Le Bras,
Maxwell Forbes, Yejin Choi
- Abstract要約: 物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
- 参考スコア(独自算出の注目度): 77.4133779538797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human understanding of narrative texts requires making commonsense inferences
beyond what is stated explicitly in the text. A recent model, COMET, can
generate such implicit commonsense inferences along several dimensions such as
pre- and post-conditions, motivations, and mental states of the participants.
However, COMET was trained on commonsense inferences of short phrases, and is
therefore discourse-agnostic. When presented with each sentence of a
multi-sentence narrative, it might generate inferences that are inconsistent
with the rest of the narrative.
We present the task of discourse-aware commonsense inference. Given a
sentence within a narrative, the goal is to generate commonsense inferences
along predefined dimensions, while maintaining coherence with the rest of the
narrative. Such large-scale paragraph-level annotation is hard to get and
costly, so we use available sentence-level annotations to efficiently and
automatically construct a distantly supervised corpus.
Using this corpus, we train PARA-COMET, a discourse-aware model that
incorporates paragraph-level information to generate coherent commonsense
inferences from narratives. PARA-COMET captures both semantic knowledge
pertaining to prior world knowledge, and episodic knowledge involving how
current events relate to prior and future events in a narrative. Our results
show that PARA-COMET outperforms the sentence-level baselines, particularly in
generating inferences that are both coherent and novel.
- Abstract(参考訳): 物語のテキストに対する人間の理解は、テキストで明示的に述べられているものを超えて常識的推論を必要とする。
最近のCOMETモデルでは、プレ条件やポスト条件、モチベーション、そして参加者の精神状態など、いくつかの次元に沿って、このような暗黙のコモンセンス推論を生成できる。
しかし、COMETは短いフレーズのコモンセンス推論に基づいて訓練されたため、談話に依存しない。
多元的な物語の各文で提示されると、その物語の他の部分と矛盾する推論を生成する可能性がある。
談話認識コモンセンス推論の課題について述べる。
物語の中の文が与えられると、目標は、物語の他の部分との一貫性を維持しながら、予め定義された次元に沿って常識的な推論を生成することである。
このような大規模段落レベルのアノテーションは入手やコストがかかるため、文レベルのアノテーションを使用して、遠隔で管理されたコーパスを効率的にかつ自動的に構築する。
このコーパスを用いて,物語からコヒーレントなコモンセンス推論を生成するために段落レベルの情報を含む談話認識モデルであるPARA-COMETを訓練する。
PARA-COMETは、前世界知識に関連する意味的知識と、現在の出来事が物語における前と将来の出来事にどのように関係しているかに関する叙述的知識の両方を捉えている。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
関連論文リスト
- Can Language Models Take A Hint? Prompting for Controllable Contextualized Commonsense Inference [12.941933077524919]
我々は、文脈化されたコモンセンス推論を強化するデータ拡張手法である"hinting"を導入する。
『Hinting』では、ハードプロンプトとソフトプロンプトを併用して推論プロセスの導出を行う。
この結果から,"隠れ"は文脈コモンセンス推論の性能を損なうことなく,制御性の向上を図っている。
論文 参考訳(メタデータ) (2024-10-03T04:32:46Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Self-Consistent Narrative Prompts on Abductive Natural Language
Inference [42.201304482932706]
アブダクションは、物語の理解と日常の状況の推論に欠かせないものと見なされてきた。
本稿では,自己整合性と相互整合性を考慮した即時チューニングモデル$alpha$-PACEを提案する。
論文 参考訳(メタデータ) (2023-09-15T10:48:10Z) - Adversarial Transformer Language Models for Contextual Commonsense
Inference [14.12019824666882]
コモンセンス推論はコヒーレントなコモンセンスアサーションを生成するタスクである。
課題のいくつかは、推測された事実のトピックに対する制御可能性の欠如、トレーニング中の常識知識の欠如である。
我々は、上記の課題に対処する技術を開発する。
論文 参考訳(メタデータ) (2023-02-10T18:21:13Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Understanding Points of Correspondence between Sentences for Abstractive
Summarization [39.7404761923196]
本稿では,文書から引き出された文の融合について,対応点の概念を導入して検討する。
我々は、文書、ソースおよび融合文、および文間の対応点の人間のアノテーションを含むデータセットを作成する。
論文 参考訳(メタデータ) (2020-06-10T02:42:38Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z) - The Shmoop Corpus: A Dataset of Stories with Loosely Aligned Summaries [72.48439126769627]
個々の章ごとに詳細なマルチパラグラフの要約と組み合わせた231ストーリーのデータセットであるShmoop Corpusを紹介します。
コーパスから、クローズ形式の質問応答や抽象的要約の簡易な形式を含む共通のNLPタスクのセットを構築する。
このコーパスのユニークな構造は、マシンストーリーの理解をより親しみやすいものにするための重要な基盤となると信じている。
論文 参考訳(メタデータ) (2019-12-30T21:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。