論文の概要: Event Causality Is Key to Computational Story Understanding
- arxiv url: http://arxiv.org/abs/2311.09648v1
- Date: Thu, 16 Nov 2023 07:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:45:08.591477
- Title: Event Causality Is Key to Computational Story Understanding
- Title(参考訳): イベント因果性は計算的ストーリー理解の鍵となる
- Authors: Yidan Sun, Qin Chao, Boyang Li
- Abstract要約: 心理学的研究は、人間のストーリー理解における出来事因果関係の中心的な役割を示唆している。
本稿では,イベント因果同定のための最初の手法を提案する。
- 参考スコア(独自算出の注目度): 5.807484737089545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Psychological research suggests the central role of event causality in human
story understanding. Further, event causality has been heavily utilized in
symbolic story generation. However, few machine learning systems for story
understanding employ event causality, partially due to the lack of reliable
methods for identifying open-world causal event relations. Leveraging recent
progress in large language models (LLMs), we present the first method for event
causality identification that leads to material improvements in computational
story understanding. We design specific prompts for extracting event causal
relations from GPT. Against human-annotated event causal relations in the
GLUCOSE dataset, our technique performs on par with supervised models, while
being easily generalizable to stories of different types and lengths. The
extracted causal relations lead to 5.7\% improvements on story quality
evaluation and 8.7\% on story video-text alignment. Our findings indicate
enormous untapped potential for event causality in computational story
understanding.
- Abstract(参考訳): 心理学的研究は、人間のストーリー理解における出来事因果関係の中心的な役割を示唆している。
さらに、イベント因果関係は象徴的なストーリー生成に広く利用されている。
しかしながら、オープンワールド因果関係を識別するための信頼性の高い方法が欠如していることから、イベント因果関係を用いる機械学習システムはほとんどない。
大規模言語モデル (LLM) の最近の進歩を生かして, 事象因果同定のための最初の手法を提案する。
GPTから事象因果関係を抽出するための特定のプロンプトを設計する。
グルコースデータセットにおけるヒューマンアノテートされた事象因果関係に対して,本手法は教師付きモデルと同等の性能を持ち,異なる種類や長さのストーリーに容易に一般化できる。
抽出された因果関係は、ストーリー品質評価において5.7 %、ストーリービデオテキストアライメントにおいて8.7 %の改善をもたらす。
以上より,計算的ストーリー理解における事象因果性は極めて大きい可能性が示唆された。
関連論文リスト
- Enhancing Event Causality Identification with Rationale and Structure-Aware Causal Question Answering [30.000134835133522]
事象因果同定(DECI)は、文書中の2つの事象間の因果関係を特定することを目的としている。
近年の研究では、事前訓練された言語モデルを用いて事象因果関係を生成する傾向にある。
本稿では,合理的かつ構造を考慮した因果的質問応答による事象因果同定を強化するためのマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-17T07:41:58Z) - CLEVRER-Humans: Describing Physical and Causal Events the Human Way [55.44915246065028]
CLEVRER-Humansベンチマークは,人間ラベルを用いた物理的事象の因果判定のためのビデオデータセットである。
まず、ビデオ内のイベントを新たに表現するための、新しい反復的なイベントクローゼタスク、すなわち、Causal Event Graphs (CEGs) と呼ぶもので、第2に、ニューラルネットワーク生成モデルに基づくデータ拡張技術である。
論文 参考訳(メタデータ) (2023-10-05T16:09:48Z) - Are All Steps Equally Important? Benchmarking Essentiality Detection of
Events [92.92425231146433]
本稿では,現在のモデルが目標イベントに関連するステップイベントの本質をどの程度理解しているかについて検討する。
コミュニティガイドサイトWikiHowから収集した高品質なペア(ゴール,ステップ)コーパスをコントリビュートする。
高いアノテータ間の合意は、人間が事象の本質について一貫した理解を持っていることを証明している。
論文 参考訳(メタデータ) (2022-10-08T18:00:22Z) - ERGO: Event Relational Graph Transformer for Document-level Event
Causality Identification [24.894074201193927]
イベントレベルのイベント因果同定(DECI)は、文書内のイベントペア間の因果関係を特定することを目的としている。
DeCIのための新しいグラフトランスフォーマー(ERGO)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T12:12:16Z) - ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer
for Event-Centric Generation and Classification [74.6318379374801]
本稿では,イベント中心推論のための一般相関対応コンテキスト・イベント変換器(ClarET)の事前学習を提案する。
提案されたClarETは、幅広いイベント中心の推論シナリオに適用できる。
論文 参考訳(メタデータ) (2022-03-04T10:11:15Z) - Improving Event Causality Identification via Self-Supervised
Representation Learning on External Causal Statement [17.77752074834281]
イベント因果同定に外部因果文を活用するCauSeRLを提案する。
まず、外部因果文から文脈固有の因果パターンを学習するための自己教師型フレームワークを設計する。
我々は、学習した文脈固有の因果パターンを対象のECIモデルに組み込むために、コントラッシブトランスファー戦略を採用する。
論文 参考訳(メタデータ) (2021-06-03T07:50:50Z) - LearnDA: Learnable Knowledge-Guided Data Augmentation for Event
Causality Identification [17.77752074834281]
イベント因果同定のためのトレーニングデータ強化のための新しいアプローチを提案する。
我々のアプローチは知識誘導型であり、既存の知識ベースを活用して、十分に整形された新しい文を生成することができる。
一方,本手法では,学習可能な拡張フレームワークである2つのメカニズムを採用し,タスク関連文を生成するための生成プロセスを対話的に調整することができる。
論文 参考訳(メタデータ) (2021-06-03T07:42:20Z) - ESTER: A Machine Reading Comprehension Dataset for Event Semantic
Relation Reasoning [49.795767003586235]
イベントセマンティックリレーション推論のための包括的な機械学習理解データセットESTERを紹介します。
もっともよく使われるイベント意味関係を5つ検討し、質問応答タスクとして定式化します。
実験の結果、現在のSOTAシステムは、イベントベースF1、トークンベースF1、HIT@1スコアそれぞれ60.5%、57.8%、76.3%を達成した。
論文 参考訳(メタデータ) (2021-04-16T19:59:26Z) - Learning Contextual Causality from Time-consecutive Images [84.26437953699444]
因果知識は多くの人工知能システムにとって重要である。
本稿では,視覚信号から文脈因果関係を学習する可能性について検討する。
まず,高品質なデータセットvis-causalを提案し,ビデオから有意義な因果知識を自動的に発見できることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T20:24:48Z) - Temporal Reasoning on Implicit Events from Distant Supervision [91.20159064951487]
本稿では,暗黙的事象の理解度を評価する新しい時間的推論データセットを提案する。
我々は、暗黙の出来事と明示的な出来事の間の時間的関係を予測する際に、最先端のモデルが苦労していることを発見した。
本稿では,大規模テキストからの遠隔監視信号を利用して終末時刻を推定する,ニューロシンボリックな時間的推論モデルSYMTIMEを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。