論文の概要: Event Causality Is Key to Computational Story Understanding
- arxiv url: http://arxiv.org/abs/2311.09648v2
- Date: Tue, 2 Apr 2024 02:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 12:23:14.900738
- Title: Event Causality Is Key to Computational Story Understanding
- Title(参考訳): イベント因果性は計算的ストーリー理解の鍵となる
- Authors: Yidan Sun, Qin Chao, Boyang Li,
- Abstract要約: 本稿では,イベント因果同定のための最初の手法を提案する。
下流のストーリー品質評価タスクでは、特定因果関係は3.6~16.6%の相対的改善をもたらす。
この結果から, 事象因果関係を未然に把握できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 5.167262076146664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cognitive science and symbolic AI research suggest that event causality provides vital information for story understanding. However, machine learning systems for story understanding rarely employ event causality, partially due to the lack of methods that reliably identify open-world causal event relations. Leveraging recent progress in large language models, we present the first method for event causality identification that leads to material improvements in computational story understanding. Our technique sets a new state of the art on the COPES dataset (Wang et al., 2023) for causal event relation identification. Further, in the downstream story quality evaluation task, the identified causal relations lead to 3.6-16.6% relative improvement on correlation with human ratings. In the multimodal story video-text alignment task, we attain 4.1-10.9% increase on Clip Accuracy and 4.2-13.5% increase on Sentence IoU. The findings indicate substantial untapped potential for event causality in computational story understanding. The codebase is at https://github.com/insundaycathy/Event-Causality-Extraction.
- Abstract(参考訳): 認知科学と象徴的AI研究は、出来事因果関係がストーリー理解に不可欠な情報を提供することを示唆している。
しかし、物語理解のための機械学習システムは、部分的には、オープンワールドの因果関係を確実に識別する手法が欠如していることから、事象因果関係をほとんど採用しない。
大規模言語モデルにおける最近の進歩を生かして、我々は、計算的ストーリー理解において重要な改善をもたらす事象因果同定法を初めて提示する。
本手法はCOPESデータセット(Wang et al , 2023)を用いて, 因果関係の同定を行う。
さらに、下流のストーリー品質評価タスクでは、識別された因果関係は、人間格付けとの相関について3.6~16.6%の改善をもたらす。
マルチモーダルなビデオテキストアライメントタスクでは,Clip精度が4.1-10.9%,Sentence IoUが4.2-13.5%向上した。
この結果から, 事象因果関係を未然に把握できる可能性が示唆された。
コードベースはhttps://github.com/insundaycathy/Event-Causality-Extractionにある。
関連論文リスト
- Enhancing Event Causality Identification with Rationale and Structure-Aware Causal Question Answering [30.000134835133522]
事象因果同定(DECI)は、文書中の2つの事象間の因果関係を特定することを目的としている。
近年の研究では、事前訓練された言語モデルを用いて事象因果関係を生成する傾向にある。
本稿では,合理的かつ構造を考慮した因果的質問応答による事象因果同定を強化するためのマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-17T07:41:58Z) - CLEVRER-Humans: Describing Physical and Causal Events the Human Way [55.44915246065028]
CLEVRER-Humansベンチマークは,人間ラベルを用いた物理的事象の因果判定のためのビデオデータセットである。
まず、ビデオ内のイベントを新たに表現するための、新しい反復的なイベントクローゼタスク、すなわち、Causal Event Graphs (CEGs) と呼ぶもので、第2に、ニューラルネットワーク生成モデルに基づくデータ拡張技術である。
論文 参考訳(メタデータ) (2023-10-05T16:09:48Z) - Are All Steps Equally Important? Benchmarking Essentiality Detection of
Events [92.92425231146433]
本稿では,現在のモデルが目標イベントに関連するステップイベントの本質をどの程度理解しているかについて検討する。
コミュニティガイドサイトWikiHowから収集した高品質なペア(ゴール,ステップ)コーパスをコントリビュートする。
高いアノテータ間の合意は、人間が事象の本質について一貫した理解を持っていることを証明している。
論文 参考訳(メタデータ) (2022-10-08T18:00:22Z) - ERGO: Event Relational Graph Transformer for Document-level Event
Causality Identification [24.894074201193927]
イベントレベルのイベント因果同定(DECI)は、文書内のイベントペア間の因果関係を特定することを目的としている。
DeCIのための新しいグラフトランスフォーマー(ERGO)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T12:12:16Z) - ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer
for Event-Centric Generation and Classification [74.6318379374801]
本稿では,イベント中心推論のための一般相関対応コンテキスト・イベント変換器(ClarET)の事前学習を提案する。
提案されたClarETは、幅広いイベント中心の推論シナリオに適用できる。
論文 参考訳(メタデータ) (2022-03-04T10:11:15Z) - Improving Event Causality Identification via Self-Supervised
Representation Learning on External Causal Statement [17.77752074834281]
イベント因果同定に外部因果文を活用するCauSeRLを提案する。
まず、外部因果文から文脈固有の因果パターンを学習するための自己教師型フレームワークを設計する。
我々は、学習した文脈固有の因果パターンを対象のECIモデルに組み込むために、コントラッシブトランスファー戦略を採用する。
論文 参考訳(メタデータ) (2021-06-03T07:50:50Z) - LearnDA: Learnable Knowledge-Guided Data Augmentation for Event
Causality Identification [17.77752074834281]
イベント因果同定のためのトレーニングデータ強化のための新しいアプローチを提案する。
我々のアプローチは知識誘導型であり、既存の知識ベースを活用して、十分に整形された新しい文を生成することができる。
一方,本手法では,学習可能な拡張フレームワークである2つのメカニズムを採用し,タスク関連文を生成するための生成プロセスを対話的に調整することができる。
論文 参考訳(メタデータ) (2021-06-03T07:42:20Z) - ESTER: A Machine Reading Comprehension Dataset for Event Semantic
Relation Reasoning [49.795767003586235]
イベントセマンティックリレーション推論のための包括的な機械学習理解データセットESTERを紹介します。
もっともよく使われるイベント意味関係を5つ検討し、質問応答タスクとして定式化します。
実験の結果、現在のSOTAシステムは、イベントベースF1、トークンベースF1、HIT@1スコアそれぞれ60.5%、57.8%、76.3%を達成した。
論文 参考訳(メタデータ) (2021-04-16T19:59:26Z) - Learning Contextual Causality from Time-consecutive Images [84.26437953699444]
因果知識は多くの人工知能システムにとって重要である。
本稿では,視覚信号から文脈因果関係を学習する可能性について検討する。
まず,高品質なデータセットvis-causalを提案し,ビデオから有意義な因果知識を自動的に発見できることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T20:24:48Z) - Temporal Reasoning on Implicit Events from Distant Supervision [91.20159064951487]
本稿では,暗黙的事象の理解度を評価する新しい時間的推論データセットを提案する。
我々は、暗黙の出来事と明示的な出来事の間の時間的関係を予測する際に、最先端のモデルが苦労していることを発見した。
本稿では,大規模テキストからの遠隔監視信号を利用して終末時刻を推定する,ニューロシンボリックな時間的推論モデルSYMTIMEを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。