論文の概要: CLEVRER-Humans: Describing Physical and Causal Events the Human Way
- arxiv url: http://arxiv.org/abs/2310.03635v1
- Date: Thu, 5 Oct 2023 16:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 15:31:01.283236
- Title: CLEVRER-Humans: Describing Physical and Causal Events the Human Way
- Title(参考訳): CLEVRER-Humans: 物理的事象と因果事象を人間的に記述する
- Authors: Jiayuan Mao, Xuelin Yang, Xikun Zhang, Noah D. Goodman, Jiajun Wu
- Abstract要約: CLEVRER-Humansベンチマークは,人間ラベルを用いた物理的事象の因果判定のためのビデオデータセットである。
まず、ビデオ内のイベントを新たに表現するための、新しい反復的なイベントクローゼタスク、すなわち、Causal Event Graphs (CEGs) と呼ぶもので、第2に、ニューラルネットワーク生成モデルに基づくデータ拡張技術である。
- 参考スコア(独自算出の注目度): 55.44915246065028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building machines that can reason about physical events and their causal
relationships is crucial for flexible interaction with the physical world.
However, most existing physical and causal reasoning benchmarks are exclusively
based on synthetically generated events and synthetic natural language
descriptions of causal relationships. This design brings up two issues. First,
there is a lack of diversity in both event types and natural language
descriptions; second, causal relationships based on manually-defined heuristics
are different from human judgments. To address both shortcomings, we present
the CLEVRER-Humans benchmark, a video reasoning dataset for causal judgment of
physical events with human labels. We employ two techniques to improve data
collection efficiency: first, a novel iterative event cloze task to elicit a
new representation of events in videos, which we term Causal Event Graphs
(CEGs); second, a data augmentation technique based on neural language
generative models. We convert the collected CEGs into questions and answers to
be consistent with prior work. Finally, we study a collection of baseline
approaches for CLEVRER-Humans question-answering, highlighting the great
challenges set forth by our benchmark.
- Abstract(参考訳): 物理的事象とその因果関係を推論できるマシンの構築は、物理的世界との柔軟な相互作用に不可欠である。
しかし、既存の物理的・因果的推論ベンチマークのほとんどは、因果関係の合成生成イベントと合成自然言語記述にのみ基づいている。
このデザインは2つの問題をもたらす。
第1に、イベントタイプと自然言語記述の両方に多様性の欠如があり、第2に、手動で定義されたヒューリスティックに基づく因果関係は、人間の判断とは異なる。
CLEVRER-Humansベンチマーク(CLEVRER-Humans benchmark)は、人間のラベルによる物理的事象の因果判定のためのビデオ推論データセットである。
まず,新しい反復型イベントクローゼタスクを用いて,ビデオ内のイベントの新たな表現を導出する手法であるcausal event graphs (cegs) と,ニューラルネットワーク生成モデルに基づくデータ拡張手法である。
収集したCEGを質問や回答に変換し、以前の作業と一致させます。
最後に,CLEVRER-Humansの質問回答に対するベースラインアプローチのコレクションについて検討し,ベンチマークによる大きな課題を明らかにする。
関連論文リスト
- Complex Reasoning over Logical Queries on Commonsense Knowledge Graphs [67.50874041220371]
論理クエリをサンプリングして作成した新しいデータセットであるCOM2(COMplex COMmonsense)を提示する。
我々は、手書きのルールと大きな言語モデルを用いて、複数の選択とテキスト生成の質問に言語化します。
COM2でトレーニングされた言語モデルでは、複雑な推論能力が大幅に改善されている。
論文 参考訳(メタデータ) (2024-03-12T08:13:52Z) - Event Causality Is Key to Computational Story Understanding [5.807484737089545]
心理学的研究は、人間のストーリー理解における出来事因果関係の中心的な役割を示唆している。
本稿では,イベント因果同定のための最初の手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:59:12Z) - ACQUIRED: A Dataset for Answering Counterfactual Questions In Real-Life
Videos [53.92440577914417]
ACQUIREDは3.9Kの注釈付きビデオで構成され、幅広いイベントタイプを包含し、ファーストパーソンとサードパーソンの両方の視点を取り入れている。
各ビデオは、物理的、社会的、時間的な3つの異なる推論の次元にまたがる質問で注釈付けされている。
我々は,現在最先端の言語のみおよびマルチモーダルモデルに対して,我々のデータセットをベンチマークし,実験結果から大きな性能差が示された。
論文 参考訳(メタデータ) (2023-11-02T22:17:03Z) - Towards Causal Foundation Model: on Duality between Causal Inference and
Attention [14.14921309395866]
複雑なタスクのための因果認識基盤モデルを構築するための第一歩を踏み出します。
我々はCInA(Causal Inference with Attention)と呼ばれる新しい理論的手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T22:28:34Z) - JECC: Commonsense Reasoning Tasks Derived from Interactive Fictions [75.42526766746515]
本稿では,人間のインタラクティブ・フィクション(IF)ゲームプレイ・ウォークスルーに基づく新しいコモンセンス推論データセットを提案する。
本データセットは,事実知識ではなく,機能的コモンセンス知識ルールの評価に重点を置いている。
実験の結果、導入したデータセットは、以前の機械読影モデルと新しい大規模言語モデルに難題であることが示されている。
論文 参考訳(メタデータ) (2022-10-18T19:20:53Z) - A Targeted Assessment of Incremental Processing in Neural LanguageModels
and Humans [2.7624021966289605]
本稿では,人間とニューラル言語モデルにおけるインクリメンタル処理のスケールアップ比較について述べる。
データはInterpolated Maze Taskと呼ばれる新しいオンライン実験パラダイムに由来する。
人間と言語モデルの両方が、非文法的な文領域における処理困難を増大させていることが判明した。
論文 参考訳(メタデータ) (2021-06-06T20:04:39Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - ESPRIT: Explaining Solutions to Physical Reasoning Tasks [106.77019206219984]
ESPRITは自然言語における定性的物理学に関する常識推論のためのフレームワークである。
我々のフレームワークは、エージェントや人間が容易に解を推論できるように、物理的シミュレーションがどのように因果的に進化するかを説明することを学ぶ。
人間の評価は、ESPRITが重要な微細な細部を生み出し、人間のアノテーションよりも物理的な概念を高い範囲でカバーしていることを示している。
論文 参考訳(メタデータ) (2020-05-02T07:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。