論文の概要: Are All Steps Equally Important? Benchmarking Essentiality Detection of
Events
- arxiv url: http://arxiv.org/abs/2210.04074v2
- Date: Wed, 12 Oct 2022 00:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 11:49:24.963493
- Title: Are All Steps Equally Important? Benchmarking Essentiality Detection of
Events
- Title(参考訳): すべてのステップは平等に重要か?
イベントのベンチマーク基本性検出
- Authors: Hongming Zhang, Yueguan Wang, Yuqian Deng, Haoyu Wang, Muhao Chen, Dan
Roth
- Abstract要約: 我々は、現在のモデルが、目標イベントに向けた異なるステップイベントの本質をいかに理解できるかを調査する。
私たちの研究は、コミュニティガイドサイトWikiHowの高品質な(ゴール、ステップ)ペアのコーパスに貢献しています。
- 参考スコア(独自算出の注目度): 81.60386225008351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language often describes events in different granularities, such that
more coarse-grained (goal) events can often be decomposed into fine-grained
sequences of (step) events. A critical but overlooked challenge in
understanding an event process lies in the fact that the step events are not
equally important to the central goal. In this paper, we seek to fill this gap
by studying how well current models can understand the essentiality of
different step events towards a goal event. As discussed by cognitive studies,
such an ability enables the machine to mimic human's commonsense reasoning
about preconditions and necessary efforts of daily-life tasks. Our work
contributes with a high-quality corpus of (goal, step) pairs from a community
guideline website WikiHow, where the steps are manually annotated with their
essentiality w.r.t. the goal. The high IAA indicates that humans have a
consistent understanding of the events. Despite evaluating various statistical
and massive pre-trained NLU models, we observe that existing SOTA models all
perform drastically behind humans, indicating the need for future investigation
of this crucial yet challenging task.
- Abstract(参考訳): 自然言語は、しばしば異なる粒度のイベントを記述し、より粗い(ゴール)イベントは、しばしば(ステップ)イベントのきめ細かいシーケンスに分解される。
イベントプロセスを理解する上で批判的だが見過ごされている課題は、ステップイベントが中央の目標に対して等しく重要ではないという事実にある。
本稿では,このギャップを,現在のモデルが目標イベントに向けての異なるステップイベントの重要性をいかに理解できるかを検討することによって埋める。
認知研究によって議論されるように、このような能力により、機械は、前提条件と日常生活のタスクに必要な努力について人間の常識を模倣することができる。
私たちの研究は、コミュニティガイドラインwebサイトwikihowから(goal, step)ペアの高品質なコーパスにコントリビュートしています。
高いIAAは、人間が出来事について一貫した理解を持っていることを示している。
様々な統計的、大規模に事前訓練されたNLUモデルを評価するにも拘わらず、既存のSOTAモデルは皆、人間に大きく遅れている。
関連論文リスト
- SAGA: A Participant-specific Examination of Story Alternatives and Goal Applicability for a Deeper Understanding of Complex Events [13.894639630989563]
このような知識は参加者達成レンズを通じて引き出すことができると我々は主張する。
我々は,参加者の意図した成果に基づいて,物語の中の複雑な出来事を分析する。
データセットに微調整された小さなモデルでは、より大きなモデルを上回るパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2024-08-11T14:52:40Z) - Double Mixture: Towards Continual Event Detection from Speech [60.33088725100812]
音声イベント検出は、セマンティックイベントと音響イベントの両方のタグ付けを含むマルチメディア検索に不可欠である。
本稿では, 音声イベント検出における主な課題として, 過去の出来事を忘れることなく新たな事象を連続的に統合すること, 音響イベントからの意味のゆがみについて述べる。
本稿では,適応性を向上し,忘れることを防止するために,音声の専門知識と堅牢な記憶機構を融合する新しい手法「ダブルミキチャー」を提案する。
論文 参考訳(メタデータ) (2024-04-20T06:32:00Z) - Improving Event Definition Following For Zero-Shot Event Detection [66.27883872707523]
ゼロショットイベント検出に対する既存のアプローチは通常、既知のイベントタイプをアノテートしたデータセット上でモデルをトレーニングする。
イベント定義に従うためのトレーニングモデルによるゼロショットイベント検出の改善を目指しています。
論文 参考訳(メタデータ) (2024-03-05T01:46:50Z) - An Ordinal Latent Variable Model of Conflict Intensity [59.49424978353101]
ゴールドスタインスケール(Goldstein scale)は、紛争・協力的なスケールでイベントをスコアする、広く使われている専門家ベースの尺度である。
本稿では、競合強度を測定するために、潜伏変数に基づくアプローチをとる。
論文 参考訳(メタデータ) (2022-10-08T08:59:17Z) - ESTER: A Machine Reading Comprehension Dataset for Event Semantic
Relation Reasoning [49.795767003586235]
イベントセマンティックリレーション推論のための包括的な機械学習理解データセットESTERを紹介します。
もっともよく使われるイベント意味関係を5つ検討し、質問応答タスクとして定式化します。
実験の結果、現在のSOTAシステムは、イベントベースF1、トークンベースF1、HIT@1スコアそれぞれ60.5%、57.8%、76.3%を達成した。
論文 参考訳(メタデータ) (2021-04-16T19:59:26Z) - Visual Goal-Step Inference using wikiHow [29.901908251322684]
目標のステップのサブシーケンスを推測することは、人工知能システムが人間の活動について推論するのに役立ちます。
モデルにテキスト目標を付与し、4つの候補画像の中からその目標に向けての有効なステップを選択する,Visual Goal-Step Inference (VGSI) タスクを提案する。
我々のデータから学んだ知識は、HowTo100Mのような他のデータセットに効果的に転送できることを示し、多重選択の精度を15%から20%向上させる。
論文 参考訳(メタデータ) (2021-04-12T22:20:09Z) - Human in Events: A Large-Scale Benchmark for Human-centric Video
Analysis in Complex Events [106.19047816743988]
我々は、Human-in-Events(Human-in-Events)またはHiEve(HiEve)という、包括的なアノテーションを備えた新しい大規模データセットを提案する。
これには、複雑なイベントにおけるアクションインスタンスの最大数(>56k)と、長時間続くトラジェクトリの最大数(>1M)が含まれている。
多様なアノテーションに基づいて、アクション認識とポーズ推定のための2つのシンプルなベースラインを提示する。
論文 参考訳(メタデータ) (2020-05-09T18:24:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。