論文の概要: Reasoning about Goals, Steps, and Temporal Ordering with WikiHow
- arxiv url: http://arxiv.org/abs/2009.07690v2
- Date: Sat, 12 Dec 2020 15:38:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:53:34.644233
- Title: Reasoning about Goals, Steps, and Temporal Ordering with WikiHow
- Title(参考訳): wikihowによる目標、ステップ、時間順序の推論
- Authors: Li Zhang, Qing Lyu, Chris Callison-Burch
- Abstract要約: 本稿では,手続き的イベント間の2種類の関係を推論する一連のタスクを提案する。
wikiHowに基づいて,これらの2つの関係をターゲットとしたデータセットを提案する。
人間の検証テストセットは、コモンセンス推論の信頼性の高いベンチマークとして役立ちます。
- 参考スコア(独自算出の注目度): 28.28719498563396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a suite of reasoning tasks on two types of relations between
procedural events: goal-step relations ("learn poses" is a step in the larger
goal of "doing yoga") and step-step temporal relations ("buy a yoga mat"
typically precedes "learn poses"). We introduce a dataset targeting these two
relations based on wikiHow, a website of instructional how-to articles. Our
human-validated test set serves as a reliable benchmark for commonsense
inference, with a gap of about 10% to 20% between the performance of
state-of-the-art transformer models and human performance. Our
automatically-generated training set allows models to effectively transfer to
out-of-domain tasks requiring knowledge of procedural events, with greatly
improved performances on SWAG, Snips, and the Story Cloze Test in zero- and
few-shot settings.
- Abstract(参考訳): 手続き的事象の2種類の関係に関する一連の推論タスクを提案する。ゴール-ステップ関係("learn pose"は"doing yoga"のより大きな目標へのステップである)とステップ-ステップ時間関係("buy a yoga mat"は一般的に"learn pose"に先行する)である。
本稿では,これらの2つの関係を対象とするデータセットについて紹介する。
我々の評価テストセットは、最先端トランスフォーマーモデルの性能と人間のパフォーマンスとの間に約10%から20%の差があり、コモンセンス推論の信頼性の高いベンチマークとして機能する。
我々の自動生成されたトレーニングセットは、SWAG、Snips、Story Cloze Testをゼロおよび少数ショットで大幅に改善し、手続き的なイベントの知識を必要とするドメイン外のタスクに効果的に移行できます。
関連論文リスト
- Revisiting the Superficial Alignment Hypothesis [0.9831489366502302]
表面アライメント仮説(英語版)は、言語モデルの能力と知識のほとんど全てが事前訓練中に学習されていることを示唆している。
我々はこれらの主張を再検討し、微調整例の増加とともにポストトレーニングのスケーリング行動を研究する。
論文 参考訳(メタデータ) (2024-09-27T22:14:10Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Best Practices for 2-Body Pose Forecasting [58.661899246497896]
我々は、人間のポーズ予測の進捗状況を概観し、最善を尽くす一対一の実践を詳細に評価する。
他の1人のプラクティスは2体に移行しないため、提案されているベストプラクティスは階層的なボディモデリングや注目に基づくインタラクションエンコーディングは含まない。
提案した2体ポーズによるベストプラクティス予測では,最新のExPIデータセットのパフォーマンスが21.9%向上した。
論文 参考訳(メタデータ) (2023-04-12T10:46:23Z) - Are All Steps Equally Important? Benchmarking Essentiality Detection of
Events [92.92425231146433]
本稿では,現在のモデルが目標イベントに関連するステップイベントの本質をどの程度理解しているかについて検討する。
コミュニティガイドサイトWikiHowから収集した高品質なペア(ゴール,ステップ)コーパスをコントリビュートする。
高いアノテータ間の合意は、人間が事象の本質について一貫した理解を持っていることを証明している。
論文 参考訳(メタデータ) (2022-10-08T18:00:22Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - Exploring Task Difficulty for Few-Shot Relation Extraction [22.585574542329677]
Few-shot Relation extract (FSRE) は、わずかに注釈付きインスタンスで学習することで、新しい関係を認識することに焦点を当てている。
本稿では,関係ラベル情報を活用することで,より良い表現を学習するコントラスト学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-12T09:40:33Z) - Improving Tree-Structured Decoder Training for Code Generation via
Mutual Learning [27.080718377956693]
コード生成は、入力された自然言語の発話に与えられたコードを自動的に生成することを目的としている。
まず、異なるデコードを持つニューラルコード生成モデル間のコンテキストモデリングの違いを網羅的に分析する。
本稿では,これらのモデルを協調的に学習するための相互学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T08:44:13Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。