論文の概要: Temporal Common Sense Acquisition with Minimal Supervision
- arxiv url: http://arxiv.org/abs/2005.04304v1
- Date: Fri, 8 May 2020 22:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:45:01.581748
- Title: Temporal Common Sense Acquisition with Minimal Supervision
- Title(参考訳): 極小スーパービジョンによる時間的常識獲得
- Authors: Ben Zhou and Qiang Ning and Daniel Khashabi and Dan Roth
- Abstract要約: この研究は、時間的常識の明示的で暗黙的な言及を活用する新しいシーケンスモデリング手法を提案する。
本手法は,時間的共通感覚の様々な次元の質予測を行う。
また、時間比較、親子関係、イベントコア参照、時間的QAなど、関連するタスクに対するイベントの表現も生成する。
- 参考スコア(独自算出の注目度): 77.8308414884754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal common sense (e.g., duration and frequency of events) is crucial for
understanding natural language. However, its acquisition is challenging, partly
because such information is often not expressed explicitly in text, and human
annotation on such concepts is costly. This work proposes a novel sequence
modeling approach that exploits explicit and implicit mentions of temporal
common sense, extracted from a large corpus, to build TACOLM, a temporal common
sense language model. Our method is shown to give quality predictions of
various dimensions of temporal common sense (on UDST and a newly collected
dataset from RealNews). It also produces representations of events for relevant
tasks such as duration comparison, parent-child relations, event coreference
and temporal QA (on TimeBank, HiEVE and MCTACO) that are better than using the
standard BERT. Thus, it will be an important component of temporal NLP.
- Abstract(参考訳): 時間的常識(例えば、出来事の持続時間と頻度)は自然言語を理解するのに不可欠である。
しかし、そのような情報はテキストで明示的に表現されないことが多く、その概念に対する人間のアノテーションはコストがかかるため、その獲得は困難である。
本研究では,大規模コーパスから抽出された時間的共通感覚の明示的・暗黙的言及を利用して,時間的共通感覚言語モデルであるタコラムを構築する新しいシーケンスモデリング手法を提案する。
提案手法は,時間的共通感覚の様々な次元の質予測(UDSTおよびRealNewsから新たに収集したデータセット)を行う。
また、時間比較、親子関係、イベントコア、時間的QA(TimeBank、HiEVE、MCTACO)といった、標準的なBERTよりも優れたタスクのためのイベントの表現を生成する。
したがって、これは一時的NLPの重要な構成要素となる。
関連論文リスト
- Structured, Complex and Time-complete Temporal Event Forecasting [66.17005554335029]
時間的イベント予測は、歴史で観測された出来事から次に何が起こるかを予測することを目的としている。
それまでの時間的事象の定式化は、非構造的、原子的、あるいは完全な時間的情報が欠如している。
SCTc-TE(Structured, Complex, and Time-complete Temporal Event)の新たな定式化について紹介する。
論文 参考訳(メタデータ) (2023-12-02T07:40:21Z) - Zero-Shot Video Moment Retrieval from Frozen Vision-Language Models [58.17315970207874]
モーメント・テキストアライメントを容易にするため、任意のVLMから一般化可能なビジュアル・テクスチャの事前適応のためのゼロショット手法を提案する。
3つのVMRベンチマークデータセットで実施された実験は、ゼロショットアルゴリズムの顕著なパフォーマンス上の利点を示している。
論文 参考訳(メタデータ) (2023-09-01T13:06:50Z) - An Overview Of Temporal Commonsense Reasoning and Acquisition [20.108317515225504]
時間的コモンセンス推論(英: Temporal Commonsense reasoning)とは、フレーズ、行動、出来事の典型的な時間的文脈を理解する能力である。
大規模言語モデルの性能に関する最近の研究は、しばしば推論においてショートカットを行い、単純な言語トラップに陥ることが示唆されている。
論文 参考訳(メタデータ) (2023-07-28T01:30:15Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - ECOLA: Enhanced Temporal Knowledge Embeddings with Contextualized
Language Representations [35.51427298619691]
テキストデータに埋め込まれた時間的知識の強化について検討する。
文脈型言語表現(ECOLA)を用いた時間的知識埋め込みを提案する。
実験の結果,ECOLAはリンク予測タスクにおいてHits@1に関して最大287%の相対的な改善を施し,時間的埋め込みモデルを大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-03-17T20:08:25Z) - Extracting Temporal Event Relation with Syntactic-Guided Temporal Graph
Transformer [17.850316385809617]
1文または2文の連続文から構築した構文グラフから2つのイベント間の接続を明示的に見つけるための新しい時相グラフトランスフォーマーネットワークを提案する。
MATRES と TB-Dense データセットを用いた実験により,本手法は時間的関係抽出と時間的関係分類の両方において,従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-04-19T19:00:45Z) - Temporal Reasoning on Implicit Events from Distant Supervision [91.20159064951487]
本稿では,暗黙的事象の理解度を評価する新しい時間的推論データセットを提案する。
我々は、暗黙の出来事と明示的な出来事の間の時間的関係を予測する際に、最先端のモデルが苦労していることを発見した。
本稿では,大規模テキストからの遠隔監視信号を利用して終末時刻を推定する,ニューロシンボリックな時間的推論モデルSYMTIMEを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:12:27Z) - Modeling Preconditions in Text with a Crowd-sourced Dataset [17.828175478279654]
本稿では,ニュースワイヤにおけるイベントペア間の事前条件のクラウドソースアノテーションであるPeKoを紹介する。
前提条件のモデル化を目的とした2つの課題タスクも導入する。
両方のタスクの評価は、今日の大規模言語モデルでさえ、事前条件のモデリングが困難であることを示している。
論文 参考訳(メタデータ) (2020-10-06T01:52:34Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。