論文の概要: Severing the Edge Between Before and After: Neural Architectures for
Temporal Ordering of Events
- arxiv url: http://arxiv.org/abs/2004.04295v1
- Date: Wed, 8 Apr 2020 23:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:04:59.566848
- Title: Severing the Edge Between Before and After: Neural Architectures for
Temporal Ordering of Events
- Title(参考訳): 前後のエッジを切断する:イベントの一時的な順序付けのためのニューラルネットワーク
- Authors: Miguel Ballesteros, Rishita Anubhai, Shuai Wang, Nima Pourdamghani,
Yogarshi Vyas, Jie Ma, Parminder Bhatia, Kathleen McKeown, and Yaser
Al-Onaizan
- Abstract要約: 本稿では,時間的関係を予測してイベントを順序付けするためのニューラルネットワークと一連のトレーニング手法を提案する。
このタスクにおける重要な課題は、アノテーション付きデータの不足であることを考えると、当社のモデルは事前訓練された表現や転送、マルチタスク学習のいずれかに依存しています。
英語文書のMATRESデータセットの実験は、このタスクに新たな最先端技術を確立する。
- 参考スコア(独自算出の注目度): 41.35277143634441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a neural architecture and a set of training methods
for ordering events by predicting temporal relations. Our proposed models
receive a pair of events within a span of text as input and they identify
temporal relations (Before, After, Equal, Vague) between them. Given that a key
challenge with this task is the scarcity of annotated data, our models rely on
either pretrained representations (i.e. RoBERTa, BERT or ELMo), transfer and
multi-task learning (by leveraging complementary datasets), and self-training
techniques. Experiments on the MATRES dataset of English documents establish a
new state-of-the-art on this task.
- Abstract(参考訳): 本稿では,時間的関係を予測してイベントを順序付けするためのニューラルネットワークと一連のトレーニング手法を提案する。
提案モデルでは,テキストスパン内の事象を入力として受信し,その間の時間的関係(前,後,等)を識別する。
このタスクにおける重要な課題は、注釈付きデータの不足である。私たちのモデルは、事前訓練された表現(RoBERTa、BERT、ELMo)、転送とマルチタスク学習(補完的なデータセットを活用することで)、自己学習技術のいずれかに依存している。
英語文書のMATRESデータセットの実験は、このタスクに新たな最先端技術を確立する。
関連論文リスト
- Large Language Models as Event Forecasters [10.32127659470566]
人間の出来事の鍵となる要素は、主題、関係、対象、タイムスタンプからなる四重項として抽出される。
これらの四重項または四重項は、特定の領域内で組織化されると、時間知識グラフ(TKG)を形成する。
論文 参考訳(メタデータ) (2024-06-15T04:09:31Z) - Learning to Rank Context for Named Entity Recognition Using a Synthetic Dataset [6.633914491587503]
本稿では,Alpacaを用いた文脈検索学習データセットを提案する。
このデータセットを用いて、NERの関連するコンテキストを見つけることができるBERTモデルに基づいて、ニューラルネットワークコンテキストレトリバーをトレーニングする。
本手法は,40冊の本の第1章からなる英文データセットにおいて,NERタスクの検索ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-16T06:53:12Z) - Multimodal Inverse Cloze Task for Knowledge-based Visual Question
Answering [4.114444605090133]
名前付きエンティティに関する知識に基づく視覚質問応答のための事前学習手法であるMultimodal Inverse Cloze Taskを提案する。
KVQAEは最近導入されたタスクで、知識ベースを使用して視覚的コンテキストに接地された名前付きエンティティに関する質問に答える。
提案手法は異なるニューラルネットワークアーキテクチャに適用可能であり, 9%の相対MRR, 15%の相対F1ゲインが検索および読解に有効である。
論文 参考訳(メタデータ) (2023-01-11T09:16:34Z) - HiTeA: Hierarchical Temporal-Aware Video-Language Pre-training [49.52679453475878]
本稿では,モーメントとテキスト間の相互アライメントをモデル化するための時間対応ビデオ言語事前学習フレームワークHiTeAを提案する。
15の精確なビデオ言語理解と生成タスクに関する最先端の成果を得た。
論文 参考訳(メタデータ) (2022-12-30T04:27:01Z) - Curriculum-Based Self-Training Makes Better Few-Shot Learners for
Data-to-Text Generation [56.98033565736974]
テキスト生成の困難さによって決定される並べ替え順序でラベルのないデータを活用するために,カリキュラムベースの自己学習(CBST)を提案する。
提案手法は、微調整およびタスク適応型事前学習法より優れており、データ・テキスト・ジェネレーションのわずかな設定で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-06T16:11:58Z) - BiTimeBERT: Extending Pre-Trained Language Representations with
Bi-Temporal Information [41.683057041628125]
本稿では,ニュース記事の時間的収集に基づいて学習した新しい言語表現モデルであるBiTimeBERTを紹介する。
実験の結果、BiTimeBERTはBERTや他の既存の事前学習モデルより一貫して優れていた。
論文 参考訳(メタデータ) (2022-04-27T16:20:09Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - Syntax-Enhanced Pre-trained Model [49.1659635460369]
BERTやRoBERTaなどの学習済みモデルを強化するために、テキストの構文構造を活用するという問題を研究する。
既存の手法では、事前学習段階または微調整段階のいずれかでテキストの構文を利用しており、両者の区別に苦しむ。
事前学習と微調整の両方の段階でテキストのシンタックスを利用するモデルを提示する。
論文 参考訳(メタデータ) (2020-12-28T06:48:04Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Modeling Preconditions in Text with a Crowd-sourced Dataset [17.828175478279654]
本稿では,ニュースワイヤにおけるイベントペア間の事前条件のクラウドソースアノテーションであるPeKoを紹介する。
前提条件のモデル化を目的とした2つの課題タスクも導入する。
両方のタスクの評価は、今日の大規模言語モデルでさえ、事前条件のモデリングが困難であることを示している。
論文 参考訳(メタデータ) (2020-10-06T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。