論文の概要: LearnDA: Learnable Knowledge-Guided Data Augmentation for Event
Causality Identification
- arxiv url: http://arxiv.org/abs/2106.01649v1
- Date: Thu, 3 Jun 2021 07:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:17:09.524146
- Title: LearnDA: Learnable Knowledge-Guided Data Augmentation for Event
Causality Identification
- Title(参考訳): LearnDA: イベント因果同定のための学習可能な知識ガイド付きデータ拡張
- Authors: Xinyu Zuo, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Weihua Peng and
Yuguang Chen
- Abstract要約: イベント因果同定のためのトレーニングデータ強化のための新しいアプローチを提案する。
我々のアプローチは知識誘導型であり、既存の知識ベースを活用して、十分に整形された新しい文を生成することができる。
一方,本手法では,学習可能な拡張フレームワークである2つのメカニズムを採用し,タスク関連文を生成するための生成プロセスを対話的に調整することができる。
- 参考スコア(独自算出の注目度): 17.77752074834281
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern models for event causality identification (ECI) are mainly based on
supervised learning, which are prone to the data lacking problem.
Unfortunately, the existing NLP-related augmentation methods cannot directly
produce the available data required for this task. To solve the data lacking
problem, we introduce a new approach to augment training data for event
causality identification, by iteratively generating new examples and
classifying event causality in a dual learning framework. On the one hand, our
approach is knowledge-guided, which can leverage existing knowledge bases to
generate well-formed new sentences. On the other hand, our approach employs a
dual mechanism, which is a learnable augmentation framework and can
interactively adjust the generation process to generate task-related sentences.
Experimental results on two benchmarks EventStoryLine and Causal-TimeBank show
that 1) our method can augment suitable task-related training data for ECI; 2)
our method outperforms previous methods on EventStoryLine and Causal-TimeBank
(+2.5 and +2.1 points on F1 value respectively).
- Abstract(参考訳): 事象因果同定(ECI)の現代モデルは、主に教師付き学習に基づいており、データの欠如が問題となっている。
残念ながら、既存のNLP関連の拡張方法は、このタスクに必要なデータを直接生成することはできない。
そこで本研究では,2つの学習フレームワークにおいて,新しい例を反復的に生成し,事象因果関係を分類することにより,事象因果関係識別のための訓練データを強化する新しい手法を提案する。
一方,本手法は知識誘導型であり,既存の知識ベースを生かして良好な文を生成する。
一方,本手法では,学習可能な拡張フレームワークである2つのメカニズムを採用し,タスク関連文を生成するための生成プロセスを対話的に調整することができる。
EventStoryLine と Causal-TimeBank の2つのベンチマークによる実験結果から,1) ECI に適したタスク関連トレーニングデータを拡張できること,2) EventStoryLine と Causal-TimeBank の従来の手法(F1 の値に+2.5 と +2.1 の点)より優れていることが判明した。
関連論文リスト
- Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - Joint Input and Output Coordination for Class-Incremental Learning [84.36763449830812]
本稿では,これらの問題に対処するためのJIOC機構を提案する。
このメカニズムは、出力スコアの勾配に応じて異なるカテゴリのデータに異なる重みを割り当てる。
メモリストレージを使用するさまざまなインクリメンタルな学習アプローチに組み込むことができる。
論文 参考訳(メタデータ) (2024-09-09T13:55:07Z) - A Unified Framework for Continual Learning and Machine Unlearning [9.538733681436836]
継続的学習と機械学習は機械学習において重要な課題であり、通常は別々に対処される。
制御された知識蒸留を活用することによって,両課題に共同で取り組む新しい枠組みを導入する。
我々のアプローチは、最小限の忘れ込みと効果的な標的未学習で効率的な学習を可能にする。
論文 参考訳(メタデータ) (2024-08-21T06:49:59Z) - Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Class-Incremental Few-Shot Event Detection [68.66116956283575]
本稿では,クラスインクリメンタルなイベント検出と呼ばれる新しいタスクを提案する。
このタスクは、古い知識の忘れと新しいクラスオーバーフィットという2つの問題に直面している。
そこで本研究では,Prompt-KDと呼ばれる新しい知識蒸留法と迅速な学習手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T09:31:14Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - Continual Few-shot Relation Learning via Embedding Space Regularization
and Data Augmentation [4.111899441919165]
従来のタスク知識の破滅的な忘れを回避しつつ,ラベル付きデータが少ない新しい関係パターンを学習する必要がある。
埋め込み空間の正規化とデータ拡張に基づく新しい手法を提案する。
提案手法は,新たな数発タスクに一般化し,リレーショナル埋め込みに対する追加制約を課し,自己管理的なデータ追加を行うことにより,過去のタスクの破滅的な忘れを回避している。
論文 参考訳(メタデータ) (2022-03-04T05:19:09Z) - Improving Event Causality Identification via Self-Supervised
Representation Learning on External Causal Statement [17.77752074834281]
イベント因果同定に外部因果文を活用するCauSeRLを提案する。
まず、外部因果文から文脈固有の因果パターンを学習するための自己教師型フレームワークを設計する。
我々は、学習した文脈固有の因果パターンを対象のECIモデルに組み込むために、コントラッシブトランスファー戦略を採用する。
論文 参考訳(メタデータ) (2021-06-03T07:50:50Z) - KnowDis: Knowledge Enhanced Data Augmentation for Event Causality
Detection via Distant Supervision [23.533310981207446]
我々は、KnowDis(KnowDis)と呼ばれる事象因果検出(ECD)のためのデータ拡張フレームワークについて検討する。
KnowDisは、遠隔監視を通じて、ECDの語彙的および因果的コモンセンス知識を補助する、利用可能なトレーニングデータを増強することができる。
提案手法は,トレーニングデータの自動ラベル付けを補助する大規模マージンにより,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T08:44:54Z) - Incremental Learning for End-to-End Automatic Speech Recognition [41.297106772785206]
エンドツーエンド自動音声認識(ASR)のための漸進的学習法を提案する。
本稿では, ASRモデルに対する新しい説明可能性に基づく知識蒸留を設計し, 応答に基づく知識蒸留と組み合わせて, 元のモデルの予測と予測の「理性」を維持する。
多段階連続訓練タスクの結果,提案手法は忘れを緩和する上で,既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T08:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。